Organização de Computadores 2005/2006 Processamento Paralelo
|
|
- Davi Pacheco de Paiva
- 5 Há anos
- Visualizações:
Transcrição
1 GoBack
2 Organização de Computadores 2005/2006 Processamento Paralelo Paulo Ferreira paf a dei.isep.ipp.pt Maio de 2006 ORGC Processamento Paralelo slide 1
3 Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 2
4 Porquê? Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Uma forma de conseguir mais performance. Se um boi lavra um campo, porque não 40 galinhas? Porque não 40 bois, mais depressa? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 3
5 Definição de computação paralela Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Um conjunto de elementos de processamento que cooperam para resolver problemas grandes de uma forma rápida. E que problemas temos de resolver? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 4
6 Alocação de recursos Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Qual o número de elementos? Qual a performance dos elementos? Quantidade de memória? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 5
7 Acesso aos dados, comunicação e sincronização Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Como é que os elementos cooperam e comunicam? Como é que os dados são transmitidos entre processadores? Que primitivas e abstrações existem para a cooperação? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 6
8 Performance e escalabilidade Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Como é que isto se traduz em termos de performance? E em termos de escalabilidade? Escalabilidade quer dizer aumento de performance com o aumento do n o de elementos. Hoje em dia História História ORGC Processamento Paralelo slide 7
9 Hoje em dia Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia Microprocessadores de elevada performance Microprocessadores mais baratos Paralelismo ao nível da instrução já existe. Passo seguinte: Computação paralela História História ORGC Processamento Paralelo slide 8
10 História Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia História História Processadores de 4, 8, 16, 32, 64 bits Uma unidade de execução, várias unidades de execução Passo seguinte? Vários processadores? Vários processos por processador? VLIW? ORGC Processamento Paralelo slide 9
11 História Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia História História Processadores de 4, 8, 16, 32, 64 bits Uma unidade de execução, várias unidades de execução Passo seguinte? Vários processadores? Vários processos por processador? VLIW? Já há: Hyperthreading (Intel) Dual Core (Intel+AMD) 8 Cores * 4 threads (Sun Ultra Sparc T1) ORGC Processamento Paralelo slide 9
12 História Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Modelos divergentes Modelo de programação = Primitivas de comunicação = o que existia no hardware Hoje em dia já há mais flexibilidade Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 10
13 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 11
14 Hardware de comunicações Escalabilidade não uniforme Interligação Mais simples Vários processadores partilham a mesma memória Parecido com o time-sharing nos S.O. multitarefa Extensão dos modelos de programação multitarefa (processos processadores) Arquitectura menos estranha relativamente ao normal Cuidado: Acesso à memória uniforme ou não? Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 12
15 m m m m Hardware de comunicações s i O d vc e I / e Hardware de comunicações M e M e M e M e l t r O c I / l t r O c I / Escalabilidade t e rc I n t ec n on t e rc I n t ec n on não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) or s P r o c e or s P r o c e ORGC Processamento Paralelo slide 13
16 Hardware de comunicações Escalabilidade não uniforme Estilo mainframe Uso de um crossbar Switch que permite a ligação simultânea entre p processadores e m memórias Vantagens: Performance Desvantagens: Custo Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 14
17 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 15
18 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados (estilo PC) Partilha de um bus de acesso a memória por todos os processadores SMP Simmetric MultiProcessing Vantagens: Custo Desvantagens: Performance A largura de banda do barramento é partilhada por todos os processadores. Caches: problema da coerência? Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 16
19 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 17
20 Escalabilidade Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 18
21 não uniforme Hardware de comunicações NUMA Non Uniform Memory Access Cada processador tem a sua memória Todos os processadores acedem à memória dos outros, pela interligação Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 19
22 Interligação Hardware de comunicações Em bus? Em rede? Em switch Coisas novas Hypertransport Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 20
23 01 1 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) 0 01 ORGC Processamento Paralelo slide 21
24 Message passing Hardware de comunicações Escalabilidade não uniforme Entre os processadores circulam mensagens Originalmente implementação em hardware Mais flexível em software Muitos overheads Programação simples Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 22
25 Paralelismo de dados Hardware de comunicações Escalabilidade não uniforme Interligação SIMD Single Instruction Multiple Data processamento de vectores e matrizes As operações são feitas em paralelo em cada elemento da estrutura de dados. Existe apenas uma instrução para todos os processadores Um processador por elemento da estrutura de dados Processador: recebe instrução, executa instrução Processador de controle: lê programa e envia instruções para os outros Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 23
26 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 24
27 Dataflow Hardware de comunicações Implementar em hardware as expressões matemáticas Cada operação é implementada num nó. Cada nó recebe os operandos e envia o resultado Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 25
28 b 1 e c + a = d D a g r w a k N f m a g r k N it e M h f g n hi c e u e u q k N Hardware de comunicações ) c b ( ) 1 + b ( f = e c d = d a fl a o t a h p Escalabilidade não uniforme r wo t e Interligação Message passing Paralelismo de dados Dataflow n e k T o e r t so Arquitecturas sistólicas g n i a W s n I n ito t r uc m r F o r wo t e Resumo (memória partilhada) t a c t e Resumo (outros) r wo t e E x c e n e k t o n e k T o t u P ro e r t so ORGC Processamento Paralelo slide 26
29 Arquitecturas sistólicas Hardware de comunicações Escalabilidade não uniforme Interligação Pipeline de elementos de processamento Diferente de dataflow porque cada elemento tem (pode ter) programa local, e memória local Motivação inicial: VLSI permite chips de baixo custo Ligar diferentes chips para fazer um algoritmo Poupar na largura de banda do acesso à memória Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 27
30 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 28
31 Resumo (memória partilhada) Hardware de comunicações Escalabilidade não uniforme Interligação UMA (mesma memória para todos) Bus (aka SMP) PCs Rede Crossbar Mainframes NUMA (cada processador tem uma memória mais sua) Interligação pode ser de vários tipos Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 29
32 Resumo (outros) Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Paralelismo de dados extensões SIMD dos processadores actuais Message passing entre computadores diferentes é o mais fácil DataFlow e arquitecturas sistólicas Naming: como se acedem aos dados? só se estivermos a fazer hardware Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 30
33 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 31
34 Problemas fundamentais Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming: como se referenciam os dados partilhados Operações: que operações são permitidas nesses dados Ordenamento: como são coordenados e ordenados os acessos Replicação: como os dados são (ou não) copiados Custo das comunicações: Latência, largura de banda, overhead, ocupação do canal Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 32
35 Modelo de programação sequencial Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Naming: Espaço de endereços virtual Hardware (e compiladores) fazem tradução Operações: Leituras e escritas Ordenamento: Ordem sequencial do programa Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 33
36 Performance (programação sequencial) Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Dependências baseadas em referências feitas a variáveis. Compiladores e hardware desrespeitam as ordens Compilador: reordenamento e alocação de registos Hardware: execução fora de ordem Caches: replicação transparente Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 34
37 Modelo de memória partilhada Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Naming: Qualquer processo usa a memória Operações: R/W mais as necessárias para ordenação Modelo mais simples de Ordenação: Dentro de um processo: ordem sequencial Entre processos: concorrência Podemos ter sincronização Compiladores e hardware não cumprem as ordens Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 35
38 Sincronização Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Exclusão Mútua Locks Assegurar que certas operações em certos dados são feitas apenas por um processo de cada vez Não dá garantias nenhumas de ordenação Sincronização de eventos Ordenar os eventos para salvaguardar dependências ex: produtor consumidor 3 tipos principais ponto a ponto global grupo ORGC Processamento Paralelo slide 36
39 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Naming: Apenas dos dados privados (não existem dados partilhados) Operações: send e receive send: dados privados são copiados para outro processo receive: dados do processo são copiados para memória Temos obrigatoriamente nomes para os processos Ordenação: Ordem normal dentro de um processo send e receive podem fazer sincronismo ponto a ponto Exclusão mútua garantida Podemos construir endereços globais Process Id + endereço dentro do processo Mas não teremos operações directas nesses endereços ORGC Processamento Paralelo slide 37
40 Naming e Operações Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Existindo no modelo de programação podem ser suportadas: Directamente pelo hardware Pelo sistema operativo Por bibliotecas Pelo compilador Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 38
41 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização no modelo de programação Hardware tem memória físicamente partilhada Suporte directo pelo hardware Hardware tem memórias independentes pode ser feita pelo sistema operativo Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Pode ser feita pelo compilador/bibliotecas ORGC Processamento Paralelo slide 39
42 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Message passing Suporte directo pelo hardware mais flexível com matching e buffering Suporte pelo S.O. ou acima Hardware faz o transporte Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Send/Receive em SW (protecção,buffering) S.O.: custo das chamadas ao S.O. ORGC Processamento Paralelo slide 40
43 Ordenação Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Não existe nenhuma ordenação exceptuando aquela que é imposta pelos pares send/receive Importante e subtil Uniprocessadores fazem reordenação para ganhar paralelismo ou localidade Estes truques são mais importantes em multiprocessadores Quais são os truques que continuam a ser válidos? Quais são os novos truques? ORGC Processamento Paralelo slide 41
44 Replicação Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Importante para reduzir transferência de dados/comunicação Depende do modelo de naming Uniprocessador: automática Message passing: a replicação tem de estar explícita no SW : problema da coerência das caches Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 42
45 Comunicação Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Performance determina o uso das operações Três características fundamentais: Latência: tempo necessário para o início Largura de Banda: Velocidade de transferência Custo: Tempo de CPU necessário Erros normais: Não contar com a latência Não contar com a possibilidade de overlap Redes de interconexão ORGC Processamento Paralelo slide 43
46 Redes de interconexão Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Cada vez mais importantes: Entre computadores Entre chips (Interconnection Networks) Intra chips Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 44
47 Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento ORGC Processamento Paralelo slide 45
48 Lei de Amdahl Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento Um programa tem uma percentagem do seu tempo total de execução série S e o resto do tempo de execução é paralelizável P. Se o total do tempo de programa é 100% então o tempo total é igual a 1, o que implica que 1 = P + S ou de outra forma P = 1 S. Temos assim que o tempo normal de execução será igual a S + (1 S). Se pusermos N processadores a trabalhar na parte paralela e o tempo de execução da parte paralela diminuir de uma forma ideal o tempo de execução será igual a S + (1 S) N. Se N for infinito, então o tempo de execução será apenas de S. Logo o aumento de performance que teremos será o inverso dos tempos ou (S+(1 S)) S o que dá 1 S, isto supondo que a paralelização é perfeita. ORGC Processamento Paralelo slide 46
49 Decomposição Lei de Amdahl A partir de um programa sequencial gerar tarefas O que é uma tarefa: parte do trabalho global que é processada sequencialmente. Muitas ou poucas tarefas? Decomposição Atribuição Orquestração Mapeamento ORGC Processamento Paralelo slide 47
50 Atribuição Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento Atribuir (distribuir) tarefas pelos processos. O que é um processo: entidade que executa as tarefas, tem a obrigação de comunicar com os outros processos para executar as tarefas. Atribuição estática ou dinâmica? Vantagens e desvantagens? Se for dinâmica temos uma fila de tarefas global ou uma fila por processo? Vantagens e desvantagens? ORGC Processamento Paralelo slide 48
51 Orquestração Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento Objectivo: estruturar a comunicação e o acesso aos dados. Que comunicacão vai haver entre que processos? Reduzir os custos da comunicação. Escalonar as tarefas correctamente. Depende muito das primitivas oferecidas e do tipo de comunicação. Depende de onde (em que processo) pomos os dados. ORGC Processamento Paralelo slide 49
52 Mapeamento Lei de Amdahl Decomposição Atribuição Atribuir processos aos processadores. Mais simples e usual: cada processo tem o seu processador. Normalmente o utilizador pode especificar a sua intenção mas o sistema operativo pode decidir de outra maneira. Orquestração Mapeamento ORGC Processamento Paralelo slide 50
Organização de Computadores 2005/2006 Processamento Paralelo
Organização de Computadores 2005/2006 Processamento Paralelo Paulo Ferreira paf a dei.isep.ipp.pt Maio de 2006 Introdução 2 Porquê?...........................................................................................
Leia maisIntrodução à Computação: Sistemas de Computação
Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,
Leia maisspeedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado
Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos
Leia maisUniversidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD
Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de
Leia maisArquitetura de Computadores. Processamento Paralelo
Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple
Leia maisOrganização de Computadores II. Arquiteturas MIMD
Organização de Computadores II Arquiteturas MIMD Arquiteturas UMA Arquiteturas com memória única global. Tempo de acesso uniforme para todos os nós de processamento. Nós de processamento e memória interconectados
Leia maisProgramação Distribuída e Paralela. Jorge Barbosa
Programação Distribuída e Paralela Jorge Barbosa 1 Máquinas Paralelas Processadores Memória Rede de interligação Classificação das máquinas paralelas 2 Processador Escalar Processadores Processador que
Leia maisBacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór
Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von
Leia maisCaracterização de Sistemas Distribuídos
Caracterização de Sistemas Distribuídos Roteiro Conceitos de Hardware Conceitos de Software Classificação de Flynn Classificação baseada no acesso a memória 2 Conceitos de HW Múltiplas CPUs Diferentes
Leia maisComputadores e Programação (DCC/UFRJ)
Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo
Leia maisMultiprogramação leve em arquiteturas multi-core
Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação
Leia maisMultiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011
Multiprocessamento Patterson & Hennessy Capítulo 9 Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Tópicos Abordados Tipos comuns SMP (processamento paralelo) NUMA (placas de alto
Leia maisAULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação MULTIPROCESSADORES
Leia mais30/5/2011. Sistemas computacionais para processamento paralelo e distribuído
Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento
Leia maisSistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro
Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador
Leia maisCarlos Eduardo Batista Centro de Informática - UFPB
Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por
Leia maisAULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
Leia maisArquitetura de Computadores
Arquitetura de Computadores 2018.1 Relembrando... Paralelismo Relembrando... Paralelismo Paralelismo em Instrução Relembrando... Paralelismo Paralelismo em Instrução Paralelismo em Aritmética Relembrando...
Leia maisSSC0611 Arquitetura de Computadores
SSC0611 Arquitetura de Computadores 20ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Arquiteturas MIMD As arquiteturas MIMD dividem-se
Leia maisProgramação de Alto Desempenho - 2. Prof: Carla Osthoff
Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: osthoff@lncc.br 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda
Leia maisIntrodução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Leia maisSSC510 Arquitetura de Computadores. 6ª aula
SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas
Leia maisOrganização e Arquitetura de Computadores I
Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Unidade Acadêmica de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de
Leia maisProgramação de Sistemas em Tempo Real
BCC722 Programação de Sistemas em Tempo Real Processos Prof. Charles Garrocho O conceito de processo Um S.O. executa uma variedade de programas Sistemas de tempo compartilhado: programas Processo: um programa
Leia maisPROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register
PROCESSADORES Um computador digital consiste em um sistema interconectado de processadores, memória e dispositivos de entrada e saída. A CPU é o cérebro do computador. Sua função é executar programas armazenados
Leia maisCOMPUTADORES. Arquiteturas de Computadores Paralelos. Prof.: Agostinho S. Riofrio
PROJETO LÓGICO DE COMPUTADORES Arquiteturas de Computadores Paralelos l Prof.: Agostinho S. Riofrio Agenda 1. Introdução 2. Memória Virtual 3. Paginação 4. Segmentação 5. Instruçoes virtuais de E/S 6.
Leia maisLinguagem de Programação II
Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB bidu@ci.ufpb.br Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes
Leia maisArquiteturas de Sistemas de Processamento Paralelo. Arquiteturas MIMD
Universidade Federal do Rio de Janeiro Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquiteturas de Sistemas de Processamento Paralelo Arquiteturas MIMD Arquiteturas MIMD com Memória Distribuída MIMD
Leia maisSistema Distribuído. Sistema Distribuído. Aplicações Distribuídas. Conceitos Básicos
Sistema Distribuído Conjunto de máquinas (CPU + memória) interligadas em rede. Sistema Distribuído Sistema operacional distribuído trata este conjunto como um único sistema computacional. Estação 1 Estação
Leia maisMicroarquiteturas Avançadas
Universidade Federal do Rio de Janeiro Arquitetura de Computadores I Microarquiteturas Avançadas Gabriel P. Silva Introdução As arquiteturas dos processadores têm evoluído ao longo dos anos, e junto com
Leia maisNome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo?
ANO LETIVO 2018/2019 FICHA DE AVALIAÇÃO DE ARQUITETURA DE COMPUTADORES Módulo Nº: 4 Data: 14/03/20189 Tipo de Prova: Teórica Classificação: O Docente: (Rafael Henriques) Nome: N.º Ano: Turma: Turno: Leia
Leia maisProcessamento Paralelo
Processamento Paralelo por Helcio Wagner da Silva Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários
Leia maisModelo de Von Neumann
1 Modelo de Von Neumann Memória UC ALU Entrada Saída ACC 2 Arquitetura de Von Neumann 3 O Computador 4 Processador Microprocessadores São processadores contidos em um único encapsulamento (CI). Microcontroladores
Leia maisARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2011-2 Visão Geral 1 2 3 4 Introdução Arquitetura SMP Organização SMP Processamento Vetorial
Leia maisARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-1 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito
Leia maisArquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização
Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 1 Introdução Arquitetura e Organização 1. Arquitetura
Leia maisConcorrência em Processos
Concorrência em Processos Anderson L. S. Moreira anderson.moreira@recife.ifpe.edu.br http://dase.ifpe.edu.br/~alsm Baseado nas aulas do professor Alberto Costa Neto da UFS 1 O que fazer com essa apresentação
Leia maisSistemas Distribuídos
Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,
Leia maisARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-2 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito
Leia maisBarramento. Prof. Leonardo Barreto Campos 1
Barramento Prof. Leonardo Barreto Campos 1 Sumário Introdução; Componentes do Computador; Funções dos Computadores; Estrutura de Interconexão; Interconexão de Barramentos Elementos de projeto de barramento;
Leia maisDesafios do Mapeamento de Processos em Arquiteturas Many-Core
Desafios do Mapeamento de Processos em Arquiteturas Many-Core Professor: Philippe O. A. Navaux Instituto de Informática - UFRGS Escola Regional de Alto Desempenho São Paulo 1 Indíce Evolução dos Processadores
Leia maisArquiteturas Paralelas
Arquiteturas Paralelas Arquiteturas Paralelas Graduação em Ciência da Computação Universidade do Vale do Rio dos Sinos Prof. Gerson Cavalheiro Programação Paralela e Distribuída 2006 CC / UNISINOS Classificação
Leia maisArquitetura de Microprocessadores
Arquitetura de Computadores UNIDADE 4 Arquitetura de Microprocessadores Aula nº 15 e 16 1º Período Ano letivo 2017/2018 Lição nº 15 e 16 15-01-2019 O CPU (continuação) Registos internos; BUS interno Vs
Leia maisSISTEMAS DISTRIBUÍDOS
INTRODUÇÃO SISTEMAS DISTRIBUÍDOS Até meados dos anos 80 as máquinas eram grandes e caras; A maioria das empresas tinham equipamentos que operavam de forma independente por falta de uma forma confiável
Leia maisArquiteturas de Sistemas de Processamento Paralelo. Arquiteturas SIMD
Universidade Federal do Rio de Janeiro Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquiteturas de Sistemas de Processamento Paralelo Arquiteturas SIMD Arquiteturas SIMD Processadores Vetoriais Arquiteturas
Leia maisOrganização de Sistemas de Computadores
Organização de Sistemas de Computadores Cap. 2 (Tanenbaum), Cap. 3 (Weber) 2.1 Processadores 1 CPU UC = buscar instruções na memória principal e determinar o seu tipo ULA = adição e AND Registradores =
Leia maisArquiteturas de Computadores
Arquiteturas de Computadores Computadores vetoriais Fontes dos slides: Livro Patterson e Hennessy, Quantitative Approach e site do curso EE 7722, GPU Microarchitecture do Prof. David Koppelman Graphical
Leia maisSSC PROGRAMAÇÃO CONCORRENTE. Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella
SSC- 0143 PROGRAMAÇÃO CONCORRENTE Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados
Leia maisParalelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core
RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:
Leia maisSIST706 Sistemas Distribuídos
Slide02 Arquiteturas de SD SIST706 Sistemas Distribuídos 2013/1 Prof. Jéfer Benedett Dörr @: prof.jefer@gmail.com profjefer.wordpress.com Notícias Cultura Livre Fontes de Notícias itil LPI Transistores:
Leia maisArquitectura de Computadores (ACom)
Arquitectura de Computadores (ACom) MEAer Acetatos das Aulas Teóricas Versão 4.0 - Português Aula N o 20: Título: Sumário: Sistema de primária (ciclo de acesso, memória estática, memória dinâmica, planos
Leia maisAOC II - Arquitetura e Organização de Computadores Prof. Dr. rer. nat. Daniel Duarte Abdala. Lista de Exercícios
Lista de Exercícios PIPELINING 1. Qual a vantagem que a utilização da técnica de pipelining traz em relação a arquitetura MIPS-Multiciclo estudada em aula? Descreva textualmente. 2. Embora o desempenho
Leia maisInfraestrutura de Hardware. Melhorando Desempenho de Pipeline Processadores Superpipeline, Superescalares, VLIW
Infraestrutura de Hardware Melhorando Desempenho de Pipeline Processadores Superpipeline, Superescalares, VLIW Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem
Leia maisIntrodução (hardware) INTRODUÇÃO Hardware. Introdução (hardware) Introdução (hardware) Introdução (hardware) Introdução (hardware)
Hardware Taxonomia de hardware (Flynn 1972) SISD: single instruction single data computadores com um processador SID: single instruction multiple data array de processadores (alguns supercomputadores)
Leia maisSistemas Distribuídos
Sistemas Distribuídos Thaís Vasconcelos Batista UFRN DIMAp http://www.dimap.ufrn.br/~thais thais@ufrnet.br Programa do Curso INTRODUÇÃO Conceitos Básicos Sistemas em Rede X Sistemas Distribuídos Necessidade
Leia maisArquitetura de Computadores
Arquitetura de Computadores 2018.1 Relembrando... Memória Virtual Relembrando... Memória Virtual Proteção de Memória Relembrando... Memória Virtual Proteção de Memória TLB Relembrando... Memória Virtual
Leia maisSSC0510 Arquitetura de Computadores
SSC0510 Arquitetura de Computadores 11ª Aula Paralelismo Avançado em Nível de Instrução e em Nível de Tarefas (Threads) Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Tipos de Paralelismo BLP: Bit Level
Leia maisSistemas Operacionais. Adão de Melo Neto
Sistemas Operacionais Adão de Melo Neto 1 Computador Digital (Hardware) 2 Computador Digital Constituído por um conjunto de componentes interligados (hardware): processadores, memórias, registradores,
Leia maisProf. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h
Pipelining Avançado Prof. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h Introdução A técnica de pipelining explora o paralelismo entre as instruções Paralelismo em Nível de Instrução (ILP). Métodos
Leia maisBibliografia em processamento paralelo
Bibliografia em processamento paralelo Andrews, Concurrent Programming: Principles and Practice Foster, Designing and Building Parallel Programs Wolfe, High Performance Compilers for Parallel Computing
Leia maisSSC510 Arquitetura de Computadores. 7ª aula
SSC510 Arquitetura de Computadores 7ª aula ARQUITETURAS SIMD PROFA. SARITA MAZZINI BRUSCHI Arquiteturas SIMD Um único fluxo de dados, vários fluxos de intruções Tipos de arquiteturas Processadores Vetorais
Leia maisOrganização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores
Ciência da Computação Arq. e Org. de Computadores Processadores Prof. Sergio Ribeiro Composição básica de um computador eletrônico digital: Processador Memória Memória Principal Memória Secundária Dispositivos
Leia maisBreve Introdução aos Sistemas Operativos. Disciplina de Informática PEUS, U.Porto
Breve Introdução aos Sistemas Operativos Disciplina de Informática PEUS, 2006 - U.Porto Definição de Sistema Operativo Um programa que funciona como intermediário entre o utilizador do computador e os
Leia maisProgramação Concorrente
INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC lau.lung@inf.ufsc.br Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica
Leia maisSSC0611 Arquitetura de Computadores
SSC0611 Arquitetura de Computadores 17ª Aula Paralelismos nível de tarefas Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Paralelismo no nível de tarefas Paralelismo a nível de thread (TLP Thread-Level
Leia maisArquitetura de Sistemas Operativos
Arquitetura de Sistemas Operativos Sistemas Operativos 2011/2012 1 Introdução Gestão de Programas Introdução Os sistemas operativos gerem um conjunto de funções básicas que têm evoluído ao longo dos tempos.
Leia maisINTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL
INTRODUÇÃO À TECNOLOGIA DA ORGANIZAÇÃO COMPUTACIONAL PROFESSOR CARLOS MUNIZ ORGANIZAÇÃO DE UM COMPUTADOR TÍPICO Memória: Armazena dados e programas Processador (CPU - Central Processing Unit): Executa
Leia maisHardware: Componentes Básicos. Sistema de Computador Pessoal. Anatomia de um Teclado. Estrutura do Computador. Arquitetura e Organização
Hardware: Componentes Básicos Arquitetura dos Computadores Dispositivos de Entrada Processamento Dispositivos de Saída Armazenamento Marco Antonio Montebello Júnior marco.antonio@aes.edu.br Sistema de
Leia maisArquitetura de computadores
Arquitetura de computadores Arquitetura de Microprocessadores Curso Profissional de Técnico de Gestão e Programação de Sistemas Memória Cache Volátil; Memória RAM Volátil; Memória ROM Não volátil. Articulação
Leia maisParadigmas de Computação
UCE- Computação Paralela e Distribuída Paradigmas de Computação João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... http://alba.di.uminho.pt/... 1 Paradigmas de Computação paralela Resultados da Aprendizagem
Leia maisSistemas Operacionais Distribuídos
Sistemas Operacionais Distribuídos Introdução O uso de redes locais e da Internet está amplamente difundido mesmo para uso doméstico. Mas para que tais recursos físicos sejam aproveitados da melhor forma
Leia mais3 Computação de Propósito Geral em Unidades de Processamento Gráfico
3 Computação de Propósito Geral em Unidades de Processamento Gráfico As Unidades de Processamento Gráfico (GPUs) foram originalmente desenvolvidas para o processamento de gráficos e eram difíceis de programar.
Leia maisORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação
Leia maisOrganização de Computadores 2005/2006 Barramentos e Processadores
Organização de Computadores 2005/2006 Barramentos e Processadores Paulo Ferreira paf a dei.isep.ipp.pt Março de 2006 Barramentos 2 Definição..........................................................................................
Leia maisArquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano. Desenvolvimento de Aplicações Paralelas
Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano Desenvolvimento de Aplicações Paralelas (gec.di.uminho.pt/lesi/ap10203/aula06aplicaçõespar.pdf) João Luís Ferreira Sobral Departamento
Leia maisFerramentas para Programação em Processadores Multi-Core
Ferramentas para Programação em Processadores Multi- Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Introdução Programação multithread Ferramentas de programação Prática
Leia maisGestão de memória - Memory Management Unit (MMU)
Gestão de memória - Memory Management Unit (MMU) A distinção entre espaço de edereçamento virtual e espaço de endereçamento físico é fundamental na eficiente gestão do recurso memória física (RAM) por
Leia maisSistemas de Troca de Mensagens
Universidade Federal do Rio de Janeiro Programa de Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquitetura de Sistemas Paralelos Sistemas de Troca de Mensagens Sistemas de Comunicação O Sistema de Comunicação
Leia maisARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PROF. DEJAIR PRIEBE
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PROF. DEJAIR PRIEBE PROCESSADOR A função de um computador é executar tarefas com a finalidade de resolver problemas. Uma tarefa pode ser executada por meio de
Leia maisORGANIZAÇÃO DE COMPUTADORES
Organização de Computadores ORGANIZAÇÃO DE COMPUTADORES Curso: Tecnologia em Gestão da Tecnologia da Informação Ano: 2011 Conhecida como Processador ou é o cerebro do computador Unifica todo sistema e
Leia maisArquiteturas paralelas Parte 1
Arquiteturas paralelas Parte 1 Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade Federal do Espírito
Leia maisArquitetura de Um Computador
Arquitetura de Um Computador José Costa Introdução à Arquitetura de Computadores Departamento de Engenharia Informática (DEI) Instituto Superior Técnico 2013-09-20 José Costa (DEI/IST) Arquitetura de Um
Leia maisModelo de Programação Paralela
Modelo de Programação Paralela As arquiteturas paralelas e distribuídas possuem muitos detalhes Como especificar uma solução paralela pensando em todos esses detalhes? O que queremos? Eecutar a solução
Leia maisIntrodução aos Sistemas Distribuídos
Introdução aos Sistemas Distribuídos Prof. Leonardo Barreto Campos http://sites.google.com/sitew/leonardobcampos 1/29 Sumário Ementa; Bibliografia Calendário Site Introdução Características http://sites.google.com/sitew/leonardobcampos
Leia maisDisciplina de Arquitetura de Computadores
USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/
Leia maisCURSO TÉCNICO EM INFORMÁTICA
1 CURSO TÉCNICO EM INFORMÁTICA Montagem e Manutenção de Computadores Prof.: Denis Willian de Moura Diniz PROCESSADORES PARTE II 2 ULA UNIDADE LÓGICA E ARITMÉTICA A ULA - Arithmetic Logic Unit - que em
Leia maisBarramentos internos/externos
Barramentos Uma das características principais de um processador são os seus barramentos. Os barramentos são auto-estradas por onde circula a informação, seja no interior do CPU ou do interior para o exterior,
Leia maisMicroprocessadores. Artur Moreira 11ºM1 Nº 4
Microprocessadores Artur Moreira 11ºM1 Nº 4 O que são microprocessadores? Estes dispositivos são fabricados através da nanotecnologia e servem essencialmente para executar as tarefas de um computador e
Leia maisSISTEMAS OPERACIONAIS
SISTEMAS OPERACIONAIS Introdução a Sistemas Operacionais Andreza Leite andreza.leite@univasf.edu.br Plano de Aula Introdução aos Sistemas Operacionais Fundamentação Teórica Evolução Histórica Características
Leia maisParte I Multiprocessamento
Sistemas Operacionais I Estrutura dos SO Prof. Gregorio Perez gregorio@uninove.br 2004 Parte I Multiprocessamento Roteiro 1 Multiprocessadores em Sistemas Fortemente Acoplados 1.1 1.2 1.3 Processamento
Leia maisMicroprocessadores. Sistemas de Entrada / Saída
Sistemas de Entrada / Saída António M. Gonçalves Pinheiro Departamento de Física Covilhã - Portugal pinheiro@ubi.pt Modos de transferência de informação entre µprocessador e sistemas de Entrada/Saída.
Leia maisTecnologias de Distribuição e Integração. Quais as preocupações a ter com um sistema distribuído?
network link: Tecnologias de Distribuição e Integração ISP intranet backbone desktop computer: server: satellite link no interior de uma organização (intranet) clientes externos entre organizações 2 Quais
Leia maisSparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile?
Sparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile? Paula Prata João Muranho Instituto de Telecomunicações Departamento de Informática Universidade da Beira Interior Instituto
Leia maisConcorrência. Sistemas Distribuídos e Tolerância a Falhas. Lia Ribeiro 1
Concorrência Sistemas Distribuídos e Tolerância a Falhas Lia Ribeiro 1 Índice Consistência Atómica e sequencial Serializability Controle de concorrência One copy Serializability 2 Exclusão Mútua Técnica
Leia maisARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio
ARQUITETURA DE COMPUTADORES Organização de Sistemas Computacionais Prof.: Agostinho S. Riofrio Agenda 1. Unidade Central de Processamento 2. Organização da CPU 3. Interpretador 4. RISC x CISC 5. Principios
Leia maisModelos para Concorrência
Modelos para Concorrência Modelos para descrição de concorrência Programa Interdisciplinar de Pós Graduação em Computação Aplicada Universidade do Vale do Rio dos Sinos Gerson Cavalheiro Processamento
Leia maisBarramento compartilhado
Barramento compartilhado A organização de rede de barramento compartilhado usa um único caminho de comunicação entre todos os processadores e módulos de memória: a rota pela qual as mensagens transitam.
Leia maisEstrutura da Apresentação. Introdução ao Processamento Paralelo e Distribuído. Conceitos em PPD. Conceitos em PPD 4/26/09.
Estrutura da Apresentação Introdução ao rocessamento aralelo e Distribuído Conceitos em rocessamento aralelo e Distribuído; Frentes de trabalho e pesquisa em D; O D no Rio Grande do Sul; Observações finais.
Leia maisElementos de conexão e condições de paralelismo. Aleardo Manacero Jr.
Elementos de conexão e condições de paralelismo Aleardo Manacero Jr. Elementos de Conexão O que é conectividade? Define como os elementos de processamento (CPU e memória) de um sistema de alto desempenho
Leia mais