Organização de Computadores 2005/2006 Processamento Paralelo

Tamanho: px
Começar a partir da página:

Download "Organização de Computadores 2005/2006 Processamento Paralelo"

Transcrição

1 GoBack

2 Organização de Computadores 2005/2006 Processamento Paralelo Paulo Ferreira paf a dei.isep.ipp.pt Maio de 2006 ORGC Processamento Paralelo slide 1

3 Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 2

4 Porquê? Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Uma forma de conseguir mais performance. Se um boi lavra um campo, porque não 40 galinhas? Porque não 40 bois, mais depressa? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 3

5 Definição de computação paralela Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Um conjunto de elementos de processamento que cooperam para resolver problemas grandes de uma forma rápida. E que problemas temos de resolver? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 4

6 Alocação de recursos Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Qual o número de elementos? Qual a performance dos elementos? Quantidade de memória? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 5

7 Acesso aos dados, comunicação e sincronização Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Como é que os elementos cooperam e comunicam? Como é que os dados são transmitidos entre processadores? Que primitivas e abstrações existem para a cooperação? Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 6

8 Performance e escalabilidade Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Como é que isto se traduz em termos de performance? E em termos de escalabilidade? Escalabilidade quer dizer aumento de performance com o aumento do n o de elementos. Hoje em dia História História ORGC Processamento Paralelo slide 7

9 Hoje em dia Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia Microprocessadores de elevada performance Microprocessadores mais baratos Paralelismo ao nível da instrução já existe. Passo seguinte: Computação paralela História História ORGC Processamento Paralelo slide 8

10 História Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia História História Processadores de 4, 8, 16, 32, 64 bits Uma unidade de execução, várias unidades de execução Passo seguinte? Vários processadores? Vários processos por processador? VLIW? ORGC Processamento Paralelo slide 9

11 História Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Performance e escalabilidade Hoje em dia História História Processadores de 4, 8, 16, 32, 64 bits Uma unidade de execução, várias unidades de execução Passo seguinte? Vários processadores? Vários processos por processador? VLIW? Já há: Hyperthreading (Intel) Dual Core (Intel+AMD) 8 Cores * 4 threads (Sun Ultra Sparc T1) ORGC Processamento Paralelo slide 9

12 História Porquê? Definição de computação paralela Alocação de recursos Acesso aos dados, comunicação e sincronização Modelos divergentes Modelo de programação = Primitivas de comunicação = o que existia no hardware Hoje em dia já há mais flexibilidade Performance e escalabilidade Hoje em dia História História ORGC Processamento Paralelo slide 10

13 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 11

14 Hardware de comunicações Escalabilidade não uniforme Interligação Mais simples Vários processadores partilham a mesma memória Parecido com o time-sharing nos S.O. multitarefa Extensão dos modelos de programação multitarefa (processos processadores) Arquitectura menos estranha relativamente ao normal Cuidado: Acesso à memória uniforme ou não? Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 12

15 m m m m Hardware de comunicações s i O d vc e I / e Hardware de comunicações M e M e M e M e l t r O c I / l t r O c I / Escalabilidade t e rc I n t ec n on t e rc I n t ec n on não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) or s P r o c e or s P r o c e ORGC Processamento Paralelo slide 13

16 Hardware de comunicações Escalabilidade não uniforme Estilo mainframe Uso de um crossbar Switch que permite a ligação simultânea entre p processadores e m memórias Vantagens: Performance Desvantagens: Custo Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 14

17 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 15

18 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados (estilo PC) Partilha de um bus de acesso a memória por todos os processadores SMP Simmetric MultiProcessing Vantagens: Custo Desvantagens: Performance A largura de banda do barramento é partilhada por todos os processadores. Caches: problema da coerência? Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 16

19 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 17

20 Escalabilidade Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 18

21 não uniforme Hardware de comunicações NUMA Non Uniform Memory Access Cada processador tem a sua memória Todos os processadores acedem à memória dos outros, pela interligação Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 19

22 Interligação Hardware de comunicações Em bus? Em rede? Em switch Coisas novas Hypertransport Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 20

23 01 1 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) 0 01 ORGC Processamento Paralelo slide 21

24 Message passing Hardware de comunicações Escalabilidade não uniforme Entre os processadores circulam mensagens Originalmente implementação em hardware Mais flexível em software Muitos overheads Programação simples Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 22

25 Paralelismo de dados Hardware de comunicações Escalabilidade não uniforme Interligação SIMD Single Instruction Multiple Data processamento de vectores e matrizes As operações são feitas em paralelo em cada elemento da estrutura de dados. Existe apenas uma instrução para todos os processadores Um processador por elemento da estrutura de dados Processador: recebe instrução, executa instrução Processador de controle: lê programa e envia instruções para os outros Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 23

26 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 24

27 Dataflow Hardware de comunicações Implementar em hardware as expressões matemáticas Cada operação é implementada num nó. Cada nó recebe os operandos e envia o resultado Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 25

28 b 1 e c + a = d D a g r w a k N f m a g r k N it e M h f g n hi c e u e u q k N Hardware de comunicações ) c b ( ) 1 + b ( f = e c d = d a fl a o t a h p Escalabilidade não uniforme r wo t e Interligação Message passing Paralelismo de dados Dataflow n e k T o e r t so Arquitecturas sistólicas g n i a W s n I n ito t r uc m r F o r wo t e Resumo (memória partilhada) t a c t e Resumo (outros) r wo t e E x c e n e k t o n e k T o t u P ro e r t so ORGC Processamento Paralelo slide 26

29 Arquitecturas sistólicas Hardware de comunicações Escalabilidade não uniforme Interligação Pipeline de elementos de processamento Diferente de dataflow porque cada elemento tem (pode ter) programa local, e memória local Motivação inicial: VLSI permite chips de baixo custo Ligar diferentes chips para fazer um algoritmo Poupar na largura de banda do acesso à memória Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 27

30 Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 28

31 Resumo (memória partilhada) Hardware de comunicações Escalabilidade não uniforme Interligação UMA (mesma memória para todos) Bus (aka SMP) PCs Rede Crossbar Mainframes NUMA (cada processador tem uma memória mais sua) Interligação pode ser de vários tipos Message passing Paralelismo de dados Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 29

32 Resumo (outros) Hardware de comunicações Escalabilidade não uniforme Interligação Message passing Paralelismo de dados Paralelismo de dados extensões SIMD dos processadores actuais Message passing entre computadores diferentes é o mais fácil DataFlow e arquitecturas sistólicas Naming: como se acedem aos dados? só se estivermos a fazer hardware Dataflow Arquitecturas sistólicas Resumo (memória partilhada) Resumo (outros) ORGC Processamento Paralelo slide 30

33 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 31

34 Problemas fundamentais Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming: como se referenciam os dados partilhados Operações: que operações são permitidas nesses dados Ordenamento: como são coordenados e ordenados os acessos Replicação: como os dados são (ou não) copiados Custo das comunicações: Latência, largura de banda, overhead, ocupação do canal Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 32

35 Modelo de programação sequencial Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Naming: Espaço de endereços virtual Hardware (e compiladores) fazem tradução Operações: Leituras e escritas Ordenamento: Ordem sequencial do programa Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 33

36 Performance (programação sequencial) Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Dependências baseadas em referências feitas a variáveis. Compiladores e hardware desrespeitam as ordens Compilador: reordenamento e alocação de registos Hardware: execução fora de ordem Caches: replicação transparente Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 34

37 Modelo de memória partilhada Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Naming: Qualquer processo usa a memória Operações: R/W mais as necessárias para ordenação Modelo mais simples de Ordenação: Dentro de um processo: ordem sequencial Entre processos: concorrência Podemos ter sincronização Compiladores e hardware não cumprem as ordens Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 35

38 Sincronização Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Exclusão Mútua Locks Assegurar que certas operações em certos dados são feitas apenas por um processo de cada vez Não dá garantias nenhumas de ordenação Sincronização de eventos Ordenar os eventos para salvaguardar dependências ex: produtor consumidor 3 tipos principais ponto a ponto global grupo ORGC Processamento Paralelo slide 36

39 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Naming: Apenas dos dados privados (não existem dados partilhados) Operações: send e receive send: dados privados são copiados para outro processo receive: dados do processo são copiados para memória Temos obrigatoriamente nomes para os processos Ordenação: Ordem normal dentro de um processo send e receive podem fazer sincronismo ponto a ponto Exclusão mútua garantida Podemos construir endereços globais Process Id + endereço dentro do processo Mas não teremos operações directas nesses endereços ORGC Processamento Paralelo slide 37

40 Naming e Operações Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Existindo no modelo de programação podem ser suportadas: Directamente pelo hardware Pelo sistema operativo Por bibliotecas Pelo compilador Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 38

41 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização no modelo de programação Hardware tem memória físicamente partilhada Suporte directo pelo hardware Hardware tem memórias independentes pode ser feita pelo sistema operativo Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Pode ser feita pelo compilador/bibliotecas ORGC Processamento Paralelo slide 39

42 Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Message passing Suporte directo pelo hardware mais flexível com matching e buffering Suporte pelo S.O. ou acima Hardware faz o transporte Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Send/Receive em SW (protecção,buffering) S.O.: custo das chamadas ao S.O. ORGC Processamento Paralelo slide 40

43 Ordenação Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão Não existe nenhuma ordenação exceptuando aquela que é imposta pelos pares send/receive Importante e subtil Uniprocessadores fazem reordenação para ganhar paralelismo ou localidade Estes truques são mais importantes em multiprocessadores Quais são os truques que continuam a ser válidos? Quais são os novos truques? ORGC Processamento Paralelo slide 41

44 Replicação Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Importante para reduzir transferência de dados/comunicação Depende do modelo de naming Uniprocessador: automática Message passing: a replicação tem de estar explícita no SW : problema da coerência das caches Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 42

45 Comunicação Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Sincronização Naming e Operações Ordenação Replicação Comunicação Performance determina o uso das operações Três características fundamentais: Latência: tempo necessário para o início Largura de Banda: Velocidade de transferência Custo: Tempo de CPU necessário Erros normais: Não contar com a latência Não contar com a possibilidade de overlap Redes de interconexão ORGC Processamento Paralelo slide 43

46 Redes de interconexão Problemas fundamentais Modelo de programação sequencial Performance (programação sequencial) Modelo de memória partilhada Cada vez mais importantes: Entre computadores Entre chips (Interconnection Networks) Intra chips Sincronização Naming e Operações Ordenação Replicação Comunicação Redes de interconexão ORGC Processamento Paralelo slide 44

47 Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento ORGC Processamento Paralelo slide 45

48 Lei de Amdahl Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento Um programa tem uma percentagem do seu tempo total de execução série S e o resto do tempo de execução é paralelizável P. Se o total do tempo de programa é 100% então o tempo total é igual a 1, o que implica que 1 = P + S ou de outra forma P = 1 S. Temos assim que o tempo normal de execução será igual a S + (1 S). Se pusermos N processadores a trabalhar na parte paralela e o tempo de execução da parte paralela diminuir de uma forma ideal o tempo de execução será igual a S + (1 S) N. Se N for infinito, então o tempo de execução será apenas de S. Logo o aumento de performance que teremos será o inverso dos tempos ou (S+(1 S)) S o que dá 1 S, isto supondo que a paralelização é perfeita. ORGC Processamento Paralelo slide 46

49 Decomposição Lei de Amdahl A partir de um programa sequencial gerar tarefas O que é uma tarefa: parte do trabalho global que é processada sequencialmente. Muitas ou poucas tarefas? Decomposição Atribuição Orquestração Mapeamento ORGC Processamento Paralelo slide 47

50 Atribuição Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento Atribuir (distribuir) tarefas pelos processos. O que é um processo: entidade que executa as tarefas, tem a obrigação de comunicar com os outros processos para executar as tarefas. Atribuição estática ou dinâmica? Vantagens e desvantagens? Se for dinâmica temos uma fila de tarefas global ou uma fila por processo? Vantagens e desvantagens? ORGC Processamento Paralelo slide 48

51 Orquestração Lei de Amdahl Decomposição Atribuição Orquestração Mapeamento Objectivo: estruturar a comunicação e o acesso aos dados. Que comunicacão vai haver entre que processos? Reduzir os custos da comunicação. Escalonar as tarefas correctamente. Depende muito das primitivas oferecidas e do tipo de comunicação. Depende de onde (em que processo) pomos os dados. ORGC Processamento Paralelo slide 49

52 Mapeamento Lei de Amdahl Decomposição Atribuição Atribuir processos aos processadores. Mais simples e usual: cada processo tem o seu processador. Normalmente o utilizador pode especificar a sua intenção mas o sistema operativo pode decidir de outra maneira. Orquestração Mapeamento ORGC Processamento Paralelo slide 50

Organização de Computadores 2005/2006 Processamento Paralelo

Organização de Computadores 2005/2006 Processamento Paralelo Organização de Computadores 2005/2006 Processamento Paralelo Paulo Ferreira paf a dei.isep.ipp.pt Maio de 2006 Introdução 2 Porquê?...........................................................................................

Leia mais

Introdução à Computação: Sistemas de Computação

Introdução à Computação: Sistemas de Computação Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,

Leia mais

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos

Leia mais

Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD

Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de

Leia mais

Arquitetura de Computadores. Processamento Paralelo

Arquitetura de Computadores. Processamento Paralelo Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple

Leia mais

Organização de Computadores II. Arquiteturas MIMD

Organização de Computadores II. Arquiteturas MIMD Organização de Computadores II Arquiteturas MIMD Arquiteturas UMA Arquiteturas com memória única global. Tempo de acesso uniforme para todos os nós de processamento. Nós de processamento e memória interconectados

Leia mais

Programação Distribuída e Paralela. Jorge Barbosa

Programação Distribuída e Paralela. Jorge Barbosa Programação Distribuída e Paralela Jorge Barbosa 1 Máquinas Paralelas Processadores Memória Rede de interligação Classificação das máquinas paralelas 2 Processador Escalar Processadores Processador que

Leia mais

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von

Leia mais

Caracterização de Sistemas Distribuídos

Caracterização de Sistemas Distribuídos Caracterização de Sistemas Distribuídos Roteiro Conceitos de Hardware Conceitos de Software Classificação de Flynn Classificação baseada no acesso a memória 2 Conceitos de HW Múltiplas CPUs Diferentes

Leia mais

Computadores e Programação (DCC/UFRJ)

Computadores e Programação (DCC/UFRJ) Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo

Leia mais

Multiprogramação leve em arquiteturas multi-core

Multiprogramação leve em arquiteturas multi-core Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação

Leia mais

Multiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011

Multiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Multiprocessamento Patterson & Hennessy Capítulo 9 Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Tópicos Abordados Tipos comuns SMP (processamento paralelo) NUMA (placas de alto

Leia mais

AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES

AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação MULTIPROCESSADORES

Leia mais

30/5/2011. Sistemas computacionais para processamento paralelo e distribuído

30/5/2011. Sistemas computacionais para processamento paralelo e distribuído Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento

Leia mais

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador

Leia mais

Carlos Eduardo Batista Centro de Informática - UFPB

Carlos Eduardo Batista Centro de Informática - UFPB Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por

Leia mais

AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS

AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA

Leia mais

Arquitetura de Computadores

Arquitetura de Computadores Arquitetura de Computadores 2018.1 Relembrando... Paralelismo Relembrando... Paralelismo Paralelismo em Instrução Relembrando... Paralelismo Paralelismo em Instrução Paralelismo em Aritmética Relembrando...

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 20ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Arquiteturas MIMD As arquiteturas MIMD dividem-se

Leia mais

Programação de Alto Desempenho - 2. Prof: Carla Osthoff

Programação de Alto Desempenho - 2. Prof: Carla Osthoff Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: osthoff@lncc.br 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda

Leia mais

Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva

Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela

Leia mais

SSC510 Arquitetura de Computadores. 6ª aula

SSC510 Arquitetura de Computadores. 6ª aula SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas

Leia mais

Organização e Arquitetura de Computadores I

Organização e Arquitetura de Computadores I Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Unidade Acadêmica de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de

Leia mais

Programação de Sistemas em Tempo Real

Programação de Sistemas em Tempo Real BCC722 Programação de Sistemas em Tempo Real Processos Prof. Charles Garrocho O conceito de processo Um S.O. executa uma variedade de programas Sistemas de tempo compartilhado: programas Processo: um programa

Leia mais

PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register

PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register PROCESSADORES Um computador digital consiste em um sistema interconectado de processadores, memória e dispositivos de entrada e saída. A CPU é o cérebro do computador. Sua função é executar programas armazenados

Leia mais

COMPUTADORES. Arquiteturas de Computadores Paralelos. Prof.: Agostinho S. Riofrio

COMPUTADORES. Arquiteturas de Computadores Paralelos. Prof.: Agostinho S. Riofrio PROJETO LÓGICO DE COMPUTADORES Arquiteturas de Computadores Paralelos l Prof.: Agostinho S. Riofrio Agenda 1. Introdução 2. Memória Virtual 3. Paginação 4. Segmentação 5. Instruçoes virtuais de E/S 6.

Leia mais

Linguagem de Programação II

Linguagem de Programação II Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB bidu@ci.ufpb.br Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes

Leia mais

Arquiteturas de Sistemas de Processamento Paralelo. Arquiteturas MIMD

Arquiteturas de Sistemas de Processamento Paralelo. Arquiteturas MIMD Universidade Federal do Rio de Janeiro Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquiteturas de Sistemas de Processamento Paralelo Arquiteturas MIMD Arquiteturas MIMD com Memória Distribuída MIMD

Leia mais

Sistema Distribuído. Sistema Distribuído. Aplicações Distribuídas. Conceitos Básicos

Sistema Distribuído. Sistema Distribuído. Aplicações Distribuídas. Conceitos Básicos Sistema Distribuído Conjunto de máquinas (CPU + memória) interligadas em rede. Sistema Distribuído Sistema operacional distribuído trata este conjunto como um único sistema computacional. Estação 1 Estação

Leia mais

Microarquiteturas Avançadas

Microarquiteturas Avançadas Universidade Federal do Rio de Janeiro Arquitetura de Computadores I Microarquiteturas Avançadas Gabriel P. Silva Introdução As arquiteturas dos processadores têm evoluído ao longo dos anos, e junto com

Leia mais

Nome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo?

Nome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo? ANO LETIVO 2018/2019 FICHA DE AVALIAÇÃO DE ARQUITETURA DE COMPUTADORES Módulo Nº: 4 Data: 14/03/20189 Tipo de Prova: Teórica Classificação: O Docente: (Rafael Henriques) Nome: N.º Ano: Turma: Turno: Leia

Leia mais

Processamento Paralelo

Processamento Paralelo Processamento Paralelo por Helcio Wagner da Silva Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários

Leia mais

Modelo de Von Neumann

Modelo de Von Neumann 1 Modelo de Von Neumann Memória UC ALU Entrada Saída ACC 2 Arquitetura de Von Neumann 3 O Computador 4 Processador Microprocessadores São processadores contidos em um único encapsulamento (CI). Microcontroladores

Leia mais

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2011-2 Visão Geral 1 2 3 4 Introdução Arquitetura SMP Organização SMP Processamento Vetorial

Leia mais

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-1 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito

Leia mais

Arquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização

Arquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 1 Introdução Arquitetura e Organização 1. Arquitetura

Leia mais

Concorrência em Processos

Concorrência em Processos Concorrência em Processos Anderson L. S. Moreira anderson.moreira@recife.ifpe.edu.br http://dase.ifpe.edu.br/~alsm Baseado nas aulas do professor Alberto Costa Neto da UFS 1 O que fazer com essa apresentação

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,

Leia mais

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-2 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito

Leia mais

Barramento. Prof. Leonardo Barreto Campos 1

Barramento. Prof. Leonardo Barreto Campos 1 Barramento Prof. Leonardo Barreto Campos 1 Sumário Introdução; Componentes do Computador; Funções dos Computadores; Estrutura de Interconexão; Interconexão de Barramentos Elementos de projeto de barramento;

Leia mais

Desafios do Mapeamento de Processos em Arquiteturas Many-Core

Desafios do Mapeamento de Processos em Arquiteturas Many-Core Desafios do Mapeamento de Processos em Arquiteturas Many-Core Professor: Philippe O. A. Navaux Instituto de Informática - UFRGS Escola Regional de Alto Desempenho São Paulo 1 Indíce Evolução dos Processadores

Leia mais

Arquiteturas Paralelas

Arquiteturas Paralelas Arquiteturas Paralelas Arquiteturas Paralelas Graduação em Ciência da Computação Universidade do Vale do Rio dos Sinos Prof. Gerson Cavalheiro Programação Paralela e Distribuída 2006 CC / UNISINOS Classificação

Leia mais

Arquitetura de Microprocessadores

Arquitetura de Microprocessadores Arquitetura de Computadores UNIDADE 4 Arquitetura de Microprocessadores Aula nº 15 e 16 1º Período Ano letivo 2017/2018 Lição nº 15 e 16 15-01-2019 O CPU (continuação) Registos internos; BUS interno Vs

Leia mais

SISTEMAS DISTRIBUÍDOS

SISTEMAS DISTRIBUÍDOS INTRODUÇÃO SISTEMAS DISTRIBUÍDOS Até meados dos anos 80 as máquinas eram grandes e caras; A maioria das empresas tinham equipamentos que operavam de forma independente por falta de uma forma confiável

Leia mais

Arquiteturas de Sistemas de Processamento Paralelo. Arquiteturas SIMD

Arquiteturas de Sistemas de Processamento Paralelo. Arquiteturas SIMD Universidade Federal do Rio de Janeiro Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquiteturas de Sistemas de Processamento Paralelo Arquiteturas SIMD Arquiteturas SIMD Processadores Vetoriais Arquiteturas

Leia mais

Organização de Sistemas de Computadores

Organização de Sistemas de Computadores Organização de Sistemas de Computadores Cap. 2 (Tanenbaum), Cap. 3 (Weber) 2.1 Processadores 1 CPU UC = buscar instruções na memória principal e determinar o seu tipo ULA = adição e AND Registradores =

Leia mais

Arquiteturas de Computadores

Arquiteturas de Computadores Arquiteturas de Computadores Computadores vetoriais Fontes dos slides: Livro Patterson e Hennessy, Quantitative Approach e site do curso EE 7722, GPU Microarchitecture do Prof. David Koppelman Graphical

Leia mais

SSC PROGRAMAÇÃO CONCORRENTE. Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella

SSC PROGRAMAÇÃO CONCORRENTE. Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella SSC- 0143 PROGRAMAÇÃO CONCORRENTE Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados

Leia mais

Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core

Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:

Leia mais

SIST706 Sistemas Distribuídos

SIST706 Sistemas Distribuídos Slide02 Arquiteturas de SD SIST706 Sistemas Distribuídos 2013/1 Prof. Jéfer Benedett Dörr @: prof.jefer@gmail.com profjefer.wordpress.com Notícias Cultura Livre Fontes de Notícias itil LPI Transistores:

Leia mais

Arquitectura de Computadores (ACom)

Arquitectura de Computadores (ACom) Arquitectura de Computadores (ACom) MEAer Acetatos das Aulas Teóricas Versão 4.0 - Português Aula N o 20: Título: Sumário: Sistema de primária (ciclo de acesso, memória estática, memória dinâmica, planos

Leia mais

AOC II - Arquitetura e Organização de Computadores Prof. Dr. rer. nat. Daniel Duarte Abdala. Lista de Exercícios

AOC II - Arquitetura e Organização de Computadores Prof. Dr. rer. nat. Daniel Duarte Abdala. Lista de Exercícios Lista de Exercícios PIPELINING 1. Qual a vantagem que a utilização da técnica de pipelining traz em relação a arquitetura MIPS-Multiciclo estudada em aula? Descreva textualmente. 2. Embora o desempenho

Leia mais

Infraestrutura de Hardware. Melhorando Desempenho de Pipeline Processadores Superpipeline, Superescalares, VLIW

Infraestrutura de Hardware. Melhorando Desempenho de Pipeline Processadores Superpipeline, Superescalares, VLIW Infraestrutura de Hardware Melhorando Desempenho de Pipeline Processadores Superpipeline, Superescalares, VLIW Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem

Leia mais

Introdução (hardware) INTRODUÇÃO Hardware. Introdução (hardware) Introdução (hardware) Introdução (hardware) Introdução (hardware)

Introdução (hardware) INTRODUÇÃO Hardware. Introdução (hardware) Introdução (hardware) Introdução (hardware) Introdução (hardware) Hardware Taxonomia de hardware (Flynn 1972) SISD: single instruction single data computadores com um processador SID: single instruction multiple data array de processadores (alguns supercomputadores)

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Thaís Vasconcelos Batista UFRN DIMAp http://www.dimap.ufrn.br/~thais thais@ufrnet.br Programa do Curso INTRODUÇÃO Conceitos Básicos Sistemas em Rede X Sistemas Distribuídos Necessidade

Leia mais

Arquitetura de Computadores

Arquitetura de Computadores Arquitetura de Computadores 2018.1 Relembrando... Memória Virtual Relembrando... Memória Virtual Proteção de Memória Relembrando... Memória Virtual Proteção de Memória TLB Relembrando... Memória Virtual

Leia mais

SSC0510 Arquitetura de Computadores

SSC0510 Arquitetura de Computadores SSC0510 Arquitetura de Computadores 11ª Aula Paralelismo Avançado em Nível de Instrução e em Nível de Tarefas (Threads) Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Tipos de Paralelismo BLP: Bit Level

Leia mais

Sistemas Operacionais. Adão de Melo Neto

Sistemas Operacionais. Adão de Melo Neto Sistemas Operacionais Adão de Melo Neto 1 Computador Digital (Hardware) 2 Computador Digital Constituído por um conjunto de componentes interligados (hardware): processadores, memórias, registradores,

Leia mais

Prof. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h

Prof. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h Pipelining Avançado Prof. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h Introdução A técnica de pipelining explora o paralelismo entre as instruções Paralelismo em Nível de Instrução (ILP). Métodos

Leia mais

Bibliografia em processamento paralelo

Bibliografia em processamento paralelo Bibliografia em processamento paralelo Andrews, Concurrent Programming: Principles and Practice Foster, Designing and Building Parallel Programs Wolfe, High Performance Compilers for Parallel Computing

Leia mais

SSC510 Arquitetura de Computadores. 7ª aula

SSC510 Arquitetura de Computadores. 7ª aula SSC510 Arquitetura de Computadores 7ª aula ARQUITETURAS SIMD PROFA. SARITA MAZZINI BRUSCHI Arquiteturas SIMD Um único fluxo de dados, vários fluxos de intruções Tipos de arquiteturas Processadores Vetorais

Leia mais

Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores

Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores Ciência da Computação Arq. e Org. de Computadores Processadores Prof. Sergio Ribeiro Composição básica de um computador eletrônico digital: Processador Memória Memória Principal Memória Secundária Dispositivos

Leia mais

Breve Introdução aos Sistemas Operativos. Disciplina de Informática PEUS, U.Porto

Breve Introdução aos Sistemas Operativos. Disciplina de Informática PEUS, U.Porto Breve Introdução aos Sistemas Operativos Disciplina de Informática PEUS, 2006 - U.Porto Definição de Sistema Operativo Um programa que funciona como intermediário entre o utilizador do computador e os

Leia mais

Programação Concorrente

Programação Concorrente INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC lau.lung@inf.ufsc.br Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 17ª Aula Paralelismos nível de tarefas Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Paralelismo no nível de tarefas Paralelismo a nível de thread (TLP Thread-Level

Leia mais

Arquitetura de Sistemas Operativos

Arquitetura de Sistemas Operativos Arquitetura de Sistemas Operativos Sistemas Operativos 2011/2012 1 Introdução Gestão de Programas Introdução Os sistemas operativos gerem um conjunto de funções básicas que têm evoluído ao longo dos tempos.

Leia mais

INTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL

INTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL INTRODUÇÃO À TECNOLOGIA DA ORGANIZAÇÃO COMPUTACIONAL PROFESSOR CARLOS MUNIZ ORGANIZAÇÃO DE UM COMPUTADOR TÍPICO Memória: Armazena dados e programas Processador (CPU - Central Processing Unit): Executa

Leia mais

Hardware: Componentes Básicos. Sistema de Computador Pessoal. Anatomia de um Teclado. Estrutura do Computador. Arquitetura e Organização

Hardware: Componentes Básicos. Sistema de Computador Pessoal. Anatomia de um Teclado. Estrutura do Computador. Arquitetura e Organização Hardware: Componentes Básicos Arquitetura dos Computadores Dispositivos de Entrada Processamento Dispositivos de Saída Armazenamento Marco Antonio Montebello Júnior marco.antonio@aes.edu.br Sistema de

Leia mais

Arquitetura de computadores

Arquitetura de computadores Arquitetura de computadores Arquitetura de Microprocessadores Curso Profissional de Técnico de Gestão e Programação de Sistemas Memória Cache Volátil; Memória RAM Volátil; Memória ROM Não volátil. Articulação

Leia mais

Paradigmas de Computação

Paradigmas de Computação UCE- Computação Paralela e Distribuída Paradigmas de Computação João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... http://alba.di.uminho.pt/... 1 Paradigmas de Computação paralela Resultados da Aprendizagem

Leia mais

Sistemas Operacionais Distribuídos

Sistemas Operacionais Distribuídos Sistemas Operacionais Distribuídos Introdução O uso de redes locais e da Internet está amplamente difundido mesmo para uso doméstico. Mas para que tais recursos físicos sejam aproveitados da melhor forma

Leia mais

3 Computação de Propósito Geral em Unidades de Processamento Gráfico

3 Computação de Propósito Geral em Unidades de Processamento Gráfico 3 Computação de Propósito Geral em Unidades de Processamento Gráfico As Unidades de Processamento Gráfico (GPUs) foram originalmente desenvolvidas para o processamento de gráficos e eram difíceis de programar.

Leia mais

ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS

ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação

Leia mais

Organização de Computadores 2005/2006 Barramentos e Processadores

Organização de Computadores 2005/2006 Barramentos e Processadores Organização de Computadores 2005/2006 Barramentos e Processadores Paulo Ferreira paf a dei.isep.ipp.pt Março de 2006 Barramentos 2 Definição..........................................................................................

Leia mais

Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano. Desenvolvimento de Aplicações Paralelas

Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano. Desenvolvimento de Aplicações Paralelas Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano Desenvolvimento de Aplicações Paralelas (gec.di.uminho.pt/lesi/ap10203/aula06aplicaçõespar.pdf) João Luís Ferreira Sobral Departamento

Leia mais

Ferramentas para Programação em Processadores Multi-Core

Ferramentas para Programação em Processadores Multi-Core Ferramentas para Programação em Processadores Multi- Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Introdução Programação multithread Ferramentas de programação Prática

Leia mais

Gestão de memória - Memory Management Unit (MMU)

Gestão de memória - Memory Management Unit (MMU) Gestão de memória - Memory Management Unit (MMU) A distinção entre espaço de edereçamento virtual e espaço de endereçamento físico é fundamental na eficiente gestão do recurso memória física (RAM) por

Leia mais

Sistemas de Troca de Mensagens

Sistemas de Troca de Mensagens Universidade Federal do Rio de Janeiro Programa de Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquitetura de Sistemas Paralelos Sistemas de Troca de Mensagens Sistemas de Comunicação O Sistema de Comunicação

Leia mais

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PROF. DEJAIR PRIEBE

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PROF. DEJAIR PRIEBE ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PROF. DEJAIR PRIEBE PROCESSADOR A função de um computador é executar tarefas com a finalidade de resolver problemas. Uma tarefa pode ser executada por meio de

Leia mais

ORGANIZAÇÃO DE COMPUTADORES

ORGANIZAÇÃO DE COMPUTADORES Organização de Computadores ORGANIZAÇÃO DE COMPUTADORES Curso: Tecnologia em Gestão da Tecnologia da Informação Ano: 2011 Conhecida como Processador ou é o cerebro do computador Unifica todo sistema e

Leia mais

Arquiteturas paralelas Parte 1

Arquiteturas paralelas Parte 1 Arquiteturas paralelas Parte 1 Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade Federal do Espírito

Leia mais

Arquitetura de Um Computador

Arquitetura de Um Computador Arquitetura de Um Computador José Costa Introdução à Arquitetura de Computadores Departamento de Engenharia Informática (DEI) Instituto Superior Técnico 2013-09-20 José Costa (DEI/IST) Arquitetura de Um

Leia mais

Modelo de Programação Paralela

Modelo de Programação Paralela Modelo de Programação Paralela As arquiteturas paralelas e distribuídas possuem muitos detalhes Como especificar uma solução paralela pensando em todos esses detalhes? O que queremos? Eecutar a solução

Leia mais

Introdução aos Sistemas Distribuídos

Introdução aos Sistemas Distribuídos Introdução aos Sistemas Distribuídos Prof. Leonardo Barreto Campos http://sites.google.com/sitew/leonardobcampos 1/29 Sumário Ementa; Bibliografia Calendário Site Introdução Características http://sites.google.com/sitew/leonardobcampos

Leia mais

Disciplina de Arquitetura de Computadores

Disciplina de Arquitetura de Computadores USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/

Leia mais

CURSO TÉCNICO EM INFORMÁTICA

CURSO TÉCNICO EM INFORMÁTICA 1 CURSO TÉCNICO EM INFORMÁTICA Montagem e Manutenção de Computadores Prof.: Denis Willian de Moura Diniz PROCESSADORES PARTE II 2 ULA UNIDADE LÓGICA E ARITMÉTICA A ULA - Arithmetic Logic Unit - que em

Leia mais

Barramentos internos/externos

Barramentos internos/externos Barramentos Uma das características principais de um processador são os seus barramentos. Os barramentos são auto-estradas por onde circula a informação, seja no interior do CPU ou do interior para o exterior,

Leia mais

Microprocessadores. Artur Moreira 11ºM1 Nº 4

Microprocessadores. Artur Moreira 11ºM1 Nº 4 Microprocessadores Artur Moreira 11ºM1 Nº 4 O que são microprocessadores? Estes dispositivos são fabricados através da nanotecnologia e servem essencialmente para executar as tarefas de um computador e

Leia mais

SISTEMAS OPERACIONAIS

SISTEMAS OPERACIONAIS SISTEMAS OPERACIONAIS Introdução a Sistemas Operacionais Andreza Leite andreza.leite@univasf.edu.br Plano de Aula Introdução aos Sistemas Operacionais Fundamentação Teórica Evolução Histórica Características

Leia mais

Parte I Multiprocessamento

Parte I Multiprocessamento Sistemas Operacionais I Estrutura dos SO Prof. Gregorio Perez gregorio@uninove.br 2004 Parte I Multiprocessamento Roteiro 1 Multiprocessadores em Sistemas Fortemente Acoplados 1.1 1.2 1.3 Processamento

Leia mais

Microprocessadores. Sistemas de Entrada / Saída

Microprocessadores. Sistemas de Entrada / Saída Sistemas de Entrada / Saída António M. Gonçalves Pinheiro Departamento de Física Covilhã - Portugal pinheiro@ubi.pt Modos de transferência de informação entre µprocessador e sistemas de Entrada/Saída.

Leia mais

Tecnologias de Distribuição e Integração. Quais as preocupações a ter com um sistema distribuído?

Tecnologias de Distribuição e Integração. Quais as preocupações a ter com um sistema distribuído? network link: Tecnologias de Distribuição e Integração ISP intranet backbone desktop computer: server: satellite link no interior de uma organização (intranet) clientes externos entre organizações 2 Quais

Leia mais

Sparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile?

Sparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile? Sparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile? Paula Prata João Muranho Instituto de Telecomunicações Departamento de Informática Universidade da Beira Interior Instituto

Leia mais

Concorrência. Sistemas Distribuídos e Tolerância a Falhas. Lia Ribeiro 1

Concorrência. Sistemas Distribuídos e Tolerância a Falhas. Lia Ribeiro 1 Concorrência Sistemas Distribuídos e Tolerância a Falhas Lia Ribeiro 1 Índice Consistência Atómica e sequencial Serializability Controle de concorrência One copy Serializability 2 Exclusão Mútua Técnica

Leia mais

ARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio

ARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio ARQUITETURA DE COMPUTADORES Organização de Sistemas Computacionais Prof.: Agostinho S. Riofrio Agenda 1. Unidade Central de Processamento 2. Organização da CPU 3. Interpretador 4. RISC x CISC 5. Principios

Leia mais

Modelos para Concorrência

Modelos para Concorrência Modelos para Concorrência Modelos para descrição de concorrência Programa Interdisciplinar de Pós Graduação em Computação Aplicada Universidade do Vale do Rio dos Sinos Gerson Cavalheiro Processamento

Leia mais

Barramento compartilhado

Barramento compartilhado Barramento compartilhado A organização de rede de barramento compartilhado usa um único caminho de comunicação entre todos os processadores e módulos de memória: a rota pela qual as mensagens transitam.

Leia mais

Estrutura da Apresentação. Introdução ao Processamento Paralelo e Distribuído. Conceitos em PPD. Conceitos em PPD 4/26/09.

Estrutura da Apresentação. Introdução ao Processamento Paralelo e Distribuído. Conceitos em PPD. Conceitos em PPD 4/26/09. Estrutura da Apresentação Introdução ao rocessamento aralelo e Distribuído Conceitos em rocessamento aralelo e Distribuído; Frentes de trabalho e pesquisa em D; O D no Rio Grande do Sul; Observações finais.

Leia mais

Elementos de conexão e condições de paralelismo. Aleardo Manacero Jr.

Elementos de conexão e condições de paralelismo. Aleardo Manacero Jr. Elementos de conexão e condições de paralelismo Aleardo Manacero Jr. Elementos de Conexão O que é conectividade? Define como os elementos de processamento (CPU e memória) de um sistema de alto desempenho

Leia mais