Investigando a Influência da Organização de Caches L2 no Desempenho de Processadores Multicore Superescalares

Tamanho: px
Começar a partir da página:

Download "Investigando a Influência da Organização de Caches L2 no Desempenho de Processadores Multicore Superescalares"

Transcrição

1 Investigando a Influência da Organização de Caches L2 no Desempenho de Processadores Multicore Superescalares Pedro H. Penna, Henrique C. Freitas 1 Grupo de Arquitetura de Computadores e Processamento Paralelo (CArT) Pontifícia Universidade Católica de Minas Gerais pedro.penna@sga.pucminas.br, cota@pucminas.br Abstract. Multicore processors are being embraced as solution to increase performance instead of techniques that explore instruction throughput, such as superescalar pipelines. Due to that, many research efforts in computer architecture are focused on this subject. In this context, one of the problems is the L2 cache organization. This paper presents a study of how the L2 cache organization influences the performance of multicore superescalar processors. The results showed that when the granularity of L2 cache sharing increases the performance degrades, and when the L2 cache associativity increases the performance is improved. For workloads with irregular memory accesses, the performance gain was the largest observed, up to 18.36%. Resumo. Processadores multicore vêm sendo adotados como solução para o aumento do desempenho no lugar de técnicas que exploram a vazão de instruções, como pipelines superescalares. Por isso, muitos esforços de pesquisa em arquitetura de computadores estão concentrados nesse assunto. Neste contexto, um dos problemas é a organização de caches L2. Este artigo apresenta um estudo da influência da organização de caches L2 no desempenho de processadores multicore superescalares. Os resultados revelaram que o aumento do compartilhamento da cache L2 degrada o desempenho, enquanto o aumento da associatividade da cache L2 impacta positivamente no desempenho. Para cargas de trabalho com acesso irregular à memória, o ganho de desempenho foi o maior observado, em até 18.36%. 1. Introdução O desempenho de um processador está relacionado ao número de instruções concluídas por ciclo, frequência de operação ou a vazão de instruções do processador [Olukotun and Hammond 2005]. Estudos recentes apontam que o aumento da frequência não é a chave para o ganho de desempenho, uma vez que os tempos de propagação dos sinais internos ao processador devem ser atendidos. Devido a isso, abordagens que proporcionam uma maior vazão de instruções vêm sendo estudadas, destacando-se os processadores superescalares e os processadores multicore [Borkar 2007]. Em um processador superescalar, múltiplas unidades funcionais são replicadas em seu projeto e o processamento de uma instrução é dividida em uma sequência de estágios. Essa abordagem torna possível que diferentes instruções sejam executadas simultaneamente e que técnicas avançadas, tais como a execução fora de ordem e especulativa, 236

2 sejam adotadas. Dessa forma, o uso das unidades funcionais ao longo do caminho de dados do processador é maximizado e a quantidade de ciclos gastos por instrução reduz [Olukotun and Hammond 2005]. Processadores superescalares proporcionam um ganho de desempenho, pois exploram o paralelismo intrínseco existente entre as instruções. No entanto, ganhos ainda maiores são possíveis com os processadores multicore. Nessa abordagem, múltiplos elementos de processamento (núcleos) são agrupados e interconectados em um único processador, de forma que o ganho de desempenho se dê pela exploração do paralelismo entre diferentes threads [Olukotun and Hammond 2005]. Muitos esforços de pesquisa em arquiteturas de computadores realizadas nos últimos anos estão concentradas em processadores multicore [Borkar 2007]. Um dos problemas relacionados a esse tema e que vem sendo estudado é a organização de memórias cache L2 [Marino 2006] [Alves et al. 2007] [Alves et al. 2011]. Nesse contexto, diferentes organizações exercem influência direta no desempenho do processador para uma determinada aplicação. Como exemplo, considere uma aplicação multithreading que realiza acesso intenso e regular à memória. Um aumento de desempenho pode ser obtido compartilhando-se a mesma memória cache L2 entre diferentes núcleos. Isso pode ser explicado pela redução do tempo de acerto ao explorar-se a localidade espacial de dados. No entanto, se muitos núcleos compartilharem uma mesma memória cache L2, o conjunto de trabalho pode não caber na cache, implicando em um aumento da taxa de falhas e, consequentemente, uma degradação no desempenho. Esse impasse pode ser agravado para aplicações multithreading com acesso intenso e irregular à memória. Nessa situação, uma alternativa seria a de também explorar diferentes políticas de mapeamento, uma vez que uma maior associatividade favorece o aumento da dispersão dos dados encontrados na cache. Seguindo essa linha, o objetivo do presente trabalho está na investigação da influência de organização de caches L2 no desempenho de processadores multicore superescalares. Para tanto, são avaliadas diferentes configurações de compartilhamento e políticas de mapeamento sob a execução de cargas de trabalho de acesso regular e irregular à memória, com conjunto de dados contíguos e não contíguos. A principal contribuição deste trabalho está na ampliação dos estudos iniciados por outros autores [Marino 2006] [Alves et al. 2007] [Alves et al. 2011]. O restante deste trabalho está organizado da seguinte forma: na Seção 2 são apresentados os trabalhos relacionados; na Seção 3 é exposta a metodologia; na Seção 4 são apresentados os resultados obtidos; e na Seção 5 são discutidas as conclusões do trabalho. 2. Trabalhos Relacionados No estudo de [Marino 2006] é feita uma avaliação de como o compartilhamento da cache L2 impacta no desempenho de um processador multicore. A arquitetura base proposta consistia em um chip multiprocessor com 32 núcleos escalares Ultra Sparc III, cada um dotado de uma cache privada para dados e outra para instruções. Quanto às configurações de compartilhamento, foram adotadas as de 1, 2, e 4 processadores por cache L2. Cinco cargas de trabalho do conjunto de benchmarks SPLASH-2 foram trabalho selecionadas para o estudo. Ao final, os autores concluíram que compartilhamento da cache L2 promove um aumento no desempenho do processador. Comparado à configuração 237

3 onde a cache L2 é privada, observou-se ganhos de 8, 7% (FMM) e 40, 3% (Raytrace). No trabalho de [Alves et al. 2007] é realizado um estudo sobre o compartilhamento de caches L2 e sua influência no desempenho de processadores multicore. Para tanto, os autores analisaram a execução da aplicação Ocean (SPLASH-2), com conjuntos de dados contíguos e não contíguos, em uma arquitetura simulada semelhante à proposta em [Marino 2006], porém com agrupamentos de processadores por cache L2 variando de 1 até 32 processadores por grupo. Para cargas de trabalho com conjuntos de dados contíguos foi observada uma melhora no desempenho conforme aumentou-se os agrupamentos de núcleos, sendo constatado um ganho máximo de 0, 93%. Já para cargas de trabalho com conjuntos de dados não contíguos, constatou-se que o compartilhamento da memória cache L2 não favorece um ganho de desempenho. Ainda na mesma linha, os autores propuseram um trabalho complementar [Alves et al. 2011] no qual foi feita uma avaliação de diferentes organizações de compartilhamento de cache L2, mas dessa vez considerando contenções e latências de acesso a memória bem como tamanho de linha e da cache. Os autores estudaram nove aplicações do conjunto de benchmarks paralelos NAS-NPB e concluíram que o compartilhamento de cache impõe diversas restrições na latência de acesso, potência e área de ocupação no chip para aumentar o número de portas na arquitetura, e que poucas portas implicam em um gargalo de acesso à cache. Além disso, o compartilhamento de caches entre 2 e 4 processadores apresentou degradação de desempenho, devido a contenção e latência. O presente trabalho se diferencia dos trabalhos relacionados apresentados anteriormente em três aspectos: (I) ele avalia a influência do compartilhamento e associatividade da cache L2 no desempenho de um processador multicore; (II) o estudo é realizado em um processador multicore com núcleos superescalares; e (III) considera o estudo de quatro cargas de trabalho, com conjunto de dados contíguos e não contíguos. 3. Metodologia Assim como nos trabalhos relacionados [Marino 2006] [Alves et al. 2007] [Alves et al. 2011], adotou-se neste trabalho o método de simulação para a realização do estudo proposto. Nessa seção são apresentados a arquitetura de estudo proposta, o ambiente de simulação utilizado e as cargas de trabalho selecionadas Arquitetura Proposta O estudo da influência da organização de caches L2 no desempenho de processadores multicore foi realizado na arquitetura ilustrada na Figura 1. Basicamente, essa arquitetura consiste de 8 núcleos MIPS superescalares, cada um dotado de caches privadas de dados e instruções, agrupadas sob diferentes organizações de forma a compartilhar as memórias cache L2. As diferentes configurações de organização propostas variam entre 1 e 8 núcleos por cache L2 e são resumidas na tabela 1. Já as especificações da arquitetura proposta são detalhadas a seguir: Núcleos: possuem duas vias de execução, suportam o despacho e conclusão de instruções fora de ordem; e são dotados de hardware para predição de desvios. Cache : possui um tamanho total de 32 kb, linhas de 32 bytes, associatividade de 4-way e latência de acesso de 3 ciclos; e adota o protocolo LRU para substituição de blocos. 238

4 Núcleo 0 Núcleo 3 Núcleo 4 Núcleo 7 L2 L2 RAM Figura 1. Arquitetura proposta. Tabela 1. Configurações de cache. Nome Número de Núcleos por Conjuntos Conjunto L2S8C1 8 1 L2S4C2 4 2 L2S2C4 2 4 L = Level, S = Set, C = Core Cache L2: possui um tamanho total de 1 MB, linhas de 32 bytes e latência de acesso de 10 ciclos; e adota o protocolo LRU para substituição de blocos e o protocolo MESI para coerência de dados. Quanto à associatividade, para cada uma das organizações de compartilhamento de cache propostas, foram analisadas associatividades de 4-way, 8-way e 16-way. Memória Principal: tamanho total de 64 MB e latência de acesso de 200 ciclos Ambiente de Simulação e Cargas de Trabalho O ambiente utilizado para a simulação da arquitetura proposta na Subseção 3.1 foi o SESC, um simulador de sistema completo determinístico capaz de simular arquiteturas MIPS single-core, multi-core e many-core em nível de instrução. O SESC foi escolhido como ambiente de simulação por (I) suportar a execução das cargas de trabalho selecionadas para análise; (II) permitir a parametrização ultra-fina da arquitetura conforme detalhado anteriormente; e (III) por ser capaz de gerar as estatísticas de simulação relevantes para este trabalho (i.e. cache hits, cache misses e ciclos de execução). As cargas de trabalho selecionadas para o estudo foram as aplicações Ocean e LU, ambas do conjunto de benchmarks SPLASH-2 [Woo et al. 1995]. A aplicação Ocean estuda movimentos de grande escala em um oceano e caracteriza-se pelo acesso intenso e irregular à memória. Já a aplicação LU realiza a fatoração em blocos de um matriz densa no produto de uma matriz triangular inferior com uma matriz triangular superior, caracterizando-se pelo acesso intenso e regular à memória [Woo et al. 1995]. É importante ressaltar que ambas as aplicações possuem duas diferentes implementações, sendo ambas utilizadas no trabalho: uma com o conjunto de dados contíguos, e outra com o conjunto de dados não contíguos. Portanto, o comportamento de quatro cargas de trabalho foram estudadas: Ocean Contiguous (Ocean-Con), Ocean Non-Contiguous (Ocean-Non), LU Contiguous (LU-Con) e LU Non-Contiguous (LU-Non). 4. Resultados As cargas de trabalho selecionadas foram compiladas com o compilador GCC 4.0 e executadas sob entradas de tamanho da Classe-A na arquitetura proposta. Os resultados obtidos são apresentados na Figura 2 e discutidos a seguir. É importante observar que, nessa discussão, conclusões relativas à degradação ou aumento de desempenho foram tiradas a partir da análise de ciclos gastos nas simulações. A Figura 2 (a) e a Figura 2 (b) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos na cache L2 para a carga Ocean-Con, respectivamente. Observa-se que o compartilhamento da cache L2 degradou o desempenho em 41.81% (cache 4-way), 42.03% 239

5 taxa de acertos cache L2 (%) WSCAD XV Simpósio em Sistemas Computacionais de Alto Desempenho ocean-con ocean-con ciclos (milhões) (a) ocean-non (c) lu-con (b) ocean-non (d) lu-con (e) lu-non (f) lu-non (g) (h) organização de cache 4-way 8-way 16-way Figura 2. Resultados das simulações. (cache 8-way) e 41.16% (cache 16-way); e que o aumento da associatividade proporcionou um ganho de desempenho de 6.03% (L2S8C1), 7.28% (L2S4C2) e 6.46% (L2S2C4). A Figura 2 (c) e a Figura 2 (d) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos na cache L2 para a carga Ocean-Non, respectivamente. Os resultados revelam que o compartilhamento de cache L2 degradou o desempenho em 21.42% (cache 4-way), 24.53% (cache 8-way) e 25.83% (cache 16-way); e que o aumento da associatividade proporcionou um ganho de desempenho de 18.36% (L2S8C1), 17.23% (L2S4C2) 15.39% (L2S2C4). A Figura 2 (e) a Figura 2 (f) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos no cache L2 para a carga LU-Con, respectivamente. Os resultados mostraram um comportamento semelhante à carga Ocean Contiguous. O compartilhamento da cache L2 degradou o desempenho em 3.62% (cache 4-way), 3.59% (cache 8-way) e 3.95% (cache 16-way); e que o aumento da associatividade proporcionou um ganho de desempenho de 1.36% (L2S8C1), 1.41% (L2S4C2) e 1.04% (L2S2C4). Por fim, a Figura 2 (g) e a Figura 2 (h) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos no cache L2 para a carga LU-Non, respectivamente. Observa-se que o compartilhamento de cache L2 degradou o desempenho em 1.58% (cache 4-way), 0.11% (cache 8-way) e 7.59% (cache 16-way); e que o aumento da associatividade incentivou um ganho de desempenho de 7.58% (L2S8C1), 2.65% (L2S4C2) e 2.11% (L2S2C4). 240

6 Analisando os resultados é possível identificar dois comportamentos comuns às cargas de trabalho consideradas: (I) o aumento do compartilhamento da cache L2 degradou o desempenho e (II) o aumento da associatividade da cache L2 promoveu um ganho de desempenho. Relacionado a isso, observa-se que as maiores degradações e ganhos de desempenho foram obtidos nas cargas Ocean-Con e Ocean-Non, respectivamente. Essa característica pode ser explicada pela própria natureza da aplicação; acesso intenso e irregular à memória. Considerando a arquitetura proposta, a superescalaridade pode agravar o acesso irregular à memória (ex. : execução de instruções fora de ordem) e o compartilhamento da cache L2 dificulta que o conjunto de trabalho dos núcleos de um mesmo grupo coexistam na memória cache. No entanto, o aumento da associatividade aumenta a probabilidade de que dados mais distantes convivam simultaneamente na cache L2, fato que, não só atenua a degradação no desempenho provocada pelo acesso irregular à memória, como também proporciona ganho no desempenho. 5. Conclusões Este artigo apresenta um estudo da influência da organização de caches L2 no desempenho de processadores multicore superescalares. Para tanto, uma arquitetura com diferentes configurações de compartilhamento e organização da cache L2 foi proposta, simulada e estudada através da análise de resultados de execução de cargas de trabalho. Foram consideradas cargas de trabalho de acesso regular e irregular à memória, com conjunto de dados contíguos e não contíguos. Os resultados revelaram que o aumento do compartilhamento da cache L2 impacta negativamente no desempenho, enquanto o aumento da associatividade da cache L2 impacta positivamente no desempenho. Para cargas de trabalho com acesso irregular à memória, o ganho de desempenho foi o maior observado, em até 18.36%. Como trabalhos futuros, sugere-se a execução de mais cargas de trabalho na arquitetura proposta e o estudo em arquiteturas com suporte à simultaneous multithreading. Referências Alves, M., Freitas, H. C., and Navaux, P. O. A. (2011). High latency and contention on shared l2-cache for many-core architectures bibtex. Parallel Processing Letters, 21:85. Alves, M., Freitas, H. C., R., W. F., and A., N. O. (2007). Influência do compartilhamento de cache l2 em um chip multiprocessado sob cargas de trabalho com conjuntos de dados contíguos e não contíguos. In VIII Workshop em Sistemas Computacionais de Alto Desempenho. Borkar, S. (2007). Thousand core chips: A technology perspective. In Proceedings of the 44th Annual Design Automation Conference, DAC 07, pages Marino, M. (2006). 32-core cmp with multi-sliced l2: 2 and 4 cores sharing a l2 slice. In Computer Architecture and High Performance Computing, SBAC-PAD TH International Symposium on, pages Olukotun, K. and Hammond, L. (2005). The future of microprocessors. Queue, 3(7): Woo, S., Ohara, M., Torrie, E., Singh, J., and Gupta, A. (1995). The splash-2 programs: characterization and methodological considerations. In Computer Architecture, Proceedings., 22nd Annual International Symposium on, pages

Influência do Compartilhamento de Cache L2 em um Chip Multiprocessado sob Cargas de Trabalho com Conjuntos de Dados Contíguos e Não Contíguos

Influência do Compartilhamento de Cache L2 em um Chip Multiprocessado sob Cargas de Trabalho com Conjuntos de Dados Contíguos e Não Contíguos Influência do Compartilhamento de Cache L2 em um Chip Multiprocessado sob Cargas de Trabalho com Conjuntos de Dados Contíguos e Não Contíguos Marco A. Z. Alves, Henrique C. Freitas, Flávio R. Wagner, Philippe

Leia mais

Desafios do Mapeamento de Processos em Arquiteturas Many-Core

Desafios do Mapeamento de Processos em Arquiteturas Many-Core Desafios do Mapeamento de Processos em Arquiteturas Many-Core Professor: Philippe O. A. Navaux Instituto de Informática - UFRGS Escola Regional de Alto Desempenho São Paulo 1 Indíce Evolução dos Processadores

Leia mais

Avaliação do Consumo Energético em Arquiteturas Multi-Core com Memória Cache Compartilhada

Avaliação do Consumo Energético em Arquiteturas Multi-Core com Memória Cache Compartilhada Avaliação do Consumo Energético em Arquiteturas Multi-Core com Memória Cache Compartilhada Matheus A. Souza 1, Henrique C. Freitas 1, Marco A. Z. Alves 2, Philippe O. A. Navaux 2 1 Grupo de Arquitetura

Leia mais

FUNDAMENTOS DE ARQUITETURAS DE COMPUTADORES MEMÓRIA CACHE CONTINUAÇÃO CAPÍTULO 5. Cristina Boeres

FUNDAMENTOS DE ARQUITETURAS DE COMPUTADORES MEMÓRIA CACHE CONTINUAÇÃO CAPÍTULO 5. Cristina Boeres FUNDAMENTOS DE ARQUITETURAS DE COMPUTADORES MEMÓRIA CACHE CONTINUAÇÃO CAPÍTULO 5 Cristina Boeres Mapeamento Associativo por Conjunto! Tenta resolver o problema de conflito de blocos na mesma linha (mapeamento

Leia mais

Arquitetura de Computadores. Processamento Paralelo

Arquitetura de Computadores. Processamento Paralelo Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple

Leia mais

Universidade Federal do Rio de Janeiro Pós-Graduação em Informática. Introdução. Gabriel P. Silva. Gabriel P. Silva

Universidade Federal do Rio de Janeiro Pós-Graduação em Informática. Introdução. Gabriel P. Silva. Gabriel P. Silva Universidade Federal do Rio de Janeiro Pós-Graduação em Informática Microarquiteturas de Alto Desempenho Introdução Introdução Bibliografia: Computer Architecture: A Quantitative Approach. John L. Hennesy,

Leia mais

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von

Leia mais

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador

Leia mais

SSC0112 Organização de Computadores Digitais I

SSC0112 Organização de Computadores Digitais I SSC0112 Organização de Computadores Digitais I 18ª Aula Hierarquia de memória Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br 1 Memória Cache Método de Acesso: Associativo Localização de dados na memória

Leia mais

SSC510 Arquitetura de Computadores. 6ª aula

SSC510 Arquitetura de Computadores. 6ª aula SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas

Leia mais

Computadores e Programação (DCC/UFRJ)

Computadores e Programação (DCC/UFRJ) Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 5ª e 6ª Aulas Revisão de Hierarquia de Memória Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br 1 Memória Memória Todo componente capaz de armazenar bits de informação

Leia mais

Microarquiteturas Avançadas

Microarquiteturas Avançadas Universidade Federal do Rio de Janeiro Arquitetura de Computadores I Microarquiteturas Avançadas Gabriel P. Silva Introdução As arquiteturas dos processadores têm evoluído ao longo dos anos, e junto com

Leia mais

Multiprogramação leve em arquiteturas multi-core

Multiprogramação leve em arquiteturas multi-core Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação

Leia mais

Organização de Computadores II. Arquiteturas MIMD

Organização de Computadores II. Arquiteturas MIMD Organização de Computadores II Arquiteturas MIMD Arquiteturas UMA Arquiteturas com memória única global. Tempo de acesso uniforme para todos os nós de processamento. Nós de processamento e memória interconectados

Leia mais

Broadband Engine Cell Processor. Arquitetura e Organização de Processadores (CPM237) Rodrigo Bittencourt Motta

Broadband Engine Cell Processor. Arquitetura e Organização de Processadores (CPM237) Rodrigo Bittencourt Motta Broadband Engine Cell Processor Arquitetura e Organização de Processadores (CPM237) Rodrigo Bittencourt Motta rbmotta@inf.ufrgs.br Junho/06 Plano de Apresentação Introdução Visão Geral Organização Interna

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 17ª Aula Paralelismos nível de tarefas Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Paralelismo no nível de tarefas Paralelismo a nível de thread (TLP Thread-Level

Leia mais

5 Unidades de Processamento Gráfico GPUs

5 Unidades de Processamento Gráfico GPUs 5 Unidades de Processamento Gráfico GPUs As GPUs são processadores maciçamente paralelos, com múltiplos elementos de processamento, tipicamente utilizadas como aceleradores de computação. Elas fornecem

Leia mais

Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD

Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de

Leia mais

30/5/2011. Sistemas computacionais para processamento paralelo e distribuído

30/5/2011. Sistemas computacionais para processamento paralelo e distribuído Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento

Leia mais

Capítulo 5 Livro do Mário Monteiro Conceituação. Elementos de projeto de memória cache

Capítulo 5 Livro do Mário Monteiro Conceituação. Elementos de projeto de memória cache Capítulo 5 Livro do Mário Monteiro Conceituação Princípio da localidade Funcionamento da memória cache Elementos de projeto de memória cache Mapeamento de dados MP/cache Algoritmos de substituição de dados

Leia mais

Memória Cache. Memória Cache. Localidade Espacial. Conceito de Localidade. Diferença de velocidade entre Processador/MP

Memória Cache. Memória Cache. Localidade Espacial. Conceito de Localidade. Diferença de velocidade entre Processador/MP Departamento de Ciência da Computação - UFF Memória Cache Profa. Débora Christina Muchaluat Saade debora@midiacom.uff.br Memória Cache Capítulo 5 Livro do Mário Monteiro Conceituação Princípio da localidade

Leia mais

FERRAMENTA DE PROFILING PARA PROCESSADORES SCHNEIDER, R. C. 1, NEVES, B. S. 1

FERRAMENTA DE PROFILING PARA PROCESSADORES SCHNEIDER, R. C. 1, NEVES, B. S. 1 FERRAMENTA DE PROFILING PARA PROCESSADORES SCHNEIDER, R. C. 1, NEVES, B. S. 1 1 Universidade Federal do Pampa (UNIPAMPA) Bagé RS Brasil RESUMO O aumento da complexidade dos processadores e de suas etapas

Leia mais

Memória Cache. Walter Fetter Lages.

Memória Cache. Walter Fetter Lages. Memória Cache Walter Fetter Lages w.fetter@ieee.org Universidade Federal do Rio Grande do Sul Escola de Engenharia Departamento de Engenharia Elétrica Copyright (c) Walter Fetter Lages p.1 Introdução SRAM

Leia mais

Disciplina de Arquitetura de Computadores

Disciplina de Arquitetura de Computadores USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/

Leia mais

Introdução à Computação: Sistemas de Computação

Introdução à Computação: Sistemas de Computação Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,

Leia mais

Organização e Arquitetura de Computadores. Ivan Saraiva Silva

Organização e Arquitetura de Computadores. Ivan Saraiva Silva Organização e Arquitetura de Computadores Hierarquia de Memória Ivan Saraiva Silva Hierarquia de Memória A Organização de Memória em um computador é feita de forma hierárquica Registradores, Cache Memória

Leia mais

Estudo do impacto de consumo de potência e desempenho na inserção de um Array Reconfigurável na arquitetura Femtojava Multiciclo

Estudo do impacto de consumo de potência e desempenho na inserção de um Array Reconfigurável na arquitetura Femtojava Multiciclo Estudo do impacto de consumo de potência e desempenho na inserção de um Array Reconfigurável na arquitetura Femtojava Mateus Beck Rutzig mbrutzig@inf.ufrgs.br OUTLINE 1. Conceitos 1.1.Sistemas Embarcados

Leia mais

Memórias cache: uma introdução

Memórias cache: uma introdução Memórias cache: uma introdução João Canas Ferreira Dezembro de 2006 Contém figuras de Computer Architecture: A Quantitative Approach, J. Hennessey & D. Patterson, 3ª. ed., MKP 2006 AAC (FEUP/MIEIC) Memórias

Leia mais

Arquiteturas paralelas Parte 1

Arquiteturas paralelas Parte 1 Arquiteturas paralelas Parte 1 Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade Federal do Espírito

Leia mais

Arquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização

Arquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 1 Introdução Arquitetura e Organização 1. Arquitetura

Leia mais

Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela. Professor: Francisco Ary

Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela. Professor: Francisco Ary Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela Professor: Francisco Ary Computação Paralela Capacidade de um sistema computacional ser executado de forma simultânea,

Leia mais

Hierarquia de Memória

Hierarquia de Memória Hierarquia de Memória Organização da cache AC1 Hierarquia da Memória: Organização 1 Mapeamento Directo A cada endereço de memória corresponde apenas uma linha da cache. linha = resto (endereço do bloco

Leia mais

Memória cache segunda parte. Organização de Computadores. Aula 17. Memória cache segunda parte. 1. Mapeamento completamente associativo

Memória cache segunda parte. Organização de Computadores. Aula 17. Memória cache segunda parte. 1. Mapeamento completamente associativo Universidade Federal do Rio Grande do Sul Instituto de Informática Memória segunda parte Organização de Computadores 1. Mapeamento completamente associativo 2. Mapeamento direto 3. Mapeamento conjunto

Leia mais

Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM

Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM Universidade Federal do Pampa 15º Escola Regional de Alto Desempenho/RS Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM Matheus Beniz Bieger - Claudio Schepke

Leia mais

OpenMP: Variáveis de Ambiente

OpenMP: Variáveis de Ambiente Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de

Leia mais

Avaliação de Desempenho, Área e Energia de Caches com Controle de Poluição

Avaliação de Desempenho, Área e Energia de Caches com Controle de Poluição Avaliação de Desempenho, Área e Energia de Caches com Controle de Poluição Richard R de Souza, Giancarlo C Heck, Renato Carmo & Roberto A Hexsel 30 de outubro de 2009 WSCAD-SSC 2009 São Paulo, SP, Brasil

Leia mais

Arquiteturas de Computadores. Programa de Pós-Graduação em Ciência da Computação. Plano da aula

Arquiteturas de Computadores. Programa de Pós-Graduação em Ciência da Computação. Plano da aula Arquiteturas de Computadores Programa de Pós-Graduação em Ciência da Computação Norian Marranghello Março/Junho de 2006 Plano da aula Informações gerais Provas e testes Programa da disciplina Informações

Leia mais

Organização de Computadores

Organização de Computadores Capítulo 2-B Organização de Computadores Orlando Loques setembro 2006 Referências: principal: Capítulo 2, Structured Computer Organization, A.S. Tanenbaum, (c) 2006 Pearson Education Inc Computer Organization

Leia mais

PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register

PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register PROCESSADORES Um computador digital consiste em um sistema interconectado de processadores, memória e dispositivos de entrada e saída. A CPU é o cérebro do computador. Sua função é executar programas armazenados

Leia mais

Organização e Arquitetura de Computadores I

Organização e Arquitetura de Computadores I Organização e Arquitetura de Computadores I Slide 1 Memória Virtual os primeiros computadores (início dos anos 60) tinham memória principal muito reduzida O PDP-1 funcionava com uma memória de 4096 palavras

Leia mais

INTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL

INTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL INTRODUÇÃO À TECNOLOGIA DA ORGANIZAÇÃO COMPUTACIONAL PROFESSOR CARLOS MUNIZ ORGANIZAÇÃO DE UM COMPUTADOR TÍPICO Memória: Armazena dados e programas Processador (CPU - Central Processing Unit): Executa

Leia mais

ARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio

ARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio ARQUITETURA DE COMPUTADORES Organização de Sistemas Computacionais Prof.: Agostinho S. Riofrio Agenda 1. Unidade Central de Processamento 2. Organização da CPU 3. Interpretador 4. RISC x CISC 5. Principios

Leia mais

Organização de Computadores B - Trabalho 2

Organização de Computadores B - Trabalho 2 Organização de Computadores B - Trabalho 2 Universidade Federal do Rio Grande do Sul Instituto de Informática César Garcia Daudt cesar.daudt@inf.ufrgs.br 1. Investigar a inuência do tipo de mapeamento

Leia mais

Infraestrutura de Hardware. Explorando Desempenho com a Hierarquia de Memória

Infraestrutura de Hardware. Explorando Desempenho com a Hierarquia de Memória Infraestrutura de Hardware Explorando Desempenho com a Hierarquia de Memória Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e

Leia mais

periféricos: interfaces humano-computador (HCI) arquivo de informação comunicações

periféricos: interfaces humano-computador (HCI) arquivo de informação comunicações Introdução aos Sistemas de Computação (6) Análise de componentes num computador Estrutura do tema ISC 1. Representação de informação num computador 2. Organização e estrutura interna dum computador 3.

Leia mais

Arquitetura SUN UltraSPARC III Cu

Arquitetura SUN UltraSPARC III Cu Arquitetura SUN UltraSPARC III Cu Tasso Gomes de Faria 1 1 Instituto de Informática Universidade Federal do Rio Grande do Sul (UFRGS) Caixa Postal 15.064 91.501-970 Porto Alegre RS Brazil tfaria@inf.pucrs.br

Leia mais

UMA HIERARQUIA DE MEMÓRIA PARA UM MODELO RTL DO PROCESSADOR RISC-V SINTETISÁVEL EM FPGA

UMA HIERARQUIA DE MEMÓRIA PARA UM MODELO RTL DO PROCESSADOR RISC-V SINTETISÁVEL EM FPGA UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO UMA HIERARQUIA DE MEMÓRIA PARA UM MODELO RTL DO PROCESSADOR RISC-V SINTETISÁVEL EM FPGA PROPOSTA DE TRABALHO

Leia mais

Processadores. Principal função é executar programas armazenados na memória principal.

Processadores. Principal função é executar programas armazenados na memória principal. Processadores Principal função é executar programas armazenados na memória principal. Registradores São memórias pequenas de alta velocidade, usada para armazenar resultados temporários e certas informações

Leia mais

ARQUITETURA DE COMPUTADORES

ARQUITETURA DE COMPUTADORES RCM00014 Haswell wafer ARQUITETURA DE COMPUTADORES Prof. Luciano Bertini Site: http://www.professores.uff.br/lbertini/ Objetivos do Curso Entendimento mais aprofundado do funcionamento

Leia mais

Arquitetura e Organização de Processadores. Aulas 9 e 10. Memória cache

Arquitetura e Organização de Processadores. Aulas 9 e 10. Memória cache Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aulas 9 e 10 Memória cache Tendências tecnológicas

Leia mais

A organização e arquitetura do microprocessador IBM Power5

A organização e arquitetura do microprocessador IBM Power5 A organização e arquitetura do microprocessador IBM Power5 Rodrigo Santos de Souza Escola de Informática Universidade Católica de Pelotas (UCPEL) Rua Félix da Cunha, 412, CEP: 96010-000 rsouza@ucpel.tche.br

Leia mais

É um sinal elétrico periódico que é utilizado para cadenciar todas as operações realizadas pelo processador.

É um sinal elétrico periódico que é utilizado para cadenciar todas as operações realizadas pelo processador. Universidade Estácio de Sá Curso de Informática Disciplina de Organização de Computadores II Prof. Gabriel P. Silva - 1 o Sem. / 2005 2 ª Lista de Exercícios 1) O que é o relógio de um sistema digital?

Leia mais

Análise de Desempenho de Aplicações Paralelas do Padrão Pipeline em Processadores com Múltiplos Núcleos

Análise de Desempenho de Aplicações Paralelas do Padrão Pipeline em Processadores com Múltiplos Núcleos Análise de Desempenho de Aplicações Paralelas do Padrão Pipeline em Processadores com Múltiplos Núcleos Giuseppe G. P. Santana 1, Luís F. W. Goés 1 1 Departamento de Ciência da Computação Pontifícia Universidade

Leia mais

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL FACULDADE DE INFORMÁTICA

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL FACULDADE DE INFORMÁTICA PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL FACULDADE DE INFORMÁTICA DEPARTAMENTO: Fundamentos da Computação CURSO: Ciência da Computação DISCIPLINA: Organização e Arquitetura de Computadores

Leia mais

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES Prof. Dr. Daniel Caetano 2012-2 Lembretes Compreender o funcionamento da Arquitetura Superpipeline Compreender

Leia mais

Aluno do Curso de Ciência da Computação UNIJUÍ, 3

Aluno do Curso de Ciência da Computação UNIJUÍ, 3 PROPOSTA DE UM BALANCEADOR DE CARGA PARA REDUÇÃO DE TEMPO DE EXECUÇÃO DE APLICAÇÕES EM AMBIENTES PARALELOS 1 PROPOSAL FOR A LOAD BALANCER TO REDUCE APPLICATION RUNTIME IN PARALLEL ENVIRONMENTS Vinícius

Leia mais

Microprocessadores II - ELE 1084

Microprocessadores II - ELE 1084 Microprocessadores II - ELE 1084 CAPÍTULO III PROCESSADORES P5 3.1 Gerações de Processadores 3.1 Gerações de Processadores Quinta Geração (P5) Pentium (586) 32 bits; Instruções MMX; Concorrente K5 (AMD).

Leia mais

Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva

Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela

Leia mais

Projeto em VHDL de um Processador de Rede Intra-Chip

Projeto em VHDL de um Processador de Rede Intra-Chip Projeto em VHDL de um Processador de Rede Intra-Chip João Paulo P. Novais, Matheus A. Souza, Henrique C. Freitas Grupo de Arquitetura de Computadores e Processamento Paralelo (CArT) Departamento de Ciência

Leia mais

Segundo Trabalho Prático de Organização de Computadores B /2

Segundo Trabalho Prático de Organização de Computadores B /2 Segundo Trabalho Prático de Organização de Computadores B - 009/ Luís Armando Bianchin - 735 Instituto de Informática Universidade Federal do Rio Grande do Sul (UFRGS) Caixa Postal 5.06 9.50-970 Porto

Leia mais

Arquitetura e Organização de Processadores. Aula 08. Arquiteturas VLIW

Arquitetura e Organização de Processadores. Aula 08. Arquiteturas VLIW Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 08 Arquiteturas VLIW 1. Introdução VLIW é Very

Leia mais

Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação.

Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação. Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de Computadores I Organização e Arquitetura Básicas

Leia mais

Sistemas Operacionais. Conceitos de Hardware

Sistemas Operacionais. Conceitos de Hardware Sistemas Operacionais Conceitos de Hardware Sumário 1. Introdução 7. RISC e CISC 2. Processador 1. Operações de Processamento 2. Unidade de Controle 3. Ciclos de uma Instrução 3. Memória 1. Memória Principal

Leia mais

Memória interna para Projeto de Sistema Computacionais com Capacidade de Detecção de Erro de Escrita e Configuração de Recursos de Redundância

Memória interna para Projeto de Sistema Computacionais com Capacidade de Detecção de Erro de Escrita e Configuração de Recursos de Redundância Memória interna para Projeto de Sistema Computacionais com Capacidade de Detecção de Erro de Escrita e Configuração de Recursos de Redundância Francisco Carlos Silva Junior (bolsista do PIBITI/CNPq), Ivan

Leia mais

ARQUITETURA DE COMPUTADORES

ARQUITETURA DE COMPUTADORES RCM00014 Haswell wafer ARQUITETURA DE COMPUTADORES Prof. Luciano Bertini Site: http://www.professores.uff.br/lbertini/ Objetivos do Curso Entendimento mais aprofundado do funcionamento

Leia mais

Avaliação de consumo de potência no processador MIPS

Avaliação de consumo de potência no processador MIPS Avaliação de consumo de potência no processador MIPS Raphael Rocha da Silva 1, Riccieli Minakawa 1, Lucas Previtali Marin 1, João Victor Roman 1 1 Faculdade de Computação Universidade Federal de Mato Grosso

Leia mais

Capítulo 7 Sistemas de Memória. Ch7a 1

Capítulo 7 Sistemas de Memória. Ch7a 1 Capítulo 7 Sistemas de Memória Ch7a 1 Memórias: Revisão SRAM (Static RAM): Valor é armazenado por meio da interligação de um par de inversores Rápido, mas consome mais espaço que DRAM (4 a 6 transistores)

Leia mais

O Funcionamento do Processador

O Funcionamento do Processador O Funcionamento do Processador Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Os cinco componentes clássicos de um Computador - Controle O

Leia mais

Princípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade

Princípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade Memória Cache Princípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade Temporal Um item referenciado tende a

Leia mais

Arquitetura de Computadores

Arquitetura de Computadores Arquitetura de Computadores 2018.1 Relembrando... Memória Virtual Relembrando... Memória Virtual Proteção de Memória Relembrando... Memória Virtual Proteção de Memória TLB Relembrando... Memória Virtual

Leia mais

Ensino de arquiteturas de processadores many-core e memórias cache utilizando o simulador Simics

Ensino de arquiteturas de processadores many-core e memórias cache utilizando o simulador Simics Capítulo 3 Ensino de arquiteturas de processadores many-core e memórias cache utilizando o simulador Simics Marco Antonio Zanata Alves (UFRGS - mazalves@inf.ufrgs.br) Henrique Cota de Freitas (PUC Minas

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,

Leia mais

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos

Leia mais

Sobre Projeto no Nível RT: Bloco de controle: Bloco operativo:

Sobre Projeto no Nível RT: Bloco de controle: Bloco operativo: Sobre Projeto no Nível RT: 1. No projeto no n.vel RT (register-tranfer) n.s trabalhamos a partir da divis.o cl.ssica "bloco operativo e bloco de controle". Explique: [1,5 pontos] (a) O que., e qual. a

Leia mais

Arquitetura de Computadores Aula 11 - Multiprocessamento

Arquitetura de Computadores Aula 11 - Multiprocessamento Arquitetura de Computadores Aula 11 - Multiprocessamento Prof. Dr. Eng. Fred Sauer http://www.fredsauer.com.br fsauer@gmail.com 1/28 PROCESSAMENTO PARALELO OBJETIVO: aumentar a capacidade de processamento.

Leia mais

Uma Arquitetura Reconfigurável de Granularidade Grossa Para Multicore

Uma Arquitetura Reconfigurável de Granularidade Grossa Para Multicore Uma Arquitetura Reconfigurável de Granularidade Grossa Para Multicore Francisco Carlos Silva Junior 1, Ivan Saraiva Silva 1 1 Departamento de Computação Universidade Federal do Piauí (UFPI) Teresina PI

Leia mais

Arquitectura de Computadores (ACom)

Arquitectura de Computadores (ACom) Arquitectura de Computadores (ACom) MEAer Acetatos das Aulas Teóricas Versão 4.0 - Português Aula N o 22: Título: Sumário: cache; cache por blocos; Política de substituição; Tratamento das operações de

Leia mais

Multiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011

Multiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Multiprocessamento Patterson & Hennessy Capítulo 9 Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Tópicos Abordados Tipos comuns SMP (processamento paralelo) NUMA (placas de alto

Leia mais

Organização e Arquitetura de Computadores

Organização e Arquitetura de Computadores Organização e Arquitetura de Computadores Hierarquia de Memória: Introdução Alexandre Amory Edson Moreno Nas Aulas Anteriores Computação Organização interna de CPU Parte operativa: Lógica combinacional

Leia mais

Trabalho da disciplina. SSC Arquitetura de Computadores 14/09/2017

Trabalho da disciplina. SSC Arquitetura de Computadores 14/09/2017 Trabalho da disciplina SSC-0114 - Arquitetura de Computadores 14/09/2017 Considerações Grupos com 4 integrantes Peso: 30% da Nota Final Entrega: 20/11/2017 gem5 Michigan m5 + Wisconsin GEMS = gem5 Infraestrutura

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 21ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Coerência de Cache Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Memórias Cache Políticas

Leia mais

Disciplina: Sistemas Operacionais

Disciplina: Sistemas Operacionais Curso: Análise e Desenvolvimento de Sistemas Disciplina: Sistemas Operacionais Parte 2: Sistemas Multiprocessos, Características dos Multiprocessadores,Sistemas de Clusters, Operações básica do Sistema

Leia mais

ESTUDO SOBRE O IMPACTO DOS PROCESSADORES HOSPEDEIROS SPARC V8 E NIOS II NO DESEMPENHO DA ARQUITETURA RECONFIGURÁVEL HÍBRIDA RoSA

ESTUDO SOBRE O IMPACTO DOS PROCESSADORES HOSPEDEIROS SPARC V8 E NIOS II NO DESEMPENHO DA ARQUITETURA RECONFIGURÁVEL HÍBRIDA RoSA ESTUDO SOBRE O IMPACTO DOS PROCESSADORES HOSPEDEIROS SPARC V8 E NIOS II NO DESEMPENHO DA ARQUITETURA RECONFIGURÁVEL HÍBRIDA RoSA Alba S. B. Lopes Departamento de Informática e Matemática Aplicada da UFRN

Leia mais

COMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1. Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3.

COMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1. Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3. COMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1 Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3. 1 Trabalho de Conclusão de Curso 2 Aluno do Curso de Ciência da Computação - emiliohoffmann@hotmail.com

Leia mais

Nome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo?

Nome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo? ANO LETIVO 2018/2019 FICHA DE AVALIAÇÃO DE ARQUITETURA DE COMPUTADORES Módulo Nº: 4 Data: 14/03/20189 Tipo de Prova: Teórica Classificação: O Docente: (Rafael Henriques) Nome: N.º Ano: Turma: Turno: Leia

Leia mais

Organização de Computadores I

Organização de Computadores I Organização de Computadores I Aula 2 Material: Diego Passos http://www.ic.uff.br/~debora/orgcomp/pdf/parte2.pdf Organização de Computadores I Aula 2 1/29 Tópicos de Computação. de um Sistema de Computação..

Leia mais

Atol Fortin, Bruno da Hora, Lucas Piva, Marcela Ortega, Natan Lima, Pedro Raphael, Ricardo Sider, Rogério Papetti. 28 de novembro de 2008

Atol Fortin, Bruno da Hora, Lucas Piva, Marcela Ortega, Natan Lima, Pedro Raphael, Ricardo Sider, Rogério Papetti. 28 de novembro de 2008 Reinventando a Computação Atol Fortin, Bruno da Hora, Lucas Piva, Marcela Ortega, Natan Lima, Pedro Raphael, Ricardo Sider, Rogério Papetti Universidade de São Paulo 28 de novembro de 2008 Introdução Dr.

Leia mais

Faculdade de Computação 3 a Prova de Arquitetura e Organização de Computadores 2 Parte I Prof. Cláudio C. Rodrigues

Faculdade de Computação 3 a Prova de Arquitetura e Organização de Computadores 2 Parte I Prof. Cláudio C. Rodrigues Faculdade de Computação 3 a Prova de Parte I Prof. Cláudio C. Rodrigues Nome: Matrícula: Valor: 15 Nome: Matrícula: Valor: 15 Nome: Matrícula: Valor: 15 Nome: Matrícula: Valor: 15 Problemas: P1. Qual o

Leia mais

Hierarquia de Memória

Hierarquia de Memória No projeto de um sistema digital, deve-se ter em mente que hardware menor geralmente é mais rápido do que hardware maior. A propagação do sinal é uma das principais causas de atrasos. No caso da memória,

Leia mais

Projeto de um processador de rede intra-chip para controle de comunicação entre múltiplos cores

Projeto de um processador de rede intra-chip para controle de comunicação entre múltiplos cores Projeto de um processador de rede intra-chip para controle de comunicação entre múltiplos cores Henrique Cota de Freitas Disciplina: Arquitetura e Organização de Processadores (PPGC/UFRGS) Prof. Flávio

Leia mais

Infraestrutura de Hardware. Explorando a Hierarquia de Memória

Infraestrutura de Hardware. Explorando a Hierarquia de Memória Infraestrutura de Hardware Explorando a Hierarquia de Memória Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e executado pelo

Leia mais

SSC510 Arquitetura de Computadores. 8ª aula

SSC510 Arquitetura de Computadores. 8ª aula SSC510 Arquitetura de Computadores 8ª aula ARQUITETURAS MIMD COM MEMÓRIA COMPARTILHADA COERÊNCIA DE CACHE PROFA. SARITA MAZZINI BRUSCHI Memórias Cache Políticas de Atualização As memórias caches possuem

Leia mais

Arquitectura de Computadores

Arquitectura de Computadores Arquitectura de Computadores Hierarquia de Memória; Memória Cache (13.2 e 13.3) José Monteiro Licenciatura em Engenharia Informática e de Computadores Departamento de Engenharia Informática (DEI) Instituto

Leia mais

O Funcionamento do Processador

O Funcionamento do Processador O Funcionamento do Processador Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Os cinco componentes clássicos de um Computador - Controle O

Leia mais

ARQUITETURA DE COMPUTADORES

ARQUITETURA DE COMPUTADORES ARQUITETURA DE COMPUTADORES É pouco provável a utilização de um micro hoje em dia sem cache de memória, um sistema que utiliza uma pequena quantidade de memória estática como intermediária no acesso à

Leia mais

Processamento de áudio em tempo real utilizando dispositivos não convencionais:

Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento paralelo com Pure Data e GPU. André Jucovsky Bianchi ajb@ime.usp.br Departamento de Ciência da Computação Instituto

Leia mais

Organização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional. Professor: Francisco Ary

Organização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional. Professor: Francisco Ary Organização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional Professor: Francisco Ary Computação Paralela Capacidade de um sistema computacional executar

Leia mais

Arquiteturas de Computadores

Arquiteturas de Computadores Arquiteturas de Computadores Computadores vetoriais Fontes dos slides: Livro Patterson e Hennessy, Quantitative Approach e site do curso EE 7722, GPU Microarchitecture do Prof. David Koppelman Graphical

Leia mais

Carlos Eduardo Batista Centro de Informática - UFPB

Carlos Eduardo Batista Centro de Informática - UFPB Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por

Leia mais