Investigando a Influência da Organização de Caches L2 no Desempenho de Processadores Multicore Superescalares
|
|
- Therezinha Anna Peres Salvado
- 6 Há anos
- Visualizações:
Transcrição
1 Investigando a Influência da Organização de Caches L2 no Desempenho de Processadores Multicore Superescalares Pedro H. Penna, Henrique C. Freitas 1 Grupo de Arquitetura de Computadores e Processamento Paralelo (CArT) Pontifícia Universidade Católica de Minas Gerais pedro.penna@sga.pucminas.br, cota@pucminas.br Abstract. Multicore processors are being embraced as solution to increase performance instead of techniques that explore instruction throughput, such as superescalar pipelines. Due to that, many research efforts in computer architecture are focused on this subject. In this context, one of the problems is the L2 cache organization. This paper presents a study of how the L2 cache organization influences the performance of multicore superescalar processors. The results showed that when the granularity of L2 cache sharing increases the performance degrades, and when the L2 cache associativity increases the performance is improved. For workloads with irregular memory accesses, the performance gain was the largest observed, up to 18.36%. Resumo. Processadores multicore vêm sendo adotados como solução para o aumento do desempenho no lugar de técnicas que exploram a vazão de instruções, como pipelines superescalares. Por isso, muitos esforços de pesquisa em arquitetura de computadores estão concentrados nesse assunto. Neste contexto, um dos problemas é a organização de caches L2. Este artigo apresenta um estudo da influência da organização de caches L2 no desempenho de processadores multicore superescalares. Os resultados revelaram que o aumento do compartilhamento da cache L2 degrada o desempenho, enquanto o aumento da associatividade da cache L2 impacta positivamente no desempenho. Para cargas de trabalho com acesso irregular à memória, o ganho de desempenho foi o maior observado, em até 18.36%. 1. Introdução O desempenho de um processador está relacionado ao número de instruções concluídas por ciclo, frequência de operação ou a vazão de instruções do processador [Olukotun and Hammond 2005]. Estudos recentes apontam que o aumento da frequência não é a chave para o ganho de desempenho, uma vez que os tempos de propagação dos sinais internos ao processador devem ser atendidos. Devido a isso, abordagens que proporcionam uma maior vazão de instruções vêm sendo estudadas, destacando-se os processadores superescalares e os processadores multicore [Borkar 2007]. Em um processador superescalar, múltiplas unidades funcionais são replicadas em seu projeto e o processamento de uma instrução é dividida em uma sequência de estágios. Essa abordagem torna possível que diferentes instruções sejam executadas simultaneamente e que técnicas avançadas, tais como a execução fora de ordem e especulativa, 236
2 sejam adotadas. Dessa forma, o uso das unidades funcionais ao longo do caminho de dados do processador é maximizado e a quantidade de ciclos gastos por instrução reduz [Olukotun and Hammond 2005]. Processadores superescalares proporcionam um ganho de desempenho, pois exploram o paralelismo intrínseco existente entre as instruções. No entanto, ganhos ainda maiores são possíveis com os processadores multicore. Nessa abordagem, múltiplos elementos de processamento (núcleos) são agrupados e interconectados em um único processador, de forma que o ganho de desempenho se dê pela exploração do paralelismo entre diferentes threads [Olukotun and Hammond 2005]. Muitos esforços de pesquisa em arquiteturas de computadores realizadas nos últimos anos estão concentradas em processadores multicore [Borkar 2007]. Um dos problemas relacionados a esse tema e que vem sendo estudado é a organização de memórias cache L2 [Marino 2006] [Alves et al. 2007] [Alves et al. 2011]. Nesse contexto, diferentes organizações exercem influência direta no desempenho do processador para uma determinada aplicação. Como exemplo, considere uma aplicação multithreading que realiza acesso intenso e regular à memória. Um aumento de desempenho pode ser obtido compartilhando-se a mesma memória cache L2 entre diferentes núcleos. Isso pode ser explicado pela redução do tempo de acerto ao explorar-se a localidade espacial de dados. No entanto, se muitos núcleos compartilharem uma mesma memória cache L2, o conjunto de trabalho pode não caber na cache, implicando em um aumento da taxa de falhas e, consequentemente, uma degradação no desempenho. Esse impasse pode ser agravado para aplicações multithreading com acesso intenso e irregular à memória. Nessa situação, uma alternativa seria a de também explorar diferentes políticas de mapeamento, uma vez que uma maior associatividade favorece o aumento da dispersão dos dados encontrados na cache. Seguindo essa linha, o objetivo do presente trabalho está na investigação da influência de organização de caches L2 no desempenho de processadores multicore superescalares. Para tanto, são avaliadas diferentes configurações de compartilhamento e políticas de mapeamento sob a execução de cargas de trabalho de acesso regular e irregular à memória, com conjunto de dados contíguos e não contíguos. A principal contribuição deste trabalho está na ampliação dos estudos iniciados por outros autores [Marino 2006] [Alves et al. 2007] [Alves et al. 2011]. O restante deste trabalho está organizado da seguinte forma: na Seção 2 são apresentados os trabalhos relacionados; na Seção 3 é exposta a metodologia; na Seção 4 são apresentados os resultados obtidos; e na Seção 5 são discutidas as conclusões do trabalho. 2. Trabalhos Relacionados No estudo de [Marino 2006] é feita uma avaliação de como o compartilhamento da cache L2 impacta no desempenho de um processador multicore. A arquitetura base proposta consistia em um chip multiprocessor com 32 núcleos escalares Ultra Sparc III, cada um dotado de uma cache privada para dados e outra para instruções. Quanto às configurações de compartilhamento, foram adotadas as de 1, 2, e 4 processadores por cache L2. Cinco cargas de trabalho do conjunto de benchmarks SPLASH-2 foram trabalho selecionadas para o estudo. Ao final, os autores concluíram que compartilhamento da cache L2 promove um aumento no desempenho do processador. Comparado à configuração 237
3 onde a cache L2 é privada, observou-se ganhos de 8, 7% (FMM) e 40, 3% (Raytrace). No trabalho de [Alves et al. 2007] é realizado um estudo sobre o compartilhamento de caches L2 e sua influência no desempenho de processadores multicore. Para tanto, os autores analisaram a execução da aplicação Ocean (SPLASH-2), com conjuntos de dados contíguos e não contíguos, em uma arquitetura simulada semelhante à proposta em [Marino 2006], porém com agrupamentos de processadores por cache L2 variando de 1 até 32 processadores por grupo. Para cargas de trabalho com conjuntos de dados contíguos foi observada uma melhora no desempenho conforme aumentou-se os agrupamentos de núcleos, sendo constatado um ganho máximo de 0, 93%. Já para cargas de trabalho com conjuntos de dados não contíguos, constatou-se que o compartilhamento da memória cache L2 não favorece um ganho de desempenho. Ainda na mesma linha, os autores propuseram um trabalho complementar [Alves et al. 2011] no qual foi feita uma avaliação de diferentes organizações de compartilhamento de cache L2, mas dessa vez considerando contenções e latências de acesso a memória bem como tamanho de linha e da cache. Os autores estudaram nove aplicações do conjunto de benchmarks paralelos NAS-NPB e concluíram que o compartilhamento de cache impõe diversas restrições na latência de acesso, potência e área de ocupação no chip para aumentar o número de portas na arquitetura, e que poucas portas implicam em um gargalo de acesso à cache. Além disso, o compartilhamento de caches entre 2 e 4 processadores apresentou degradação de desempenho, devido a contenção e latência. O presente trabalho se diferencia dos trabalhos relacionados apresentados anteriormente em três aspectos: (I) ele avalia a influência do compartilhamento e associatividade da cache L2 no desempenho de um processador multicore; (II) o estudo é realizado em um processador multicore com núcleos superescalares; e (III) considera o estudo de quatro cargas de trabalho, com conjunto de dados contíguos e não contíguos. 3. Metodologia Assim como nos trabalhos relacionados [Marino 2006] [Alves et al. 2007] [Alves et al. 2011], adotou-se neste trabalho o método de simulação para a realização do estudo proposto. Nessa seção são apresentados a arquitetura de estudo proposta, o ambiente de simulação utilizado e as cargas de trabalho selecionadas Arquitetura Proposta O estudo da influência da organização de caches L2 no desempenho de processadores multicore foi realizado na arquitetura ilustrada na Figura 1. Basicamente, essa arquitetura consiste de 8 núcleos MIPS superescalares, cada um dotado de caches privadas de dados e instruções, agrupadas sob diferentes organizações de forma a compartilhar as memórias cache L2. As diferentes configurações de organização propostas variam entre 1 e 8 núcleos por cache L2 e são resumidas na tabela 1. Já as especificações da arquitetura proposta são detalhadas a seguir: Núcleos: possuem duas vias de execução, suportam o despacho e conclusão de instruções fora de ordem; e são dotados de hardware para predição de desvios. Cache : possui um tamanho total de 32 kb, linhas de 32 bytes, associatividade de 4-way e latência de acesso de 3 ciclos; e adota o protocolo LRU para substituição de blocos. 238
4 Núcleo 0 Núcleo 3 Núcleo 4 Núcleo 7 L2 L2 RAM Figura 1. Arquitetura proposta. Tabela 1. Configurações de cache. Nome Número de Núcleos por Conjuntos Conjunto L2S8C1 8 1 L2S4C2 4 2 L2S2C4 2 4 L = Level, S = Set, C = Core Cache L2: possui um tamanho total de 1 MB, linhas de 32 bytes e latência de acesso de 10 ciclos; e adota o protocolo LRU para substituição de blocos e o protocolo MESI para coerência de dados. Quanto à associatividade, para cada uma das organizações de compartilhamento de cache propostas, foram analisadas associatividades de 4-way, 8-way e 16-way. Memória Principal: tamanho total de 64 MB e latência de acesso de 200 ciclos Ambiente de Simulação e Cargas de Trabalho O ambiente utilizado para a simulação da arquitetura proposta na Subseção 3.1 foi o SESC, um simulador de sistema completo determinístico capaz de simular arquiteturas MIPS single-core, multi-core e many-core em nível de instrução. O SESC foi escolhido como ambiente de simulação por (I) suportar a execução das cargas de trabalho selecionadas para análise; (II) permitir a parametrização ultra-fina da arquitetura conforme detalhado anteriormente; e (III) por ser capaz de gerar as estatísticas de simulação relevantes para este trabalho (i.e. cache hits, cache misses e ciclos de execução). As cargas de trabalho selecionadas para o estudo foram as aplicações Ocean e LU, ambas do conjunto de benchmarks SPLASH-2 [Woo et al. 1995]. A aplicação Ocean estuda movimentos de grande escala em um oceano e caracteriza-se pelo acesso intenso e irregular à memória. Já a aplicação LU realiza a fatoração em blocos de um matriz densa no produto de uma matriz triangular inferior com uma matriz triangular superior, caracterizando-se pelo acesso intenso e regular à memória [Woo et al. 1995]. É importante ressaltar que ambas as aplicações possuem duas diferentes implementações, sendo ambas utilizadas no trabalho: uma com o conjunto de dados contíguos, e outra com o conjunto de dados não contíguos. Portanto, o comportamento de quatro cargas de trabalho foram estudadas: Ocean Contiguous (Ocean-Con), Ocean Non-Contiguous (Ocean-Non), LU Contiguous (LU-Con) e LU Non-Contiguous (LU-Non). 4. Resultados As cargas de trabalho selecionadas foram compiladas com o compilador GCC 4.0 e executadas sob entradas de tamanho da Classe-A na arquitetura proposta. Os resultados obtidos são apresentados na Figura 2 e discutidos a seguir. É importante observar que, nessa discussão, conclusões relativas à degradação ou aumento de desempenho foram tiradas a partir da análise de ciclos gastos nas simulações. A Figura 2 (a) e a Figura 2 (b) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos na cache L2 para a carga Ocean-Con, respectivamente. Observa-se que o compartilhamento da cache L2 degradou o desempenho em 41.81% (cache 4-way), 42.03% 239
5 taxa de acertos cache L2 (%) WSCAD XV Simpósio em Sistemas Computacionais de Alto Desempenho ocean-con ocean-con ciclos (milhões) (a) ocean-non (c) lu-con (b) ocean-non (d) lu-con (e) lu-non (f) lu-non (g) (h) organização de cache 4-way 8-way 16-way Figura 2. Resultados das simulações. (cache 8-way) e 41.16% (cache 16-way); e que o aumento da associatividade proporcionou um ganho de desempenho de 6.03% (L2S8C1), 7.28% (L2S4C2) e 6.46% (L2S2C4). A Figura 2 (c) e a Figura 2 (d) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos na cache L2 para a carga Ocean-Non, respectivamente. Os resultados revelam que o compartilhamento de cache L2 degradou o desempenho em 21.42% (cache 4-way), 24.53% (cache 8-way) e 25.83% (cache 16-way); e que o aumento da associatividade proporcionou um ganho de desempenho de 18.36% (L2S8C1), 17.23% (L2S4C2) 15.39% (L2S2C4). A Figura 2 (e) a Figura 2 (f) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos no cache L2 para a carga LU-Con, respectivamente. Os resultados mostraram um comportamento semelhante à carga Ocean Contiguous. O compartilhamento da cache L2 degradou o desempenho em 3.62% (cache 4-way), 3.59% (cache 8-way) e 3.95% (cache 16-way); e que o aumento da associatividade proporcionou um ganho de desempenho de 1.36% (L2S8C1), 1.41% (L2S4C2) e 1.04% (L2S2C4). Por fim, a Figura 2 (g) e a Figura 2 (h) apresentam o gráfico arquitetura vs. ciclos e taxa de acertos no cache L2 para a carga LU-Non, respectivamente. Observa-se que o compartilhamento de cache L2 degradou o desempenho em 1.58% (cache 4-way), 0.11% (cache 8-way) e 7.59% (cache 16-way); e que o aumento da associatividade incentivou um ganho de desempenho de 7.58% (L2S8C1), 2.65% (L2S4C2) e 2.11% (L2S2C4). 240
6 Analisando os resultados é possível identificar dois comportamentos comuns às cargas de trabalho consideradas: (I) o aumento do compartilhamento da cache L2 degradou o desempenho e (II) o aumento da associatividade da cache L2 promoveu um ganho de desempenho. Relacionado a isso, observa-se que as maiores degradações e ganhos de desempenho foram obtidos nas cargas Ocean-Con e Ocean-Non, respectivamente. Essa característica pode ser explicada pela própria natureza da aplicação; acesso intenso e irregular à memória. Considerando a arquitetura proposta, a superescalaridade pode agravar o acesso irregular à memória (ex. : execução de instruções fora de ordem) e o compartilhamento da cache L2 dificulta que o conjunto de trabalho dos núcleos de um mesmo grupo coexistam na memória cache. No entanto, o aumento da associatividade aumenta a probabilidade de que dados mais distantes convivam simultaneamente na cache L2, fato que, não só atenua a degradação no desempenho provocada pelo acesso irregular à memória, como também proporciona ganho no desempenho. 5. Conclusões Este artigo apresenta um estudo da influência da organização de caches L2 no desempenho de processadores multicore superescalares. Para tanto, uma arquitetura com diferentes configurações de compartilhamento e organização da cache L2 foi proposta, simulada e estudada através da análise de resultados de execução de cargas de trabalho. Foram consideradas cargas de trabalho de acesso regular e irregular à memória, com conjunto de dados contíguos e não contíguos. Os resultados revelaram que o aumento do compartilhamento da cache L2 impacta negativamente no desempenho, enquanto o aumento da associatividade da cache L2 impacta positivamente no desempenho. Para cargas de trabalho com acesso irregular à memória, o ganho de desempenho foi o maior observado, em até 18.36%. Como trabalhos futuros, sugere-se a execução de mais cargas de trabalho na arquitetura proposta e o estudo em arquiteturas com suporte à simultaneous multithreading. Referências Alves, M., Freitas, H. C., and Navaux, P. O. A. (2011). High latency and contention on shared l2-cache for many-core architectures bibtex. Parallel Processing Letters, 21:85. Alves, M., Freitas, H. C., R., W. F., and A., N. O. (2007). Influência do compartilhamento de cache l2 em um chip multiprocessado sob cargas de trabalho com conjuntos de dados contíguos e não contíguos. In VIII Workshop em Sistemas Computacionais de Alto Desempenho. Borkar, S. (2007). Thousand core chips: A technology perspective. In Proceedings of the 44th Annual Design Automation Conference, DAC 07, pages Marino, M. (2006). 32-core cmp with multi-sliced l2: 2 and 4 cores sharing a l2 slice. In Computer Architecture and High Performance Computing, SBAC-PAD TH International Symposium on, pages Olukotun, K. and Hammond, L. (2005). The future of microprocessors. Queue, 3(7): Woo, S., Ohara, M., Torrie, E., Singh, J., and Gupta, A. (1995). The splash-2 programs: characterization and methodological considerations. In Computer Architecture, Proceedings., 22nd Annual International Symposium on, pages
Influência do Compartilhamento de Cache L2 em um Chip Multiprocessado sob Cargas de Trabalho com Conjuntos de Dados Contíguos e Não Contíguos
Influência do Compartilhamento de Cache L2 em um Chip Multiprocessado sob Cargas de Trabalho com Conjuntos de Dados Contíguos e Não Contíguos Marco A. Z. Alves, Henrique C. Freitas, Flávio R. Wagner, Philippe
Leia maisDesafios do Mapeamento de Processos em Arquiteturas Many-Core
Desafios do Mapeamento de Processos em Arquiteturas Many-Core Professor: Philippe O. A. Navaux Instituto de Informática - UFRGS Escola Regional de Alto Desempenho São Paulo 1 Indíce Evolução dos Processadores
Leia maisAvaliação do Consumo Energético em Arquiteturas Multi-Core com Memória Cache Compartilhada
Avaliação do Consumo Energético em Arquiteturas Multi-Core com Memória Cache Compartilhada Matheus A. Souza 1, Henrique C. Freitas 1, Marco A. Z. Alves 2, Philippe O. A. Navaux 2 1 Grupo de Arquitetura
Leia maisFUNDAMENTOS DE ARQUITETURAS DE COMPUTADORES MEMÓRIA CACHE CONTINUAÇÃO CAPÍTULO 5. Cristina Boeres
FUNDAMENTOS DE ARQUITETURAS DE COMPUTADORES MEMÓRIA CACHE CONTINUAÇÃO CAPÍTULO 5 Cristina Boeres Mapeamento Associativo por Conjunto! Tenta resolver o problema de conflito de blocos na mesma linha (mapeamento
Leia maisArquitetura de Computadores. Processamento Paralelo
Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple
Leia maisUniversidade Federal do Rio de Janeiro Pós-Graduação em Informática. Introdução. Gabriel P. Silva. Gabriel P. Silva
Universidade Federal do Rio de Janeiro Pós-Graduação em Informática Microarquiteturas de Alto Desempenho Introdução Introdução Bibliografia: Computer Architecture: A Quantitative Approach. John L. Hennesy,
Leia maisBacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór
Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von
Leia maisSistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro
Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador
Leia maisSSC0112 Organização de Computadores Digitais I
SSC0112 Organização de Computadores Digitais I 18ª Aula Hierarquia de memória Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br 1 Memória Cache Método de Acesso: Associativo Localização de dados na memória
Leia maisSSC510 Arquitetura de Computadores. 6ª aula
SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas
Leia maisComputadores e Programação (DCC/UFRJ)
Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo
Leia maisSSC0611 Arquitetura de Computadores
SSC0611 Arquitetura de Computadores 5ª e 6ª Aulas Revisão de Hierarquia de Memória Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br 1 Memória Memória Todo componente capaz de armazenar bits de informação
Leia maisMicroarquiteturas Avançadas
Universidade Federal do Rio de Janeiro Arquitetura de Computadores I Microarquiteturas Avançadas Gabriel P. Silva Introdução As arquiteturas dos processadores têm evoluído ao longo dos anos, e junto com
Leia maisMultiprogramação leve em arquiteturas multi-core
Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação
Leia maisOrganização de Computadores II. Arquiteturas MIMD
Organização de Computadores II Arquiteturas MIMD Arquiteturas UMA Arquiteturas com memória única global. Tempo de acesso uniforme para todos os nós de processamento. Nós de processamento e memória interconectados
Leia maisBroadband Engine Cell Processor. Arquitetura e Organização de Processadores (CPM237) Rodrigo Bittencourt Motta
Broadband Engine Cell Processor Arquitetura e Organização de Processadores (CPM237) Rodrigo Bittencourt Motta rbmotta@inf.ufrgs.br Junho/06 Plano de Apresentação Introdução Visão Geral Organização Interna
Leia maisSSC0611 Arquitetura de Computadores
SSC0611 Arquitetura de Computadores 17ª Aula Paralelismos nível de tarefas Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Paralelismo no nível de tarefas Paralelismo a nível de thread (TLP Thread-Level
Leia mais5 Unidades de Processamento Gráfico GPUs
5 Unidades de Processamento Gráfico GPUs As GPUs são processadores maciçamente paralelos, com múltiplos elementos de processamento, tipicamente utilizadas como aceleradores de computação. Elas fornecem
Leia maisUniversidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD
Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de
Leia mais30/5/2011. Sistemas computacionais para processamento paralelo e distribuído
Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento
Leia maisCapítulo 5 Livro do Mário Monteiro Conceituação. Elementos de projeto de memória cache
Capítulo 5 Livro do Mário Monteiro Conceituação Princípio da localidade Funcionamento da memória cache Elementos de projeto de memória cache Mapeamento de dados MP/cache Algoritmos de substituição de dados
Leia maisMemória Cache. Memória Cache. Localidade Espacial. Conceito de Localidade. Diferença de velocidade entre Processador/MP
Departamento de Ciência da Computação - UFF Memória Cache Profa. Débora Christina Muchaluat Saade debora@midiacom.uff.br Memória Cache Capítulo 5 Livro do Mário Monteiro Conceituação Princípio da localidade
Leia maisFERRAMENTA DE PROFILING PARA PROCESSADORES SCHNEIDER, R. C. 1, NEVES, B. S. 1
FERRAMENTA DE PROFILING PARA PROCESSADORES SCHNEIDER, R. C. 1, NEVES, B. S. 1 1 Universidade Federal do Pampa (UNIPAMPA) Bagé RS Brasil RESUMO O aumento da complexidade dos processadores e de suas etapas
Leia maisMemória Cache. Walter Fetter Lages.
Memória Cache Walter Fetter Lages w.fetter@ieee.org Universidade Federal do Rio Grande do Sul Escola de Engenharia Departamento de Engenharia Elétrica Copyright (c) Walter Fetter Lages p.1 Introdução SRAM
Leia maisDisciplina de Arquitetura de Computadores
USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/
Leia maisIntrodução à Computação: Sistemas de Computação
Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,
Leia maisOrganização e Arquitetura de Computadores. Ivan Saraiva Silva
Organização e Arquitetura de Computadores Hierarquia de Memória Ivan Saraiva Silva Hierarquia de Memória A Organização de Memória em um computador é feita de forma hierárquica Registradores, Cache Memória
Leia maisEstudo do impacto de consumo de potência e desempenho na inserção de um Array Reconfigurável na arquitetura Femtojava Multiciclo
Estudo do impacto de consumo de potência e desempenho na inserção de um Array Reconfigurável na arquitetura Femtojava Mateus Beck Rutzig mbrutzig@inf.ufrgs.br OUTLINE 1. Conceitos 1.1.Sistemas Embarcados
Leia maisMemórias cache: uma introdução
Memórias cache: uma introdução João Canas Ferreira Dezembro de 2006 Contém figuras de Computer Architecture: A Quantitative Approach, J. Hennessey & D. Patterson, 3ª. ed., MKP 2006 AAC (FEUP/MIEIC) Memórias
Leia maisArquiteturas paralelas Parte 1
Arquiteturas paralelas Parte 1 Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade Federal do Espírito
Leia maisArquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização
Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 1 Introdução Arquitetura e Organização 1. Arquitetura
Leia maisOrganização de Computadores Sistema de entrada e saída (I/O) e computação paralela. Professor: Francisco Ary
Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela Professor: Francisco Ary Computação Paralela Capacidade de um sistema computacional ser executado de forma simultânea,
Leia maisHierarquia de Memória
Hierarquia de Memória Organização da cache AC1 Hierarquia da Memória: Organização 1 Mapeamento Directo A cada endereço de memória corresponde apenas uma linha da cache. linha = resto (endereço do bloco
Leia maisMemória cache segunda parte. Organização de Computadores. Aula 17. Memória cache segunda parte. 1. Mapeamento completamente associativo
Universidade Federal do Rio Grande do Sul Instituto de Informática Memória segunda parte Organização de Computadores 1. Mapeamento completamente associativo 2. Mapeamento direto 3. Mapeamento conjunto
Leia maisAvaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM
Universidade Federal do Pampa 15º Escola Regional de Alto Desempenho/RS Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM Matheus Beniz Bieger - Claudio Schepke
Leia maisOpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
Leia maisAvaliação de Desempenho, Área e Energia de Caches com Controle de Poluição
Avaliação de Desempenho, Área e Energia de Caches com Controle de Poluição Richard R de Souza, Giancarlo C Heck, Renato Carmo & Roberto A Hexsel 30 de outubro de 2009 WSCAD-SSC 2009 São Paulo, SP, Brasil
Leia maisArquiteturas de Computadores. Programa de Pós-Graduação em Ciência da Computação. Plano da aula
Arquiteturas de Computadores Programa de Pós-Graduação em Ciência da Computação Norian Marranghello Março/Junho de 2006 Plano da aula Informações gerais Provas e testes Programa da disciplina Informações
Leia maisOrganização de Computadores
Capítulo 2-B Organização de Computadores Orlando Loques setembro 2006 Referências: principal: Capítulo 2, Structured Computer Organization, A.S. Tanenbaum, (c) 2006 Pearson Education Inc Computer Organization
Leia maisPROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register
PROCESSADORES Um computador digital consiste em um sistema interconectado de processadores, memória e dispositivos de entrada e saída. A CPU é o cérebro do computador. Sua função é executar programas armazenados
Leia maisOrganização e Arquitetura de Computadores I
Organização e Arquitetura de Computadores I Slide 1 Memória Virtual os primeiros computadores (início dos anos 60) tinham memória principal muito reduzida O PDP-1 funcionava com uma memória de 4096 palavras
Leia maisINTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL
INTRODUÇÃO À TECNOLOGIA DA ORGANIZAÇÃO COMPUTACIONAL PROFESSOR CARLOS MUNIZ ORGANIZAÇÃO DE UM COMPUTADOR TÍPICO Memória: Armazena dados e programas Processador (CPU - Central Processing Unit): Executa
Leia maisARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio
ARQUITETURA DE COMPUTADORES Organização de Sistemas Computacionais Prof.: Agostinho S. Riofrio Agenda 1. Unidade Central de Processamento 2. Organização da CPU 3. Interpretador 4. RISC x CISC 5. Principios
Leia maisOrganização de Computadores B - Trabalho 2
Organização de Computadores B - Trabalho 2 Universidade Federal do Rio Grande do Sul Instituto de Informática César Garcia Daudt cesar.daudt@inf.ufrgs.br 1. Investigar a inuência do tipo de mapeamento
Leia maisInfraestrutura de Hardware. Explorando Desempenho com a Hierarquia de Memória
Infraestrutura de Hardware Explorando Desempenho com a Hierarquia de Memória Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e
Leia maisperiféricos: interfaces humano-computador (HCI) arquivo de informação comunicações
Introdução aos Sistemas de Computação (6) Análise de componentes num computador Estrutura do tema ISC 1. Representação de informação num computador 2. Organização e estrutura interna dum computador 3.
Leia maisArquitetura SUN UltraSPARC III Cu
Arquitetura SUN UltraSPARC III Cu Tasso Gomes de Faria 1 1 Instituto de Informática Universidade Federal do Rio Grande do Sul (UFRGS) Caixa Postal 15.064 91.501-970 Porto Alegre RS Brazil tfaria@inf.pucrs.br
Leia maisUMA HIERARQUIA DE MEMÓRIA PARA UM MODELO RTL DO PROCESSADOR RISC-V SINTETISÁVEL EM FPGA
UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO UMA HIERARQUIA DE MEMÓRIA PARA UM MODELO RTL DO PROCESSADOR RISC-V SINTETISÁVEL EM FPGA PROPOSTA DE TRABALHO
Leia maisProcessadores. Principal função é executar programas armazenados na memória principal.
Processadores Principal função é executar programas armazenados na memória principal. Registradores São memórias pequenas de alta velocidade, usada para armazenar resultados temporários e certas informações
Leia maisARQUITETURA DE COMPUTADORES
RCM00014 Haswell wafer ARQUITETURA DE COMPUTADORES Prof. Luciano Bertini Site: http://www.professores.uff.br/lbertini/ Objetivos do Curso Entendimento mais aprofundado do funcionamento
Leia maisArquitetura e Organização de Processadores. Aulas 9 e 10. Memória cache
Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aulas 9 e 10 Memória cache Tendências tecnológicas
Leia maisA organização e arquitetura do microprocessador IBM Power5
A organização e arquitetura do microprocessador IBM Power5 Rodrigo Santos de Souza Escola de Informática Universidade Católica de Pelotas (UCPEL) Rua Félix da Cunha, 412, CEP: 96010-000 rsouza@ucpel.tche.br
Leia maisÉ um sinal elétrico periódico que é utilizado para cadenciar todas as operações realizadas pelo processador.
Universidade Estácio de Sá Curso de Informática Disciplina de Organização de Computadores II Prof. Gabriel P. Silva - 1 o Sem. / 2005 2 ª Lista de Exercícios 1) O que é o relógio de um sistema digital?
Leia maisAnálise de Desempenho de Aplicações Paralelas do Padrão Pipeline em Processadores com Múltiplos Núcleos
Análise de Desempenho de Aplicações Paralelas do Padrão Pipeline em Processadores com Múltiplos Núcleos Giuseppe G. P. Santana 1, Luís F. W. Goés 1 1 Departamento de Ciência da Computação Pontifícia Universidade
Leia maisPONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL FACULDADE DE INFORMÁTICA
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL FACULDADE DE INFORMÁTICA DEPARTAMENTO: Fundamentos da Computação CURSO: Ciência da Computação DISCIPLINA: Organização e Arquitetura de Computadores
Leia maisARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES Prof. Dr. Daniel Caetano 2012-2 Lembretes Compreender o funcionamento da Arquitetura Superpipeline Compreender
Leia maisAluno do Curso de Ciência da Computação UNIJUÍ, 3
PROPOSTA DE UM BALANCEADOR DE CARGA PARA REDUÇÃO DE TEMPO DE EXECUÇÃO DE APLICAÇÕES EM AMBIENTES PARALELOS 1 PROPOSAL FOR A LOAD BALANCER TO REDUCE APPLICATION RUNTIME IN PARALLEL ENVIRONMENTS Vinícius
Leia maisMicroprocessadores II - ELE 1084
Microprocessadores II - ELE 1084 CAPÍTULO III PROCESSADORES P5 3.1 Gerações de Processadores 3.1 Gerações de Processadores Quinta Geração (P5) Pentium (586) 32 bits; Instruções MMX; Concorrente K5 (AMD).
Leia maisIntrodução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Leia maisProjeto em VHDL de um Processador de Rede Intra-Chip
Projeto em VHDL de um Processador de Rede Intra-Chip João Paulo P. Novais, Matheus A. Souza, Henrique C. Freitas Grupo de Arquitetura de Computadores e Processamento Paralelo (CArT) Departamento de Ciência
Leia maisSegundo Trabalho Prático de Organização de Computadores B /2
Segundo Trabalho Prático de Organização de Computadores B - 009/ Luís Armando Bianchin - 735 Instituto de Informática Universidade Federal do Rio Grande do Sul (UFRGS) Caixa Postal 5.06 9.50-970 Porto
Leia maisArquitetura e Organização de Processadores. Aula 08. Arquiteturas VLIW
Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 08 Arquiteturas VLIW 1. Introdução VLIW é Very
Leia maisUniversidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação.
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de Computadores I Organização e Arquitetura Básicas
Leia maisSistemas Operacionais. Conceitos de Hardware
Sistemas Operacionais Conceitos de Hardware Sumário 1. Introdução 7. RISC e CISC 2. Processador 1. Operações de Processamento 2. Unidade de Controle 3. Ciclos de uma Instrução 3. Memória 1. Memória Principal
Leia maisMemória interna para Projeto de Sistema Computacionais com Capacidade de Detecção de Erro de Escrita e Configuração de Recursos de Redundância
Memória interna para Projeto de Sistema Computacionais com Capacidade de Detecção de Erro de Escrita e Configuração de Recursos de Redundância Francisco Carlos Silva Junior (bolsista do PIBITI/CNPq), Ivan
Leia maisARQUITETURA DE COMPUTADORES
RCM00014 Haswell wafer ARQUITETURA DE COMPUTADORES Prof. Luciano Bertini Site: http://www.professores.uff.br/lbertini/ Objetivos do Curso Entendimento mais aprofundado do funcionamento
Leia maisAvaliação de consumo de potência no processador MIPS
Avaliação de consumo de potência no processador MIPS Raphael Rocha da Silva 1, Riccieli Minakawa 1, Lucas Previtali Marin 1, João Victor Roman 1 1 Faculdade de Computação Universidade Federal de Mato Grosso
Leia maisCapítulo 7 Sistemas de Memória. Ch7a 1
Capítulo 7 Sistemas de Memória Ch7a 1 Memórias: Revisão SRAM (Static RAM): Valor é armazenado por meio da interligação de um par de inversores Rápido, mas consome mais espaço que DRAM (4 a 6 transistores)
Leia maisO Funcionamento do Processador
O Funcionamento do Processador Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Os cinco componentes clássicos de um Computador - Controle O
Leia maisPrincípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade
Memória Cache Princípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade Temporal Um item referenciado tende a
Leia maisArquitetura de Computadores
Arquitetura de Computadores 2018.1 Relembrando... Memória Virtual Relembrando... Memória Virtual Proteção de Memória Relembrando... Memória Virtual Proteção de Memória TLB Relembrando... Memória Virtual
Leia maisEnsino de arquiteturas de processadores many-core e memórias cache utilizando o simulador Simics
Capítulo 3 Ensino de arquiteturas de processadores many-core e memórias cache utilizando o simulador Simics Marco Antonio Zanata Alves (UFRGS - mazalves@inf.ufrgs.br) Henrique Cota de Freitas (PUC Minas
Leia maisSistemas Distribuídos
Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,
Leia maisspeedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado
Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos
Leia maisSobre Projeto no Nível RT: Bloco de controle: Bloco operativo:
Sobre Projeto no Nível RT: 1. No projeto no n.vel RT (register-tranfer) n.s trabalhamos a partir da divis.o cl.ssica "bloco operativo e bloco de controle". Explique: [1,5 pontos] (a) O que., e qual. a
Leia maisArquitetura de Computadores Aula 11 - Multiprocessamento
Arquitetura de Computadores Aula 11 - Multiprocessamento Prof. Dr. Eng. Fred Sauer http://www.fredsauer.com.br fsauer@gmail.com 1/28 PROCESSAMENTO PARALELO OBJETIVO: aumentar a capacidade de processamento.
Leia maisUma Arquitetura Reconfigurável de Granularidade Grossa Para Multicore
Uma Arquitetura Reconfigurável de Granularidade Grossa Para Multicore Francisco Carlos Silva Junior 1, Ivan Saraiva Silva 1 1 Departamento de Computação Universidade Federal do Piauí (UFPI) Teresina PI
Leia maisArquitectura de Computadores (ACom)
Arquitectura de Computadores (ACom) MEAer Acetatos das Aulas Teóricas Versão 4.0 - Português Aula N o 22: Título: Sumário: cache; cache por blocos; Política de substituição; Tratamento das operações de
Leia maisMultiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011
Multiprocessamento Patterson & Hennessy Capítulo 9 Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Tópicos Abordados Tipos comuns SMP (processamento paralelo) NUMA (placas de alto
Leia maisOrganização e Arquitetura de Computadores
Organização e Arquitetura de Computadores Hierarquia de Memória: Introdução Alexandre Amory Edson Moreno Nas Aulas Anteriores Computação Organização interna de CPU Parte operativa: Lógica combinacional
Leia maisTrabalho da disciplina. SSC Arquitetura de Computadores 14/09/2017
Trabalho da disciplina SSC-0114 - Arquitetura de Computadores 14/09/2017 Considerações Grupos com 4 integrantes Peso: 30% da Nota Final Entrega: 20/11/2017 gem5 Michigan m5 + Wisconsin GEMS = gem5 Infraestrutura
Leia maisSSC0611 Arquitetura de Computadores
SSC0611 Arquitetura de Computadores 21ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Coerência de Cache Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Memórias Cache Políticas
Leia maisDisciplina: Sistemas Operacionais
Curso: Análise e Desenvolvimento de Sistemas Disciplina: Sistemas Operacionais Parte 2: Sistemas Multiprocessos, Características dos Multiprocessadores,Sistemas de Clusters, Operações básica do Sistema
Leia maisESTUDO SOBRE O IMPACTO DOS PROCESSADORES HOSPEDEIROS SPARC V8 E NIOS II NO DESEMPENHO DA ARQUITETURA RECONFIGURÁVEL HÍBRIDA RoSA
ESTUDO SOBRE O IMPACTO DOS PROCESSADORES HOSPEDEIROS SPARC V8 E NIOS II NO DESEMPENHO DA ARQUITETURA RECONFIGURÁVEL HÍBRIDA RoSA Alba S. B. Lopes Departamento de Informática e Matemática Aplicada da UFRN
Leia maisCOMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1. Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3.
COMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1 Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3. 1 Trabalho de Conclusão de Curso 2 Aluno do Curso de Ciência da Computação - emiliohoffmann@hotmail.com
Leia maisNome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo?
ANO LETIVO 2018/2019 FICHA DE AVALIAÇÃO DE ARQUITETURA DE COMPUTADORES Módulo Nº: 4 Data: 14/03/20189 Tipo de Prova: Teórica Classificação: O Docente: (Rafael Henriques) Nome: N.º Ano: Turma: Turno: Leia
Leia maisOrganização de Computadores I
Organização de Computadores I Aula 2 Material: Diego Passos http://www.ic.uff.br/~debora/orgcomp/pdf/parte2.pdf Organização de Computadores I Aula 2 1/29 Tópicos de Computação. de um Sistema de Computação..
Leia maisAtol Fortin, Bruno da Hora, Lucas Piva, Marcela Ortega, Natan Lima, Pedro Raphael, Ricardo Sider, Rogério Papetti. 28 de novembro de 2008
Reinventando a Computação Atol Fortin, Bruno da Hora, Lucas Piva, Marcela Ortega, Natan Lima, Pedro Raphael, Ricardo Sider, Rogério Papetti Universidade de São Paulo 28 de novembro de 2008 Introdução Dr.
Leia maisFaculdade de Computação 3 a Prova de Arquitetura e Organização de Computadores 2 Parte I Prof. Cláudio C. Rodrigues
Faculdade de Computação 3 a Prova de Parte I Prof. Cláudio C. Rodrigues Nome: Matrícula: Valor: 15 Nome: Matrícula: Valor: 15 Nome: Matrícula: Valor: 15 Nome: Matrícula: Valor: 15 Problemas: P1. Qual o
Leia maisHierarquia de Memória
No projeto de um sistema digital, deve-se ter em mente que hardware menor geralmente é mais rápido do que hardware maior. A propagação do sinal é uma das principais causas de atrasos. No caso da memória,
Leia maisProjeto de um processador de rede intra-chip para controle de comunicação entre múltiplos cores
Projeto de um processador de rede intra-chip para controle de comunicação entre múltiplos cores Henrique Cota de Freitas Disciplina: Arquitetura e Organização de Processadores (PPGC/UFRGS) Prof. Flávio
Leia maisInfraestrutura de Hardware. Explorando a Hierarquia de Memória
Infraestrutura de Hardware Explorando a Hierarquia de Memória Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e executado pelo
Leia maisSSC510 Arquitetura de Computadores. 8ª aula
SSC510 Arquitetura de Computadores 8ª aula ARQUITETURAS MIMD COM MEMÓRIA COMPARTILHADA COERÊNCIA DE CACHE PROFA. SARITA MAZZINI BRUSCHI Memórias Cache Políticas de Atualização As memórias caches possuem
Leia maisArquitectura de Computadores
Arquitectura de Computadores Hierarquia de Memória; Memória Cache (13.2 e 13.3) José Monteiro Licenciatura em Engenharia Informática e de Computadores Departamento de Engenharia Informática (DEI) Instituto
Leia maisO Funcionamento do Processador
O Funcionamento do Processador Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Os cinco componentes clássicos de um Computador - Controle O
Leia maisARQUITETURA DE COMPUTADORES
ARQUITETURA DE COMPUTADORES É pouco provável a utilização de um micro hoje em dia sem cache de memória, um sistema que utiliza uma pequena quantidade de memória estática como intermediária no acesso à
Leia maisProcessamento de áudio em tempo real utilizando dispositivos não convencionais:
Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento paralelo com Pure Data e GPU. André Jucovsky Bianchi ajb@ime.usp.br Departamento de Ciência da Computação Instituto
Leia maisOrganização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional. Professor: Francisco Ary
Organização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional Professor: Francisco Ary Computação Paralela Capacidade de um sistema computacional executar
Leia maisArquiteturas de Computadores
Arquiteturas de Computadores Computadores vetoriais Fontes dos slides: Livro Patterson e Hennessy, Quantitative Approach e site do curso EE 7722, GPU Microarchitecture do Prof. David Koppelman Graphical
Leia maisCarlos Eduardo Batista Centro de Informática - UFPB
Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por
Leia mais