Simulação de Memórias Cache com Latências Assimétricas em Arquiteturas Multi-core

Tamanho: px
Começar a partir da página:

Download "Simulação de Memórias Cache com Latências Assimétricas em Arquiteturas Multi-core"

Transcrição

1 Simulação de Memórias Cache com Latências Assimétricas em Arquiteturas Multi-core Julio C. S. Anjos, Felipe L. Severino ULBRA - Universidade Luterana do Brasil - Sistemas de Informação - Guaíba UFRGS - Universidade Federal do Rio Grande do Sul - Instituto de Informática Rio Grande do Sul, RS, Brasil Resumo As novas arquiteturas multi-core apresentam grande capacidade para o aumento de desempenho dos atuais e futuros processadores, entretanto, tratando de aplicações tera-scale, os futuros processadores devem ser ainda mais rápidos para fornecer toda a capacidade de processamento requerida por essas aplicações. Nesse sentido, os futuros processadores multi-core deveram adotar novas tecnologias para se obter um elevado alto grau de paralelismo e vazão de dados. As redes de interconexão intra-chip, por exemplo, apresentam diversos aspectos positivos para serem adotadas em futuros processadores many-core. Nesse contexto, as memórias cache são peça chave no desempenhos das futuras arquiteturas. Assim fica clara a importância do ensino das novas tecnologias para os futuros cientistas da computação. Esse trabalho apresenta um estudo de caso, onde foi utilizado um ambiente de simulação completo para fazer aproximações e avaliar os possíveis impactos de diferentes organizações de memória cache nos futuros processadores multi-core. Palavras-chave: Arquitetura de Computadores, Simuladores, Multi-Core, HPC 1 Introdução A demanda por maior capacidade de processamento e as novas tecnologias de integração levaram a criação de arquiteturas com diversos núcleos de processamento em um único chip. Esses processadores que possuem múltiplos núcleos de processamento dentro do mesmo chip são chamados de multi-core ou CMP (chip multiprocessor). Com estas novas arquiteturas, levanta-se a questão da melhor utilização dos demais recursos presentes no processador como, por exemplo, o compartilhamento das memórias cache que pode levar ao uso mais eficiente de recursos e a redução de perdas ocasionadas pela necessidade de tráfego de

2 coerência de dados (Sibai 2008). Porém, por outro lado, esse compartilhamento pode levar à perdas de desempenho devido às contenções no número de portas de acesso a memória e aos conflitos no uso da interconexão (Alves, Freitas e Navaux 2009). Ainda tratando de processadores multi-core, as redes de interconexão intra-chip são apontadas como solução para as interconexões dentro dos processadores (Freitas, Navaux e Santos 2008). Dessa forma, pode-se pensar no uso dessas redes de interconexão para interligar os diversos núcleos de processamento aos bancos de memória cache L2 por exemplo. Um chip constitui-se muitas vezes de um sistema inteiro, abrindo um grande leque para o uso de aplicações que empregam processamento massivamente paralelo e processos firmemente independentes, muitas vezes com requisitos de tempo-real, necessitando de aspectos complexos das estruturas de comunicação, muitos deles endereçados por Network-on-Chip (NoC) (Bjerregaard e Mahadevan 2006). Nesse contexto, e notando que estas tecnologias demandam ainda por muita pesquisa, o ensino dos novos conceitos de multi-core tornam-se muito importantes para os futuros cientistas da computação. Assim, o objetivo desse artigo é demostrar o uso de um simulador completo de sistema, aplicado no ensino de tecnologias emergentes, através de um experimento que visa simular por intermédio do uso de memórias cache com latências assimétricas, o uso de uma NoC interconectando diversos núcleos de processamento à memória cache L2. Para a avaliação do experimento, foi utilizado o benchmark paralelo NAS e comparando o desempenho de memórias cache compartilhadas e privadas, em arquiteturas de 8 e 16 núcleos. As demais seções deste artigo são divididas da seguinte maneira: na seção 2 são apresentados alguns trabalhos correlatos; a seção 3 trás a metodologia utilizada além de detalhes da modelagem dos experimentos; na seção 4 são apresentados os resultados do estudo de caso; na seção 5 são apresentadas as conclusões e trabalhos futuros; os agradecimentos são apresentados na seção 6. 2 Trabalhos Correlatos Diversos estudos vêm sendo feitos por fabricantes (AMD 2009), (Held, Bautista e Koe 2006), (Kumar, Hughes e Nguyen 2007) e pesquisadores (Aboudja e Simonson 2006), (Alves, Freitas e Navaux 2009), (Chaparro et al. 2007),(Karmarkar 1991), (Tao, Kunze e Karl 2008) procurando identificar um modelo que permita o uso de diversos núcleos de processamento com aumento significativo do speedup. A criação de arquiteturas multi-core incrementou significativamente o desempenho dos processadores,

3 porém, os atuais processadores são ineficientes para tratar informações da ordem de Petabytes como em aplicações de simulação refinada de previsão do tempo, simulação de fenômenos extremos (ciclones, furacões, etc.), ou ainda, tratamento de informações oriundas de experimentos físicos como o LHC - Large Hadron Collider. O que motiva o desenvolvimento de novas arquiteturas. Dentro deste contexto, para lidar com o uso de diversos cores em um único chip prevê-se o uso de interconexão. Um exemplo de projeto que busca soluções para a interconexão entre vários cores é o projeto Tera-Scale (Held, Bautista e Koe 2006), (Intel 2009), que projeta a arquitetura de um chip com 80 cores. Sobre o uso de simuladores, como o Simics, diversos trabalhos (Tao, Kunze e Karl 2008),(Magnusson e Werner 1995) fazem o uso deste tipo de ferramenta para efetuar simulações e permitir testar rapidamente novas propostas de arquiteturas ainda inexistentes, de forma eficiente. 3 Metodologia Dentre as metodologias de modelagem possíveis, podemos planejar usar modelagem analítica, simulações ou prototipagem (Jain 1991). A modelagem analítica envolve formulações matemáticas, sendo uma técnica aproximada de difícil adequação a modelos complexos. A prototipagem, por sua vez, é feita em mais baixo nível com alto detalhamento, alto custo e considerando modelos ainda inexistentes de difícil implementação. Por fim, a simulação tem uma complexidade média, sendo possível criar modelos inexistentes para serem testados em ambientes controlados tornando-se, portanto, uma opção interessante e adequada para o desenvolvimento deste trabalho. Assim, nossa proposta é apresentar o uso do simulador Simics, como instrumento pedagógico para o ensino de arquiteturas de computadores. Para alcançar este objetivo, será avaliado um estudo de caso, que será um experimento com uso de memórias caches com tempos de acesso assimétricos e simétricos. Essa modelagem com diferentes tipos de latências tenta abstrair a modelagem de uma interconexão do tipo NoC. Logo, este experimento objetiva mostrar os procedimentos para a simulação de arquiteturas com diferentes latências entre as memórias cache L2 e L3 devido ao posicionamento do núcleo de processamento na rede de interconexão. Apresentando duas configurações base, uma com tempo de acesso simétrico com memórias cache L2 compartilhadas a cada 2 núcleos e outra com tempo de acesso assimétrico com memórias cache L2 privadas para cada núcleo de processamento. Partindo das configurações base, serão avaliados também processadores com 8 e 16 núcleos, simulados como um único chip. Entretanto, uma dos pontos fracos dessa abordagem é que não haverá

4 simulação da estrutura de roteamento, logo, as possíveis contenções desse dispositivo também não serão modeladas. Para a avaliação dos experimentos simulados, a carga de trabalho paralela de aplicações científicas NAS Parallel Benchmark será adotada. 3.1 Simulador As simulações foram feitas com o simulador Simics versão 4.0, desenvolvido pela Virtutech (Virtutech 2009). Este simulador suporta a emulação de diferentes arquiteturas e organizações. Por se tratar de um simulador completo de sistema, as simulações suportam instalação de sistemas operacionais, executando os mesmos binários de um sistema real, tendo a habilidade de simular microprocessadores como PowerPC, x86, ARM e MIPS, além de outros dispositivos digitais como memórias, discos rígidos, dispositivos ethernet entre outros. O simulador utilizado, trabalha com dois modos de execução, o primeiro modo, para a preparação do ambiente simulado é o modo fast, após a modelagem pronta para execuções e medições, foi ativado o modo stall, onde simulam-se todas as transações da hierarquia de memória, fornecendo informações coerentes a respeito da memória cache. 3.2 Modelagem Para a simulação foi utilizado o modelo SunFire Walnut, que representa um servidor Sun Enterprise 6500, com processadores UltraSPARC II. O sistema operacional executado foi o Ubuntu Server (kernel versão 2.6) compilado com suporte a SMP. As configurações de latências para 8 e 16 núcleos de processamento, são apresentadas na Tabela 1, assim como a associatividade, o tamanho das memórias cache e as políticas de atualização de blocos modeladas. Table 1: Configurações de memórias cache.

5 As latências em ciclos utilizadas são baseadas no processador Nehalem da Intel (Intel 2009). Portanto, todas as memórias tem 64 linhas de dados. A política de substituição da cache utiliza LRU (Least Recent Used), a qual elimina da memória cache os blocos menos recentemente usados (Rose e Navaux 2003). Após definir os parâmetros iniciais para os experimentos, quatro organizações diferentes foram propostas. Duas organizações modeladas possuem 8 núcleos de processamento e as outras duas possuem 16 núcleos, sendo que a diferença entre as organizações de mesmo número de núcleos está na organização de memória cache modelada. Assim, foram modelas organizações de memória cache privadas para cada núcleos e organizações com uma memória cache L2 compartilhada a cada dois núcleos de processamento. A primeira organização, ilustrada na Figura 1 apresenta a configuração adotada para 8 núcleos de processamento, cada núcleo tem memórias cache L1 (instruções e dados) e L2 privadas, a latência de todo o sistema de memória cache de cada núcleo é dada pela distância total deste à memória cache L3, somando então as latências das memórias cache aos saltos necessários para o acesso aos dados. Figure 1: Processador com 8 cores e cache L2 privada. As latências da memória cache L3 são decompostas em latência da memória cache L2, latência da memória cache L3 e latência da interconexão utilizada para simular os experimentos com 8 núcleos de processamento. Por exemplo no caso do Core0, a latência total é calculada a partir da soma da latência de memória cache L2 (10 ciclos) e L3 (35 ciclos) mais o total de saltos na interconexão seguindo o modelo da Figura 1. Logo a latência de acesso a memória cache L3 será ( )=49. Já para o Core1, teremos ( =48) e assim sucessivamente. A Figura 2, também com 8 cores apresenta a memória cache L2 compartilhada por 2 núcleos. Para este caso, o cálculo da latência de acesso a memória cache L3 definido a cada 2 cores é igual a 49

6 ciclos. Figure 2: Processador com 8 cores e cache L2 compartilhada. A Figura 3 apresenta a configuração adotada para 16 núcleos de processamento, cada núcleo tem memória cache L1 ( instruções e dados) privada e L2 também privada, a latência de todo o sistema de memória cache, de cada núcleo é dada pela distância deste à memória cache L3. Figure 3: Processador com 16 núcleos de processamento e memórias cache L2 privadas. Neste caso com 16 núcleos de processamento, por exemplo no Core0 a latência de acesso a memória cache L3 é dada pela latência da memória cache L2 (10 ciclos) mais a latência da interconexão, somada com a latência da própria memória cache L3 (35 ciclos), ou seja, ( )=51. Já para o Core1 o valor será ( )=50, no Core2 será ( )=49 e assim por diante.

7 A modelagem da organização com 16 núcleos de processamento, com memórias cache L2 compartilhadas, está ilustrada na Figura 4. Os fatores, apresentados na figura mostram a distância da memória cache L2 à memória cache L3 pela rede de interconexão. Figure 4: Processador com 16 cores e cache L2 compartilhada. O cálculo da latência da memória cache L3 da arquitetura ilustrada pela Figura 4 é feita de maneira similar as anteriores. Considerando-se a memória cache L2 compartilhada, a latência total é dada pela latência proveniente das memórias cache somada à latência introduzida pela rede de interconexão, a qual varia dependendo da distância do núcleos de processamento. Assim no Core0 e Core1, a latência da memória cache L3 ( 35 cilcos) é dada pela latência desta memória, somada a latência da memória cache L2 (10 ciclos), somando ainda a latência da interconexão, ou seja, ( )=49. Para os casos do Core 2 e Core3, a latência da cache L3 será ( )=48 e assim sucessivamente para os demais pares de cores. 3.3 Carga de Trabalho A carga de trabalho utilizada foi o benchmark NAS 3.3, criado pelo NASA Ames Laboratory. Esta carga de trabalho é constituída de oito algoritmos, onde cinco são do tipo kernel (IS, EP, MG, CG, FT) e três são aplicações compactas (LU, SP, BT) (Bailey, Barszcz et al. 1994). Neste experimento são utilizados somente os algoritmos BT (Block Tridiagonal) e CG (Conjugate Gradient), paralelizados com primitivas OpenMP. A quantidade de threads utilizadas nos experimentos foi igual ao número de núcleos de processamento de cada experimento. O algoritmo CG é uma resolução de sistemas lineares através do método de gradiente conjugado

8 (CG), enquanto a aplicação BT é baseada em Computer Fluid Dynamics (CFD) (Dinâmica de Fluídos por Computador) e utiliza o método de multiplicação de sistemas independentes não-diagonais dominantes, resolvendo equações escalares penta-diagonais [Bailey, Barszcz et al. 1994]. Estas aplicações foram escolhidas uma vez que possuem características diferentes do ponto de vista do acesso a dados, uma vez que a aplicação CG apresenta acesso não linear a dados enquanto a aplicação BT possui acesso alinhado aos dados. As simulações BT e CG foram recompiladas para executarem chamadas a uma função magicinstruction que é uma função distribuída com o Simics a qual é reconhecida durante a simulação e assim podemos capturar medições dos dispositivos que interagem na simulação, por intermédio de outros comandos ou scripts escritos em linguagem Python, conforme o exemplo a_callback(user_arg, cpu, arg): file = open ( result_8cor-l2parbt.dat, a+w ) #CPU 0 info file.write ( conf.cpu0.cycles= +str(conf.cpu0.cycles)+ \n ) file.write ( conf.cpu0.steps= +str(conf.cpu0.steps)+ \n ).. Assim, os resultados de cada simulação foram gerados automaticamente em um arquivo para posterior análise dos dados. 4 Resultados Nesta seção, serão apresentados resultados sobre o estudo de caso, com valores e análise das simulações. Para facilitar o entendimento, foram utilizadas representações das arquiteturas com a notação da quantidade de núcleos 8 ou 16, seguido do benchmark executado BT ou CG adicionando a estrutura simulada da organização da memória cache L2 privada Priv ou compartilhada Comp. Na Figura 5, são apresentados o número total de leituras e escritas na memória cache L2 nos benchmarks BT e CG. Neste caso, podemos perceber que o algorítimo BT satura mais a escrita em memória comparada com a aplicação CG. Nesta medição há um desvio padrão igual a σ < 0,01%, qualificando a medida.

9 Figure 5: Leituras e escritas de BT e CG na memória cache L2. A Figura 6 apresenta o gráfico com a taxa de falta de dados durante leituras na memória cache L2 para as diversas organizações avaliadas, nas medições houveram desvio padrão igual a σ < 2,74% para a aplicação BT e um desvio padrão igual a σ < 0,25% para a aplicação CG. Podemos ver que a simulação BT, que gerou maior quantidade de escrita, também gere um número maior de faltas de dados na memória cache L2 e conforme nos mostra Patterson e Hennessy (Henessy e Patterson 2007), aumentar o tamanho da cache, implica em um número menor de erros. Figura 6. Taxa de falta de dados durante a leitura na memória cache L2. Entretanto, uma vez que não se manteve a proporcionalidade do tamanho da memória cache L2 por núcleo, na organização do experimento de memória privada para memória compartilhada (ou seja, 256 KB por núcleo na configuração da memória cache L2 privada contra 128KB por núcleo na memória cache L2 compartilhada, ou seja, redução de 50%), era previsto um número maior de faltas de dados durante leituras na memória cache L2 ocasionados por conflito ou por capacidade. Porém, pelo

10 que se observa nos resultados, esta diferença mostra-se pouco significativa, pois os dados colhidos apresentam mesma ordem de grandeza, com pequenas oscilações. Na arquitetura com 8 núcleos de processamento, com o uso de uma latência assimétrica na memória cache L2 privada, diminuiu-se o efeito de conflitos, resultando em um número menor de faltas de dados durante leituras na memória cache L2, o mesmo acontece com 16 núcleos, porém, nesta organização houve um número maior de núcleos compartilhando a memória cache L2 e também uma assimetria de latências maior, o que minimizou as faltas nas leituras de dados. Já com a aplicação CG, tanto com 8 ou 16 núcleos, ocorreu um comportamento semelhante para as faltas de leitura na memória cache, não apresentando diferenças significativas nos percentuais de faltas de dados de uma arquitetura com memória cache L2 privada para uma arquitetura compartilhada. Na Figura 7 verificamos o comportamento de acertos de escrita e leitura respectivamente, na memória cache L3, com um desvio padrão igual a σ<0,01%. O comportamento obtido se explica, em parte, pelo comportamento das aplicações nos testes e pelo tamanho da memória cache L3. Ressaltando que as leituras e escritas são medidas em milhões de operações. Figure 7: Número de acertos de leitura na memória cache L3. O resultado de 86.42% e 93,47% de acertos de leitura na memória cache L3, no benchmark CG em 16 núcleos, são em decorrência de fatores de conflito, como por exemplo erros por colisões relacionados com a associatividade da memória cache e com a política de atualização write-back adotada neste nível de memória cache, conforme relatam Patterson e Hennessy (Henessy e Patterson 2007) e Jie Tao, et al. (Tao, Kunze e Karl 2008). As medidas para o benchmark BT entre 99,82% e 99,93% tanto para 8 como 16 núcleos indicam um número de acertos de escrita elevado.

11 A Figura 8 mostra um nível de acertos aceitáveis, se compararmos com experimentos equivalentes, os valores de acertos de 97,83% para o pior caso, com memória cache L2 individual, para o comportamento de CG em para 16 cores, onde os dados encontram-se compartilhados na memória cache L3 exclusivamente, com desvio padrão, em todas as medições. 5 Conclusões Figure 8: Número de acertos de escrita na memória cache L3. O uso de instrumentos pedagógicos, como simuladores de arquiteturas, permite ao professor de arquitetura de computadores, não somente relatar e apresentar as diferentes estruturas internas de processadores e demais dispositivos, mas também propiciar ao aluno o entendimento de conceitos, através da vivência em projetos de um sistema completo. Como foi demonstrado no estudo de caso, o uso de latência assimétrica pode ser bastante interessante para se obter tendencias de organizações de memórias cache utilizando redes de interconexão intra-chip. Podemos ver através dos experimentos que as variações na organização tem grande impacto no número de faltas de dados, no caso estudado, o efeito da diminuição de faltas de dados com mudanças nas latências assimétricas foi perceptível. Conforme apresentou o estudo de caso, os mesmos passos de execução mostrados podem ser repetidos em sala de aula, propiciando um auxílio no aprendizado do funcionamento de estruturas com memória cache, conhecimento de mecanismos de interconexões além de diversos outros conceitos dos atuais e futuros processadores multi-core. Como trabalhos futuros, planeja-se aumentar a quantidade de núcleos simulados. Planeja-se

12 também modelar uma NoC com ferramentas mais robustas como o Ruby para comparar o comportamento entre as arquiteturas simuladas. 6 Agradecimentos Este trabalho foi financiado parcialmente com recursos do CNPq. Referências ABOUDJA, H.; SIMONSON, J. Real-time systems performance improvement with multi-level cache memory. CCECE 06. Canadian Conference on Electrical and Computer Engineering, p , Maio ALVES, M. A. Z.; FREITAS, H. C.; NAVAUX, P. O. A. Investigation of shared l2 cache on manycore processors. In: ARCS 09-22th International Conference on Architecture of Computing Systems (S.l.): VDE Verlang, v. 1, p ISBN AMD. Product Brief: Second-Generation AMD Opteron. Janeiro BAILEY, D.; BARSZCZ, E. et al. THE NAS PARALLEL BENCHMARKS. (S.l.), Março Disponìvel em: <http://www.nas.nasa.gov/resources/software/npb.html>. BJERREGAARD, T.; MAHADEVAN, S. A survey of research and practices of network-on-chip. ACM Comput. Surv., ACM, New York, NY, USA, v. 38, n. 1, p. 1, ISSN CHAPARRO, P. et al. Understanding the thermal implications of multicore architectures. IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS, v. 18, n. 08, p , Agosto FREITAS, H. C.; NAVAUX, P. O. A.; SANTOS, T. G. S. Noc architecture design for multi-cluster chips. IEEE International Conference on Field Programmable Logic and Applications, p , Setembro HELD, J.; BAUTISTA, J.; KOE, S. Intel corporationfrom a few cores to many: A tera-scale computing research overview. Intel Technology Journal, HENESSY, J. L.; PATTERSON, D. A. Computer Architecture - A quantitative approach. 4. ed. (S.l.): Morgan Kaufmann, ISBN INTEL. Intel 64 and IA-32 Architectures Optimization Reference Manual. Março Disponìvel em: <www.intel.com/assets/pdf/manual/ pdf>. INTEL. An Introduction to the Intel QuickPath Interconnect. Document number: us. (S.l.),

13 Janeiro JAIN, R. The Art of Computer Systems Performance Analysis: Techniques for Experimental Design, Measurement, Simulation, and Modeling. Wiley- interscience. (S.l.): Wiley- Interscience, ISBN KARMARKAR, N. A new parallel architecture for sparse matrix computation based on finite projective geometries. In: Supercomputing 91: Proceedings of the 1991 ACM/IEEE conference on Supercomputing. New York, NY, USA: ACM, p ISBN KUMAR, S.; HUGHES, C. J.; NGUYEN, A. Architectural support for fine-grained parallelism on multi-core architectures. Intel Technology Journal, v. 11, n. 3, p , Agosto ISSN X. MAGNUSSON, P.; WERNER, B. Efficient memory simulation in simics. In: In Proceedings of the 28th Annual Simulation Symposium. (S.l.: s.n.), p ROSE, C. A. F. D.; NAVAUX, P. O. A. Arquiteturas Paralelas. 1. ed. (S.l.): Sagra Luzzatto, (Livros Didáticos 15, v. 1). ISBN SIBAI, F. N. On the performance benefits of sharing and privatizing second and third-level cache memories in homogeneous multi-core architectures. Microprocess. Microsyst., Elsevier Science Publishers B. V., Amsterdam, The Netherlands, The Netherlands, v. 32, n. 7, p , ISSN TAO, J.; KUNZE, M.; KARL, W. Evaluating the cache architecture of multicore processors. In: PDP 08: Proceedings of the 16th Euromicro Conference on Parallel, Distributed and Network-Based Processing (PDP 2008). Washington, DC, USA: IEEE Computer Society, p ISBN VIRTUTECH. Use of Simics in Academia. Abril Disponìvel em: <http://www.virtutech.com/academia>.

Ensino de Arquiteturas de Processadores Multi-Core Através de um Sistema de Simulação Completo e da Experiência de um Projeto de Pesquisa *

Ensino de Arquiteturas de Processadores Multi-Core Através de um Sistema de Simulação Completo e da Experiência de um Projeto de Pesquisa * Ensino de Arquiteturas de Processadores Multi-Core Através de um Sistema de Simulação Completo e da Experiência de um Projeto de Pesquisa * Henrique C. Freitas, Marco A. Z. Alves, Nicolas B. Maillard,

Leia mais

Arquiteturas Multicore *

Arquiteturas Multicore * Arquiteturas Multicore * Douglas Camargo Foster 1 1 Programa de Pós-Graduação em Informática (PPGI) Universidade Federal de Santa Maria (UFSM) Av. Roraima, 1000 Centro de Tecnologia (CT) 97.105-900 Camobi,

Leia mais

Em Direção à Comparação do Desempenho das Aplicações Paralelas nas Ferramentas OpenStack e OpenNebula

Em Direção à Comparação do Desempenho das Aplicações Paralelas nas Ferramentas OpenStack e OpenNebula Em Direção à Comparação do Desempenho das Aplicações Paralelas nas Ferramentas OpenStack e OpenNebula Carlos A. F Maron¹, Dalvan Griebler², Adriano Vogel¹, Claudio Schepke³ ¹Curso Superior de Tecnologia

Leia mais

Redução de OS Jitter em Aplicações de Computação de Alto Desempenho

Redução de OS Jitter em Aplicações de Computação de Alto Desempenho Redução de OS Jitter em Aplicações de Computação de Alto Desempenho Autor: Elder V. P. Sobrinho Orientador: Rivalino Matias Jr. Programa de Pós-Graduação em Ciência da Computação Universidade Federal de

Leia mais

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução Arquitetura e Organização de Computadores Capítulo 0 - Introdução POR QUE ESTUDAR ARQUITETURA DE COMPUTADORES? 2 https://www.cis.upenn.edu/~milom/cis501-fall12/ Entender para onde os computadores estão

Leia mais

Multi-processamento. Arquitecturas MIMD de memória partilhada Multi-cores heterogéneos Multi-processadores

Multi-processamento. Arquitecturas MIMD de memória partilhada Multi-cores heterogéneos Multi-processadores Multi-processamento Arquitecturas MIMD de memória partilhada Multi-cores heterogéneos Multi-processadores Arquitecturas MIMD de memória distribuída Massive Parallel Computers Sistemas distribuídos Ainda

Leia mais

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução Arquitetura e Organização de Computadores Capítulo 0 - Introdução POR QUE ESTUDAR ARQUITETURA DE COMPUTADORES? 2 https://www.cis.upenn.edu/~milom/cis501-fall12/ Entender para onde os computadores estão

Leia mais

Avaliação de Desempenho em Sistemas de Computação e Comunicação

Avaliação de Desempenho em Sistemas de Computação e Comunicação Avaliação de Desempenho em Sistemas de Computação e Comunicação Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM UFES Objetivos

Leia mais

Comparação entre Máquinas Virtuais Java e CLI em Algoritmos de Computação Numérica Intensiva

Comparação entre Máquinas Virtuais Java e CLI em Algoritmos de Computação Numérica Intensiva Comparação entre Máquinas Virtuais Java e CLI em Algoritmos de Computação Numérica Intensiva Francisco José Lins Magalhães, Francisco Heron de Carvalho-Junior e Jefferson de Carvalho Silva 1 Departamento

Leia mais

ALGORÍTMOS PARALELOS (Aula 2) LCAD. Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES

ALGORÍTMOS PARALELOS (Aula 2) LCAD. Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES ALGORÍTMOS PARALELOS (Aula 2) Neyval C. Reis Jr. OUTUBRO/2004 LCAD Laboratório de Computação de Alto Desempenho DI/UFES Programa do Curso LCAD 1. Introdução 2. Arquitetura de Computadores 3. Arquiteturas

Leia mais

Paralelização de Simuladores de Hardware Descritos em SystemC

Paralelização de Simuladores de Hardware Descritos em SystemC Paralelização de Simuladores de Hardware Descritos em SystemC 18 de maio de 2011 Roteiro Motivação Introdução à SLDL SystemC O Escalonador SystemC Simulação Paralela baseada em Eventos Discretos Suporte

Leia mais

ESTUDO PRELIMINAR SOBRE A ESCALABILIDADE DE UM ALGORITMO GENÉTICO PARALELIZADO COM OPENMP. Mateus Fontoura Gomes da Rosa Márcia C.

ESTUDO PRELIMINAR SOBRE A ESCALABILIDADE DE UM ALGORITMO GENÉTICO PARALELIZADO COM OPENMP. Mateus Fontoura Gomes da Rosa Márcia C. ESTUDO PRELIMINAR SOBRE A ESCALABILIDADE DE UM ALGORITMO GENÉTICO PARALELIZADO COM OPENMP Mateus Fontoura Gomes da Rosa Márcia C. Cera Roteiro Introdução Problema de Roteamento de Veículos Objetivos da

Leia mais

Avaliação do Compartilhamento das Memórias Cache no Desempenho de Arquiteturas Multi-Core

Avaliação do Compartilhamento das Memórias Cache no Desempenho de Arquiteturas Multi-Core UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA PROGRAMA DE PÓS-GRADUAÇÃO EM COMPUTAÇÃO MARCO ANTONIO ZANATA ALVES Avaliação do Compartilhamento das Memórias Cache no Desempenho de Arquiteturas

Leia mais

GUIA DE FUNCIONAMENTO DA UNIDADE CURRICULAR

GUIA DE FUNCIONAMENTO DA UNIDADE CURRICULAR Curso Engenharia Informática Ano letivo 2012-2013 Unidade Curricular Arquitectura de Computadores ECTS 6 Regime Obrigatório Ano 2º Semestre 2ºsem Horas de trabalho globais Docente (s) Luis Figueiredo Total

Leia mais

Imagem retirada de documentações de treinamentos oficiais INTEL

Imagem retirada de documentações de treinamentos oficiais INTEL O que é Hyper-Threading (HT)? Hyper-Threading (HT) é uma tecnologia existe nos processadores que visa explorar com mais eficiência o uso da CPU, o grande foco desta tecnologia é evitar ociosidade de processamento

Leia mais

Desempenho de um Cluster Virtualizado em Relação a um Cluster Convencional Similar

Desempenho de um Cluster Virtualizado em Relação a um Cluster Convencional Similar Desempenho de um Cluster Virtualizado em Relação a um Cluster Convencional Similar David Beserra 1, Alexandre Borba¹, Samuel Souto 1, Mariel Andrade 1, Alberto Araujo 1 1 Unidade Acadêmica de Garanhuns

Leia mais

Processadores. Prof. Alexandre Beletti Ferreira

Processadores. Prof. Alexandre Beletti Ferreira Processadores Prof. Alexandre Beletti Ferreira Introdução O processador é um circuito integrado de controle das funções de cálculos e tomadas de decisão de um computador. Também é chamado de cérebro do

Leia mais

Prof. Marcelo de Sá Barbosa SISTEMAS DISTRIBUIDOS

Prof. Marcelo de Sá Barbosa SISTEMAS DISTRIBUIDOS Prof. Marcelo de Sá Barbosa SISTEMAS DISTRIBUIDOS 1. Introdução a supercomputação 2. Visão geral de Mainframe 3. Cluster de computadores 4. Cluster Beowulf considerações de projeto 5. Cluster x Grid 6.

Leia mais

Processadores clock, bits, memória cachê e múltiplos núcleos

Processadores clock, bits, memória cachê e múltiplos núcleos Processadores clock, bits, memória cachê e múltiplos núcleos Introdução Os processadores (ou CPUs, de Central Processing Unit) são chips responsáveis pela execução de cálculos, decisões lógicas e instruções

Leia mais

Na Terra ou nas Nuvens, onde fica o HPC?

Na Terra ou nas Nuvens, onde fica o HPC? Na Terra ou nas Nuvens, onde fica o HPC? Fábio Andrijauskas e Sidney Pio de Campos Instituto de Física Gleb Wataghin - IFGW Universidade Estadual de Campinas - UNICAMP 07/Abril/2014 3 o Cinfotec Unicamp

Leia mais

CPU - Significado CPU. Central Processing Unit. Unidade Central de Processamento

CPU - Significado CPU. Central Processing Unit. Unidade Central de Processamento CPU - Significado CPU Central Processing Unit Unidade Central de Processamento CPU - Função Na CPU são executadas as instruções Instrução: comando que define integralmente uma operação a ser executada

Leia mais

Subconjunto de instruções de comunicação e sincronização entre processos em uma arquitetura multicore

Subconjunto de instruções de comunicação e sincronização entre processos em uma arquitetura multicore Subconjunto de instruções de comunicação e sincronização entre processos em uma arquitetura multicore Laysson Oliveira Luz 1, Ivan Saraiva Silva 2 1 Departamento de Computação Universidade Federal do Piauí

Leia mais

Arquiteturas Multi e Many cores baseadas em redes-em-chip

Arquiteturas Multi e Many cores baseadas em redes-em-chip Arquiteturas Multi e Many cores baseadas em redes-em-chip Laboratório de Arquitetura e Redes de Computadores Departamento de Engenharia de Compuatação e Sistemas Digitais Escola Politécnica Universidade

Leia mais

CAD Trabalho III. PThreads e OpenMP. Pedro Carvalho de Oliveira Rui André Ponte Costa

CAD Trabalho III. PThreads e OpenMP. Pedro Carvalho de Oliveira Rui André Ponte Costa Universidade de Coimbra Faculdade de Ciências e Tecnologia Departamento de Engenharia Informática CAD Trabalho III PThreads e OpenMP Pedro Carvalho de Oliveira Rui André Ponte Costa Maio 2008 Resumo Neste

Leia mais

Professores: Aula 10. Lúcia M. A. Drummond Simone de Lima Martins. Conteúdo: Arquiteturas Avançadas. - Arquiteturas RISC - Processamento Paralelo

Professores: Aula 10. Lúcia M. A. Drummond Simone de Lima Martins. Conteúdo: Arquiteturas Avançadas. - Arquiteturas RISC - Processamento Paralelo 1 Professores: Aula 10 Lúcia M. A. Drummond Simone de Lima Martins Conteúdo: Arquiteturas Avançadas - Arquiteturas RISC - Processamento Paralelo 2 Arquiteturas RISC Reduced Instruction Set Computer se

Leia mais

Organização de Computadores 1

Organização de Computadores 1 Organização de Computadores 1 4 SUPORTE AO SISTEMA OPERACIONAL Prof. Luiz Gustavo A. Martins Sistema Operacional (S.O.) Programa responsável por: Gerenciar os recursos do computador. Controlar a execução

Leia mais

8 Bibliografia. ACEAUME, E. et al. On The Formal Specification of Group Membership Services. INRIA, 1995, 15 p. Relatório Técnico TR95-1534.

8 Bibliografia. ACEAUME, E. et al. On The Formal Specification of Group Membership Services. INRIA, 1995, 15 p. Relatório Técnico TR95-1534. Bibliografia 88 8 Bibliografia ACEAUME, E. et al. On The Formal Specification of Group Membership Services. INRIA, 1995, 15 p. Relatório Técnico TR95-1534. AMBRIOLA, V.; TORTORA, G. Advances in Software

Leia mais

Infraestrutura de Hardware. Memória Virtual

Infraestrutura de Hardware. Memória Virtual Infraestrutura de Hardware Memória Virtual Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e executado pelo HW? Qual é a interface

Leia mais

Nível 3 Sistema Operacional

Nível 3 Sistema Operacional Nível 3 Sistema Operacional Universidade Tuiuti do Paraná UTP Faculdade de Ciências Exatas - FACET Tecnologia de Análise e Desenvolvimento de Sistemas Organização de Computadores Prof. André Luiz 1 Nível

Leia mais

Análise de Desempenho de um SGBD para Aglomerado de Computadores

Análise de Desempenho de um SGBD para Aglomerado de Computadores Análise de Desempenho de um SGBD para Aglomerado de Computadores Diego Luís Kreutz, Gabriela Jacques da Silva, Hélio Antônio Miranda da Silva, João Carlos Damasceno Lima Curso de Ciência da Computação

Leia mais

Sistema de Computação

Sistema de Computação Sistema de Computação Máquinas multinível Nível 0 verdadeiro hardware da máquina, executando os programas em linguagem de máquina de nível 1 (portas lógicas); Nível 1 Composto por registrados e pela ALU

Leia mais

SSC510 Arquitetura de Computadores. 12ª aula

SSC510 Arquitetura de Computadores. 12ª aula SSC510 Arquitetura de Computadores 12ª aula EVOLUÇÃO DA ARQUITETURA INTEL PROFA. SARITA MAZZINI BRUSCHI 1 Pentium - Modelos 2 Pentium - Arquiteturas Netburst P7 Sétima geração dos processadores da arquitetura

Leia mais

Single-Chip Cloud Computer

Single-Chip Cloud Computer IME-USP Departamento de Ciência da Computação Single-Chip Cloud Computer Diogo de Jesus Pina 6798294 (diogojpina@gmail.com) Everton Topan da Silva 6514219 (everton.topan.silva@usp.br) Disciplina: Organização

Leia mais

Arquitetura e Organização de Computadores 2. Apresentação da Disciplina

Arquitetura e Organização de Computadores 2. Apresentação da Disciplina Arquitetura e Organização de Computadores 2 Apresentação da Disciplina 1 Objetivos Gerais da Disciplina Aprofundar o conhecimento sobre o funcionamento interno dos computadores em detalhes Estudar técnicas

Leia mais

Análise de desempenho e eficiência energética de aceleradores NVIDIA Kepler

Análise de desempenho e eficiência energética de aceleradores NVIDIA Kepler Análise de desempenho e eficiência energética de aceleradores NVIDIA Kepler Emilio Hoffmann, Bruno M. Muenchen, Taís T. Siqueira, Edson L. Padoin e Philippe O. A. Navaux Universidade Regional do Noroeste

Leia mais

Arquitetura de computadores

Arquitetura de computadores Arquitetura de computadores Docentes Teóricas: Helder Daniel Práticas: Amine Berquia Horas de contacto: 30 T 30 P Horas de trabalho: 168 ECTS: 6 Conteúdo História: do IAS (1946) at e o CRAY T3E (1996)

Leia mais

TÉCNICAS DE COMPUTAÇÃO PARALELA PARA MELHORAR O TEMPO DA MINERAÇÃO DE DADOS: Uma análise de Tipos de Coberturas Florestais

TÉCNICAS DE COMPUTAÇÃO PARALELA PARA MELHORAR O TEMPO DA MINERAÇÃO DE DADOS: Uma análise de Tipos de Coberturas Florestais UNIVERSIDADE ESTADUAL DE PONTA GROSSA PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO PROGRAMA DE PÓS-GRADUAÇÃO EM COMPUTAÇÃO APLICADA CRISTIAN COSMOSKI RANGEL DE ABREU TÉCNICAS DE COMPUTAÇÃO PARALELA PARA MELHORAR

Leia mais

ÁREA: CV ( ) CHSA ( ) ECET ( )

ÁREA: CV ( ) CHSA ( ) ECET ( ) ADAPTAÇÃO E INTEGRAÇÃO DO PROCESSADOR RISCO A UMA ARQUITETURA MULTI-CORE PARA SISTEMAS EMBARCADOS DE PROPOSITO GERAL Laysson Oliveira Luz (Bolsista PIBIC/CNPq), Ivan Saraiva Silva (Orientador, Departamento

Leia mais

ECOSSISTEMAS DE SOFTWARE

ECOSSISTEMAS DE SOFTWARE ECOSSISTEMAS DE SOFTWARE MODELOS E REUTILIZAÇÃO EM ECOSSISTEMAS DE SOFTWARE Alunos: Felyppe Rodrigues da Silva (Mestrado) Gabriella Castro Barbosa Costa (Doutorado) Professor: Toacy Cavalcante de Oliveira

Leia mais

Os textos nestas caixas foram adicionados pelo Prof. Joubert

Os textos nestas caixas foram adicionados pelo Prof. Joubert William Stallings Arquitetura e Organização de Computadores 8 a Edição Capítulo 4 Memória cache Os textos nestas caixas foram adicionados pelo Prof. Joubert slide 1 Características Localização. Capacidade.

Leia mais

CPU Fundamentos de Arquitetura de Computadores. Prof. Pedro Neto

CPU Fundamentos de Arquitetura de Computadores. Prof. Pedro Neto Fundamentos de Arquitetura de Computadores Prof. Pedro Neto Aracaju Sergipe - 2011 Conteúdo 4. i. Introdução ii. O Trabalho de um Processador iii. Barramentos iv. Clock Interno e Externo v. Bits do Processador

Leia mais

TABELA DE EQUIVALÊNCIA FECOMP Curso de Engenharia de Computação

TABELA DE EQUIVALÊNCIA FECOMP Curso de Engenharia de Computação TABELA DE EQUIVALÊNCIA FECOMP Curso de Engenharia de Computação Disciplina A Disciplina B Código Disciplina C/H Curso Disciplina C/H Código Curso Ano do Currículo 66303 ESTRUTURA DE DADOS I 68/0 ENG. DE

Leia mais

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador

Leia mais

Análise do impacto de operações de live migration em ambientes de computação em nuvem Workshop MoDCS 2012.2

Análise do impacto de operações de live migration em ambientes de computação em nuvem Workshop MoDCS 2012.2 Análise do impacto de operações de live migration em ambientes de computação em nuvem Workshop MoDCS 2012.2 Matheus D'Eça Torquato de Melo (mdetm@cin.ufpe.br) Paulo Maciel (prmm@cin.ufpe.br) 12 Roteiro

Leia mais

Ferramentas para Simulação e Avaliação de Processadores. de Alto Desempenho

Ferramentas para Simulação e Avaliação de Processadores. de Alto Desempenho Ferramentas para Simulação e Avaliação de Processadores de Alto Desempenho 5 de agosto de 2010 Resumo 1 Apresentação e Justificativa A tarefa de avaliar e comparar experimentalmente projetos em torno de

Leia mais

Capítulo 8 Arquitetura de Computadores Paralelos

Capítulo 8 Arquitetura de Computadores Paralelos Capítulo 8 Arquitetura de Computadores Paralelos Necessidade de máquinas com alta capacidade de computação Aumento do clock => alta dissipação de calor Velocidade limitada dos circuitos => velocidade da

Leia mais

William Stallings Arquitetura e Organização de Computadores 8 a Edição. retrospectiva. 2010 Pearson Prentice Hall. Todos os direitos reservados.

William Stallings Arquitetura e Organização de Computadores 8 a Edição. retrospectiva. 2010 Pearson Prentice Hall. Todos os direitos reservados. William Stallings Arquitetura e Organização de Computadores 8 a Edição retrospectiva slide 1 Organização e arquitetura Arquitetura são os atributos visíveis ao programador. Conjunto de instruções, número

Leia mais

PROCESSADOR CELL BROADBAND ENGINE (MECANISMO DE BANDA LARGA)

PROCESSADOR CELL BROADBAND ENGINE (MECANISMO DE BANDA LARGA) PROCESSADOR CELL BROADBAND ENGINE (MECANISMO DE BANDA LARGA) SACCA, Juliana 1 ; KOYAMA, Julio César Hiroshi 2 ; TAMAE, Yoshio Rodrigo 3, MUZZI, Fernando Augusto Garcia 3. 1 Acadêmico do Curso de Sistemas

Leia mais

Modelo de Acesso Reconfigurável à Memória para Sistemas Computacionais Paralelos

Modelo de Acesso Reconfigurável à Memória para Sistemas Computacionais Paralelos Modelo de Acesso Reconfigurável à Memória para Sistemas Computacionais Paralelos Dulcinéia Oliveira da Penha Curso de Sistemas de Informação - Faculdade de Ciências Sociais Aplicadas - Centro Universitário

Leia mais

Algoritmo Distribuído com abordagem em cache cooperativo

Algoritmo Distribuído com abordagem em cache cooperativo Algoritmo Distribuído com abordagem em cache cooperativo Pedro Paulo Simões Freitas, Ricardo Augusto Rabelo PPGCC - Programa de Pós-Graduação em Ciência da Computação UFOP - Universidade Federal de Ouro

Leia mais

Computação de Alto Desempenho uma pequena introdução

Computação de Alto Desempenho uma pequena introdução Computação de Alto Desempenho uma pequena introdução Pedro Alberto Laboratório de Computação Avançada Centro de Física Computacional Unversidade de Coimbra 1 Sumário Porque é que é precisa a computação

Leia mais

Requisitos de Ferramentas Especializadas de Gestão de Configuração de Software

Requisitos de Ferramentas Especializadas de Gestão de Configuração de Software Requisitos de Ferramentas Especializadas de Gestão de Configuração de Software Ricardo Terra 1 1 Departamento de Ciência da Computação Universidade Federal de Minas Gerais (UFMG) Campus da Pampulha 31.270-010

Leia mais

Organização e Arquitetura de Computadores

Organização e Arquitetura de Computadores Organização e Arquitetura de Computadores Aula Introdutória Alexandre Amory Edson Moreno Apresentação Disciplina: Organização e Arquitetura de Computadores Horário: 3NP e 5NP Email: Alexandre Amory (178):

Leia mais

LCAD. ALGORÍTMOS PARALELOS (Aula 6) Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES.

LCAD. ALGORÍTMOS PARALELOS (Aula 6) Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES. ALGORÍTMOS PARALELOS (Aula 6) Neyval C. Reis Jr. OUTUBRO/2004 LCAD Laboratório de Computação de Alto Desempenho DI/UFES Tópico 20 janeiro 27 janeiro 3 fev 10 fev 17 fev 24 fev 3 março Paradigma de Paralelismo

Leia mais

Processador ( CPU ) E/S. Memória. Sistema composto por Processador, Memória e dispositivos de E/S, interligados por um barramento

Processador ( CPU ) E/S. Memória. Sistema composto por Processador, Memória e dispositivos de E/S, interligados por um barramento 1 Processadores Computador Processador ( CPU ) Memória E/S Sistema composto por Processador, Memória e dispositivos de E/S, interligados por um barramento 2 Pastilha 3 Processadores (CPU,, Microcontroladores)

Leia mais

Algoritmo de Regras de Associação Paralelo para Arquiteturas Multicore e Manycore

Algoritmo de Regras de Associação Paralelo para Arquiteturas Multicore e Manycore Algoritmo de Regras de Associação Paralelo para Arquiteturas Multicore e Manycore João Saffran 1, Rodrigo C. O. Rocha 2, Luís Fabrício W. Góes 1 1 Instituto de Ciências Exatas e Informática Pontifícia

Leia mais

Memória Cache. Prof. Leonardo Barreto Campos 1

Memória Cache. Prof. Leonardo Barreto Campos 1 Memória Cache Prof. Leonardo Barreto Campos 1 Sumário Introdução; Projeto de Memórias Cache; Tamanho; Função de Mapeamento; Política de Escrita; Tamanho da Linha; Número de Memórias Cache; Bibliografia.

Leia mais

1.2 Tipos de Sistemas Operacionais

1.2 Tipos de Sistemas Operacionais 1.2 Tipos de Operacionais Tipos de Operacionais Monoprogramáveis/ Monotarefa Multiprogramáveis/ Multitarefa Com Múltiplos Processadores 1.2.1 Monoprogramáveis/Monotarefa Os primeiros sistemas operacionais

Leia mais

Avaliação de Desempenho de Sistemas Computacionais

Avaliação de Desempenho de Sistemas Computacionais Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Sistemas de Computação Avaliação de Desempenho de Sistemas Computacionais Aula 3 Marcos José Santana Regina Helena

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Aula 6 Estrutura de Sistemas Operacionais Prof.: Edilberto M. Silva http://www.edilms.eti.br Baseado no material disponibilizado por: SO - Prof. Edilberto Silva Prof. José Juan Espantoso

Leia mais

23/05/2013. Partes do Sistema Computacional. Hardware. Ciclo do Processamento de Dados HARDWARE: CONCEITOS BÁSICOS. Hardware Software Dados Usuários

23/05/2013. Partes do Sistema Computacional. Hardware. Ciclo do Processamento de Dados HARDWARE: CONCEITOS BÁSICOS. Hardware Software Dados Usuários 2 Partes do Sistema Computacional HARDWARE: CONCEITOS BÁSICOS Software Dados Usuários Introdução à Microinformática Prof. João Paulo Lima Universidade Federal Rural de Pernambuco Departamento de Estatística

Leia mais

Pontifícia Universidade Católica do Rio Grande do Sul FACULDADE DE INFORMÁTICA

Pontifícia Universidade Católica do Rio Grande do Sul FACULDADE DE INFORMÁTICA DEPARTAMENTO: Fundamentos da Computação CURSO: Bacharelado em Sistemas de Informação DISCIPLINA: Fundamentos da Computação CÓDIGO: 4610H CRÉDITOS: 04 CARGA HORÁRIA: 60 horas-aula VALIDADE: a partir de

Leia mais

RELATÓRIO DE ATIVIDADES DISCIPLINA: ARQUITETURAS PARALELAS. Hadoop e QEF: Uma abordagem distribuída para aplicações de Astronomia

RELATÓRIO DE ATIVIDADES DISCIPLINA: ARQUITETURAS PARALELAS. Hadoop e QEF: Uma abordagem distribuída para aplicações de Astronomia UNIVERSIDADE FEDERAL FLUMINENSE INSTITUTO DE COMPUTAÇÃO (IC) RELATÓRIO DE ATIVIDADES DISCIPLINA: ARQUITETURAS PARALELAS Hadoop e QEF: Uma abordagem distribuída para aplicações de Astronomia Henrique Klôh

Leia mais

Paralelização de Tarefas de Mineração de Dados Utilizando Workflows Científicos 1

Paralelização de Tarefas de Mineração de Dados Utilizando Workflows Científicos 1 Paralelização de Tarefas de Mineração de Dados Utilizando Workflows Científicos 1 Carlos Eduardo Barbosa, Eduardo Ogasawara, Daniel de Oliveira, Marta Mattoso PESC COPPE Universidade Federal do Rio de

Leia mais

COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0

COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0 COMPUTAÇÃO PARALELA uma visão geral Guilherme Galante v.2.0 Guilherme Galante Bacharel em Informática Unioeste (2003) Mestre em Ciência da Computação UFRGS (2006) Professor Assistente do curso de Informática/Ciência

Leia mais

Eficiência Energética em Computação de Alto Desempenho: Uma Abordagem em Arquitetura e Programação para Green Computing

Eficiência Energética em Computação de Alto Desempenho: Uma Abordagem em Arquitetura e Programação para Green Computing Eficiência Energética em Computação de Alto Desempenho: Uma Abordagem em Arquitetura e Programação para Green Computing Stéfano D. K. Mór, Marco A. Z. Alves, João V. F. Lima, Nicolas B. Maillard, Philippe

Leia mais

4 Computação Paralela 4.1. Introdução

4 Computação Paralela 4.1. Introdução 4 Computação Paralela 4.1. Introdução Nos últimos anos observa-se uma tendência cada vez maior do aumento da demanda computacional na resolução de grandes problemas. Exemplos de aplicações que exigem alto

Leia mais

FACULDADE PITÁGORAS PRONATEC

FACULDADE PITÁGORAS PRONATEC FACULDADE PITÁGORAS PRONATEC DISCIPLINA: ARQUITETURA DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos carlos@oficinadapesquisa.com.br www.oficinadapesquisa.com.br Objetivos Ao final desta apostila,

Leia mais

Sistemas Processadores e Periféricos Aula 9 - Revisão

Sistemas Processadores e Periféricos Aula 9 - Revisão Sistemas Processadores e Periféricos Aula 9 - Revisão Prof. Frank Sill Torres DELT Escola de Engenharia UFMG Adaptado a partir dos Slides de Organização de Computadores 2006/02 do professor Leandro Galvão

Leia mais

Sistemas Operacionais

Sistemas Operacionais Andrique Amorim www.andrix.com.br professor@andrix.com.br Classificação dos Sistemas Operacionais Classificação Os sistemas operacionais podem ser classificados segundo diversos parâmetros e perspectivas.

Leia mais

Relatório de Pesquisa

Relatório de Pesquisa Relatório de Pesquisa A Vantagem da Virtualização de Mainframe: Como Economizar Milhões de Dólares Utilizando um IBM System z como um Servidor em Nuvem Linux Sumário Executivo Os executivos de TI (Tecnologia

Leia mais

periféricos: interfaces humano-computador (HCI) arquivo de informação comunicações

periféricos: interfaces humano-computador (HCI) arquivo de informação comunicações Introdução aos Sistemas de Computação (6) Análise de componentes num computador Estrutura do tema ISC 1. Representação de informação num computador 2. Organização e estrutura interna dum computador 3.

Leia mais

PROCEDIMENTOS METODOLÓGICOS

PROCEDIMENTOS METODOLÓGICOS DEFINIÇÃO DE AMBIENTE COMPUTACIONAL DE ALTO DESEMPENHO PARA MINERAÇÃO DE INFORMAÇÃO EM BANCO DE DADOS ASTRONÔMICOS Murilo Moritz Parize 1 ; Marcelo Massocco Cendron 2 INTRODUÇÃO Com grandes avanços na

Leia mais

MSPlus: Monitoramento de Algoritmos Distribuídos com Alta Granularidade

MSPlus: Monitoramento de Algoritmos Distribuídos com Alta Granularidade MSPlus: Monitoramento de Algoritmos Distribuídos com Alta Granularidade Elizeu Elieber Fachini, Gustavo M. D. Vieira DComp CCGT UFSCar Sorocaba, São Paulo, Brasil elizeuelieber@gmail.com, gdvieira@ufscar.br

Leia mais

Comparativo de desempenho do Pervasive PSQL v11

Comparativo de desempenho do Pervasive PSQL v11 Comparativo de desempenho do Pervasive PSQL v11 Um artigo Pervasive PSQL Setembro de 2010 Conteúdo Resumo executivo... 3 O impacto das novas arquiteturas de hardware nos aplicativos... 3 O projeto do Pervasive

Leia mais

slide 0 Algoritmos Paralelos

slide 0 Algoritmos Paralelos slide 0 Algoritmos Paralelos Slide 2 Demanda por Velocidade Computational Demanda contínua por maior rapidez computational das máquinas que as atualmente disponíveis. As áreas que exigem maior rapidez

Leia mais

Organização de Computadores 1

Organização de Computadores 1 Organização de Computadores 1 3 ARQUITETURA DE VON NEUMANN E DESEMPENHO DE COMPUTADORES Prof. Luiz Gustavo A. Martins Tipos de Arquitetura Arquitetura de von Neumann: Conceito de programa armazenado; Dados

Leia mais

Organização de Computadores

Organização de Computadores Organização de Computadores Marcelo Lobosco DCC/UFJF Avaliando e Compreendendo o Desempenho Aula 10 Agenda Análise de Desempenho (cont.) Avaliando o Desempenho Benchmark SPEC Falácias e Armadilhas Desempenho

Leia mais

Definindo melhor alguns conceitos

Definindo melhor alguns conceitos Definindo melhor alguns conceitos Processamento Paralelo: processamento de informação concorrente que pertencem a um ou mais processos que resolvem um único problema. Processamento Distribuído: processamento

Leia mais

CloudNet: dynamic pooling of cloud resources by live WAN migration of virtual machines

CloudNet: dynamic pooling of cloud resources by live WAN migration of virtual machines CloudNet: dynamic pooling of cloud resources by live WAN migration of virtual machines Timothy Wood, Prashant Shenoy, K.K. Ramakrishnan, Jacobus Van der Merwe VEE '11 Proceedings of the 7th ACM SIGPLAN/SIGOPS

Leia mais

Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas

Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas Claudio André claudio.andre@correios.net.br Motivação Seu computador

Leia mais

Um Simulador para Avaliação da Antecipação de Tarefas em Sistemas Gerenciadores de Workflow

Um Simulador para Avaliação da Antecipação de Tarefas em Sistemas Gerenciadores de Workflow Um Simulador para Avaliação da Antecipação de Tarefas em Sistemas Gerenciadores de Workflow Resumo. A fim de flexibilizar o fluxo de controle e o fluxo de dados em Sistemas Gerenciadores de Workflow (SGWf),

Leia mais

Implementações e Comparação de Multiplicadores de Alta Velocidade para Dispositivos Reconfiguráveis

Implementações e Comparação de Multiplicadores de Alta Velocidade para Dispositivos Reconfiguráveis Implementações e Comparação de Multiplicadores de Alta Velocidade para Dispositivos Reconfiguráveis Tiago dos Santos Patrocinio, Ivan Saraiva Silva Departamento de Computação Universidade Federal do Piauí

Leia mais

PROGRAMAÇÃO E APERFEIÇOAMENTO DA APLICAÇÃO DO ALGORITMO WATERSHED PARA A SEGMENTAÇÃO DE GALÁXIAS BASEADO EM DADOS ESPECTROGRÁFICOS.

PROGRAMAÇÃO E APERFEIÇOAMENTO DA APLICAÇÃO DO ALGORITMO WATERSHED PARA A SEGMENTAÇÃO DE GALÁXIAS BASEADO EM DADOS ESPECTROGRÁFICOS. PROGRAMAÇÃO E APERFEIÇOAMENTO DA APLICAÇÃO DO ALGORITMO WATERSHED PARA A SEGMENTAÇÃO DE GALÁXIAS BASEADO EM DADOS ESPECTROGRÁFICOS. Murilo Moritz Parize 1 - Marcelo Massocco Cendron 2 INTRODUÇÃO A necessidade

Leia mais

COMPONENTES DE REDES. Fernando Albuquerque (061) 273-3589 fernando@cic.unb.br

COMPONENTES DE REDES. Fernando Albuquerque (061) 273-3589 fernando@cic.unb.br COMPONENTES DE REDES Fernando Albuquerque (061) 273-3589 fernando@cic.unb.br Tópicos Componentes de rede Placas de interface Transceptores Repetidores HUBs Pontes Switches Roteadores Gateways Servidores

Leia mais

7-1. Parte 6 Otimizações da Arquitetura

7-1. Parte 6 Otimizações da Arquitetura 7-1 Parte 6 Otimizações da Arquitetura 7-2 Bibliografia [1] Miles J. Murdocca e Vincent P. Heuring, Introdução à Arquitetura de Computadores [2] Andrew S. Tanenbaum, Modern Operating Systems [3] William

Leia mais

Introdução. Nível do Sistema Operacional. Introdução. Um Sistema Operacional... Introdução a Sistemas Operacionais

Introdução. Nível do Sistema Operacional. Introdução. Um Sistema Operacional... Introdução a Sistemas Operacionais Introdução Nível do Sistema Operacional (Aula 14) Introdução a Sistemas Operacionais Hardware Provê os recursos básicos de computação (CPU, memória, E/S,etc.) Programas (aplicações) Definem as maneiras

Leia mais

Europass Curriculum Vitae

Europass Curriculum Vitae Europass Curriculum Vitae Personal information Surname(s) / First name(s) Address(es) Custódio, Jorge Filipe Telephone(s) +351 919687707 Email(s) Personal website(s) Nationality(-ies) Rua Francisco Pereira

Leia mais

ATIVIDADE 1 MÁQUINAS VIRTUAIS. 1.1 Arquiteturas não virtualizadas

ATIVIDADE 1 MÁQUINAS VIRTUAIS. 1.1 Arquiteturas não virtualizadas ATIVIDADE 1 MÁQUINAS VIRTUAIS Existem hoje diversas tecnologias e produtos para virtualização de computadores e ambientes de execução, o que pode gerar uma certa confusão de conceitos. Apesar disso, cada

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais SISTEMAS COM MÚLTIPLOS PROCESSADORES LIVRO TEXTO: CAPÍTULO 13, PÁGINA 243 Prof. Pedro Luís Antonelli Anhanguera Educacional INTRODUÇÃO Arquiteturas que possuem duas ou mais CPUs interligadas

Leia mais

Introdução às arquiteturas paralelas e taxonomia de Flynn

Introdução às arquiteturas paralelas e taxonomia de Flynn Introdução às arquiteturas paralelas e taxonomia de Flynn OBJETIVO: definir computação paralela; o modelo de computação paralela desempenhada por computadores paralelos; e exemplos de uso da arquitetura

Leia mais

Organização e Arquitetura de computadores

Organização e Arquitetura de computadores Conteúdo Organização e Arquitetura de computadores Abstrações e Tecnologias computacionais Prof. Dr. Luciano José Senger Falácias e armadilhas Computadores: produto da tecnologia de informação, 10% do

Leia mais

Capacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB

Capacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB Calculando a capacidade de disco: Capacidade = (# bytes/setor) x (méd. # setores/trilha) x (# trilhas/superfície) x (# superfícies/prato) x (# pratos/disco) Exemplo 01: 512 bytes/setor 300 setores/trilha

Leia mais

Arquitetura e Organização de Computadores

Arquitetura e Organização de Computadores Arquitetura e Organização de Computadores Fernando Fonseca Ramos Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros 1 Índice 1- Introdução 3- Memórias 4- Dispositivos

Leia mais

Trabalho de Mestrado

Trabalho de Mestrado Caracterização da carga de trabalho em sistemas de educação a distância Trabalho de Mestrado Janaína R. Penedo (Aluno),Morganna Diniz(Orientador) Programa de Pós-Graduação em Informática - PPGI 1 Universidade

Leia mais

Universidade Federal de Pernambuco. Refinamento do AnalyserPX para tráfego Multigigabit

Universidade Federal de Pernambuco. Refinamento do AnalyserPX para tráfego Multigigabit Universidade Federal de Pernambuco GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO CENTRO DE INFORMÁTICA 2 0 1 1. 1 Refinamento do AnalyserPX para tráfego Multigigabit Proposta de Trabalho de Graduação Aluno Wesley

Leia mais

RouterBricks: Exploiting Parallelism To Scale Software Routers

RouterBricks: Exploiting Parallelism To Scale Software Routers RouterBricks: Exploiting Parallelism To Scale Software Routers 22nd ACM Symposium on Operating Systems Principles October 11-14, 2009 Mihai Dobrescu, Norbert Egi, Katerina Argyraki, Byung-Gon Chun, Kevin

Leia mais

Introdução ao Processador CELL BE

Introdução ao Processador CELL BE 1 Introdução ao Processador CELL BE por: José Ricardo de Oliveira Damico 17 / Maio / 2007 São Paulo SP 2 SUMÁRIO LISTA DE FIGURAS 3 RESUMO 4 1.) INTRODUÇÃO 5 1.1) O que é? 5 2.) Utilização 5 3.) FUNCIONAMENTO

Leia mais

VoIPFix: Uma ferramenta para análise e detecção de falhas em sistemas de telefonia IP

VoIPFix: Uma ferramenta para análise e detecção de falhas em sistemas de telefonia IP XXIX Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos 915 VoIPFix: Uma ferramenta para análise e detecção de falhas em sistemas de telefonia IP Paulo C. Siécola 1, Fabio Kon 1 1 Departamento

Leia mais

6 ERAD 2009 Caxias do Sul, 17 a 20 de março de 2009

6 ERAD 2009 Caxias do Sul, 17 a 20 de março de 2009 6 ERAD 2009 Caxias do Sul, 17 a 20 de março de 2009 3.1. Introdução Aumentar o desempenho das aplicações é um dos principais objetivos durante o projeto da arquitetura de um processador. No entanto, devido

Leia mais