The future is parallel but it may not be easy
|
|
|
- Aurélio Marinho Fragoso
- 8 Há anos
- Visualizações:
Transcrição
1 The future is parallel but it may not be easy Adriano Tabarelli, Alex Morinaga, Caio Silva, Cássia Ferreira, Daniel Santos, Eduardo Apolinário, Hugo Posca, Thiago Batista, Paulo Floriano Universidade de São Paulo - MAC de novembro de 2008
2 Michael J. Flynn, 2007 Apresentação Original Processor performance scaling by improving clock frequency has now hit power limits. The new emphasis on multi core architectures comes about from the failure of frequency scaling not because of breakthroughs in parallel programming or architecture.
3 Michael J. Flynn, 2007 Apresentação Original Solving these problems requires both an understanding of underlying issues such as parallelizing control structures and dealing with the memory bottleneck. For many applications performance comes at the price of programmability and reliability comes at the price of performance.
4 Sumário Tópicos Abordados 1 Os limites da computação sequencial 2 O surgimento da computação paralela 3 A difícil transição e seus problemas
5 Sumário Tópicos Abordados 1 Os limites da computação sequencial 2 O surgimento da computação paralela 3 A difícil transição e seus problemas
6 Computação Sequencial Abordagens Relevantes Desenvolvimento 1 Altas frequências de processamento 2 Eficiência de algoritmos sequenciais VERSUS Limitações 1 Velocidade do clock 2 Memory Wall 3 Power Wall
7 Pontos positivos DESENVOLVIMENTO DA COMPUTAÇÃO SEQUENCIAL
8 Altas frequências de processamento 3 GHz
9 Altas frequências de processamento 3 GHz Mais ciclos por segundo implicam em mais operações executadas em um mesmo tempo (maior eficiência); A arquitetura de processadores diferentes pode influenciar o numero de operações executadas com o mesmo clock; Principais fabricantes e suas altas frequências: AMD Athlon 64 FX MHz (FX-55), 2800 MHz (FX-57); Opteron Single-core MHz; Intel Xeon -2.0 GHz GHz; Pentium GHz.
10 Eficiência de algoritmos sequenciais Complexidades otimizadas A realização de uma tarefa com complexidades reduzidas foi possível devido a novas idéias baseadas no método sequencial de resolução de problemas; Não é possível tornar mais eficientes (em tempo de solução) certos algoritmos sem alterar a arquitetura do que será usado para realizar os cálculos necessários. Como exemplo, a evolução dos sort s ao longo do tempo, até alcançar o quicksort, com a menor complexidade possível para um algoritmo sequencial baseado em comparações, O(nlogn). Em termos sequenciais, o tempo necessário para ordenar uma sequência de n números depende apenas do processador.
11 Pontos negativos LIMITAÇÕES DA COMPUTAÇÃO SEQUENCIAL
12 Velocidade do clock Próxima do limite A capacidade de processamento de uma CPU é determinada pela frequência do cristal oscilador; Primeiro computador comercial: 2MHz, clocks mais rápidos atualmente: P4 3GHz; A frequência máxima possível a ser obtida é a da luz, cujo limite está próximo de ser alcançado.
13 Memory Wall Uma das principais barreiras
14 Memory Wall Uma das principais barreiras Velocidade do processador dobra a cada 2 anos, e da memória, a cada 6 anos; Dados são calculados mais rapidamente, mas demoram muito tempo no caminho até o processador, ou retornando dele; Tenta-se, de alguma forma, diminuir o espaço entre memória e CPU para reduzir o tempo real; A solução das memória cache L1 e L2 esbarram no preço e na baixa capacidade de armazenamento; A cada ano, a discrepância aumenta.
15 Power Wall Uma barreira física
16 Power Wall Uma barreira física Energia trafegando sempre se perde emitindo calor; Quanto mais veloz o tráfego e maior a quantidade de energia em trânsito, maior calor é despendido; Os materiais utilizados para fabricar os chips esquentam e têm perigo de danos; Sistemas de arrefecimento já começam a ter dificuldade de dissipar o calor excedente.
17 Sumário Tópicos Abordados 1 Os limites da computação sequencial 2 O surgimento da computação paralela 3 A difícil transição e seus problemas
18 Computação Paralela Abordagens Relevantes 1 Um novo paradigma computacional 2 Driblando alguns problemas da computação sequencial 3 Nível de paralelismo nos dias atuais 4 Influência direta no poder computacional dos processadores
19 Computação paralela como novo paradigma computacional Uma nova proposta de solução
20 Computação paralela como novo paradigma computacional Uma nova proposta de solução Combina habilidades computacionais preexistentes organizando as idéias e a obtenção da solução de uma forma diferente Requer habilidade do programador em saber lidar com as novas ferramentas e usufruir ao máximo do que elas oferecem
21 Novas saídas para problemas sequenciais Driblando as Walls Com a possibilidade de aumentar a performance apenas aumentando o número de cores, elimina-se a necessidade de investir em clocks mais rápidos; Mantendo o clock baixo, mantém-se baixa a temperatura do chip, eliminando a necessidade de se investir em dissipadores mais poderosos; A velocidade do processador pode ficar compatível com a velocidade de comunicação com a memória sem prejudicar a performance, evitando assim a memory wall.
22 Nível de paralelismo atual Quanto de paralelo há no que usamos 199 threads no total
23 Nível de paralelismo atual Quanto de paralelo há no que usamos 666 threads no total
24 Nível de paralelismo atual Quanto de paralelo há no que usamos Hoje em dia qualquer computador pessoal é no mínimo dual core Boa parte dos programas usuais não são paralelizados Toda a parte de divisão de tarefas fica a cargo do Sistema Operacional
25 Transição
26 Sumário Tópicos Abordados 1 Os limites da computação sequencial 2 O surgimento da computação paralela 3 A difícil transição e seus problemas
27 A Transição Abordagens Relevantes 1 Algoritmos sequenciais em multi-cores 2 Dificuldade de projeção e pensamento em paralelo 3 Tempo ganho no paralelismo contra tempo perdido em overhead de threads 4 Gargalos dos algoritmos paralelos 5 Memória compartilhada versus memória distribuída 6 Componentes mais complexos e a probabilidade de falhas
28 Algoritmos sequenciais aplicados a multi-cores Influência da arquitetura no tempo de execução Programas gerados por algoritmos sequenciais rodam em apenas um dos processadores; Apenas uma thread a ser executada; Com relação àquele programa, outros processadores ficam ociosos; Desperdicio de energia; Desperdicio de capacidade de processamento.
29 O Pensamento Paralelo Suas principais dificuldades, pela fuga do trivial O cérebro humano é sequencial Boa parte da matemática é sequencial O modelo de programação que estamos acostumados a usar é sequencial
30 Paralelismo X Overhead Os ganhos e as perdas da programação paralela
31 Paralelismo X Overhead Os ganhos e as perdas da programação paralela
32 Os gargalos dos algoritmos paralelos Condições e necessidades para seu perfeito funcionamento Granularidade: Medida entre a taxa de computação e a taxa de comunicação. Granularidade pequena: partes pequenas, processamento mais rápido, maior número de comunicações; Granularidade grande: partes grandes, tempo de processamento mais longo, menor quantidade de comunicações; Não existe um melhor, depende da aplicação.
33 Os gargalos dos algoritmos paralelos Condições e necessidades para seu perfeito funcionamento Balanceamento de carga: Nem todas as tarefas demoram o mesmo tempo para serem executadas. Caso seja necessário sincronizar, deve-se esperar a tarefa mais demorada terminar. Uma noção melhor do que cada tarefa faz e de quanto tempo ela demora implica em um melhor balanceamento.
34 Memória compartilhada versus memória distribuída As vantagens e desvantagens de cada uso Memória distribuída Memória compartilhada
35 Memória compartilhada versus memória distribuída As vantagens e desvantagens de cada uso Distribuída Cada processador tem acesso a uma memória privativa Baixo custo Comunicação através de mensagens (depende da velocidade do meio de comunicação) Compartilhada Acessada simultaneamente por cada processador Simples programação Mudanças no cache de um processador devem ser replicadas
36 Resumo O que foi visto e analisado Computação sequencial: limites de velocidade e energia da CPU, barreira da memória e complexidades computacionais eficientes. Computação paralela: uma nova saída, métodos diferentes de desenvolver a resolução do problema, divisão, paralelismo. A transição: envolve problemas como dificuldade de implementação, reestruturação de algoritmos preexistentes, overhead de threads, gerenciamento da memória entre os processadores.
37 The future is parallel but it may not be easy A tecnologia sequencial atingiu seu limite. A única forma de se melhorar a performance dos processadores é a paralelização. Apesar disso, ainda não sabemos como utilizar o poder do paralelismo, portanto, temos muito poder de computação desperdiçado. Uma possível solução para este problema ainda parece muito distante: compiladores paralelizantes. It s the future, but we know it won t be easy.
38 Dúvidas, questionamentos?
OpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register
PROCESSADORES Um computador digital consiste em um sistema interconectado de processadores, memória e dispositivos de entrada e saída. A CPU é o cérebro do computador. Sua função é executar programas armazenados
Montagem e manutenção de computadores
Montagem e manutenção de computadores Processadores Prof. Patrícia Lucas Processadores 1 O processador é o responsável por executar instruções de máquina. A CPU (Unidade central de processamento): é o
DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES
DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES João Ricardo Kohler Abramoski (PAIC/FUNDAÇÃO ARAUCÁRIA), Sandra Mara Guse Scós Venske (Orientadora), e-mail: [email protected]
Organização de Computadores Processadores. Professor: Francisco Ary
Organização de Computadores Processadores Professor: Francisco Ary Introdução O que vimos no último encontro: O que é um computador; Arquitetura Três partes principais: Processador; Memória; e Sistema
SSC PROGRAMAÇÃO CONCORRENTE. Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama
SSC- 0742 PROGRAMAÇÃO CONCORRENTE Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados às
Arquitetura e Organização de Processadores. Aula 1. Introdução Arquitetura e Organização
Universidade Federal do Rio Grande do Sul Instituto de Informática Programa de Pós-Graduação em Computação Arquitetura e Organização de Processadores Aula 1 Introdução Arquitetura e Organização 1. Arquitetura
30/5/2011. Sistemas computacionais para processamento paralelo e distribuído
Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento
Arquiteturas Paralelas
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES Arquiteturas Paralelas Medidas de desempenho Alexandre Amory Edson Moreno Índice 2 1. Introdução 2. Medidas de Desempenho Introdução 3 Aumento de desempenho dos
Arquiteturas paralelas Parte 1
Arquiteturas paralelas Parte 1 Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade Federal do Espírito
Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core
RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:
Arquitetura de Computadores. Processamento Paralelo
Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple
Linguagem de Programação II
Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB [email protected] Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes
Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD
Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de
Organização de Computadores Processadores. Professor: Francisco Ary
Organização de Computadores Processadores Professor: Francisco Ary Introdução O que vimos no último encontro: O que é um computador; Arquitetura Três partes principais: Processador; Memória; e Sistema
Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Introdução OpenMP. Nielsen Castelo Damasceno
Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto
Computadores e Programação (DCC/UFRJ)
Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo
Introdução à Computação: Sistemas de Computação
Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza ([email protected]) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,
Computação Paralela (CUDA)
Universidade Federal do Amazonas Faculdade de Tecnologia Departamento de Eletrônica e Computação Computação Paralela (CUDA) Hussama Ibrahim [email protected] Notas de Aula Baseado nas Notas de
Parte I Multiprocessamento
Sistemas Operacionais I Estrutura dos SO Prof. Gregorio Perez [email protected] 2004 Parte I Multiprocessamento Roteiro 1 Multiprocessadores em Sistemas Fortemente Acoplados 1.1 1.2 1.3 Processamento
MONTAGEM E MANUTENÇÃO DE COMPUTADORES
Álvaro Elias Flôres [email protected] MONTAGEM E MANUTENÇÃO DE COMPUTADORES Introdução A atividade de um computador pode ser definida por um modelo simples: Introdução Na etapa de processamento
Multiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011
Multiprocessamento Patterson & Hennessy Capítulo 9 Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Tópicos Abordados Tipos comuns SMP (processamento paralelo) NUMA (placas de alto
AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação MULTIPROCESSADORES
Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores
Ciência da Computação Arq. e Org. de Computadores Processadores Prof. Sergio Ribeiro Composição básica de um computador eletrônico digital: Processador Memória Memória Principal Memória Secundária Dispositivos
UNIDADE CENTRAL DE PROCESSAMENTO FELIPE G. TORRES
Tecnologia da informação e comunicação UNIDADE CENTRAL DE PROCESSAMENTO FELIPE G. TORRES CICLO DE INSTRUÇÕES OU DE EXECUÇÃO Arquitetura de computadores 2 CICLO DE EXECUÇÃO No inicio de cada ciclo de instrução,
Microprocessadores II - ELE 1084
Microprocessadores II - ELE 1084 CAPÍTULO III PROCESSADORES P7 a P9 3.1 Gerações de Processadores Sétima Geração (P7) AMD: Athlon; Intel: Pentium 4; Oitava Geração (P8) Tecnologia Hyper-Threading (HT);
Microprocessadores II - ELE 1084
Microprocessadores II - ELE 1084 CAPÍTULO III PROCESSADORES P5 3.1 Gerações de Processadores 3.1 Gerações de Processadores Quinta Geração (P5) Pentium (586) 32 bits; Instruções MMX; Concorrente K5 (AMD).
Sistemas Computacionais e Hardware. Disciplina: Informática Prof. Higor Morais
Sistemas Computacionais e Hardware Disciplina: Informática Prof. Higor Morais 1 Agenda Sistema Computacional O Computador e seus componentes Hardware 2 Unidade de entrada Unidade de saída Unidade de Processamento
Arquitetura de computadores
Arquitetura de computadores Arquitetura de Microprocessadores Curso Profissional de Técnico de Gestão e Programação de Sistemas Memória Cache Volátil; Memória RAM Volátil; Memória ROM Não volátil. Articulação
Arquitetura de computadores
Arquitetura de computadores Arquitetura de Microprocessadores Curso Profissional de Técnico de Gestão e Programação de Sistemas O Computador Hardware Unidades Funcionais de um Sistema Informático Dispositivos
Sistemas Distribuídos
Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,
Aluno de Pós-Graduação em Engenharia de Software para Dispositivos Móveis pela UNINTER
COMPARAÇÃO DE DESEMPENHO NA PROGRAMAÇÃO PARALELA HÍBRIDA (MPI + OPENMP) NA BUSCA DE TEXTO EM ARQUIVOS 1 COMPARISON OF PERFORMANCE IN HYBRID PARALLEL PROGRAMMING (MPI + OPENMP) IN SEARCH OF TEXT IN FILES
Paralelismo em Computadores com Tecnologia Multicore
IFRN - Pau dos Ferros Pau dos Ferros/RN, 25 de fevereiro de 2016 O minicurso Descrição: Para se utilizar os vários núcleos de processamento disponíveis nos computadores atuais de forma eficiente, faz necessário
Organização de Computadores II. Arquiteturas MIMD
Organização de Computadores II Arquiteturas MIMD Arquiteturas UMA Arquiteturas com memória única global. Tempo de acesso uniforme para todos os nós de processamento. Nós de processamento e memória interconectados
Arquitetura de Computadores e Redes de Dados
Arquitetura de Computadores e Redes de Dados Curso Técnico de Informática de Sistemas Ano Letivo 2017/2018 Ciclo de Formação 2017/2020 Professora Ana Reis Prof. Ana Reis - ASRD 1 UFCD o769 Arquitetura
A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES
A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES Euzébio da Costa Silva 1, Victor Pereira Ribeiro 2, Susana Brunoro Costa de Oliveira 3 1 29520-000, [email protected] 2 29520-000, [email protected]
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-2 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito
Multiprogramação leve em arquiteturas multi-core
Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação
speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado
Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos
Organização e Arquitetura de Computadores I
Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Unidade Acadêmica de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 02: PROCESSAMENTO PARALELO: PROCESSADORES VETORIAIS Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação
Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór
Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von
Conceitos sobre Computadores
Conceitos sobre Computadores Prof. UNESP - São José do Rio Preto Linguagem Computacional Neste tópico veremos: Os Componentes físicos dos computadores O hardware: principais partes dos computadores atuais.
Memória. Memória Cache
Memória Memória Cache Revisão - Memória Principal Memória que armazena os dados e programas em linguagem de máquina em execução corrente Razoavelmente barata Tempo de acesso da ordem de nano-segundos a
Hardware. Organização Funcional de um. Computador. Arquitetura de Multiprocessadores. UCP Unidade Central de Processamento AMD. Sistema Central CPU
Hardware UCP Unidade Central de Processamento AMD Disciplina: Organização e Arquitetura de Computadores Prof. Luiz Antonio do Nascimento Faculdade Nossa Cidade Organização Funcional de um Computador Unidade
SSC510 Arquitetura de Computadores. 6ª aula
SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas
Hardware e Manutenção de Micros
Hardware e Manutenção de Micros Cooler de CPU Memórias Tipos Tecnologias de construção Características Produzido por Márcio Jusilho Cooler de CPU É um conjunto do dissipação térmica do processador. O cooler
Desafios do Mapeamento de Processos em Arquiteturas Many-Core
Desafios do Mapeamento de Processos em Arquiteturas Many-Core Professor: Philippe O. A. Navaux Instituto de Informática - UFRGS Escola Regional de Alto Desempenho São Paulo 1 Indíce Evolução dos Processadores
Exemplo Amdahl. O speedup total é dado por:
Í Revisão da prova Questão 20: A exploração do paralelismo em nível de instruções em uma arquitetura superescalar é realizada identificando no fluxo de instruções aquelas que são independentes a fim de
Infraestrutura de Hardware. Desempenho
Infraestrutura de Hardware Desempenho Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e executado pelo HW? Qual é a interface entre
Organização de Sistemas Computacionais Processadores: Organização da CPU
Universidade Paulista UNIP Curso: Ciências da Computação Turma: CCP30 Turno: Noturno Disciplina: Arquitetura de Computadores Professor: Ricardo Loiola Alunos: Thiago Gomes dos Santos Matrícula: C63873-0
Embora seja brutalmente mais rápida que o HD e outros periféricos, a memória RAM continua sendo muito mais lenta que o processador.
Memória RAM Embora seja brutalmente mais rápida que o HD e outros periféricos, a memória RAM continua sendo muito mais lenta que o processador. O uso de caches diminui a perda de desempenho, reduzindo
Arquitetura de Computadores Paralelos. Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela
Arquitetura de Computadores Paralelos Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela Por que estudar Computação Paralela e Distribuída? Os computadores sequenciais
Infraestrutura de Hardware. Explorando Desempenho com a Hierarquia de Memória
Infraestrutura de Hardware Explorando Desempenho com a Hierarquia de Memória Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido e
Hardware: Componentes Básicos. Sistema de Computador Pessoal. Anatomia de um Teclado. Estrutura do Computador. Arquitetura e Organização
Hardware: Componentes Básicos Arquitetura dos Computadores Dispositivos de Entrada Processamento Dispositivos de Saída Armazenamento Marco Antonio Montebello Júnior [email protected] Sistema de
Sistemas Operacionais. Adão de Melo Neto
Sistemas Operacionais Adão de Melo Neto 1 Computador Digital (Hardware) 2 Computador Digital Constituído por um conjunto de componentes interligados (hardware): processadores, memórias, registradores,
Tipos de Sistemas Operacionais
Tipos de Sistemas Operacionais Prof. Edwar Saliba Júnior Março de 2007 1 TIPOS DE S.O. Monoprogramáveis / monotarefas; Multiprogramáveis / multitarefas: Batch; Tempo compartilhado; Tempo real; Sistemas
PARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1
PARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1 Jessica De Almeida Berlezi 2, Janiel Ceretta Foletto 3, Edson Luiz Padoin 4, Rogério S. M. Martins 5. 1 Trabalho realizado
AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
ENGENHARIA DE SISTEMAS MICROPROCESSADOS
ENGENHARIA DE SISTEMAS MICROPROCESSADOS Prof. Pierre Vilar Dantas Turma: 0040-A Horário: 4N Aula 01-26/07/2017 Plano de ensino Professor www.linkedin.com/in/pierredantas/ TÓPICOS Conceitos gerais. Evolução
INSTALAÇÃO E MANUTENÇÃO DE COMPUTADORES Processadores Profº Elton Rodrigo
1 Sumário Introdução... 3 1- Processadores... 4 1.2 - FSB...4 1.2 Memória Cache...4 2 Sockets de processadores... 5 2.1 Hyper Threading (HT)...8 3 Processadores atuais... 9 4 - Cooler... 13 2 Introdução
Programação Concorrente e Paralela. Noemi Rodriguez
2013 Objetivos princípios e técnicas de programação concorrente multiprocessadores memória compartilhada troca de mensagens obs: diferentes níveis de abstração! que princípios e técnicas são esses? notações
AULA 01: APRESENTAÇÃO
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES I AULA 01: APRESENTAÇÃO Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação QUAIS OS OBJETIVOS DESSA DISCIPLINA?
Memória Compartilhada e Distribuída. _ Notas de Aula _ Prof. Tiago Garcia de Senna Carneiro DECOM/UFOP
Introdução Memória Compartilhada e Distribuída _ Notas de Aula _ Prof. Tiago Garcia de Senna Carneiro DECOM/UFOP Um sistema de memória compartilhada faz a memória física global de um sistema igualmente
Nome: N.º Ano: Turma: Turno: Responde às seguintes questões 1. Quais as vantagens da utilização de transístores face às válvulas de vácuo?
ANO LETIVO 2018/2019 FICHA DE AVALIAÇÃO DE ARQUITETURA DE COMPUTADORES Módulo Nº: 4 Data: 14/03/20189 Tipo de Prova: Teórica Classificação: O Docente: (Rafael Henriques) Nome: N.º Ano: Turma: Turno: Leia
Processamento Paralelo
Processamento Paralelo por Helcio Wagner da Silva Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários
Organização e Arquitetura de Computadores I
Organização e Arquitetura de Computadores I Memória Cache Slide 1 Introdução Tamanho Função de Mapeamento Política de Escrita Tamanho da Linha Número de Memórias Cache Cache em Níveis Slide 2 Introdução
Introdução a Sistemas Operacionais. Adão de Melo Neto
Introdução a Sistemas Operacionais Adão de Melo Neto 41 Definição de SO Sistema Operacional É um conjunto de rotinas (programa) executado pelo processador que controla o funcionamento do computador como
Programação Concorrente
INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC [email protected] Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica
COMPARAÇÃO DO TEMPO DE EXECUÇÃO DE ALGORITMOS MAXMIN EM DIFERENTES PROCESSSADORES
COMPARAÇÃO DO TEMPO DE EXECUÇÃO DE ALGORITMOS MAXMIN EM DIFERENTES PROCESSSADORES Comparison of the Runtime of Algorithms Maxmin in Different Processsadores Walteno Martins Parreira Júnior, Marcio Oliveira
4a. Geração VLSI 1980 à????
4a. Geração VLSI 1980 à???? A Microsoft tenta criar um novo padrão de micros: o MSX (Microsoft Extended), - já que havia diversos micros com diversos "padrões" Com o apoio total de diversas grande empresas
TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI
Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI CATEGORIA: CONCLUÍDO ÁREA:
Introdução à Informática. Aula 1
Introdução à Informática Aula 1 Site da disciplina sites.google.com/site/ifbagustavo/ Ementa Introdução ao HARDWARE; Conceitos e operacionais; utilização de sistemas Utilização de Processador de texto;
Introdução aos Sistemas Distribuídos
Introdução aos Sistemas Distribuídos Prof. Leonardo Barreto Campos http://sites.google.com/sitew/leonardobcampos 1/29 Sumário Ementa; Bibliografia Calendário Site Introdução Características http://sites.google.com/sitew/leonardobcampos
5 Unidades de Processamento Gráfico GPUs
5 Unidades de Processamento Gráfico GPUs As GPUs são processadores maciçamente paralelos, com múltiplos elementos de processamento, tipicamente utilizadas como aceleradores de computação. Elas fornecem
AULA1 Introdução a Microprocessadores gerais. Disciplina: Aplicações Avançadas de Microprocessadores (AAM)
AULA1 Introdução a Microprocessadores gerais Disciplina: Aplicações Avançadas de Microprocessadores (AAM) Tópicos: Conceitos gerais Evolução dos Microprocessadores Arquiteturas Principais características
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução
