Processamento Paralelo
|
|
|
- Branca Flor Barros Álvares
- 8 Há anos
- Visualizações:
Transcrição
1 Processamento Paralelo por Helcio Wagner da Silva
2 Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários sinais de controle são gerados ao mesmo tempo A técnica de pipeline sobrepõe instruções, pelo menos durante as operações de busca e execução Em máquinas superescalares, várias instruções podem ser executadas paralelamente 2
3 Introdução Novas alternativas para o paralelismo Multiprocessadores simétricos (SMP) Clusters Maquinas com Acesso Não-uniforme a Memória (NUMA) Surgiram a partir de novas tecnologias e do barateamento do HW Objetivos 1. Melhoria do desempenho 2. Aumento da disponibilidade (tolerância a falhas) 3
4 Organizações de Múltiplos Processadores SISD (Única Instrução, Único Dado) Unidade de Controle (UC) fornece uma seqüência de instruções para a Unidade de Processamento (UP) UP opera sobre uma única Seqüência de Dados (SD) de uma única Unidade de Memória (UM) Exemplo: sistema uniprocessado SI SD UC UP UM 4
5 Organizações de Múltiplos Processadores SIMD (Única Instrução, Múltiplos Dados) UC alimenta várias UP Cada UP opera sobre uma única SD de uma UM Exemplo: Processadores vetoriais e matriciais SD 1 UP 1 UM 1 UC SI SD 2 UP 2 UM UP n SD n UM n 5
6 Organizações de Múltiplos Processadores MIMD (Múltiplas Instruções, Múltiplos Dados) Há múltiplas UC, cada qual alimentando sua própria UC com uma SI diferente UC 1 UC 2 UC n SI 1 UP 1 SD 1 SI 2 UP 2 SD 2... SI n SD n UP n Memória compartilhada 6
7 Organizações de Múltiplos Processadores MIMD (Múltiplas Instruções, Múltiplos Dados) Há múltiplas UC, cada qual alimentando sua própria UC com uma SI diferente UC 1 UC 2 UC n SI 1 SD 1 UP 1 UM 1 SI 2 SI n SD 2 UP 2 UM 2... UP n SD n... UM n Rede de Interconexão 7
8 Organizações de Múltiplos Processadores Classificação Única Instrução, Único Dado (SISD) Única Instrução, Múltiplos Dados (SIMD) Múltiplas Instruções, Único Dado (MISD) Múltiplas Instruções, Múltiplos Dados (MIMD) Uniprocessadores Processadores Vetorais Processadores Matriciais Memória Compartilhada (fortemente acoplados) Memória Distribuída (fracamente acoplados) Clusters Multiprocessadores Simétricos (SMP) Sistemas com Acesso Não-uniforme à Memória (NUMA) 8
9 Multiprocessadores Simétricos... Processador Processador Processador Rede de Interconexão... Memória Principal 9
10 Multiprocessadores Simétricos Vantagens potenciais sobre uma arquitetura uniprocessador 1. Desempenho 2. Disponibilidade 3. Crescimento incremental 4. Personalização do fornecimento 10
11 Multiprocessadores Simétricos Processo 1 Tempo Processo 2 Processo 3 (a) Tempo compartilhado (multiprogramação) Processo 1 Processo 2 Processo 3 (b) Tempo compartilhado e sobreposição (multiprocessamento) bloqueado Em execução 11
12 Multiprocessadores Simétricos Classificação da organização 1. Tempo compartilhado ou barramento comum 2. Memória com múltiplas portas 3. Unidade de controle central 12
13 Tempo Compartilhado ou Barramento Comum Processador Processador... Processador Cache L1 Cache L1 Cache L1 Cache L2 Cache L2 Cache L2 Memória Principal Subsistema de Adaptador de Adaptador de... Adaptador de 13
14 Tempo Compartilhado ou Barramento Comum Vantagens Simplicidade Flexibilidade Confiabilidade Desvantagem Desempenho relativamente ruim Toda referência à memória passa pelo barramento Alternativa de projeto: uso de memórias cache Problema: estabelecimento da coerência de cache 14
15 Memória com Múltiplas Portas... M 1 M 2 M k P P n m 15
16 Memória com Múltiplas Portas Vantagem Desempenho melhorado Cada processador tem agora seu caminho dedicado para cada módulo de memória Desvantagem Abordagem relativamente mais complexa Uma grande quantidade de circuitos lógicos deve ser adicionada ao sistema de memória Resolução de conflitos de acesso se dá de acordo com um esquema de prioridades 16
17 Unidade de Controle Central UC central comanda fluxos de dados e desempenha funções de arbitração e temporização Vantagem Simplicidade Toda a lógica de coordenação está na UC central Desvantagem Pouca tolerância a falhas e desempenho potencialmente ruim UC central pode vir a se tornar o gargalo do sistema Raramente utilizada atualmente 17
18 Políticas de Escrita na Cache Escrita Direta (write through) Toda operação de escrita é feita tanto na cache quanto na memória principal Coerência da cache fácil de se estabelecer Tráfego potencialmente desnecessário Escrita de Volta (write back) Memória principal somente e atualizada quando a linha da cache é removida Tráfego relativamente menor Coerência de cache difícil de ser mantida Soluções para a coerência de cache Baseadas em SW Baseadas em HW 18
19 Soluções Baseadas em SW Procuram evitar a necessidade de circuitos e lógica adicional no HW Confiam no compilador e no SO para tratar o problema da coerência de cache Problema é transferido do tempo de execução para o tempo de compilação Mecanismos usa marcação de variáveis compartilhadas, para evitar que elas não sejam armazenados na cache nunca ou em determinados períodos Decisões tendem a ser conservativas 19
20 Soluções Baseadas em HW Denominadas protocolos de coerência de cache Possibilitam reconhecimento, em tempo de execução, de potenciais condições para a incoerência de cache Transparentes para o programador e para o compilador Categorias: Protocolos de diretório Protocolos de monitoração 20
21 Protocolos de Diretório Baseados no conceito de um Controlador Geral (CG), que é parte do controlador da MP O CG mantém, na MP, um diretório que contém informações globais sobre o conteúdo de várias caches locais Desvantagens Desempenho relativamente baixo Baixa tolerância a falhas 21
22 Protocolos de Diretório cache P Invalidar cópia local diretório 666 P1,P2,P3 CG 3. ok! 1. Requisita acesso exclusivo a linha Acesso exclusivo (deseja alterar linha 666) P cache 2. Invalidar cópia local 5. Linha 666 é alterada 3. ok! cache P
23 Protocolos de Diretório cache diretório 666 P1,P2,P3 CG 1. Falha ao ler linha Escrever de volta a linha 666 P Linha 666 atualizada é transferida (deseja alterar linha 666) P cache 3. Linha 666 (atualizada) escrita de volta na MP 5. Linha 666 é alteradac cache P
24 Protocolos de Monitoração Distribuem a responsabilidade de manter a coerência de cache entre todos os controladores de cache Quando uma linha de cache compartilhada é alterada, isso é anunciado a todos os demais controladores de cache Adequada à topologia em barramento Há de se ter cuidado para que o tráfego no barramento não anule o efeito de se utilizar memória cache Duas abordagens básicas Escrita com invalidação Escrita com atualização 24
25 Escrita com Invalidação P 1 1. Invalidar linha Alterar linha 1. Invalidar linha Invalidar linha P 2 P 3 P n Linha invalidada Linha invalidada Linha invalidada 25
26 Escrita com Atualização P 1 2. distribuir linha 666 atualizada 2. distribuir linha 666 atualizada Alterar linha 2. distribuir linha 666 atualizada... P 2 P 3 P n Atualizar linha Atualizar linha Atualizar linha
27 Clusters Grupo de computadores completos interconectados, que: Trabalham em conjunto Criam a ilusão de constituir uma única máquina Benefícios (ou requisitos de projeto): Escalabilidade absoluta Escalabilidade incremental Alta disponibilidade Melhor relação custo/desempenho 27
28 Classificação (Simples) dos Clusters P P M Ligação de alta velocidade para troca de mensagens M (a) Servidores independentes, sem compartilhamento de discos P Ligação de alta velocidade para troca de mensagens RAID P M M (b) Discos compartilhados 28
29 Classificação Mais Elaborada Servidor secundário passivo Somente entra em operação em caso de falha Servidor secundário ativo Servidores separados Discos independentes: os dados de um são continuamente copiados para o outro para prover tolerância a falhas Servidores conectados a discos São ligados aos mesmos discos, mas cada servidor acessa seus respectivos volumes Servidores compartilhando discos Todos os servidores acessam simultaneamente os mesmos volumes 29
30 Questões de Projeto de SO Gerência de falhas Recuperação de falhas (failover) Troca de aplicação e transferência de recursos de um sistema falho para outro em operação no cluster Retorno de falhas (failback) Restabelecimento de aplicações e retorno de recursos para o sistema outrora falho, após restabelecimento Balanceamento de carga Importante durante o crescimento incremental do cluster 30
31 Máquinas NUMA Motivação Há um limite entre 16 e 64 para o número de processadores embarcados em uma máquina SMP Power Challenge (Silicon Graphics): 64 µp R10000 Clusters não enxergam uma grande MP global Objetivos Permitir um número grande de processadores Origin (Silicon Graphics): 1024 µp R10000 NUMA-Q (Sequent): 252 µp Pentium II Manter, de forma transparente, uma visão de uma grande e única MP 31
32 P 1-1 P 1-m P 2-1 P 2-m Cache L1 Cache L1 Cache L1 Cache L1 Cache L2 Cache L2 diretório Cache L2 Cache L2 diretório Memória Principal 1 Memória Principal 2 P N-1 Cache L1 P N-m Cache L1 Rede de interconexão Cache L2 Cache L2 Memória Principal N diretório 32
33 P 1-1 P 1-m P 2-1 P 2-m Cache L1 Cache L1 comporta -se como um µp 1 Cache L1 5 Cache L1 Posição localizada no nó 1 Cache L2 Cache L2 diretório Cache L2 Cache L2 diretório Memória Principal Memória Principal 2 P N-1 P N-m Rede de interconexão Cache L1 Cache L1 Cache L2 Cache L2 Exemplo: P2-1 requisita acesso à posição de memória 798, que está localizada no nó 1 Memória Principal N diretório 33
34 Redes de Interconexão 34
35 Sumário de Termos Acesso Uniforme à Memória (UMA) Tempo de acesso é o mesmo para todas as regiões da memória Todos processadores experimentam o mesmo tempo de acesso Acesso Não-uniforme à Memória (NUMA) Tempo de acesso depende da região da memória Processadores experimentam tempos de acesso diferentes NUMA com Coerência de Cache (CC-NUMA) Máquina NUMA onde se mantém coerência de cache 35
Processamento Paralelo
Processamento Paralelo por Helcio Wagner da Silva Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários
Arquitetura de Computadores. Processamento Paralelo
Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple
AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação MULTIPROCESSADORES
Caracterização de Sistemas Distribuídos
Caracterização de Sistemas Distribuídos Roteiro Conceitos de Hardware Conceitos de Software Classificação de Flynn Classificação baseada no acesso a memória 2 Conceitos de HW Múltiplas CPUs Diferentes
Multiprogramação leve em arquiteturas multi-core
Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação
Organização de Computadores II. Arquiteturas MIMD
Organização de Computadores II Arquiteturas MIMD Arquiteturas UMA Arquiteturas com memória única global. Tempo de acesso uniforme para todos os nós de processamento. Nós de processamento e memória interconectados
speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado
Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos
Organização e Arquitetura de Computadores I
Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Unidade Acadêmica de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de
Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD
Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de
Sistemas Operacionais. Tipos de SO
Sistemas Operacionais Tipos de SO Tipos de Sistemas Operacionais Tipos de Sistemas Operacionais Sistemas Monoprogramáveis/ Monotarefas Sistemas Multiprogramáveis/ Multitarefas Sistemas com Múltiplos Processadores
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-1 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito
Prof. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h
Pipelining Avançado Prof. Rômulo Calado Pantaleão Camara Carga Horária: 2h/60h Introdução A técnica de pipelining explora o paralelismo entre as instruções Paralelismo em Nível de Instrução (ILP). Métodos
SSC510 Arquitetura de Computadores. 6ª aula
SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas
Arquiteturas Paralelas
Arquiteturas Paralelas Arquiteturas Paralelas Graduação em Ciência da Computação Universidade do Vale do Rio dos Sinos Prof. Gerson Cavalheiro Programação Paralela e Distribuída 2006 CC / UNISINOS Classificação
Multiprocessamento. Patterson & Hennessy Capítulo 9. Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011
Multiprocessamento Patterson & Hennessy Capítulo 9 Arquitetura e Organização de Computadores Juliano M. Vieira (c) 2011 Tópicos Abordados Tipos comuns SMP (processamento paralelo) NUMA (placas de alto
Parte I Multiprocessamento
Sistemas Operacionais I Estrutura dos SO Prof. Gregorio Perez [email protected] 2004 Parte I Multiprocessamento Roteiro 1 Multiprocessadores em Sistemas Fortemente Acoplados 1.1 1.2 1.3 Processamento
Quando Distribuir é bom
Quando Distribuir? Se não precisar, não distribua. Problema de natureza descentralizada Rede de manufatura com atividades concorrentes de engenharia em locações remotas; Teleconferência; Automação industrial.
Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór
Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von
Arquitetura de Computadores Paralelos. Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela
Arquitetura de Computadores Paralelos Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela Por que estudar Computação Paralela e Distribuída? Os computadores sequenciais
PARALELISMO NO NÍVEL DO PROCESSADOR
UNIP Universidade Paulista. Campus Brasília. PARALELISMO NO NÍVEL DO PROCESSADOR ALUNO: Lucas da Silva Dias ALUNO: Gleidson Rosa da Silva ALUNO: Gustavo da Silva Martins ALUNO: Marcelo Nery Lima RA: C633EB-1
Barramento. Prof. Leonardo Barreto Campos 1
Barramento Prof. Leonardo Barreto Campos 1 Sumário Introdução; Componentes do Computador; Funções dos Computadores; Estrutura de Interconexão; Interconexão de Barramentos Elementos de projeto de barramento;
Redes de Computadores. Fundamentos de Sistemas Operacionais - 2º Período
Redes de Computadores Fundamentos de Sistemas Operacionais - 2º Período PARTE I: CONCEITOS BÁSICOS SUMÁRIO 1. VISÃO GERAL: 1.1 Introdução; 1.2 Funções Básicas; 1.3 Máquina de Camadas; 1.5 Tipos de Sistemas
Curso: Redes de Computadores
Curso: Redes de Computadores Cadeira de Introdução a Sistemas Operacionais. Bibliografia Sistemas Operacionais Modernos Andew S. Tanembaum Sistema Operacionais Abraham Silberchatz, Peter Galvin e Greg
Arranjo de Processadores
Um arranjo síncrono de processadores paralelos é chamado arranjo de processadores, consistindo de múltiplos elementos processadores (EPs) sob a supervisão de uma unidade de controle (UC) Arranjo de processadores
Sistemas distribuídos. Prof. Emiliano Monteiro
Sistemas distribuídos Prof. Emiliano Monteiro Múltiplos processadores São arquiteturas que possuem duas ou mais CPU interligadas e que funcionam em conjunto na execução de tarefas independentes ou no processamento
Sistemas Distribuídos
Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES PARALELISMO: SMP E PROCESSAMENTO VETORIAL Prof. Dr. Daniel Caetano 2012-2 Objetivos Compreender a Arquitetura SMP Conhecer a Organização SMP Apresentar o Conceito
Protocolos de Coerência de Memória Cache
Universidade Federal do Rio de Janeiro Pós-Graduação em Informática DCC/IM - NCE/UFRJ Arquiteturas de Sistemas de Processamento Paralelo Protocolos de Coerência de Memória Cache Introdução Em sistemas
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 04: PROCESSAMENTO PARALELO: MULTICOMPUTADOR
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 04: PROCESSAMENTO PARALELO: MULTICOMPUTADOR Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação MULTICOMPUTADORES
Características de Sistemas Distribuídos
Tópicos O conceito de Características de Carlos Ferraz [email protected] Infra-estrutura básica Exemplos Vantagens e desvantagens Convergência digital Características 2002-2003 Carlos A. G. Ferraz 2 O Conceito
Processadores. Principal função é executar programas armazenados na memória principal.
Processadores Principal função é executar programas armazenados na memória principal. Registradores São memórias pequenas de alta velocidade, usada para armazenar resultados temporários e certas informações
Tipos de Sistemas Operacionais
Tipos de Sistemas Operacionais Prof. Edwar Saliba Júnior Março de 2007 1 TIPOS DE S.O. Monoprogramáveis / monotarefas; Multiprogramáveis / multitarefas: Batch; Tempo compartilhado; Tempo real; Sistemas
INTRODUÇÃO À TECNOLOGIA DA INFORMAÇÃO ORGANIZAÇÃO COMPUTACIONAL
INTRODUÇÃO À TECNOLOGIA DA ORGANIZAÇÃO COMPUTACIONAL PROFESSOR CARLOS MUNIZ ORGANIZAÇÃO DE UM COMPUTADOR TÍPICO Memória: Armazena dados e programas Processador (CPU - Central Processing Unit): Executa
Computadores e Programação (DCC/UFRJ)
Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo
Características de Sistemas Distribuídos
Características de Sistemas Distribuídos Carlos Ferraz [email protected] 2002-2003 Carlos A. G. Ferraz 2 Tópicos O conceito de Sistemas Distribuídos Infra-estrutura básica Exemplos Vantagens e desvantagens
Linguagem de Programação II
Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB [email protected] Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes
Introdução a Sistemas Operacionais. Adão de Melo Neto
Introdução a Sistemas Operacionais Adão de Melo Neto 41 Definição de SO Sistema Operacional É um conjunto de rotinas (programa) executado pelo processador que controla o funcionamento do computador como
Sistema Distribuído. Sistema Distribuído. Aplicações Distribuídas. Conceitos Básicos
Sistema Distribuído Conjunto de máquinas (CPU + memória) interligadas em rede. Sistema Distribuído Sistema operacional distribuído trata este conjunto como um único sistema computacional. Estação 1 Estação
Arquitetura de Computadores. Prof. João Bosco Jr.
Arquitetura de Computadores Prof. João Bosco Jr. (CPU) Modelo do Computador Von Neumann Processador Memórias E/S Barramentos Simulação Contador http://courses.cs.vt.edu/csonline/machinearchitecture/lessons/cpu/countprogram.html
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES Prof. Dr. Daniel Caetano 2012-2 Lembretes Compreender o funcionamento da Arquitetura Superpipeline Compreender
Memória Compartilhada e Distribuída. _ Notas de Aula _ Prof. Tiago Garcia de Senna Carneiro DECOM/UFOP
Introdução Memória Compartilhada e Distribuída _ Notas de Aula _ Prof. Tiago Garcia de Senna Carneiro DECOM/UFOP Um sistema de memória compartilhada faz a memória física global de um sistema igualmente
Unidade 12: Introdução ao Paralelismo:
Arquitetura e Organização de Computadores 1 Unidade 12: Introdução ao Paralelismo: Processadores Superescalares Prof. Daniel Caetano Objetivo: Apresentar os conceitos fundamentais da arquitetura superescalar
William Stallings Arquitetura e Organização de Computadores 8 a Edição
William Stallings Arquitetura e Organização de Computadores 8 a Edição Capítulo 3 Visão de alto nível da função e interconexão do computador slide 1 Conceito de programa Sistemas hardwired são inflexíveis.
SSC510 Arquitetura de Computadores. 7ª aula
SSC510 Arquitetura de Computadores 7ª aula ARQUITETURAS SIMD PROFA. SARITA MAZZINI BRUSCHI Arquiteturas SIMD Um único fluxo de dados, vários fluxos de intruções Tipos de arquiteturas Processadores Vetorais
Sistemas Operacionais. Adão de Melo Neto
Sistemas Operacionais Adão de Melo Neto 1 Computador Digital (Hardware) 2 Computador Digital Constituído por um conjunto de componentes interligados (hardware): processadores, memórias, registradores,
Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores. Organização Básica de Computadores
Ciência da Computação Arq. e Org. de Computadores Processadores Prof. Sergio Ribeiro Composição básica de um computador eletrônico digital: Processador Memória Memória Principal Memória Secundária Dispositivos
Sistemas Distribuídos
Sistemas Distribuídos Motivação Aplicações Motivam Possibilita Engenharia Motivação! Aplicações cada vez mais complexas! Qual a técnica mais comum para redução de complexidade? " Modularização Dividir
BARRAMENTOS DO SISTEMA FELIPE G. TORRES
BARRAMENTOS DO SISTEMA FELIPE G. TORRES BARRAMENTOS DO SISTEMA Um computador consiste em CPU, memória e componentes de E/S, com um ou mais módulos de cada tipo. Esses componentes são interconectados de
Apresentação. Ementa da Disciplina. Objetivo da Disciplina. DCA-108 Sistemas Operacionais. Referências Bibliográfica. Referências Bibliográfica
DCA-108 Sistemas Operacionais Luiz Affonso Guedes www.dca.ufrn.br/~affonso [email protected] Apresentação Disciplina básica do curso de Engenharia de Computação Carga-horária: 60h teóricas Associadas
Sistemas Operacionais Distribuídos
Sistemas Operacionais Distribuídos Introdução O uso de redes locais e da Internet está amplamente difundido mesmo para uso doméstico. Mas para que tais recursos físicos sejam aproveitados da melhor forma
Prof a Andréa Schwertner Charão DELC/CT/UFSM
Modelos de Computadores Paralelos Prof a Andréa Schwertner Charão DELC/CT/UFSM Sumário Modelos de computadores paralelos Classificações "acadêmicas" Tendências de mercado TOP500 Impacto na programação
Matéria: Sistema Computacional - SC. Prof.: Esp.: Patrícia Dias da Silva Peixoto
Matéria: Sistema Computacional - SC Prof.: Esp.: Patrícia Dias da Silva Peixoto SISTEMA OPERACIONAL E TIPOS DE SISTEMAS OPERACIONAIS O QUE É UM SISTEMA OPERACIONAL (S.O.). Por mais complexo que possa parecer,
30/5/2011. Sistemas computacionais para processamento paralelo e distribuído
Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento
Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Arquitetura de Computadores Unidade Central de Processamento CPU
Arquitetura de Computadores Unidade Central de Processamento CPU CPU Funções realizadas pelo processador: Função controle Responsável pela busca, interpretação e controle da execução das instruções, bem
Disciplina de Arquitetura de Computadores
USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/
Introdução. Redes de Interconexão - Prof a Luiza Mourelle 1
Introdução Redes de interconexão são utilizadas em diferentes aplicações: barramentos backplane e redes de sistemas; chaves de telefonia; redes internas para modo de transferência assíncrona (ATM) e protocolo
Introdução aos Sistemas Operacionais
1 Introdução aos Sistemas Operacionais 1.1 O que é um sistema operacional 1.2 História dos sistemas operacionais 1.3 O zoológico de sistemas operacionais 1.4 Conceitos sobre sistemas operacionais 1.5 Chamadas
TIPOS DE SISTEMAS OPERACIONAIS. Ademar Alves Trindade
TIPOS DE SISTEMAS OPERACIONAIS Ademar Alves Trindade INTRODUÇÃO TIPOS DE SISTEMAS OPERACIONAIS Tipos de Sistemas Operacionais Sistemas Monoprogramáveis Monotarefa Sistemas Multiprogramáveis Multitarefa
ARQUITETURA DE SISTEMAS OPERACIONAIS. VISÃO GERAL DE UM SISTEMA OPERACIONAL Prof. André Luís Alves E. M. DR. LEANDRO FRANCESCHINI
ARQUITETURA DE SISTEMAS OPERACIONAIS VISÃO GERAL DE UM SISTEMA OPERACIONAL Prof. André Luís Alves E. M. DR. LEANDRO FRANCESCHINI INTRODUÇÃO Programas computacionais (ou software) constituem o elo entre
William Stallings Arquitetura e Organização de Computadores 8 a Edição
William Stallings Arquitetura e Organização de Computadores 8 a Edição Capítulo 3 Visão de Nível Superior das Funções e Interconexões do Computador Parte 3 Barramentos Conectando Todas as unidades devem
ARQUITETURA DE COMPUTADORES
ARQUITETURA DE COMPUTADORES Arquitetura de Von Newmann Prof Daves Martins Msc Computação de Alto Desempenho Email: [email protected] Vídeos Vídeo aula RNP http://edad.rnp.br/rioflashclient.php?xmlfile=/ufjf/licenciatura_com
ESPECIFICAÇÕES DE UMA REDE DE AUTOMAÇÃO. Taxa de transmissão. Topologia física
ESPECIFICAÇÕES DE UMA REDE DE AUTOMAÇÃO Taxa de transmissão É a quantidade média de dados a serem transmitidos na rede em períodos de tempo. A taxa de transferência de dados é medida em kbps ou kb/s. Topologia
Topologias de Arquiteturas de Comunicação
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES Topologias de Arquiteturas de Comunicação Alexandre Amory Edson Moreno 2 / 31 Índice 1. Introdução 2. Topologias 3. Exercícios 3 / 31 Topologias de Infra-estruturas
Sistema de Software Distribuído
Sistema de Software Distribuído É composto por uma sequência de instruções, que é interpretada e executada por um processador É composto por instruções concorrentes ou paralelas, que são interpretadas
Sistemas Multiprogramáveis/Multitarefa
Sistemas Multiprogramáveis/Multitarefa - Programas submetidos são armazenados em fitas/discos onde são executado sequencialmente -A UCP pode processar seqüencialmente cada job (tarefa), diminuindo o tempo
Programação Concorrente
INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC [email protected] Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica
Princípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade
Memória Cache Princípio da Localidade Apenas uma parte relativamente pequena do espaço de endereçamento dos programas é acessada em um instante qualquer Localidade Temporal Um item referenciado tende a
Organização e Arquitetura de Computadores I
Organização e Arquitetura de Computadores I Memória Cache Slide 1 Introdução Tamanho Função de Mapeamento Política de Escrita Tamanho da Linha Número de Memórias Cache Cache em Níveis Slide 2 Introdução
Prof. Gregorio Perez 2007
Sistemas Operacionais I Parte II Tipos dos SOs Roteiro Prof. Gregorio Perez [email protected] 2007 Tipos 1.1 Sistemas Mainframe 1.2 Sistemas Desktop 1.3 Sistemas Multiprocessados 1.4 Sistemas Distribuídos
Organização e Arquitetura de Computadores I
Organização e Arquitetura de Computadores I BARRAMENTO Slide 1 Sumário Introdução Componentes de Computador Funções dos Computadores Estruturas de Interconexão Interconexão de Barramentos Slide 2 Introdução
Aula 3 Redes de Interconexão
Aula 3 Redes de Interconexão As redes de interconexão são de fundamental importância nas arquiteturas paralelas Não importa o tipo da arquitetura, todo computador paralelo necessita de uma rede de interconexão
Aula 4 TECNOLOGIA EM JOGOS DIGITAIS JOGOS MASSIVOS DISTRIBUÍDOS. Marcelo Henrique dos Santos
Aula 4 TECNOLOGIA EM JOGOS DIGITAIS JOGOS MASSIVOS DISTRIBUÍDOS Marcelo Henrique dos Santos Marcelo Henrique dos Santos Email: Site: [email protected] www.marcelohsantos.com.br TECNOLOGIA EM JOGOS
