Comparação de algoritmos paralelos em uma rede heterogênea de workstations

Save this PDF as:
 WORD  PNG  TXT  JPG

Tamanho: px
Começar a partir da página:

Download "Comparação de algoritmos paralelos em uma rede heterogênea de workstations"

Transcrição

1 Comparação de algoritmos paralelos em uma rede heterogênea de workstations Marcelo T. Rebonatto, Marcos J. Brusso, Roberto Niche 1, Roni A. Dall Orsoletta 1 Universidade de Passo Fundo Instituto de Ciências Exatas e Geociências - Curso de Ciência da Computação Campus I - BR Bairro São José Passo Fundo (RS) - Brasil - CEP: Caixa Postal: 611 Telefone: (54) Fax: (54) {rebonatto, Abstract The objective of parallel processing is reduce the execution time of the programs using many processors. One of the employed alternatives currently is the use of machines called NOW (Network the Workstations), which are, typically, formed for homogeneous architectures of the hardware and operational system. This work has for objective to compare two traditional models of parallel algorithms (divide-and-conquer and master/slave) in a formed virtual parallel machine with heterogeneous configuration. Resumo O processamento paralelo tem por objetivo reduzir o tempo de execução dos programas através da utilização de diversos processadores. Uma das alternativas empregadas atualmente é o emprego de máquinas chamadas NOW (Network of Workstations), as quais são, tipicamente, formadas por arquiteturas homogêneas de hardware e sistema operacional. Este trabalho tem por objetivo comparar dois modelos tradicionais de algoritmos paralelos ( divisão e conquista e mestre/escravo ) em um máquina paralela virtual formada com uma configuração heterogênea. 1. Introdução O objetivo principal do processamento paralelo é realizar computações mais rapidamente do que as feitas com um único processador, através da exploração da concorrência empregando mais de um processador. A definição de processamento paralelo mais empregada foi formulada inicialmente por Hwang em Segundo o autor, processamento paralelo é uma forma eficiente de processar informações, a qual enfatiza a exploração de eventos concorrentes na computação de um processo [Hwang & Xu, 1998]. Neste contexto, um computador paralelo é uma coleção de processadores que são utilizados em conjunto para resolver cooperativamente um problema [Goulart et. al. 1999]. A busca do alto desempenho visando atender à demanda crescente de processamento motivou o surgimento de vários modelos de arquiteturas paralelas. A classificação das 1 Bolsistas PIBIC - UPF

2 máquinas mais utilizada atualmente foi proposta por Michael Flynn em 1972, citada por Silva [Silva, 1999]. Esta classificação foi elaborada segundo o fluxo de instruções e dado, conforme ilustrado na Figura 1, onde aparecem as quatro combinações possíveis (SISD, MISD, SIMD. MIMD). SD (single Data) MD (Multiple Data) SI (Single Instruction) MI (Multiple Data) SISD (Máquinas monoprocessadas) MISD (Sem representante atual) Figura 1 Classificação de Flynn SIMD (Máquinas vetoriais) MIMD (Multiprocessadores ou Multicomputadores) As máquinas SISD possuem um fluxo de instruções atuando sobre um fluxo de dados, sendo as tradicionais máquinas monoprocessadas. A classe MISD, possui vários fluxos de instruções atuando sobre um fluxo de dados. Sua classificação é muito contestada por praticamente inexistir aplicações ao seu uso. As divisões SIMD e MIMD representam as máquinas conhecidas como paralelas [Navaux et. al., 2001][De Rose, 2001], sendo as primeiras com um fluxo de instruções atuando sobre diferentes dados e a segunda possibilitando múltiplos fluxos de instruções sobre dados distintos [Kumar et. al, 1994] e [Hwang & Xu, 1998]. Segundo Navaux [Navaux et. al., 2001] e Hwang [Hwang & Xu, 1998], grande parte das máquinas paralelas atuais são da classe MIMD, que possui uma divisão em relação ao espaço de endereçamento de memória. Multiprocessadores são máquinas MIMD que possuem um único espaço para endereçamento da memória, desta forma possibilitando regiões de dados compartilhados. Já os multicomputadores são máquinas MIMD com vários espaços de endereçamento de memória, desta forma não possibilitando memória compartilhada. Um dos tipos de multicomputadores que nos últimos anos vem ganhando destaque são as máquinas NOW (Network of Workstation). Segundo Sato, estações de trabalho em rede são uma boa forma de se obter computadores escaláveis, uma vez que podem ser utilizadas até algumas dezenas de estações para um único trabalho [Sato et. al. 1996]. Atualmente, já são utilizados alguns milhares de computadores interligados em rede, aumentando a capacidade de processamento dos clusters, deixando-os em condições de competir com os supercomputadores [Hargrove et. al., 2001]. A possibilidade de criação de máquinas NOW criadas a partir de hardware heterogêneo e utilizando diferentes S.O. pode aumentar a utilização do processamento paralelo e distribuído, uma vez que o hardware empregado estava inicialmente ocioso. Neste contexto começam a surgir os clusters ditos como de baixo custo, montados a partir de PCs 486 (ou inferiores) e Pentium que estariam indo ao descarte [Hoffman et. al. 2001]. Estas máquinas se diferenciam dos clusters tradicionais uma vez que não utilizam máquinas com idênticas configurações (processador, memória, I/O,...), porém, se considerarmos apenas estes tipos de máquina eles não podem ser chamados de heterogêneos pois são constituídos de máquinas construídas a partir de uma mesma arquitetura.

3 2. Modelos de algoritmos paralelos Uma das decisões importantes a serem tomadas no momento do projeto e implementação de aplicações paralelas é o modelo de algoritmo paralelo a ser escolhido. Um modelo define, em um alto nível, a forma de intercambio de dados e sincronização dentro da aplicação. Os cinco principais modelos de algoritmos descritos na literatura são: Divisão e conquista: consiste de dividir a aplicação em tarefas menores, a serem executadas concorrentemente pelos processadores; Pipeline: a aplicação é divida em fases, cada fase é executada por um processador, sendo o resultado da fase n entrada para a fase n+1; Mestre/escravo: um processador se encarrega da função de mestre, enviando tarefas aos escravos e recebendo deles os resultados; Pool de trabalho: utiliza um conjunto compartilhado de tarefas entre os processadores, onde cada processador busca um subconjunto da tarefa e a executa; Fases paralelas: a aplicação é divida em etapas que devem ser sincronizadas no decorrer do tempo. 3. Os testes realizados A fim de avaliar o desempenho de algoritmos paralelos em um ambientes heterogêneos, selecionou-se os modelos de algoritmos divisão e conquista e mestre/escravo. A aplicação escolhida para os testes foi um programa responsável por encontrar conjuntos de números-primos, por ser onerosa em termos de tempo de processamento. Os programas foram desenvolvidos usando linguagem de programação C e a biblioteca de programação paralela MPI [MPI, 1994]. Com o objetivo de possibilitar comparações desenvolveu-se, também, uma versão seqüencial da mesma aplicação. A partir dos tempos de execução obtidos, utilizaram-se os cálculo de medidas de desempenho tradicionalmente utilizadas (speedup e eficiência) A implementação divisão e conquista Este algoritmo tem por finalidade dividir um trabalho de acordo com o número de processadores disponível. Cada processador recebe inicialmente, e uma única vez, seu subconjunto dos dados, executará o trabalho com estes dados e finalmente retornará o resultado. O nodo 0, que corresponde ao processo onde foi iniciada a execução do programa paralelo divide o conjunto de dados em subconjuntos de igual tamanho, um para cada um dos demais nodos. Estes dados são enviados através de mensagens para cada um dos processos, de forma ordenada. À medida que cada nodo conclui a sua execução, retorna o resultado para o nodo 0. Este programa faz uso das primitivas básicas de trocas de mensagens do MPI, além de comunicação de grupo (BROADCASTING). A Figura 2a ilustra um fluxo desta implementação A implementação mestre/escravo Este algoritmo emprega um processador (mestre) o qual coordena o trabalho dos demais processadores (escravos). Nesta implementação é definida uma pequena quantidade de dados para os processadores escravos executarem, que é definida pelo programador (um passo ). O processo mestre envia um passo para cada escravo e faz a sincronia entre

4 eles de forma ordenada. Após cada processador escravo receber o seu subconjunto de dados correspondente ao passo atual e fazer sua execução, retorna o resultado para o mestre, ficando a espera de mais alguma tarefa caso seja necessário. Quando todos os dados tiverem sido processados o mestre envia um sinal terminando a execução do cada um dos escravos. Para a implementação deste programa, foram utilizadas as primitivas básicas de troca de mensagens do MPI além de comunicação de grupo (BROADCASTING) e do parâmetro MPI_ANY_SOURCE que permite o recebimento de mensagem de qualquer processo. A Figura 2b ilustra um fluxo desta implementação. Divisão e Conquista Main Mestre/Escravo Main nodo!= 0 nodo == 0 le_arq nodo!=0 nodo==0 le_arq calc_pri calc_pri Status_MPI Break Figura 2a Divisão e Conquista Figura 2b Mestre/Escravo Neste trabalho o passo foi definido com 1000 números de um total de 10 milhões de números. O nodo mestre fica enviando os subconjuntos e recebendo os resultados dos nodos escravos até que complete todo envio do arquivo, tentando deixar o mínimo possível algum nodo escravo ocioso. 4. Resultados obtidos Os algoritmos implementados foram executados em um ambiente computacional paralelo heterogêneo. Neste ambiente, encontram-se máquinas diferenciadas pela sua arquitetura, como PC s e WorkStation Sun, assim como pelo sistema operacional, como Solaris e Linux. Fizeram parte dos testes, ainda, máquinas monoprocessadas e multiprocessadores SMP. A seguir, a descrição das máquinas utilizadas neste trabalho:

5 Sparc: Workstations Sun Sparc, com processadores 270 e 300 Mhz, 192Mb de memória RAM e HD de 4Gbs, utilizando S.O. Sun Solaris; PCServer: Servidor IBM 320, com dois processadores 133Mhz, 64Mb de memória RAM e HD de 8Gbs, utilizando S.O. Solaris para PC; Celeron: Microcomputador HP Brio, com processador AMD K6 II 500Mhz, 64Mb de memória RAM e HD de 3.8Gb, utilizando S.O. Linux, distribuição Conectiva 6.0; imac: Apple imac, com um processador PowerPc 266Mhz, 32Mb de memória RAM e HD de 2Gbs, utilizando o S.O. Linux, distribuição Yellow Dog Linux. Para a obtenção dos resultados, foram compostas diversas combinações de máquinas para compor a máquina virtual paralela, incluindo três, quatro, cinco e seis processadores. Em todas as configurações, ambos os algoritmos paralelos foram executados, com no mínimo cinco séries de repetições, tomando-se como resultado final a média aritmética do tempo de execução destes conjuntos de testes. A tabela 1 apresenta os resultados obtidos, em termos de tempo de execução, speedup (aceleração na execução do programa paralelo) e eficiência (fração do tempo que foi efetivamente aproveitado em processamento). Tabela 1 Resultados obtidos pelos algoritmos em ambiente paralelo heterogêneo Divisão e Conquista Mestre/Escravo NP* Configuração Tempo de Speedup Eficiência Tempo de Speedup Eficiência execução execução 3a 2 Celeron; 1 imac. 3b 2 Celeron; 1 Sparc. 4a 2 Celeron; 2 PCServer**. 4b 2 Celeron; 1 Sparc; 1 imac. 5a 2 Celeron; 2 PcServer; 1iMac. 5b 2 Celeron; 2 PCServer; 1Sparc. 6 2 Celeron; 2 PCServer; 1 imac; 1 Sparc. 714,158 1,144 0, ,256 2,299 0, ,43 0,665 0, ,812 2,079 0, ,361 0,514 0, ,601 2,157 0, ,786 0,886 0, ,495 2,434 0, ,542 0,641 0, ,317 2,542 0, ,063 0,638 0, ,91 2,244 0, ,65 0,774 0, ,323 2,534 0,422 *: NP=número de processadores **: A máquina PCServer sempre foi utilizada com seus dois processadores. Para o cálculo do Speedup (tempo seqüencial/tempo paralelo) foi utilizado como base para o tempo seqüencial (816,73s), obtido a partir da média de cinco repetições da execução na arquitetura de melhor desempenho, neste caso a máquinas Celeron.

6 Analisando o algoritmo divisão e conquista, seu speedup não chegou em nenhum caso a 1.2, tendo portanto baixa aceleração. Analisando a eficiência deste algoritmo, constatouse que seu valor máximo também foi conseguido utilizando 3 processadores, sendo que nos demais casos a mesma não chegou a 25%. O algoritmo mestre/escravo obteve melhores resultados, alcançando speedup de 2,54, valor este obtido com a configuração 5 a e próximo ao obtido com 6 processadores Uma representação gráfica dos valores do speedup alcançados pode ser visualizada na Figura 3. Nela são mostrados, para cada conjunto de máquina paralela virtual heterogênea, o speedup conseguido em ambos os algoritmos. Speedup 3,000 2,500 2,000 1,500 1,000 0,500 Divisão e Conquista Mestre/Escravo 0,000 3a 3b 4a 4b 5a 5b 6 Processadores Figura 3 Comparativo do speedup obtido Na Figura 4 fica clara a melhor adaptação do algoritmo mestre escravo ao ambiente paralelo heterogêneo. Em todas as configurações este algoritmo foi melhor, sendo destacadas as configurações 5a e Conclusões Este trabalho teve como finalidade a comparação entre os algoritmos Divisão e Conquista e Mestre/Escravo em um ambiente de execução onde as máquinas se diferenciam pela arquitetura e sistema operacional. O algoritmo divisão e conquista não se mostrou muito eficiente no ambiente heterogêneo por que ele apenas divide o vetor pelo número de processos e envia uma única vez para os nodos e isso acaba tendo como conseqüência que os processadores que terminarem antes sua tarefa fique parado por algum tempo esperando os outros processadores terminem sua parte do trabalho, retardando o tempo de execução do programa, devido ao fato de que um processador pode ser mais demorado ou lento que outro. O algoritmo mestre/escravo tem como característica evitar que algum processador fique ocioso por muito tempo esperando alguma tarefa. Isto se deve ao fato de que, neste modelo, cada processo recebe pequenos sub-conjuntos dos dados cada vez que conclui

7 seu trabalho atual, adaptando assim, dinamicamente a carga enviada a cada nodo. Esta característica ganha força quando se trata de ambientes heterogêneos, pois neste ambiente têm-se vários tipos de processadores sendo um mais lento que outro. De acordo com os resultados obtidos pode se concluir que o algoritmo mestre/escravo num ambiente heterogêneo tem mais aplicabilidade que o divisão e conquista. Bibliografia DE ROSE, César A. F. Arquiteturas Paralelas. In In: ERAD 2001, Escola Regional de Alto Desempenho. Anais Porto Alegre: SBC/Instituto de Informática da UFRGS p GOULART, Peter Carvalhal et. al. PARALELISMO: Algoritmos e complexidade. Porto Alegre: UFRGS, Instituto de Informática, p. RP-306. HARGROVE et. al. The Do-It-Yourself Supercomputer. Capturado em 3 set Online. Disponível na Internet através de http em HOFFMAN et. al. The Stone SouperComputer. Capturado em 5 out Online. Disponível na Internet através de http em HWANG, Kai; XU, Zhiwei. Scalable Parallel Computing: Technology, Architecture, Programming. Boston: McGraw-Hill, p.3-90, p e p KUMAR, et al. Models of Parallel Computers. In: Introdutction to Parallel Computing: Design and Analysis of Algortithms. Redwood City: The Benjamin/Cummings Publishing Company, p. chap. 2, p MPI FORUM. The MPI message passing interface standard. Knoxville: University of Tennessee, NAVAUX, et. al. Execução de aplicações em ambientes concorrentes. In: ERAD 2001, Escola Regional de Alto Desempenho. Anais Porto Alegre: SBC/Instituto de Informática da UFRGS p SATO, Liria Matsumoto; MIDORIKAWA, Edson Toshimi; SENGER, Hermes. Introdução a Programação Paralela e Distribuída. Capturado em 7 maio de Online. Disponível na Internet através de http em SILVA, Márcio Gonçalves da. Influência de Parâmetros Arquiteturais em Sistemas Paralelos de Programação em Lógica. Rio de Janeiro, 1999, 101p. Dissertação de Mestrado - COPPE/UJRJ.

ALGORÍTMOS PARALELOS (Aula 2) LCAD. Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES

ALGORÍTMOS PARALELOS (Aula 2) LCAD. Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES ALGORÍTMOS PARALELOS (Aula 2) Neyval C. Reis Jr. OUTUBRO/2004 LCAD Laboratório de Computação de Alto Desempenho DI/UFES Programa do Curso LCAD 1. Introdução 2. Arquitetura de Computadores 3. Arquiteturas

Leia mais

} Monolíticas Aplicações em um computador centralizado. } Em Rede Aplicações com comunicação em rede. } Distribuídas Comunicação e cooperação em rede

} Monolíticas Aplicações em um computador centralizado. } Em Rede Aplicações com comunicação em rede. } Distribuídas Comunicação e cooperação em rede Prof. Samuel Souza } Monolíticas Aplicações em um computador centralizado } Em Rede Aplicações com comunicação em rede } Distribuídas Comunicação e cooperação em rede } Aplicações que são funcionalmente

Leia mais

Introdução às arquiteturas paralelas e taxonomia de Flynn

Introdução às arquiteturas paralelas e taxonomia de Flynn Introdução às arquiteturas paralelas e taxonomia de Flynn OBJETIVO: definir computação paralela; o modelo de computação paralela desempenhada por computadores paralelos; e exemplos de uso da arquitetura

Leia mais

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano 2012-1

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano 2012-1 ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES Prof. Dr. Daniel Caetano 2012-1 Lembretes Compreender o funcionamento da Arquitetura Superpipeline Compreender

Leia mais

Comparação SDs X Scs

Comparação SDs X Scs Prof. Alexandre Lima Sistemas Distribuídos Cap 9 1/7 Comparação SDs X Scs Distribuição inerente Economia Velocidade Confiabilidade Crescimento incremental Descrição Algumas aplicações envolvem máquinas

Leia mais

APLICAÇÕES EM SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com

APLICAÇÕES EM SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com - Aula 6 - ALGORÍTIMOS PARALELOS MPI - Parallel Virtual Machine e PVM - Parallel Virtual Machine 1. INTRODUÇÃO Inicialmente é necessário conceber alguns conceitos para entendimento dos algoritmos paralelos:

Leia mais

Pipelining. Professor: Carlos Bazilio. Pólo Universitário rio de Rio das Ostras

Pipelining. Professor: Carlos Bazilio. Pólo Universitário rio de Rio das Ostras Pipelining Professor: Carlos Bazilio Contextualizando Após apresentação da arquitetura interna de processadores Memória de Controle Microprograma Linguagem de Máquina... Motivação Idéia Geral Estágios

Leia mais

Sistemas Paralelos e Distribuídos. Prof. Jorge Dantas de Melo Depto. Eng. Comp. e Automação CT - UFRN

Sistemas Paralelos e Distribuídos. Prof. Jorge Dantas de Melo Depto. Eng. Comp. e Automação CT - UFRN Sistemas Paralelos e Distribuídos Prof. Jorge Dantas de Melo Depto. Eng. Comp. e Automação CT - UFRN Conceitos preliminares Paralelismo refere-se a ocorrência simultânea de eventos em um computador Processamento

Leia mais

Sistemas Distribuídos: Conceitos e Projeto Classificação de Sistemas Distribuídos e Middleware

Sistemas Distribuídos: Conceitos e Projeto Classificação de Sistemas Distribuídos e Middleware Sistemas Distribuídos: Conceitos e Projeto Classificação de Sistemas Distribuídos e Middleware Francisco José da Silva e Silva Laboratório de Sistemas Distribuídos (LSD) Departamento de Informática / UFMA

Leia mais

Organização e Arquitetura de Computadores I. de Computadores

Organização e Arquitetura de Computadores I. de Computadores Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de I Organização Básica B de (Parte V, Complementar)

Leia mais

Capítulo 8 Arquitetura de Computadores Paralelos

Capítulo 8 Arquitetura de Computadores Paralelos Capítulo 8 Arquitetura de Computadores Paralelos Necessidade de máquinas com alta capacidade de computação Aumento do clock => alta dissipação de calor Velocidade limitada dos circuitos => velocidade da

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais SISTEMAS COM MÚLTIPLOS PROCESSADORES LIVRO TEXTO: CAPÍTULO 13, PÁGINA 243 Prof. Pedro Luís Antonelli Anhanguera Educacional INTRODUÇÃO Arquiteturas que possuem duas ou mais CPUs interligadas

Leia mais

slide 0 Algoritmos Paralelos

slide 0 Algoritmos Paralelos slide 0 Algoritmos Paralelos Slide 2 Demanda por Velocidade Computational Demanda contínua por maior rapidez computational das máquinas que as atualmente disponíveis. As áreas que exigem maior rapidez

Leia mais

SIS17 - Arquitetura de Computadores. Introdução (Parte III)

SIS17 - Arquitetura de Computadores. Introdução (Parte III) SIS17 - Arquitetura de Computadores Introdução (Parte III) Espectro Computacional (Visão Geral) Servidor Estações de Trabalho Mainframe Supercomputador TIPO Computadores de uso comum (pequenos chips) Computadores

Leia mais

Paralelismo. Computadores de alto-desempenho são utilizados em diversas áreas:

Paralelismo. Computadores de alto-desempenho são utilizados em diversas áreas: Computadores de alto-desempenho são utilizados em diversas áreas: - análise estrutural; - previsão de tempo; - exploração de petróleo; - pesquisa em fusão de energia; - diagnóstico médico; - simulações

Leia mais

Arquitetura NUMA 1. Daniel de Angelis Cordeiro. INRIA MOAIS project Laboratoire d Informatique de Grenoble Université de Grenoble, França

Arquitetura NUMA 1. Daniel de Angelis Cordeiro. INRIA MOAIS project Laboratoire d Informatique de Grenoble Université de Grenoble, França Arquitetura NUMA 1 Daniel de Angelis Cordeiro INRIA MOAIS project Laboratoire d Informatique de Grenoble Université de Grenoble, França 6 de Outubro de 2010 1 Baseado em slides feitos por Christiane Pousa

Leia mais

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador

Leia mais

Professores: Aula 10. Lúcia M. A. Drummond Simone de Lima Martins. Conteúdo: Arquiteturas Avançadas. - Arquiteturas RISC - Processamento Paralelo

Professores: Aula 10. Lúcia M. A. Drummond Simone de Lima Martins. Conteúdo: Arquiteturas Avançadas. - Arquiteturas RISC - Processamento Paralelo 1 Professores: Aula 10 Lúcia M. A. Drummond Simone de Lima Martins Conteúdo: Arquiteturas Avançadas - Arquiteturas RISC - Processamento Paralelo 2 Arquiteturas RISC Reduced Instruction Set Computer se

Leia mais

Máquinas Multiníveis

Máquinas Multiníveis Infra-Estrutura de Hardware Máquinas Multiníveis Prof. Edilberto Silva www.edilms.eti.br edilms@yahoo.com Sumário Conceitos básicos Classificação de arquiteturas Tendências da tecnologia Família Pentium

Leia mais

Programação Concorrente Processos e Threads

Programação Concorrente Processos e Threads Programação Concorrente Processos e Threads Prof. Eduardo Alchieri Processos O conceito mais central em qualquer sistema operacional é o processo Uma abstração de um programa em execução Um programa por

Leia mais

SISTEMAS DISTRIBUÍDOS

SISTEMAS DISTRIBUÍDOS SISTEMAS DISTRIBUÍDOS 1. Histórico Primeiros computadores Computadores dos anos 50 e 60 Primeiros computadores com sistemas operacionais Surgimento das redes de computadores Nos anos 70 início das pesquisas

Leia mais

Capítulo 8. Sistemas com Múltiplos Processadores. 8.1 Multiprocessadores 8.2 Multicomputadores 8.3 Sistemas distribuídos

Capítulo 8. Sistemas com Múltiplos Processadores. 8.1 Multiprocessadores 8.2 Multicomputadores 8.3 Sistemas distribuídos Capítulo 8 Sistemas com Múltiplos Processadores 8.1 Multiprocessadores 8.2 Multicomputadores 8.3 Sistemas distribuídos 1 Sistemas Multiprocessadores Necessidade contínua de computadores mais rápidos modelo

Leia mais

Bits internos e bits externos. Barramentos. Processadores Atuais. Conceitos Básicos Microprocessadores. Sumário. Introdução.

Bits internos e bits externos. Barramentos. Processadores Atuais. Conceitos Básicos Microprocessadores. Sumário. Introdução. Processadores Atuais Eduardo Amaral Sumário Introdução Conceitos Básicos Microprocessadores Barramentos Bits internos e bits externos Clock interno e clock externo Memória cache Co-processador aritmético

Leia mais

Processamento Paralelo

Processamento Paralelo Processamento Paralelo Hardware Paralelo Universidade Estadual de Santa Cruz Bacharelado em Ciência da Computação Prof. Esbel Tomás Valero Orellana Portabilidade O principal problema das primeiras maquinas

Leia mais

4 Computação Paralela 4.1. Introdução

4 Computação Paralela 4.1. Introdução 4 Computação Paralela 4.1. Introdução Nos últimos anos observa-se uma tendência cada vez maior do aumento da demanda computacional na resolução de grandes problemas. Exemplos de aplicações que exigem alto

Leia mais

7 Processamento Paralelo

7 Processamento Paralelo 7 Processamento Paralelo Yes, of course, who has time? Who has time? But then if we do not ever take time, how can we ever have time? (The Matrix) 7.1 Introdução Classificação de Sistemas Paralelos Diversas

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Software em Sistemas Distribuídos Aplicativo ou Sistema Operacional Sincronismo Interação Controles Um sistema operacional moderno provê dois serviços fundamentais para o usuário

Leia mais

Prof. Marcelo de Sá Barbosa SISTEMAS DISTRIBUIDOS

Prof. Marcelo de Sá Barbosa SISTEMAS DISTRIBUIDOS Prof. Marcelo de Sá Barbosa SISTEMAS DISTRIBUIDOS 1. Introdução a supercomputação 2. Visão geral de Mainframe 3. Cluster de computadores 4. Cluster Beowulf considerações de projeto 5. Cluster x Grid 6.

Leia mais

FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES

FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br ESQUEMA DE UM COMPUTADOR Uma Unidade Central de

Leia mais

Paralelização do Algoritmo Backpropagation em Clusters de Estações de Trabalho

Paralelização do Algoritmo Backpropagation em Clusters de Estações de Trabalho Proceedings of IV Brazilian Conference on Neural Networks - IV Congresso Brasileiro de Redes Neurais pp. 888-999, July 20-22, 1999 - ITA, São José dos Campos - SP - Brazil Paralelização do Algoritmo Backpropagation

Leia mais

Desenvolvimento de um Cluster de Alto Desempenho com PVM

Desenvolvimento de um Cluster de Alto Desempenho com PVM Desenvolvimento de um Cluster de Alto Desempenho com PVM Daniel Cândido de Oliveira 1, Yzaac Gonçalves da Silva 1, Madianita Bogo 1 1 Centro Universitário Luterano de Palmas Universidade Luterana do Brasil

Leia mais

Definindo melhor alguns conceitos

Definindo melhor alguns conceitos Definindo melhor alguns conceitos Processamento Paralelo: processamento de informação concorrente que pertencem a um ou mais processos que resolvem um único problema. Processamento Distribuído: processamento

Leia mais

Balanceamento de Carga

Balanceamento de Carga 40 4. Balanceamento de Carga Pode-se entender por balanceamento de carga uma política a ser adotada para minimizar tanto a ociosidade de utilização de alguns equipamentos quanto a super utilização de outros,

Leia mais

Sistemas Operacionais Carlos Eduardo Portela Serra de Castro

Sistemas Operacionais Carlos Eduardo Portela Serra de Castro Introdução Sistemas Operacionais 1 Sistema Operacional: Um conjunto de programas, executado pelo computador como os outros programas. Função: Controlar o funcionamento do computador, disponibilizando seus

Leia mais

Introdução. Definição de um Sistema Distribuído (1) Definição de um Sistema Distribuído(2) Metas de Sistemas Distribuídos (2)

Introdução. Definição de um Sistema Distribuído (1) Definição de um Sistema Distribuído(2) Metas de Sistemas Distribuídos (2) Definição de um Sistema Distribuído (1) Introdução Um sistema distribuído é: Uma coleção de computadores independentes que aparecem para o usuário como um único sistema coerente. Definição de um Sistema

Leia mais

APLICAÇÕES EM SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com

APLICAÇÕES EM SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com - Aula 4 - CLUSTER DE COMPUTADORES 1. INTRODUÇÃO Grande parte do tempo, os computadores que utilizamos encontram-se ociosos, ou seja, sem nada para processar. Isso se deve, em grande parte, pelas aplicações

Leia mais

Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas

Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas Claudio André claudio.andre@correios.net.br Motivação Seu computador

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Evolução Edson Moreno edson.moreno@pucrs.br http://www.inf.pucrs.br/~emoreno Sumário Introdução Componentes de um sistema computacional Conceituação Características desejáveis Organização

Leia mais

Sistemas Distribuídos Conceitos HW e SW. Edeyson Andrade Gomes www.edeyson.com.br

Sistemas Distribuídos Conceitos HW e SW. Edeyson Andrade Gomes www.edeyson.com.br Sistemas Distribuídos Conceitos HW e SW Edeyson Andrade Gomes www.edeyson.com.br Roteiro da Aula Roteiro da Aula Conceitos de Hardware Conceitos de Software Combinações de SW e HW 3 Sistemas Distribuídos

Leia mais

Camadas de Serviço de Hardware e Software em Sistemas Distribuídos. Introdução. Um Serviço Provido por Múltiplos Servidores

Camadas de Serviço de Hardware e Software em Sistemas Distribuídos. Introdução. Um Serviço Provido por Múltiplos Servidores Camadas de Serviço de Hardware e Software em Sistemas Distribuídos Arquiteutra de Sistemas Distribuídos Introdução Applications, services Adaptação do conjunto de slides do livro Distributed Systems, Tanembaum,

Leia mais

UFRJ IM - DCC. Sistemas Operacionais I. Unidade I Introdução. 11/02/2014 Prof. Valeria M. Bastos

UFRJ IM - DCC. Sistemas Operacionais I. Unidade I Introdução. 11/02/2014 Prof. Valeria M. Bastos UFRJ IM - DCC Sistemas Operacionais I Unidade I Introdução 11/02/2014 Prof. Valeria M. Bastos 1 ORGANIZAÇÃO DA UNIDADE Introdução Conceituação de SO Funções Básicas Breve Histórico Tipos de SO Fundamentos

Leia mais

ENGENHARIAS E TECNOLOGIAS - Computação e Informática ESTUDO DE APLICABILIDADE DE SISTEMAS FRACAMENTE ACOPLADOS UTILIZANDO HARDWARE DE BAIXO CUSTO

ENGENHARIAS E TECNOLOGIAS - Computação e Informática ESTUDO DE APLICABILIDADE DE SISTEMAS FRACAMENTE ACOPLADOS UTILIZANDO HARDWARE DE BAIXO CUSTO ENGENHARIAS E TECNOLOGIAS - Computação e Informática ESTUDO DE APLICABILIDADE DE SISTEMAS FRACAMENTE ACOPLADOS UTILIZANDO HARDWARE DE BAIXO CUSTO Autor: HILÁRIO VIANA BACELLAR Co-autor: Matheus de Paula

Leia mais

CISC RISC Introdução A CISC (em inglês: Complex Instruction Set Computing, Computador com um Conjunto Complexo de Instruções), usada em processadores Intel e AMD; suporta mais instruções no entanto, com

Leia mais

COMPONENTES DE REDES. Fernando Albuquerque (061) 273-3589 fernando@cic.unb.br

COMPONENTES DE REDES. Fernando Albuquerque (061) 273-3589 fernando@cic.unb.br COMPONENTES DE REDES Fernando Albuquerque (061) 273-3589 fernando@cic.unb.br Tópicos Componentes de rede Placas de interface Transceptores Repetidores HUBs Pontes Switches Roteadores Gateways Servidores

Leia mais

Capítulo 1 Introdução

Capítulo 1 Introdução Capítulo 1 Introdução Programa: Seqüência de instruções descrevendo como executar uma determinada tarefa. Computador: Conjunto do hardware + Software Os circuitos eletrônicos de um determinado computador

Leia mais

COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0

COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0 COMPUTAÇÃO PARALELA uma visão geral Guilherme Galante v.2.0 Guilherme Galante Bacharel em Informática Unioeste (2003) Mestre em Ciência da Computação UFRGS (2006) Professor Assistente do curso de Informática/Ciência

Leia mais

Computação de Alta Perfomance com Software Livre (Clusters)

Computação de Alta Perfomance com Software Livre (Clusters) Computação de Alta Perfomance com Software Livre (Clusters) 3º Seminário de Tecnologia da Informação UCSal Marcelo Soares Souza (marcelo@cebacad.net) CEBACAD Centro Baiano de Computação de alto Desempenho

Leia mais

UFRJ IM - DCC. Sistemas Operacionais I

UFRJ IM - DCC. Sistemas Operacionais I UFRJ IM - DCC Sistemas Operacionais I Unidade I 18/9/2009 Prof. Antonio Carlos Gay Thomé Prof. Aux. Simone Markenson Pech 1 ORGANIZAÇÃO DA UNIDADE Conceituação de SO Funções Básicas Breve Histórico Tipos

Leia mais

Multi-processamento. Arquitecturas MIMD de memória partilhada Multi-cores heterogéneos Multi-processadores

Multi-processamento. Arquitecturas MIMD de memória partilhada Multi-cores heterogéneos Multi-processadores Multi-processamento Arquitecturas MIMD de memória partilhada Multi-cores heterogéneos Multi-processadores Arquitecturas MIMD de memória distribuída Massive Parallel Computers Sistemas distribuídos Ainda

Leia mais

A Evolução dos Clusters frente as demais arquiteturas de Alto Desempenho

A Evolução dos Clusters frente as demais arquiteturas de Alto Desempenho A Evolução dos Clusters frente as demais arquiteturas de Alto Desempenho Rodrigo Santos de Souza, Adenauer C. Yamin Universidade Católica de Pelotas - UCPel {rsouza,adenauer}@ucpel.tche.br, 1 Introdução

Leia mais

Arquiteturas RISC. (Reduced Instructions Set Computers)

Arquiteturas RISC. (Reduced Instructions Set Computers) Arquiteturas RISC (Reduced Instructions Set Computers) 1 INOVAÇÕES DESDE O SURGIMENTO DO COMPU- TADOR DE PROGRAMA ARMAZENADO (1950)! O conceito de família: desacoplamento da arquitetura de uma máquina

Leia mais

BARRAMENTO DO SISTEMA

BARRAMENTO DO SISTEMA BARRAMENTO DO SISTEMA Memória Principal Processador Barramento local Memória cachê/ ponte Barramento de sistema SCSI FireWire Dispositivo gráfico Controlador de vídeo Rede Local Barramento de alta velocidade

Leia mais

Arquitectura de Sistemas Paralelos e Distribuídos

Arquitectura de Sistemas Paralelos e Distribuídos Docentes Arquitectura de Sistemas Paralelos e Distribuídos 0. Introdução Prof. Paulo Marques Dep. Eng. Informática, Univ. Coimbra pmarques@dei.uc.pt Prof. Luís Silva Dep. Eng. Informática, Univ. Coimbra

Leia mais

SISTEMAS OPERACIONAIS. Apostila 01 Assunto: Tipos de Sistemas Operacionais UNIBAN

SISTEMAS OPERACIONAIS. Apostila 01 Assunto: Tipos de Sistemas Operacionais UNIBAN SISTEMAS OPERACIONAIS Apostila 01 Assunto: Tipos de Sistemas Operacionais UNIBAN 2.0 - INTRODUÇÃO Os tipos de sistemas operacionais e sua evolução estão intimamente relacionados com a evolução do hardware

Leia mais

Profs. Deja e Andrei

Profs. Deja e Andrei Disciplina Sistemas Distribuídos e de Tempo Real Profs. Deja e Andrei Sistemas Distribuídos 1 Conceitos e Projetos de Sistemas Distribuídos Objetivos: Apresentar uma visão geral de processamento distribuído,

Leia mais

Arquitetura de processadores: RISC e CISC

Arquitetura de processadores: RISC e CISC Arquitetura de processadores: RISC e CISC A arquitetura de processador descreve o processador que foi usado em um computador. Grande parte dos computadores vêm com identificação e literatura descrevendo

Leia mais

ESCOLA SUPERIOR ABERTA DO BRASIL ESAB CURSO DE ESPECIALIZAÇÃO EM REDES DE COMPUTADORES DANIEL VAHID LIMA TOLOUEI

ESCOLA SUPERIOR ABERTA DO BRASIL ESAB CURSO DE ESPECIALIZAÇÃO EM REDES DE COMPUTADORES DANIEL VAHID LIMA TOLOUEI ESCOLA SUPERIOR ABERTA DO BRASIL ESAB CURSO DE ESPECIALIZAÇÃO EM REDES DE COMPUTADORES DANIEL VAHID LIMA TOLOUEI CLUSTERS COMPUTACIONAIS DE ALTO DESEMPENHO VILA VELHA - ES 2010 DANIEL VAHID LIMA TOLOUEI

Leia mais

1º Estudo Dirigido. Capítulo 1 Introdução aos Sistemas Operacionais

1º Estudo Dirigido. Capítulo 1 Introdução aos Sistemas Operacionais 1º Estudo Dirigido Capítulo 1 Introdução aos Sistemas Operacionais 1. Defina um sistema operacional de uma forma conceitual correta, através de suas palavras. R: Sistemas Operacionais são programas de

Leia mais

Análise de Desempenho de um SGBD para Aglomerado de Computadores

Análise de Desempenho de um SGBD para Aglomerado de Computadores Análise de Desempenho de um SGBD para Aglomerado de Computadores Diego Luís Kreutz, Gabriela Jacques da Silva, Hélio Antônio Miranda da Silva, João Carlos Damasceno Lima Curso de Ciência da Computação

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos LICENCIATURA EM COMPUTAÇÃO Prof. Adriano Avelar Site: www.adrianoavelar.com Email: eam.avelar@gmail.com O que veremos hoje... Evolução Histórica Motivação Conceitos Características

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Aula 4 Tipos de SO Prof.: Edilberto M. Silva http://www.edilms.eti.br SO - Prof. Edilberto Silva Os Sistemas Operacionais podem ser assim classificados: SO - Prof. Edilberto Silva

Leia mais

FACULDADE PITÁGORAS PRONATEC

FACULDADE PITÁGORAS PRONATEC FACULDADE PITÁGORAS PRONATEC DISCIPLINA: ARQUITETURA DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos carlos@oficinadapesquisa.com.br www.oficinadapesquisa.com.br Objetivos Ao final desta apostila,

Leia mais

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V. 2009-2 Aula 3 Virtualização de Sistemas 1. Conceito Virtualização pode ser definida

Leia mais

Sistemas Computacionais II Professor Frederico Sauer

Sistemas Computacionais II Professor Frederico Sauer Sistemas Computacionais II Professor Frederico Sauer Livro-texto: Introdução à Organização de Computadores 4ª edição Mário A. Monteiro Livros Técnicos e Científicos Editora. Atenção: Este material não

Leia mais

Arquitetura de Computadores. Professor: Vilson Heck Junior

Arquitetura de Computadores. Professor: Vilson Heck Junior Arquitetura de Computadores Professor: Vilson Heck Junior Agenda Conceitos Estrutura Funcionamento Arquitetura Tipos Atividades Barramentos Conceitos Como já discutimos, os principais componentes de um

Leia mais

Muitas aplicações modernas podem ser modeladas como tarefas divisíveis.

Muitas aplicações modernas podem ser modeladas como tarefas divisíveis. 1 Introdução O grande aumento de performance das redes de computadores, combinado com a proliferação de computadores de baixo custo e alto desempenho, trouxe à tona ambientes de meta-computação, ou grids[15,

Leia mais

Cálculo Aproximado do número PI utilizando Programação Paralela

Cálculo Aproximado do número PI utilizando Programação Paralela Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Cálculo Aproximado do número PI utilizando Programação Paralela Grupo 17 Raphael Ferras Renan Pagaiane Yule Vaz SSC-0143 Programação

Leia mais

Organização de Computadores 2005/2006 Processamento Paralelo

Organização de Computadores 2005/2006 Processamento Paralelo Organização de Computadores 2005/2006 Processamento Paralelo Paulo Ferreira paf a dei.isep.ipp.pt Maio de 2006 Introdução 2 Porquê?...........................................................................................

Leia mais

Processadores clock, bits, memória cachê e múltiplos núcleos

Processadores clock, bits, memória cachê e múltiplos núcleos Processadores clock, bits, memória cachê e múltiplos núcleos Introdução Os processadores (ou CPUs, de Central Processing Unit) são chips responsáveis pela execução de cálculos, decisões lógicas e instruções

Leia mais

Arquitetura e Organização de Computadores 2. Apresentação da Disciplina

Arquitetura e Organização de Computadores 2. Apresentação da Disciplina Arquitetura e Organização de Computadores 2 Apresentação da Disciplina 1 Objetivos Gerais da Disciplina Aprofundar o conhecimento sobre o funcionamento interno dos computadores em detalhes Estudar técnicas

Leia mais

Multicomputadores. Universidade Federal do Vale do São Francisco - UNIVASF Colegiado de Engenharia da Computação CECOMP

Multicomputadores. Universidade Federal do Vale do São Francisco - UNIVASF Colegiado de Engenharia da Computação CECOMP Multicomputadores Introdução Vimos que existem dois tipos de processadores paralelos MIMD: Multiprocessadores. Multicomputadores. Nos multiprocessadores, existe uma memória compartilhada que pode ser acessada

Leia mais

Sistemas Distribuídos. Ricardo Ribeiro dos Santos ricrs@ec.ucdb.br

Sistemas Distribuídos. Ricardo Ribeiro dos Santos ricrs@ec.ucdb.br Sistemas Distribuídos Ricardo Ribeiro dos Santos ricrs@ec.ucdb.br Curso de Engenharia de Computação UCDB Agosto/2003 Tópicos Conceitos de HW em SD Multiprocessadores e Multicomputadores Conceitos de SW

Leia mais

Programação Concorrente Introdução

Programação Concorrente Introdução Introdução Prof. Eduardo Alchieri (definição) Programação Concorrente Do inglês Concurrent Programming, onde Concurrent signifca "acontecendo ao mesmo tempo" Programação Concorrente é diferente de programação

Leia mais

Paralelização Introdução a vetorização, OpenMP e MPI

Paralelização Introdução a vetorização, OpenMP e MPI 1/45 Paralelização Introdução a vetorização, OpenMP e MPI 1 Conceitos Paulo Penteado IAG / USP pp.penteado@gmail.com Esta apresentação: Arquivos do curso: Artigo relacionado: http://www.ppenteado.net/ast/pp_para_on/pp_para_on_1.pdf

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Referências Caracterização de Sistemas Distribuídos Sistemas operacionais modernos Andrew S. TANENBAUM Prentice-Hall, 1995 Capítulo 9 Seções 9.1 a 9.3 Distributed Systems: concept

Leia mais

Informática. Técnico em Agronegócio 1º. Módulo Profa. Madalena Pereira da Silva madalena.silva@ifsc.edu.br

Informática. Técnico em Agronegócio 1º. Módulo Profa. Madalena Pereira da Silva madalena.silva@ifsc.edu.br Informática Técnico em Agronegócio 1º. Módulo Profa. Madalena Pereira da Silva madalena.silva@ifsc.edu.br Roteiro de Aula Introdução Computador Hardware, Software básico, Software Aplicativo Hardwares

Leia mais

Exemplos práticos do uso de RMI em sistemas distribuídos

Exemplos práticos do uso de RMI em sistemas distribuídos Exemplos práticos do uso de RMI em sistemas distribuídos Elder de Macedo Rodrigues, Guilherme Montez Guindani, Leonardo Albernaz Amaral 1 Fábio Delamare 2 Pontifícia Universidade Católica do Rio Grande

Leia mais

Desenvolvimento de Programas Paralelos para Máquinas NUMA: Conceitos e Ferramentas

Desenvolvimento de Programas Paralelos para Máquinas NUMA: Conceitos e Ferramentas 1 Pontifícia Universidade Católica do Rio Grande do Sul Faculdade de Informática Programa de Pós-Graduação em Ciência da Computação Desenvolvimento de Programas Paralelos para Máquinas NUMA: Conceitos

Leia mais

Instruções para uso do MPI - Relatório Técnico -

Instruções para uso do MPI - Relatório Técnico - Universidade de Passo Fundo Instituto de Ciências Exatas e Geociências Curso de Ciência da Computação Instruções para uso do MPI - Relatório Técnico - ComPaDi Grupo de Pesquisa em Computação Paralela e

Leia mais

Sistemas Operacionais e Introdução à Programação. Módulo 1 Sistemas Operacionais

Sistemas Operacionais e Introdução à Programação. Módulo 1 Sistemas Operacionais Sistemas Operacionais e Introdução à Programação Módulo 1 Sistemas Operacionais 1 Sistema computacional Sistemas feitos para resolver problemas Problema: como obter determinado resultado, com base em dados

Leia mais

29/3/2011. Primeira unidade de execução (pipe U): unidade de processamento completa, capaz de processar qualquer instrução;

29/3/2011. Primeira unidade de execução (pipe U): unidade de processamento completa, capaz de processar qualquer instrução; Em 1993, foi lançada a primeira versão do processador Pentium, que operava a 60 MHz Além do uso otimizado da memória cache (tecnologia já amadurecida) e da multiplicação do clock, o Pentium passou a utilizar

Leia mais

Introdução a Computação Paralela e a Montagem de Clusters.

Introdução a Computação Paralela e a Montagem de Clusters. Introdução a Computação Paralela e a Montagem de Clusters. Marcelo Souza (marcelo@cebacad.net) Granduando em Sistema da Informação CEBACAD Centro Baiano de Computação de alto Desempenho Introdução a Computação

Leia mais

SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br

SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br - Aula 3 - ARQUITETURA DE SISTEMAS DISTRIBUÍDOS 1 INTRODUÇÃO Considerando que os Sistemas Distribuídos são constituídos de vários processadores, existem diversas formas de organizar o hardware de tais

Leia mais

Arquitetura de Sistemas Distribuídos. Introdução a Sistemas Distribuídos

Arquitetura de Sistemas Distribuídos. Introdução a Sistemas Distribuídos Introdução a Sistemas Distribuídos Definição: "Um sistema distribuído é uma coleção de computadores autônomos conectados por uma rede e equipados com um sistema de software distribuído." "Um sistema distribuído

Leia mais

Este tutorial está publicado originalmente em http://www.baboo.com.br/conteudo/modelos/?a=40917&z=327

Este tutorial está publicado originalmente em http://www.baboo.com.br/conteudo/modelos/?a=40917&z=327 Todos os meses mais de 5,1 milhões de internautas visitam o Fórum do BABOO. Lá todas as suas dúvidas e problemas de informática são solucionados gratuitamente pela nossa comunidade. Participe você também:

Leia mais

MARCELO AUGUSTO OMOTO

MARCELO AUGUSTO OMOTO FUNDAÇÃO EURÍPIDES SOARES DA ROCHA CENTRO UNIVERSITÁRIO EURÍPIDES DE MARÍLIA UNIVEM BACHARELADO EM CIÊNCIA DA COMPUTAÇÃO MARCELO AUGUSTO OMOTO CONFIGURAÇÃO DE UM CLUSTER PARA O ALGORITMO SHELLSORT DISTRIBUÍDO

Leia mais

Sistemas Operacionais. Prof. Pedro Luís Antonelli Anhanguera Educacional

Sistemas Operacionais. Prof. Pedro Luís Antonelli Anhanguera Educacional Sistemas Operacionais Prof. Pedro Luís Antonelli Anhanguera Educacional Hardware HARDWARE Sistema Computacional = conjunto de circuitos eletrônicos interligados formado por processador, memória, registradores,

Leia mais

LICENCIATURA EM COMPUTAÇÃO PROCESSADOR TEGRA 2

LICENCIATURA EM COMPUTAÇÃO PROCESSADOR TEGRA 2 LICENCIATURA EM COMPUTAÇÃO PROCESSADOR TEGRA 2 SANTO AMARO 2011 ANGELO RAMOS JACKELINE BARBOSA JEANDERVAL SANTOS PROCESSADOR TEGRA 2 Trabalho apresentado ao Instituto Federal de Ciências e Tecnologia da

Leia mais

Processadores. Prof. Alexandre Beletti Ferreira

Processadores. Prof. Alexandre Beletti Ferreira Processadores Prof. Alexandre Beletti Ferreira Introdução O processador é um circuito integrado de controle das funções de cálculos e tomadas de decisão de um computador. Também é chamado de cérebro do

Leia mais

Programação Paralela

Programação Paralela rogramação aralela FEU 2. Arquitecturas de omputadores e rogramação aralela Arquitecturas de omputadores Taxonomia de Flynn (extra livro recomendado) Base da Taxonomia: D: data stream (fluxo de acesso

Leia mais

CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES

CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES 2.1 Organização de um Computador Típico : Armazena dados e programas. Processador (CPU - Central Processing Unit): Executa programas armazenados na memória, interpretando

Leia mais

Programação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho

Programação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho 124 - Encontro Anual de Tecnologia da Informação Programação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho André Luís Stefanello¹, Crístian Cleder Machado1, Dioni da Rosa¹, Maurício

Leia mais

Computação de Alto Desempenho na Ótica da Lista TOP500 ou. (Se um computador já é rápido, imaginem um sistema com 131.072 computdores :-)

Computação de Alto Desempenho na Ótica da Lista TOP500 ou. (Se um computador já é rápido, imaginem um sistema com 131.072 computdores :-) Computação de Alto Desempenho na Ótica da Lista TOP500 ou (Se um computador já é rápido, imaginem um sistema com 131.072 computdores :-) MAC 412- Organizãção de Computadores - Siang W. Song Fonte: http://www.top500.org/

Leia mais

Sistemas Operacionais 2014 Introdução. Alexandre Augusto Giron alexandre.a.giron@gmail.com

Sistemas Operacionais 2014 Introdução. Alexandre Augusto Giron alexandre.a.giron@gmail.com Sistemas Operacionais 2014 Introdução Alexandre Augusto Giron alexandre.a.giron@gmail.com Roteiro Sistemas Operacionais Histórico Estrutura de SO Principais Funções do SO Interrupções Chamadas de Sistema

Leia mais

Tipos de Sistemas Distribuídos (Cluster e Grid)

Tipos de Sistemas Distribuídos (Cluster e Grid) Tipos de Sistemas Distribuídos (Cluster e Grid) Sistemas Distribuídos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência

Leia mais

Unidade 13: Paralelismo:

Unidade 13: Paralelismo: Arquitetura e Organização de Computadores 1 Unidade 13: Paralelismo: SMP e Processamento Vetorial Prof. Daniel Caetano Objetivo: Apresentar os conceitos fundamentais da arquitetura SMP e alguns detalhes

Leia mais

U E S C. Introdução à Ciência da Computação

U E S C. Introdução à Ciência da Computação U E S C Introdução à Ciência da Computação Roteiro Unidades componentes de hardware CPU UC; ULA; Cache; Registradores. Introdução Informática é a ciência que desenvolve e utiliza a máquina para tratamento,

Leia mais