Algoritmos Paralelos. Prof a : Cristina Boeres. Pós Graduação em Computação Instituto de Computação - UFF

Tamanho: px
Começar a partir da página:

Download "Algoritmos Paralelos. Prof a : Cristina Boeres. Pós Graduação em Computação Instituto de Computação - UFF"

Transcrição

1 Algoritmos Paralelos Prof a : Cristina Boeres Pós Graduação em Computação Instituto de Computação - UFF

2 Bibliografia J. Jájá, Introduction to Parallel Algorithms, Addison-Wesley, Ian Foster, Designing and Building Parallel Programs, Addison- ( online ) Wesley, J. Dongarra et. al., Sourcebook of Parallel Computing, Morgan Kaufmann, T. G. Robertazzi, Networks and Grids - technology and theory, Springer, H. Casanova, A. Legrand and Y. Robert, Parallel Algorithms, CRC Press, S. Akl, Parallel Computation Models and Methods, Prentice Hall A. Grama, A. Gupta, G. Karypis, and V. Kumar Introduction to Parallel Computing, 2nd edition, Addison-Wesley, Artigos a serem definidos

3 Programa do Curso Introdução e conceitos iniciais Motivação Introdução a tipos de arquiteturas paralelas Modelo de Programação Paralela Projeto de Algoritmos Paralelos Programação com Threads Execução Eficiente de Programas Paralelos

4 Computação Sequencial ou serial Para solução de problemas, tradicionalmente resolvemos através de uma algoritmo sequencial O problema é especificado em uma sequência de instruções executadas serialmente

5 Computação Sequencial ou serial Jon Von Neumann especificou requisitos para computador eletrônico em 1945 Instruções e dados devem ser armazenados na unidade de memória Unidades principais: CPU: unidade de controle e ALU MP I/O

6 Computação Sequencial ou serial CPU: unidade de controle Busca a próxima instrução Decodifica Executa (pela ALU, simplificando) MP memória de acesso aleatório guarda código e dados I/O interface com o mundo externo

7 Por que computação paralela e distribuída? Sistemas de computadores sequenciais cada vez mais velozes velocidade de processador memória comunicação com o mundo externo Quanto mais se tem, mais se quer... Demanda computacional está aumentando cada vez mais: visualização, base de dados distribuída, simulações, etc.

8 Por que computação paralela e distribuída? limites em processamento sequencial velocidade da luz, termodinâmica custo X benefício

9 Por que computação paralela e distribuída? Ao invés de um processador, vários processadores Cada processador executa uma parte do programa simultaneamente

10 Como são os ambientes atualmente? Um computador possui atualmente vários processadores Um ambiente computacional é constituído de vários computadores (similares ou não)

11 Por que tantos processadores O mundo real é massivamente paralelo Eventos acontecem ao mesmo momento e em sequência Como simular tal evento em sequência? Quanto tempo levaria?

12 Por que tantos processadores

13 Por que tantos processadores

14 Por que tantos processadores

15 Computação de Alto Desempenho Os grandes desafios (Levin 1989): química quântica, mecânica estatística e física relativista; cosmologia e astrofísica; dinâmica e turbulência computacional dos fluídos; projeto de materiais e supercondutividade; biologia, farmacologia, seqüência de genomas, engenharia genética, dobramento de proteínas, atividade enzimática e modelagem de células; medicina, modelagem de órgãos e ossos humanos; clima global e modelagem do ambiente

16 Demanda para velocidade computacional Existem várias áreas que demandam processamento computacional mais veloz: modelagem numérica simulação de problemas científicos Computação deve ser finalizada em um tempo razoável 1a.16

17 Grand Challenge São problemas que não podem ser resolvidos em uma quantidade de tempo razoável nos computadores atuais para resolver o problema computacionalmente, 10 anos seriam razoáveis? Modelagem de estruturas longas de DNA previsão de tempo global simulação e modelagem do movimento de corpos celestes (astronomia) 1a.17

18 Movimento de Corpos Celestes Cada corpo é atra[ido pelo outro atrav[es de forças gravitacionais O movimento de cada corpo é previsto através do cálculo da força total de cada corpo 1a.18

19 Movimento de Corpos Celestes Existindo N corpos N 1 cálculo de força para cada corpo ou aproximadamente N 2 cálculos, i.e. O(N 2 ) Depois deste cálculo, determinar as novas posições dos corpos, repetindo esse procedimento N 2 T cálculos no total, sendo T o número de passos 1a.19

20 Movimento de Corpos Celestes A galáxia deve ter em torno de estrelas Se cada cálculo da força leva em torno de 1 ms (sendo extremamente otimista), então, são necessários: 10 9 anos para uma iteração utilizando um algoritmo N 2 1a.20

21 Por que muitos processadores Para economizar tempo e dinheiro Teoricamente, mais recursos resolvem o problema mais rapidamente logo, economicamente mais barato Atualmente, ter vários processadores não é tão caro

22 Disponibilidade de processadores Inicialmente: um processador + memória + dispositivos Um programa por vez Com desenvolvimento de Sistemas Operacionais Multiprogramação Necessidade de maior poder computacional Mainframes 1a.22

23 Disponibilidade de processadores Desenvolvimento de processadores Miniprocessadores e microprocessadores Nova realidade: estações de trabalho E depois, desktops 1a.23

24 Number of hosts ( millions ) Evolução nas comunicações TCP/IP HTML Mosaic XML The'NetworkEffect kicks in, and the web goes critical' PHASE 1. Packet Switching Networks 2. The Internet is Born 3. The World Wide Web 4. with XML 5. The Grid 1969: 4 US Universities linked to form ARPANET TCP/IP becomes core protocol HTML hypertext system created 1972: First program created Domain Name System created CERN launch World Wide Web 1976: Robert Metcalfe develops Ethernet IETF created ( 1986 ) NCSA launch Mosaic interface cortesia de Rajkumar Buyya 1a.24

25 Arquitetura de Sistemas de Computadores Uma classificação Memória Centralizada Memória Distribuída Proposta por Flynn quantidade de instruções e dados processados em um determinado momento 1a.25

26 Classificação de Sistemas Paralelos ( data SISD (single instruction single Um contador de programa Computadores seqüenciais ( data SIMD (single instruction multiple Um contador de programa, uma instrução executada por diversos processadores sobre diferentes dados Computadores paralelos como PRAM 1a.26

27 Classificação de Sistemas Paralelos ( data MISD (multiple instructions single Não aplicável ( data MIMD (multiple instructions multiple Vários contadores de programa Diferentes dados Os vários computadores paralelos e distribuídos atuais 1a.27

28 Plataforma de Execução Paralela ( MultiProcessors SMPs (Symmetric ( Processors MPPs (Massively Parallel ( Worstations Cluster ou NOWs (Network Of Grades Computacionais 1a.28

29 SMPs ou Multiprocessadores único espaço de endereçamento lógico ( compartilhada mecanismo de hardware (memória comunicação espaço de endereçamento compartilhado operações de loads e stores Acesso a memória é realizada através de leitura (load) e escrita (store), caracterizando desta forma, a comunicação entre processadores 1a.29

30 SMPs ou Multiprocessadores Sistema homogêneo Compartilhamento total da mesma memória Uma única cópia do Sistema Operacional Imagem única do sistema Excelente conectividade: fortemente acoplados Não escalável 1a.30

31 SMPs ou Multiprocessadores Exemplos: Sun HPC (StarFire), SGI Altix, SGI Origin, IBM pseries atualmente: multiprocessadores multicores heterogeneidade 1a.31

32 SMPs ou Multiprocessadores Exemplos: Sun HPC (StarFire), SGI Altix, SGI Origin, IBM pseries atualmente: multiprocessadores multicores heterogeneidade 1a.32

33 SMPs ou Multiprocessadores 1a.33

34 MPPs ou Multicomputadores Diferem quanto a implementação física Módulos ou elementos de processamento contendo: múltiplos processadores com memória privativa computadores completos Espaço de endereçamento não compartilhado - memória distribuída 1a.34

35 MPPs ou Multicomputadores Comunicação troca de mensagens Rede de interconexão:diferentes topologias Fracamente acoplados Escaláveis 1a.35

36 MPPs ou Multicomputadores Sistema homogêneo ( ou heterogêneo ) Interconexão: redes dedicadas e rápidas Cada nó executa sua própria cópia do Sistema Operacional Imagem única do sistema visibilidade dos mesmos sistemas de arquivo Um escalonador de tarefas partições diferentes para aplicações diferentes 1a.36

37 MPPs ou Multicomputadores Partições dedicadas a cada aplicação Aplicações não compartilham recursos Pode ocorrer que uma aplicação permaneça em estado de espera Exemplos: Cray T3E, IBM SP2s, clusters montados pelo próprio usuário, com propósito de ser um MPP 1a.37

38 MPPs ou Multicomputadores HP/Compaq Alphaserver IBM BG/L Cray XT3 Intel IA32 IBM POWER5 1a.38

39 Cluster de computadores ou NOWs Conjunto de estações de trabalho ou PCs Interconexão: redes locais Nós: elementos de processamento = processador + memória Diferenças em relação a MPPs: não existe um escalonador centralizado redes de interconexão tendem a ser mais lentas 1a.39

40 Cluster de computadores ou NOWs Resultado das diferenças: Cada nó tem seu próprio escalonador local Compartilhamento de recursos sem partição dedicada a uma aplicação Aplicação deve considerar impacto no desempenho não tem o sistema dedicado 1a.40

41 Power dissipation Clock frequency inconcurrencytowardturnfundamentala: OverIsLunchFreeThe Software Herb Sutter,

42 Cluster de computadores Possibilidade de compor um sistema de alto desempenho e um baixo custo (principalmente quando comparados com MPPs). Rede de computadores ser tornaram mais atraentes do que adquirir um supercomputador (custo bem maior) Possível atingir alto desempenho a um custo bem menor (década 1990) processador de última geração pode ser incluído no sistema

43 Cluster de Computadores E mais importante: portabilidade de software Softwares existentes podem ser utilizados ou facilmente adaptados Projetos bastante conhecidos nesta época: Berkeley NOW (network of workstations) NASA Beowulf

44 Beowulf Clusters* Grupo de computadores do tipo commodity que atingem alto desempenho a baixo custo Geralmente interconectados por uma rede de alta velocidade como Ethernet, e utilizando sistema operacional Linux.

45 Máquinas atuais Olhando melhor as máquinas modernas...

46 Máquinas atuais (quadcore shared memory) Processor Processor Processor Processor L1 cache L1 cache L1 cache L1 cache L2 Cache L2 Cache L2 Cache L2 Cache Bus interface Bus interface Bus interface Bus interface Processor/ memory b us Memory controller Vários níveis de chache: Level 1 (L1) cache Level 2 (L2) cache Level 3 (L3) chache Shared memory Memory

47 Máquinas atuais (quadcore shared memory) Intel Xeon processor with 6 cores and 6 L3 cache units

48 Máquinas atuais (desde 2005) Dual ou até multi-cores Dois ou mais elementos de processamento em independentes em um pacote Na verdade, uma ideia antiga que não havia sido colocada em pratica até recentemente. Os limitantes até então eram baseados em limites tecnológicos: Dissipação de energia (sempre um problema) e limitação da frequência de relógio Limites na velocidade de acesso a memória

49 GPU clusters Última tendência dos clusters de computadores: incorporar GPUs para atingir alta performance Pelo menor três dos cinco computadores mais rápidos do mundo possuem GPUs.

50 Top500 description Na lista TOP500 ordenação e de acordo com: 1) Rmax 2) Rpeak 3) tamanho de memória 4) alfabética Campos da lista: Rank- Position within the TOP500 ranking Location - Location and country System name, configuration and manufacturer #Proc. - Number of processors (Cores)

51 Grades Computacionais Utilização de computadores independentes geograficamente distantes

52 Grades Computacionais Diferenças: clusters X grades heterogeneidade de recursos ( mundial alta dispersão geográfica (escala compartilhamento múltiplos domínios administrativos controle totalmente distribuído

53 Grades Computacionais Componentes PCs, SMPs, MPPs, clusters controlados por diferentes entidades diversos domínios administrativos Não têm uma imagem única do sistema a princípio Vários projetos tem proposto o desenvolvimento de middlewares de gerenciamento camada entre a infraestrutura e as aplicações a serem executadas na grade computacional

54 Grades Computacionais Para executar uma aplicação eficientemente, middlewares deve estar preparados para: Dinamismo do sistema Variedade de plataformas Tolerância falhas

55 Grades Computacionais Sistema não dedicado e diferentes plataformas Usuários da grades devem obter autorização e certificação para acesso aos recursos disponíveis na grade computacional Falhas nos recursos tanto de processamento como comunicação são mais frequentes que as outras plataformas paralelas Mecanismos de tolerância a falhas devem tornar essas flutuações do ambiente transparente ao usuário

56 Grades Computacionais Para utilização eficiente da grade computacional Gerenciamento da execução da aplicação através de políticas de escalonamento da aplicação ou balanceamento de carga Escalonamento durante a execução da aplicação se faz necessário devido as variações de carga dos recursos da grade

57 Grades Computacionais Workstation MPP Computador convencional Servidor Computador convencional Internet desktop SMP notebook Servidor SMP MPP

58 Grades Computacionais Computação em Cluster foi estendido para computação ao longo dos sites distribuídos geograficamente conectados por redes metropolitanas Ambientes tipicamente heterogêneos e compartilhados Ainda, aspectos que devem ser tratados Segurança Falhas de recursos Gerenciamento da execução de várias aplicações

59 Grades Computacionais ( Vision O sonho do cientista (The Grid Computação em Grid adota tanto o nome quanto o conceito semelhantes aqueles da Rede de Potência Elétrica para capturar a noção ou a visão de: Oferecer desempenho computacional eficientemente; De acordo com a demanda; A um custo razoável; Para qualquer um que precisar

60 Grades Computacionais

61 Search for Extraterrestrial Intelligence at Home

62 Search for Extraterrestrial Intelligence at Home is a scientific experiment that uses Internetconnected computers in the Search for Extraterrestrial Intelligence (SETI). (from setiathome.berkeley.edu/)

63 Search for Extraterrestrial Intelligence at Home A abordagem: radio telescopes para ouvir sinais do espaço tais sinais podem ser ruídos de origem celeste ou provenientes da terra (estações de TV, radares e satélites) SETI analisa esse ruídos e digitalmente

64 Search for Extraterrestrial Intelligence at Home A abordagem: Maior poder computacional possibilita cobrir uma procura maior de ruídos Primeiramente supercomputadores especiais foram utilizados Em 1995 (iniciado na verdade em 1999), David Gedye propôs o uso de um supercomputador virtual

65 Search for Extraterrestrial Intelligence at Home Como está o projeto?

66 Grades Computacionais Grid middlewares: tem como objetivo facilitar a utilização de um ambiente grid APIs para isolar usuários ou programas da complexidade deste ambiente Gerenciar esses sistemas automaticamente e eficientemente para executar aplicações no ambiente grid (grid-enabled ( applications E as aplicações não habilitadas a execução em grades?

67 Grades Computacionais Como o usuário (dono da aplicação) escolhe? Vários middlewares existem, qual o mais apropriado? Não há a garantia de suporte Pouca comparação entre os middlewares por exemplo, qual desempenho, grau de intrusão? É difícil encontrar grids com o mesmo tipo de software instalado

68 Cloud Computing Computação em Nuvens Computação provida como um serviço sobre a internet Infra-estrutura geograficamente distribuída Com algumas características de autonomic computing Que características são essas? O middleware não está embutido na aplicação

69 Cloud Computing Computação em Nuvens Exemplos Googleaps, facebook, amazon Exemplo de aplicação gerenciamento de documentos distribuídos geograficamente

70 Cloud Computing Computação em Nuvens Modelo econômico de utilização dos serviços Ambiente que prove uma quantidade maior de serviços a baixo custo Baixo consumo de energia Não acontece sem Virtualização

71 Diferenças entre Grid e Cloud Computing AlHakami, H. et al, Comparison Between Cloud and Grid Computing: Review Paper, in International Journal on Cloud Computing: Services and Architecture (IJCCSA),Vol.2, No.4, August 2012 Recursos os recursos na grade estão disponíveis e compartilhados na nuvem, os recursos são providos de acordo com a demanda

72 Diferenças entre Grid e Cloud Computing AlHakami, H. et al, Comparison Between Cloud and Grid Computing: Review Paper, in International Journal on Cloud Computing: Services and Architecture (IJCCSA),Vol.2, No.4, August 2012 Heterogeneidade de recursos os dois agregam recursos heterogêneos

73 Diferenças entre Grid e Cloud Computing AlHakami, H. et al, Comparison Between Cloud and Grid Computing: Review Paper, in International Journal on Cloud Computing: Services and Architecture (IJCCSA),Vol.2, No.4, August 2012 Segurança segurança do usuário não foi atacado em grades (mais segurança de acesso) no caso de nuvem, cada usuário tem seu ambiente virtual e seguro

74 Diferenças entre Grid e Cloud Computing AlHakami, H. et al, Comparison Between Cloud and Grid Computing: Review Paper, in International Journal on Cloud Computing: Services and Architecture (IJCCSA),Vol.2, No.4, August 2012 Gerenciamento maior experiência no caso de grades muito a fazer em nuvem

75 Features Grid Cloud Resource Sharing Collaboration (VOs, fair share) not shared. Virtualization Security Virtualization of data and computing resources Security through credential delegations Virtualization of hardware and software platforms. Security through isolation. High Level Services Plenty of high level services. No high level services defined yet. Architecture Service orientated User chosen architecture. Software Dependencies Platform Awareness Application domain dependent software The client software must be Gridenabled Application domain independent software The software works on a customized environment Scalability Nodes and sites scalability Nodes, sites, and hardware scalability Standardization User Access Standardization and interoperability Lack of standards for Clouds interoperability. Access transparency for the end user. Payment Model Rigid Flexible Access transparency for the end user.

76 Definindo melhor alguns conceitos Concorrência termo mais geral, um programa pode ser constituído por mais de um thread/processo concorrendo por recursos Paralelismo uma aplicação é executada por um conjunto de processadores ( dedicado ) em um ambiente único Computação distribuída aplicações sendo executadas em plataformas distribuídas

77 Definindo melhor alguns conceitos Qualquer que seja o conceito, o que queremos? estabelecer a solução do problema lidar com recursos independentes aumentar desempenho e capacidade de memória fazer com que usuários e computadores trabalhem em espírito de colaboração

78 O que paralelizar? Pode estar em diferentes níveis de sistemas computacionais atuais Hardware Sistema Operacional Aplicação As principais questões que são focadas são Desempenho Corretude

79 Por que paralelizar? Aplicação Paralela várias tarefas vários processadores redução no tempo total de execução

80 Modelos de Programação Paralela Criação e gerenciamento de processos estático ou dinâmico Comunicação memória compartilhada: visão de um único espaço de endereçamento global memória distribuída: troca explícita de mensagens

81 Modelos de Programação Paralela Expressão de Paralelismo: Paradigmas SPMD ( Single Program Multiple Data ) MPMD (Multiple Program Multiple Data ) Metas aumento no desempenho maior eficiência

Arquitetura de Computadores Paralelos. Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela

Arquitetura de Computadores Paralelos. Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela Arquitetura de Computadores Paralelos Introdução Conceitos Básicos Ambientes de Programação Modelos de Programação Paralela Por que estudar Computação Paralela e Distribuída? Os computadores sequenciais

Leia mais

Algoritmos Paralelos. Prof a : Cristina Boeres. Sistemas de Informação IC Instituto de Computação

Algoritmos Paralelos. Prof a : Cristina Boeres. Sistemas de Informação IC Instituto de Computação Algoritmos Paralelos Prof a : Cristina Boeres Sistemas de Informação IC Instituto de Computação Bibliografia! J. Jájá, Introduction to Parallel Algorithms, Addison-Wesley, 1992.! Ian Foster, Designing

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,

Leia mais

SSC510 Arquitetura de Computadores. 6ª aula

SSC510 Arquitetura de Computadores. 6ª aula SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas

Leia mais

Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva

Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela

Leia mais

30/5/2011. Sistemas computacionais para processamento paralelo e distribuído

30/5/2011. Sistemas computacionais para processamento paralelo e distribuído Arquitetura de Computadores Sistemas computacionais para processamento paralelo e distribuído Prof. Marcos Quinet Universidade Federal Fluminense UFF Pólo Universitário de Rio das Ostras - PURO Processamento

Leia mais

ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 04: PROCESSAMENTO PARALELO: MULTICOMPUTADOR

ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 04: PROCESSAMENTO PARALELO: MULTICOMPUTADOR ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 04: PROCESSAMENTO PARALELO: MULTICOMPUTADOR Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação MULTICOMPUTADORES

Leia mais

Arquitetura de Computadores. Processamento Paralelo

Arquitetura de Computadores. Processamento Paralelo Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple

Leia mais

Carlos Eduardo Batista Centro de Informática - UFPB

Carlos Eduardo Batista Centro de Informática - UFPB Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por

Leia mais

SSC510 Arquitetura de Computadores. 10ª aula

SSC510 Arquitetura de Computadores. 10ª aula SSC510 Arquitetura de Computadores 10ª aula ARQUITETURA MIMD COM MEM. DISTRIBUÍDA MPP, CLUSTERS, GRADES, CLOUD PROFA. SARITA MAZZINI BRUSCHI Arquitetura MIMD com Memória Distribuída As arquiteturas MIMD

Leia mais

Caracterização de Sistemas Distribuídos

Caracterização de Sistemas Distribuídos Caracterização de Sistemas Distribuídos Roteiro Conceitos de Hardware Conceitos de Software Classificação de Flynn Classificação baseada no acesso a memória 2 Conceitos de HW Múltiplas CPUs Diferentes

Leia mais

Algoritmos Paralelos. Pós Graduação em Computação IC Instituto de Computação. Prof a : Cristina Boeres

Algoritmos Paralelos. Pós Graduação em Computação IC Instituto de Computação. Prof a : Cristina Boeres Algoritmos Paralelos Prof a : Cristina Boeres página do curso: www.ic.uff.br/~boeres/algoritmosparalelos.html Pós Graduação em Computação IC Instituto de Computação Programa do Curso Introdução Histórico

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 20ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Arquiteturas MIMD As arquiteturas MIMD dividem-se

Leia mais

AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES

AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação MULTIPROCESSADORES

Leia mais

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von

Leia mais

Disciplina de Arquitetura de Computadores

Disciplina de Arquitetura de Computadores USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/

Leia mais

Arquiteturas Paralelas

Arquiteturas Paralelas Arquiteturas Paralelas Arquiteturas Paralelas Graduação em Ciência da Computação Universidade do Vale do Rio dos Sinos Prof. Gerson Cavalheiro Programação Paralela e Distribuída 2006 CC / UNISINOS Classificação

Leia mais

Sistemas distribuídos. Prof. Emiliano Monteiro

Sistemas distribuídos. Prof. Emiliano Monteiro Sistemas distribuídos Prof. Emiliano Monteiro Múltiplos processadores São arquiteturas que possuem duas ou mais CPU interligadas e que funcionam em conjunto na execução de tarefas independentes ou no processamento

Leia mais

Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core

Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:

Leia mais

SSC PROGRAMAÇÃO CONCORRENTE. Aula 02 Revisão de Arquiteturas Paralelas Parte 1 Prof. Jó Ueyama

SSC PROGRAMAÇÃO CONCORRENTE. Aula 02 Revisão de Arquiteturas Paralelas Parte 1 Prof. Jó Ueyama SSC- 0742 PROGRAMAÇÃO CONCORRENTE Aula 02 Revisão de Arquiteturas Paralelas Parte 1 Prof. Jó Ueyama Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados às

Leia mais

Introdução à Computação: Sistemas de Computação

Introdução à Computação: Sistemas de Computação Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,

Leia mais

Introdução na Computação Distribuída e Paralela

Introdução na Computação Distribuída e Paralela ISUTIC 2017 Introdução na Computação Distribuída e Paralela Docente: MSc. Angel Alberto Vazquez Sánchez Características da matéria 90 horas no semestre Conferências, Aulas Práticas, Laboratórios e Seminários

Leia mais

Arquiteturas paralelas Parte 1

Arquiteturas paralelas Parte 1 Arquiteturas paralelas Parte 1 Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade Federal do Espírito

Leia mais

Multiprogramação leve em arquiteturas multi-core

Multiprogramação leve em arquiteturas multi-core Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação

Leia mais

Arquitetura de sistemas distribuídos

Arquitetura de sistemas distribuídos Arquitetura de sistemas distribuídos 2. Introdução aos Sistemas Distribuídos 2.1.Características de sistemas distribuídos 2.2 Aplicações distribuídas e TI Verde 2.3 Tratamento de Falhas 2.4 Classificação

Leia mais

SIST706 Sistemas Distribuídos

SIST706 Sistemas Distribuídos Slide02 Arquiteturas de SD SIST706 Sistemas Distribuídos 2013/1 Prof. Jéfer Benedett Dörr @: prof.jefer@gmail.com profjefer.wordpress.com Notícias Cultura Livre Fontes de Notícias itil LPI Transistores:

Leia mais

Processamento Paralelo

Processamento Paralelo Processamento Paralelo por Helcio Wagner da Silva Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários

Leia mais

Modelo de Von Neumann

Modelo de Von Neumann 1 Modelo de Von Neumann Memória UC ALU Entrada Saída ACC 2 Arquitetura de Von Neumann 3 O Computador 4 Processador Microprocessadores São processadores contidos em um único encapsulamento (CI). Microcontroladores

Leia mais

Programação Concorrente e Paralela

Programação Concorrente e Paralela 2010.2 Objetivos princípios e técnicas de programação paralela multiprocessadores memória compartilhada troca de mensagens arquiteturas alternativas multicomputadores troca de mensagens obs: Essa troca

Leia mais

Linguagem de Programação II

Linguagem de Programação II Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB bidu@ci.ufpb.br Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes

Leia mais

Sistemas Operacionais Distribuídos

Sistemas Operacionais Distribuídos Sistemas Operacionais Distribuídos Introdução O uso de redes locais e da Internet está amplamente difundido mesmo para uso doméstico. Mas para que tais recursos físicos sejam aproveitados da melhor forma

Leia mais

SISTEMAS DISTRIBUÍDOS TIPOS

SISTEMAS DISTRIBUÍDOS TIPOS SISTEMAS DISTRIBUÍDOS TIPOS Slides cedidos pela Professora Aline Nascimento TIPOS DE SISTEMAS DISTRIBUÍDOS Sistemas de Computação Distribuídos de Alto Desempenho Utilizado para tarefas de computação de

Leia mais

Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela. Professor: Francisco Ary

Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela. Professor: Francisco Ary Organização de Computadores Sistema de entrada e saída (I/O) e computação paralela Professor: Francisco Ary Computação Paralela Capacidade de um sistema computacional ser executado de forma simultânea,

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Motivação Aplicações Motivam Possibilita Engenharia Motivação! Aplicações cada vez mais complexas! Qual a técnica mais comum para redução de complexidade? " Modularização Dividir

Leia mais

Programação Paralela e Distribuída

Programação Paralela e Distribuída Programação Paralela e Distribuída Referência: Slides for Parallel Programming Techniques & Applications Using Networked Workstations & Parallel Computers 2nd Edition, by B. Wilkinson & M. Allen, 2004

Leia mais

Organização e Arquitetura de Computadores I

Organização e Arquitetura de Computadores I Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Unidade Acadêmica de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de

Leia mais

Sis i te t mas a O perac a i c o i nai a s um p ouco c d a a h is i tó t ria i. a... SO His i t s ó t r ó ic i o

Sis i te t mas a O perac a i c o i nai a s um p ouco c d a a h is i tó t ria i. a... SO His i t s ó t r ó ic i o Sistemas Operacionais um pouco da história... - Evolução dos SO s através do tempo - Novas técnicas não são assimiladas simultaneamente por todos - Década de 40, não existia SO - O programador é o faz

Leia mais

Organização e comunicação em plataformas paralelas

Organização e comunicação em plataformas paralelas Organização e comunicação em plataformas paralelas Processamento Paralelo Prof. Oberlan Romão Departamento de Computação e Eletrônica DCEL Centro Universitário Norte do Espírito Santo CEUNES Universidade

Leia mais

Curso: Redes de Computadores

Curso: Redes de Computadores Curso: Redes de Computadores Cadeira de Introdução a Sistemas Operacionais. Bibliografia Sistemas Operacionais Modernos Andew S. Tanembaum Sistema Operacionais Abraham Silberchatz, Peter Galvin e Greg

Leia mais

Paradigmas de Computação

Paradigmas de Computação UCE- Computação Paralela e Distribuída Paradigmas de Computação João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... http://alba.di.uminho.pt/... 1 Paradigmas de Computação paralela Resultados da Aprendizagem

Leia mais

Introdução. capítulo

Introdução. capítulo Introdução capítulo 1 Definição de de um sistema distribuído Um sistema distribuído é um conjunto de computadores independentes que se apresenta a seus usuários como um sistema único e coerente Definição

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Definição Sistema Distribuído é aquele onde os componentes de software e hardware localizados em redes de computadores comunicam-se e coordenam suas ações apenas por passagem de mensagens.

Leia mais

TOP Arquitetura dos supercomputadores

TOP Arquitetura dos supercomputadores TOP 500 - Arquitetura dos supercomputadores Steven Koiti Tsukamoto Dezembro de 2010 Objetivos Os supercomputadores Top 500 A arquitetura Supercomputadores São máquinas de grande porte, capazes de processar

Leia mais

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos

Leia mais

Programação Concorrente

Programação Concorrente INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC lau.lung@inf.ufsc.br Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica

Leia mais

Arquitetura de Computadores. Prof. João Bosco Jr.

Arquitetura de Computadores. Prof. João Bosco Jr. Arquitetura de Computadores Prof. João Bosco Jr. (CPU) Modelo do Computador Von Neumann Processador Memórias E/S Barramentos Simulação Contador http://courses.cs.vt.edu/csonline/machinearchitecture/lessons/cpu/countprogram.html

Leia mais

Tipos de Clusters. Introdução. Introdução 21/03/12

Tipos de Clusters. Introdução. Introdução 21/03/12 Tipos de Clusters Prof. Msc. André Luiz Nasserala Pires nassserala@gmail.com! Cluster pode ser definido como um sistema onde dois ou mais computadores trabalham de maneira conjunta para realizar processamento

Leia mais

Laboratório de Programação Paralela. Introdução. Prof. Carlos Bazilio

Laboratório de Programação Paralela. Introdução. Prof. Carlos Bazilio Laboratório de Programação Paralela Introdução Prof. Carlos Bazilio Motivação Máquinas paralelas eram arquiteturas raras antigamente Este quadro se modificou por, pelo menos, 2 razões: Barateamento dos

Leia mais

Processamento Paralelo

Processamento Paralelo Processamento Paralelo por Helcio Wagner da Silva Introdução Tradicionalmente, o computador tem sido visto como uma máquina seqüencial Esta visão nunca foi completamente verdadeira No nível das µo, vários

Leia mais

SSC0510 Arquitetura de Computadores

SSC0510 Arquitetura de Computadores SSC0510 Arquitetura de Computadores 11ª Aula Paralelismo Avançado em Nível de Instrução e em Nível de Tarefas (Threads) Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Tipos de Paralelismo BLP: Bit Level

Leia mais

PARALELISMO NO NÍVEL DO PROCESSADOR

PARALELISMO NO NÍVEL DO PROCESSADOR UNIP Universidade Paulista. Campus Brasília. PARALELISMO NO NÍVEL DO PROCESSADOR ALUNO: Lucas da Silva Dias ALUNO: Gleidson Rosa da Silva ALUNO: Gustavo da Silva Martins ALUNO: Marcelo Nery Lima RA: C633EB-1

Leia mais

Definindo melhor alguns conceitos

Definindo melhor alguns conceitos Definindo melhor alguns conceitos Concorrência termo mais geral, um programa pode ser constituído por mais de um thread/processo concorrendo por recursos Paralelismo uma aplicação é eecutada por um conjunto

Leia mais

UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA

UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA RELATÓRIO TÉCNICO CIENTÍFICO Período: Outubro/2015 a

Leia mais

SISTEMAS OPERACIONAIS

SISTEMAS OPERACIONAIS SISTEMAS OPERACIONAIS Introdução a Sistemas Operacionais Andreza Leite andreza.leite@univasf.edu.br Plano de Aula Introdução aos Sistemas Operacionais Fundamentação Teórica Evolução Histórica Características

Leia mais

Programação Paralela e Distribuída

Programação Paralela e Distribuída INE 5645 Programação Paralela e Distribuída Professor: Lau Cheuk Lung (turma A) INE UFSC lau.lung@inf.ufsc.br Conteúdo Programático 1. Introdução 2. Programação Paralela 3. Controle de Concorrência 4.

Leia mais

SISTEMAS DISTRIBUÍDOS

SISTEMAS DISTRIBUÍDOS SISTEMAS DISTRIBUÍDOS CUP Disk Memoey CUP Memoey Disk Network CUP Memoey Disk Introdução aos Sistemas Distribuídos 1 Sumário Evolução Problema/Contexto O que é um Sistema Distribuído? Vantagens e Desvantagens

Leia mais

Computação de Alto Desempenho Clusters de PCs

Computação de Alto Desempenho Clusters de PCs RSS-10/03 p.1/31 Computação de Alto Desempenho Clusters de PCs Renato Silva LNCC - MCT Outubro de 2003 RSS-10/03 p.2/31 Renato S. Silva sala: 2a-23 - ramal: 6148 - e-mail: rssr@lncc.br Material: Aulas:

Leia mais

Estrutura da Apresentação. Introdução ao Processamento Paralelo e Distribuído. Conceitos em PPD. Conceitos em PPD 4/26/09.

Estrutura da Apresentação. Introdução ao Processamento Paralelo e Distribuído. Conceitos em PPD. Conceitos em PPD 4/26/09. Estrutura da Apresentação Introdução ao rocessamento aralelo e Distribuído Conceitos em rocessamento aralelo e Distribuído; Frentes de trabalho e pesquisa em D; O D no Rio Grande do Sul; Observações finais.

Leia mais

Programação Concorrente e Paralela. Noemi Rodriguez

Programação Concorrente e Paralela. Noemi Rodriguez 2013 Objetivos princípios e técnicas de programação concorrente multiprocessadores memória compartilhada troca de mensagens obs: diferentes níveis de abstração! que princípios e técnicas são esses? notações

Leia mais

Programação Distribuída e Paralela. Jorge Barbosa

Programação Distribuída e Paralela. Jorge Barbosa Programação Distribuída e Paralela Jorge Barbosa 1 Máquinas Paralelas Processadores Memória Rede de interligação Classificação das máquinas paralelas 2 Processador Escalar Processadores Processador que

Leia mais

Sistemas Distribuídos. Plano de Curso. Plano de Curso 04/03/12 ! EMENTA:

Sistemas Distribuídos. Plano de Curso. Plano de Curso 04/03/12 ! EMENTA: Sistemas Distribuídos Prof. Msc. André Luiz Nasserala Pires nassserala@gmail.com! EMENTA: Plano de Curso! Conceitos. Comunicação entre processos (IPC). Programação de aplicações cliente- servidor. Sincronização

Leia mais

Os computadores ditigais podem ser classificados em 5 grupos distintos:

Os computadores ditigais podem ser classificados em 5 grupos distintos: Informática A informática engloba toda atividade relacionada ao uso dos computadores, permitindo aprimorar e automatizar tarefas em qualquer área de atuação da sociedade. Informática é a "Ciência do tratamento

Leia mais

UNIVERSIDADE FEDERAL DE GOIÁS INSTITUTO DE INFORMÁTICA. Sistemas Distribuídos

UNIVERSIDADE FEDERAL DE GOIÁS INSTITUTO DE INFORMÁTICA. Sistemas Distribuídos UNIVERSIDADE FEDERAL DE GOIÁS INSTITUTO DE INFORMÁTICA Sistemas Distribuídos Mestrado em Ciência da Computação 1o. Semestre / 2006 Prof. Fábio M. Costa fmc@inf.ufg.br www.inf.ufg.br/~fmc/ds-msc2006 Aula

Leia mais

Componente de aplicação. Figura 1 - Elementos funcionais de uma aplicação sendo executados de forma distribuída

Componente de aplicação. Figura 1 - Elementos funcionais de uma aplicação sendo executados de forma distribuída 11 1 Introdução Recentes avanços em redes de computadores impulsionaram a busca e o desenvolvimento de meios para facilitar e acelerar o desenvolvimento de aplicações em sistemas distribuídos, tornando

Leia mais

OpenMP: Variáveis de Ambiente

OpenMP: Variáveis de Ambiente Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de

Leia mais

O estado de arte: a evolução de computação de alto desempenho

O estado de arte: a evolução de computação de alto desempenho O estado de arte: a evolução de computação de alto desempenho 2009 Evolução da Computação O Mark I tinha ciclo de 0,3 segundos; o ENIAC 200 micro-segundos Processador hoje: vários GHz - menos de um nanosegundo

Leia mais

SISTEMAS OPERACIONAIS DE REDE

SISTEMAS OPERACIONAIS DE REDE ESPECIALIZAÇÃO EM REDES E COMPUTAÇÃO DISTRIBUÍDA 2011/1 Edital 005/2011 PROVA OBJETIVA Página 1 de 5 SISTEMAS OPERACIONAIS DE REDE Questão 01 Qual a função de um servidor DNS (Domain Name System)? a) Servir

Leia mais

ARQUITETURA DE SISTEMAS DISTRIBUÍDOS. Aula 1- Introdução aos Sistemas Distribuídos

ARQUITETURA DE SISTEMAS DISTRIBUÍDOS. Aula 1- Introdução aos Sistemas Distribuídos Aula 1- Introdução aos Sistemas Distribuídos OBJETIVOS DA DISCIPLINA: Compreender os conceitos de Sistemas Distribuídos; Conhecer os principais modelos de arquitetura; Entender a importância dos conceitos

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Prof. Emerson Ribeiro de Mello Instituto Federal de Santa Catarina IFSC campus São José mello@ifsc.edu.br 29 de julho de 2015 1/21 Apresentação da disciplina Objetivo da disciplina

Leia mais

COMPUTADORES. Arquiteturas de Computadores Paralelos. Prof.: Agostinho S. Riofrio

COMPUTADORES. Arquiteturas de Computadores Paralelos. Prof.: Agostinho S. Riofrio PROJETO LÓGICO DE COMPUTADORES Arquiteturas de Computadores Paralelos l Prof.: Agostinho S. Riofrio Agenda 1. Introdução 2. Memória Virtual 3. Paginação 4. Segmentação 5. Instruçoes virtuais de E/S 6.

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Thaís Vasconcelos Batista UFRN DIMAp http://www.dimap.ufrn.br/~thais thais@ufrnet.br Programa do Curso INTRODUÇÃO Conceitos Básicos Sistemas em Rede X Sistemas Distribuídos Necessidade

Leia mais

STD29006 Sistemas Distribuídos

STD29006 Sistemas Distribuídos STD29006 Sistemas Distribuídos Prof. Emerson Ribeiro de Mello Instituto Federal de Santa Catarina IFSC campus São José mello@ifsc.edu.br http://docente.ifsc.edu.br/mello/std 28 de julho de 2017 1/22 Apresentação

Leia mais

DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES

DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES João Ricardo Kohler Abramoski (PAIC/FUNDAÇÃO ARAUCÁRIA), Sandra Mara Guse Scós Venske (Orientadora), e-mail: ssvenske@unicentro.br

Leia mais

ARQUITETURA DE SISTEMAS OPERACIONAIS. VISÃO GERAL DE UM SISTEMA OPERACIONAL Prof. André Luís Alves E. M. DR. LEANDRO FRANCESCHINI

ARQUITETURA DE SISTEMAS OPERACIONAIS. VISÃO GERAL DE UM SISTEMA OPERACIONAL Prof. André Luís Alves E. M. DR. LEANDRO FRANCESCHINI ARQUITETURA DE SISTEMAS OPERACIONAIS VISÃO GERAL DE UM SISTEMA OPERACIONAL Prof. André Luís Alves E. M. DR. LEANDRO FRANCESCHINI INTRODUÇÃO Programas computacionais (ou software) constituem o elo entre

Leia mais

Tipos de Sistemas Operacionais

Tipos de Sistemas Operacionais Tipos de Sistemas Operacionais Prof. Edwar Saliba Júnior Março de 2007 1 TIPOS DE S.O. Monoprogramáveis / monotarefas; Multiprogramáveis / multitarefas: Batch; Tempo compartilhado; Tempo real; Sistemas

Leia mais

Introdução a Computação em Nuvem

Introdução a Computação em Nuvem Introdução a Computação em Nuvem Sistemas Distribuídos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência e Tecnologia

Leia mais

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador

Leia mais

Sistemas Operacionais. Visão Geral

Sistemas Operacionais. Visão Geral Sistemas Operacionais Visão Geral Sumário 1. Máquina de Camadas 2. Funções Básicas do SO 3. Conceitos Introdutórios 1. Hardware 2. Software 3. Operações de E/S 4. Histórico 1. Década de 40 2. Década de

Leia mais

SISTEMAS OPERACIONAIS DE REDE

SISTEMAS OPERACIONAIS DE REDE SISTEMAS OPERACIONAIS DE REDE Questão 01 O sistema operacional gerencia o sistema de arquivos, que irá armazenar as informações/arquivos. Para esta tarefa, durante a formatação do disco rígido, são criados

Leia mais

Sistema de Software Distribuído

Sistema de Software Distribuído Sistema de Software Distribuído É composto por uma sequência de instruções, que é interpretada e executada por um processador É composto por instruções concorrentes ou paralelas, que são interpretadas

Leia mais

Parallel Computing Paradigms

Parallel Computing Paradigms João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... Web: Elearning 1 At the end of the course, students should be able to: Design and optimise parallel applications that can efficiently run on a wide

Leia mais

ARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio

ARQUITETURA DE COMPUTADORES. Organização de Sistemas Computacionais. Prof.: Agostinho S. Riofrio ARQUITETURA DE COMPUTADORES Organização de Sistemas Computacionais Prof.: Agostinho S. Riofrio Agenda 1. Unidade Central de Processamento 2. Organização da CPU 3. Interpretador 4. RISC x CISC 5. Principios

Leia mais

Como programar um computador com processadores? ou: Oportunidades e Desafios da Computação Paralela

Como programar um computador com processadores? ou: Oportunidades e Desafios da Computação Paralela Palestra para alunos de graduação da USP 1 de abril de 2005 1/26 Como programar um computador com 32.768 processadores? ou: Oportunidades e Desafios da Computação Paralela Siang Wun Song Universidade de

Leia mais

Universidade Federal do Rio de Janeiro Pós-Graduação em Informática. Introdução. Gabriel P. Silva. Gabriel P. Silva

Universidade Federal do Rio de Janeiro Pós-Graduação em Informática. Introdução. Gabriel P. Silva. Gabriel P. Silva Universidade Federal do Rio de Janeiro Pós-Graduação em Informática Microarquiteturas de Alto Desempenho Introdução Introdução Bibliografia: Computer Architecture: A Quantitative Approach. John L. Hennesy,

Leia mais

JAVA CÁ & LÁ Um Middleware para Computação Paralela e Distribuída

JAVA CÁ & LÁ Um Middleware para Computação Paralela e Distribuída Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas - ICEB Departamento de Computação - DECOM JAVA CÁ & LÁ Um Middleware para Computação Paralela e Distribuída Aluno: Antonio

Leia mais

Redes de Computadores. Fundamentos de Sistemas Operacionais - 2º Período

Redes de Computadores. Fundamentos de Sistemas Operacionais - 2º Período Redes de Computadores Fundamentos de Sistemas Operacionais - 2º Período PARTE I: CONCEITOS BÁSICOS SUMÁRIO 1. VISÃO GERAL: 1.1 Introdução; 1.2 Funções Básicas; 1.3 Máquina de Camadas; 1.5 Tipos de Sistemas

Leia mais

ENGENHARIA DE SISTEMAS MICROPROCESSADOS

ENGENHARIA DE SISTEMAS MICROPROCESSADOS ENGENHARIA DE SISTEMAS MICROPROCESSADOS Prof. Pierre Vilar Dantas Turma: 0040-A Horário: 4N Aula 01-26/07/2017 Plano de ensino Professor www.linkedin.com/in/pierredantas/ TÓPICOS Conceitos gerais. Evolução

Leia mais

SIST706 Sistemas Distribuídos

SIST706 Sistemas Distribuídos Slide01 Introdução e Conceitos de Sistemas Distribuídos SIST706 Sistemas Distribuídos 2013/1 Prof. Jéfer Benedett Dörr @: prof.jefer@gmail.com profjefer.wordpress.com Sistema Distribuído Definição de Andrew

Leia mais

Características de Sistemas Distribuídos

Características de Sistemas Distribuídos Características de Sistemas Distribuídos Carlos Ferraz cagf@cin.ufpe.br 2002-2003 Carlos A. G. Ferraz 2 Tópicos O conceito de Sistemas Distribuídos Infra-estrutura básica Exemplos Vantagens e desvantagens

Leia mais

PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register

PROCESSADORES Unidade de Controle Unidade Aritmética e Lógica efetua memória de alta velocidade registradores Program Counter Instruction Register PROCESSADORES Um computador digital consiste em um sistema interconectado de processadores, memória e dispositivos de entrada e saída. A CPU é o cérebro do computador. Sua função é executar programas armazenados

Leia mais

Administração de Serviços de Redes. Introdução a Clusters. Prof. Dayvidson Bezerra Contato:

Administração de Serviços de Redes. Introdução a Clusters. Prof. Dayvidson Bezerra Contato: Administração de Serviços de Redes Introdução a Clusters Prof. Dayvidson Bezerra Contato: dayvidsonbezerra@gmail.com Definição Cluster é um termo amplamente utilizado, significa computadores independentes

Leia mais

AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS

AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA

Leia mais

Conceitos de Sistemas Distribuídos

Conceitos de Sistemas Distribuídos Conceitos de Sistemas Distribuídos Roteiro Definição de Sistemas Distribuídos (SD) Evolução Histórica Exemplos (SD) Modelos (Vantagens x Desvantagens) 2 O que é um Sistema Distribuído? Definição Coleção

Leia mais

Introdução OpenMP. Nielsen Castelo Damasceno

Introdução OpenMP. Nielsen Castelo Damasceno Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto

Leia mais

Introdução a Computação em Nuvem

Introdução a Computação em Nuvem Introdução a Computação em Nuvem Sistemas Distribuídos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência e Tecnologia

Leia mais

Unidade 12: Introdução ao Paralelismo:

Unidade 12: Introdução ao Paralelismo: Arquitetura e Organização de Computadores 1 Unidade 12: Introdução ao Paralelismo: Processadores Superescalares Prof. Daniel Caetano Objetivo: Apresentar os conceitos fundamentais da arquitetura superescalar

Leia mais

19:00 20:30 Cluster 20:30 21:45 Grids Computacionais 21:00 Lista de presença 21:45 22:35 Trabalho em sala de aula. Planejamento

19:00 20:30 Cluster 20:30 21:45 Grids Computacionais 21:00 Lista de presença 21:45 22:35 Trabalho em sala de aula. Planejamento 19:00 20:30 Cluster 20:30 21:45 Grids Computacionais 21:00 Lista de presença 21:45 22:35 Trabalho em sala de aula Planejamento Planejamento 1. Conceitos e terminologia de segurança quanto a disponibilidade

Leia mais

Apresentação. Ementa da Disciplina. Objetivo da Disciplina. DCA-108 Sistemas Operacionais. Referências Bibliográfica. Referências Bibliográfica

Apresentação. Ementa da Disciplina. Objetivo da Disciplina. DCA-108 Sistemas Operacionais. Referências Bibliográfica. Referências Bibliográfica DCA-108 Sistemas Operacionais Luiz Affonso Guedes www.dca.ufrn.br/~affonso affonso@dca.ufrn.br Apresentação Disciplina básica do curso de Engenharia de Computação Carga-horária: 60h teóricas Associadas

Leia mais