Paradigmas de Computação Paralela
|
|
|
- Martim Brás Cruz
- 8 Há anos
- Visualizações:
Transcrição
1 Paradigmas de Computação Paralela Modelos e Linguagens de Computação Paralela João Luís Ferreira Sobral jls@... 1 Dezembro 2015
2 Razões para a computação paralela (cf. Skillicorn & Talia 1998) O mundo é intrinsecamente paralelo As linguagens atuais incentivam a expressão das ações sequencialmente Acesso a maior poder computacional O paralelismo permite o acesso a poder computacional que não está disponível numa máquina sequencial Limites físicos à computação sequencial Velocidade da luz, dissipação de calor, etc Maior eficiência em termos de custo de desenvolvimento dos sistemas Problemas da computação paralela Tradição de desenvolvimento de aplicações sequenciais A concepção de máquinas paralelas exige um balanço de múltiplos factores Os fabricantes de arquiteturas têm focado demasiado em HPC A portabilidade de desempenho entre arquiteturas paralelas é complexa Depende de características SW / HW
3 Conceitos básicos Arquitecturas SISD vs SIMD vs MIMD Memória partilhada vs memória distribuída Paralelismo lógico vs paralelismo físico Processo vs fios de execução Comunicação entre processos/fios Passagem de mensagens Memória partilhada Híbrido: acessos a memória remota Modelos de programação vs arquitectura do sistema
4 Facetas do desenvolvimento de aplicações paralelas Decomposição do programa em actividades paralelas Comunicação/sincronização entre actividades paralelas Mapeamento das actividades nos recursos disponíveis Problem Partitioning Identification of communication Task/communication agglomeration Modelos de computação paralela Nada explícito descrevem apenas o propósito do programa Paralelismo explícito o programador indica as oportunidades de paralelismo Paralelismo e decomposição explícita A comunicação/sincronização e mapeamento são implícitos Paralelismo, decomposição e mapeamento explícitos comunicação implícita Sincronização explícita Tudo explícito Mapping
5 Modelo de computação paralela nada é explícito Os Exploração de paralelismo pelos compiladores é reconhecidamente limitada Baseiam-se num programa sequencial Uma linguagem pode ser implicitamente executada em paralelo O sistema de suporte à linguagem encarrega-se da decomposição, etc É complexo garantir uma execução eficiente quando todos os aspectos da computação paralela são geridos implicitamente A gama de aplicações que se pode desenvolver é mais limitada que nas outras linguagens de mais baixo nível Exemplos típicos Linguagens declarativas (estrutura dinâmica)» High order functional programming: Haskell => redução de grafos facilmente paralelizada» Programação lógica: paralelismo AND e OR Esqueletos (programas com uma estrutura estática de componentes intrinsecamente paralelos)» P3L, M. Cole, JaSkel
6 Modelo de computação paralela nada é explícito Programação lógica (e.g., PROLOG) Paralelismo OR pesquisar cláusulas em paralelo a(x):- b(x). a(x):- c(x). Paralelismo AND pesquisar sub-objetivos em paralelo?- a(x), b(x), c(x) Esqueletos MAP - aplicar uma função a uma lista de elementos List<R> MAP(Func<T,R>, List<T>)
7 Paralelismo Explícito As atividades potencialmente paralelas são explícitas mas a decomposição em atividades paralelas, comunicação e mapeamento é automática. Em geral, o programador expressa um paralelismo de grão-fino que é posteriormente mapeado nos recursos disponíveis A implementação em sistemas de memória distribuída é, em geral, pouco eficiente, devido à complexidade do mapeamento. Data flow - A computação são operações com entradas e resultados explícitos, resultando num grafo de dependências Concurrent logic languages (PARLOG: Prolog anotado para especificar paralelismo) Lisp with futures (Multilisp) Parfor (sem expressar mais informação) HPF (Forall + data-distributions) Data parallel languages (e.g., NVIDIA CUDA, OpenCL)
8 Modelos e Linguagens de Computação Paralela Paralelismo Explícito Exemplo: GPU kernel (em APARAPI) para multiplicação de matrizes: public static void mmultgpu() { } "Kernel kernel = new Kernel() { " public void run() { int id = getglobalid(); for(int i=id/pesize; i<size; i+= pesize) { for(int j=id%pesize; j<size; j+= pesize) { float sum=0; " " for(int k=0; k<size; k++) } } } sum += A[i][k] * B[k][j]; C[i][j]=sum; }; kernel.execute( pesize*pesize); Simple Kernel (PE = matrix size) int i = getidy(); int j = getidx(); for(int k=0; k<size; k++) C[i][j] += A[i][k]*B[k][j]
9 Paralelismo e decomposição explícitos As atividades paralelas são explícitas mas o mapeamento e comunicação é implícito. Existem pouco exemplos desta classe BSP (Bulk Synchronous parallelism) Um programa constituído por um conjunto de atividades, divididas em passos de computação + comunicação» Os programas têm que ser explicitamente decompostos em atividades paralelas» A comunicação é implícita, na fase de comunicação e a sincronização é global» O mapeamento das atividades paralelas é também implícito Mapeamento explícito A decomposição em tarefas e atribuição das tarefas aos recursos é explícita, mas a comunicação é implícita Separação das primitivas de comunicação de computação Linda: espaço global de tuples partilhado (rd(xxx, val), wr(xxx,val) ) para comunicar entre atividades paralelas Sistemas baseados em memória partilhada distribuída (e.g., OpenMP c/dsm) RPC (Remote Procedure call)
10 Comunicação explícita Em geral baseado passagem de mensagens que reduzem a sincronização necessária (através de passagem assíncrona) Actores Objectos com uma fila de mensagens processada sequencialmente e que podem enviar mensagens a outros actores em reposta a uma mensagem Agregados concorrentes - Colecções de objectos referida por um só nome que podem processar mensagens de forma concorrente e fornecem capacidade de endereçamento intra-agregado Linguagens concorrentes orientadas ao objecto o paralelismo é encapsulado nos objectos Tudo explícito Todas as tarefas são da responsabilidade do programador Criação explícita de fios de execução/processos (Java, fork/join) Passagem de mensagens MPI_Send(buf,dest, ) + MPI_Recv(buf,src, ), MPI_Broadcast( ) CSP
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 13/11/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 13/11/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (2.0) (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre
Paralelismo de dados. (execução de simultaneidade) Tipo de arquitetura paralela SIMD. SIMD (Single Instruction Multiple Data)
Paralelismo de dados (execução de simultaneidade) Em métodos tradicionais de programação (processamento sequencial), uma grande quantidade de dados é processada em um único núcleo de uma CPU, enquanto
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre o
Parallel Computing Paradigms
João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... Web: Elearning 1 At the end of the course, students should be able to: Design and optimise parallel applications that can efficiently run on a wide
Ferramentas para Programação em Processadores Multi-Core
Ferramentas para Programação em Processadores Multi-Core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Introdução Arquiteturas multi-core Ferramentas de programação Prática
Paralelismo de dados. (execução de simultaneidade) Tipo de arquitetura paralela SIMD. SIMD (Single Instruction Multiple Data)
Paralelismo de dados (execução de simultaneidade) Em métodos tradicionais de programação (processamento sequencial), uma grande quantidade de dados é processada em um único núcleo de uma CPU, enquanto
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre o
Computação Paralela (CUDA)
Universidade Federal do Amazonas Faculdade de Tecnologia Departamento de Eletrônica e Computação Computação Paralela (CUDA) Hussama Ibrahim [email protected] Notas de Aula Baseado nas Notas de
Sistemas Distribuídos e Paralelos
Sistemas Distribuídos e Paralelos Aula #6: Programação paralela em sistemas de memória compartilhada. ISUTIC - 2016 Eng. Alexander Rodríguez Bonet Aula de hoje Regiões paralelas. Cláusulas de âmbito. Partilha
OpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
Programação de Alto Desempenho - 2. Prof: Carla Osthoff
Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: [email protected] 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda
AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
Conceitos de Linguagens de Programação - Características. Paavo Soeiro
Conceitos de Linguagens de Programação - Características Paavo Soeiro Motivação Para que possa escolher uma linguagem apropriada ao problema. Melhorar o entendimento da linguagem utilizada. Facilitar o
Paradigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina)
Paradigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina) George Darmiton da Cunha Cavalcanti ([email protected]) Informações Básicas Professor George Darmiton da Cunha Cavalcanti Monitores
SSC PROGRAMAÇÃO CONCORRENTE. Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella
SSC- 0143 PROGRAMAÇÃO CONCORRENTE Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados
Programação Funcional Apontamentos (Versão 1.16)
Programação Funcional Apontamentos (Versão 1.16) Pedro Quaresma de Almeida 1 2 de Outubro de 2008 1 Departamento de Matemática da Universidade de Coimbra. Conteúdo 1 Introdução 2 1.1 Diferentes Metodologias.............................
Multiprogramação leve em arquiteturas multi-core
Multiprogramação leve em arquiteturas multi-core Prof. Dr. Departamento de Informática Universidade Federal de Pelotas Sumário Arquiteturas multi-core Programação multithread Ferramentas de programação
Ruby e JRuby em... Paralelos e Distribuídos. Felipe Barden Lucas Fialho Zawacki
Ruby e JRuby em... Paralelos e Distribuídos Felipe Barden 151343 Lucas Fialho Zawacki 172072 Sobre o que vamos falar? A linguagem Ruby e suas aplicações em programação paralela e distribuída. A implementação
Arquiteturas Paralelas
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES Arquiteturas Paralelas Medidas de desempenho Alexandre Amory Edson Moreno Índice 2 1. Introdução 2. Medidas de Desempenho Introdução 3 Aumento de desempenho dos
Gabriel Giorisatto De Angelo Luiz Otávio Gerhardt Fernandes
Gabriel Giorisatto De Angelo Luiz Otávio Gerhardt Fernandes Histórico Desenvolvida em 2012 por Jeff Bezanson, Stefan Karpinski, Viral B. Shah, Alan Edelman Gratuita, Open Source e licenciada sob a Licença
Comparação de eficiência entre OpenCL e CUDA
Aluno: Thiago de Gouveia Nunes Orientador: Prof. Marcel P. Jackowski GPGPU O que é GPGPU? É programação de propósito geral em GPUs. =D GPGPU Existem 2 linguagens populares no mercado para GPGPU, o CUDA
Paralela e Distribuída. com o MPI e o OpenMP
Programação Paralela e Distribuída Programação Híbrida com o e o OpenMP e OpenMP Uma forma de executar um programa em paralelo num cluster multiprocessor é criar um processo por cada processador. Nesse
Paradigmas de Linguagem de Programação. Aspectos Básicos
Paradigmas de Linguagem de Programação Aspectos Básicos Introdução Nesta segunda etapa de nossos estudos, veremos: aspectos básicos de programa e linguagem de programação; revisão de conceitos de compilador
Fundamentos de Sistemas Operacionais
Fundamentos de Sistemas Operacionais Aula 4: Programação Concorrente Diego Passos Últimas Aulas Processos Compostos por: Código (programa). Estado (memória, registradores). Em um sistema com multiprogramação:
Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Linguagem Chapel. Walter Perez Urcia. Universidade de São Paulo Instituto de Matemática e Estadística Departamento de Ciências da Computação
Linguagem Chapel Walter Perez Urcia Universidade de São Paulo Instituto de Matemática e Estadística Departamento de Ciências da Computação 17 de junho de 2015 Walter Perez (IME - USP) Linguagem Chapel
Programação em Paralelo OpenMP
Programação em Paralelo OpenMP N. Cardoso & P. Bicudo Física Computacional - MEFT 2012/2013 N. Cardoso & P. Bicudo Programação em Paralelo: OpenMP 1 / 15 Introdução Potencial do GPU vs CPU Cálculo: 367
Sistemas Distribuídos
Sistemas Distribuídos LICENCIATURA EM COMPUTAÇÃO Prof. Adriano Avelar Site: www.adrianoavelar.com Email: [email protected] 1. Que são sistemas abertos? É um sistema que oferece serviços de acordo com
Histórico de Linguagens de Programação
Bacharelado em Ciência da Computação PARADIGMAS DE PROGRAMAÇÃO Histórico de Linguagens de Programação Prof. Claudinei Dias email: [email protected] Objetivos Geral: Estudar as características
Programação Concorrente e Paralela
projeto de programas paralelos 2016 PCAM problema particionamento comunicacao aglomeracao mapeamento desenhada para memória distribuída mas muitas idéias em comum Particionamento idéia é expor oportunidades
Programação Distribuída e Paralela. Jorge Barbosa
Programação Distribuída e Paralela Jorge Barbosa 1 Máquinas Paralelas Processadores Memória Rede de interligação Classificação das máquinas paralelas 2 Processador Escalar Processadores Processador que
Programação Concorrente e Paralela. Noemi Rodriguez
2013 Objetivos princípios e técnicas de programação concorrente multiprocessadores memória compartilhada troca de mensagens obs: diferentes níveis de abstração! que princípios e técnicas são esses? notações
Sistemas Distribuídos Aula 10
Sistemas Distribuídos Aula 10 Aula passada Arquitetura P2P Bittorrent Distributed Hash Table (DHT) Aula de hoje Modelo computação distribuída RPC Marshalling e stubs Semântica operacional RMI Computação
Arquitetura de Computadores. Processamento Paralelo
Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple
Introdução OpenMP. Nielsen Castelo Damasceno
Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto
Programação concorrente (processos e threads)
Programação concorrente (processos e threads) Programação concorrente Por que precisamos dela? Para utilizar o processador completamente Paralelismo entre CPU e dispositivos de I/O Para modelar o paralelismo
Revisão: linguagens de programação
Revisão: linguagens de programação Definição, histórico, paradigmas e semântica Prof. Thiago A. S. Pardo [email protected] Definição Uma linguagem de programação é uma linguagem destinada a ser usada
Linguagem de Programação III
Linguagem de Programação III Aula-4 Construtores e Sobrecarga Prof. Esbel Tomás Valero Orellana Até Aqui Modelos e POO Classes e sua implementação em Java Encapsulamento Tipos de dados nativos em Java
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução
speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado
Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos
Universidade Federal do Rio de Janeiro Informática DCC/IM. Arquitetura de Computadores II. Arquiteturas MIMD. Arquiteturas MIMD
Universidade Federal do Rio de Janeiro Informática DCC/IM Arquitetura de Computadores II Arquiteturas MIMD Arquiteturas MIMD As arquiteturas MIMD dividem-se em dois grandes modelos: Arquiteturas MIMD de
Nomes, vinculações e escopos
Nomes, vinculações e escopos Marco A L Barbosa malbarbo.pro.br Departamento de Informática Universidade Estadual de Maringá cba Este trabalho está licenciado com uma Licença Creative Commons - Atribuição-CompartilhaIgual
Informática I. Aula 9. Aula 9-17/05/2006 1
Informática I Aula 9 http://www.ic.uff.br/~bianca/informatica1/ Aula 9-17/05/2006 1 Ementa Histórico dos Computadores Noções de Hardware e Software Microprocessadores Sistemas Numéricos e Representação
Linguagens para Programação Paralela. October 26, 2010
October 26, 2010 Linguagens X Bibliotecas expressividade facilidade de uso integração com programas e programadores Modelos de Linguagens Paralelas (lista não completa) paralelismo de dados (data-parallel)
Aluno de Pós-Graduação em Engenharia de Software para Dispositivos Móveis pela UNINTER
COMPARAÇÃO DE DESEMPENHO NA PROGRAMAÇÃO PARALELA HÍBRIDA (MPI + OPENMP) NA BUSCA DE TEXTO EM ARQUIVOS 1 COMPARISON OF PERFORMANCE IN HYBRID PARALLEL PROGRAMMING (MPI + OPENMP) IN SEARCH OF TEXT IN FILES
Linguagens de Programação Funcional
Linguagens de Programação Funcional Conceitos de Linguagens de Programação Pedro Libório Setembro de 2013 2 Roteiro Introdução Funções matemáticas Fundamentos das linguagens de programação funcionais A
Análise e desenho de algoritmos Paralelos Implementação em Java
ISUTIC 207 Análise e desenho de algoritmos Paralelos Implementação em Java Docente: MSc. Angel Alberto Vazquez Sánchez Sumario Desenho metodológico Particionamento Comunicação Aglomeração Mapeamento Bibliografía
Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core
RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:
Paradigmas. Fortran, Algol, Algol-68, Pascal, C, Cobol, PL/I
Paradigmas Paradigmas Tradicional Fortran, Algol, Algol-68, Pascal, C, Cobol, PL/I Paradigmas Tradicional Fortran, Algol, Algol-68, Pascal, C, Cobol, PL/I OO Simula-67, Smalltalk, C++, Eiffel, Object Pascal,
AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação MULTIPROCESSADORES
Nomes, vinculações e escopos
Nomes, vinculações e escopos Marco A L Barbosa malbarbo.pro.br Departamento de Informática Universidade Estadual de Maringá cba Este trabalho está licenciado com uma Licença Creative Commons - Atribuição-CompartilhaIgual
Introdução à Computação: Sistemas de Computação
Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza ([email protected]) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,
