OpenMP. Slides baseados em tutorial de Tim Mattson da Intel
|
|
|
- Tiago Lage Borba
- 7 Há anos
- Visualizações:
Transcrição
1 OpenMP Slides baseados em tutorial de Tim Mattson da Intel
2 Modelo OpenMP Como as threads interagem? OpenMP é um modelo baseado em multithreading Threads se comunicam pelo compartilhamento de variáveis Compartilhamento de variáveis pode levar à condição de corrida: Condição de corrida: quando o resultado do programa muda se as threads são escalonadas de modo diferente Para controlar condições de corrida: Use sincronização para proteger conflitos de dados Sincronização é cara então: Tente mudar o modo como os dados são acessados para minimizar a necessidade de sincronização
3 Sincronização Sincronização: trazer todas as threads para um ponto bem definido e conhecido da execução Duas formas mais comuns de sincronização: Barreira: cada thread espera na barreira até todas as threads chegarem Exclusão mútua: define um bloco de código que só pode ser executado por uma thread de cada vez
4 Sincronização:Barreira Barreira: Cada thread espera até que todas as threads cheguem #pragma omp parallel { int id=omp_get_thread_num(); A[id] = big_calc1(id); #pragma omp barrier B[id] = big_calc2(id, A);
5 Sincronização: seção crítica Exclusão mútua: Somente uma thread pode entrar na seção crítica de cada vez float res; #pragma omp parallel { float B; int i, id, nthrds; id = omp_get_thread_num(); nthrds = omp_get_num_threads(); for(i=id;i<niters;i+=nthrds){ B = big_job(i); #pragma omp critical res += consume (B);
6 Sincronização: atomicidade Atomicidade provê exclusão mútua mas se aplica somente a uma localização da memória (atualização, leitura, escrita e captura) #pragma omp parallel { double tmp, B; B = DOIT(); tmp = big_ugly(b); #pragma omp atomic X +=tmp;
7 Programa sequencial Pi static long num_steps = ; double step; void main () { int i; double x, pi, sum = 0.0; step = 1.0/(double) num_steps; for (i=0;i< num_steps; i++){ x = (i+0.5)*step; sum = sum + 4.0/(1.0+x*x); pi = step * sum;
8 Exercício 1 Modifique o programa pi de modo que todas as threads criem uma variável escalar local que armazena a soma parcial e atualizem uma variável compartilhada somando o valor da variável local multiplicado pelo step Utilize o pragma critical
9 Exercício 1 #include <omp.h> static long num_steps = ; double step; #define NUM_THREADS 2 int main () {double pi; step = 1.0/(double) num_steps; omp_set_num_threads(num_threads); #pragma omp parallel { int i, id,nthrds;double x, sum; id = omp_get_thread_num(); nthrds = omp_get_num_threads(); for (i=id, sum=0.0;i< num_steps; i=i+nthrds){ x = (i+0.5)*step; sum += 4.0/(1.0+x*x); #pragma omp critical pi += sum * step;
10 Exercício 2 Modifique o programa pi de modo que todas as threads atualizem uma variável compartilhada somando o valor calculado em um step a esta variável compartilhada Utilize o pragma critical
11 Exercício 2 #include <omp.h> static long num_steps = ; double step; #define NUM_THREADS 2 int main () {double pi; step = 1.0/(double) num_steps; omp_set_num_threads(num_threads); #pragma omp parallel { int i, id,nthrds;double x; id = omp_get_thread_num(); nthrds = omp_get_num_threads(); for (i=id, sum=0.0;i< num_steps; i=i+nthrds){ x = (i+0.5)*step; #pragma omp critical pi += 4.0/(1.0+x*x); pi = pi * step;
12 Exercício 3 Refaça o exercício 1 usando o pragma atomic
13 Exercício 3 Refaça o exercício 1 usando o pragma atomic #include <omp.h> static long num_steps = ; double step; #define NUM_THREADS 2 int main () {double pi; step = 1.0/(double) num_steps; omp_set_num_threads(num_threads); #pragma omp parallel { int i, id,nthrds;double x, sum; id = omp_get_thread_num(); nthrds = omp_get_num_threads(); for (i=id, sum=0.0;i< num_steps; i=i+nthrds){ x = (i+0.5)*step; sum += 4.0/(1.0+x*x); #pragma omp atomic pi += sum * step;
14 SPMD vs. Divisão de trabalho Uma construção paralela cria um programa Single Program Multiple Data pois cada thread executa o mesmo código Como fazer com que threads executem partes diferentes do código? Construção de laço
15 Divisão de trabalho por laço Uma construção de laço para divisão de trabalho divide as iterações do laço entre as threads #pragma omp parallel { #pragma omp for for (I=0;I<N;I++){ NEAT_STUFF(I); A variável I é privativa a cada thread por default. Pode também usar a cláusula private(i)
16 Divisão de trabalho por laço Código sequencial for(i=0;i<n;i++){ a[i] = a[i] + b[i];
17 Divisão de trabalho por laço Código sequencial for(i=0;i<n;i++){ a[i] = a[i] + b[i]; Código com região paralela #pragma omp parallel { int id, i, Nthrds, istart, iend; id = omp_get_thread_num(); Nthrds = omp_get_num_threads(); istart = id * N / Nthrds; iend = (id+1) * N / Nthrds; if (id == Nthrds-1) iend = N; for(i=istart;i<iend;i++) { a[i] = a[i] + b[i];
18 Divisão de trabalho por laço Código sequencial for(i=0;i<n;i++){ a[i] = a[i] + b[i]; Código com região paralela #pragma omp parallel { int id, i, Nthrds, istart, iend; id = omp_get_thread_num(); Nthrds = omp_get_num_threads(); istart = id * N / Nthrds; iend = (id+1) * N / Nthrds; if (id == Nthrds-1) iend = N; for(i=istart;i<iend;i++) { a[i] = a[i] + b[i]; Código com região paralela e com divisão de trabalho por laço #pragma omp parallel #pragma omp for for(i=0;i<n;i++) { a[i] = a[i] + b[i];
19 Cláusula schedule A cláusula schedule afeta como as iterações do laço são mapeadas nas threads schedule(static [,chunk]) Reparte blocos de iterações de tamanho chunk para cada thread schedule(dynamic[,chunk]) Cada thread apanha um bloco de chunk iterações de uma fila até que as iterações acabem schedule(guided[,chunk]) As threads apanham dinamicamente blocos de iterações que começam grandes e vão diminuindo até o tamanho chunk à medida que a execução procede. schedule(runtime) O tipo de escalonamento e o tamanho do bloco são obtidos da variável de ambiente OMP_SCHEDULE ou da biblioteca de execução. schedule(auto) O escalonamento é feito pelo sistema de execução e não precisa ser nenhum dos acima
20 Combinação de região paralela e construção de laço double res[max]; int i; #pragma omp parallel { #pragma omp for for (i=0;i< MAX; i++) { res[i] = huge(); double res[max]; int i; #pragma omp parallel for for (i=0;i< MAX; i++) { res[i] = huge();
21 Redução double ave=0.0, A[MAX]; int i; for (i=0;i< MAX; i++) { ave + = A[i]; ave = ave/max; Os valores estão sendo acumulados em uma variável que é uma situação muito comum de acontecer e se chama redução A maioria dos ambientes de programação paralela incluem operações de redução
22 Redução Claúsula de redução: reduction (op : list) Pode ser usada em uma região paralela ou de divisão de trabalho: Uma cópia local das variáveis em list é feita e inicializada dependendo da operação op (0 para + ). Atualizações são feitas nas cópias locais Cópias locais são reduzidas em um único valor utilizando a operação op e combinadas com os valores originais das variáveis globais em list As variáveis na lista list devem ser compartilhadas na região paralela
23 Operações de Redução e valores iniciais Operador Valor inicial C/C++ only + 0 Operator Valor inicial * 1-0 & ~0 0 ^ 0 min max Maior número positivo Número mais negativo && 1 0
24 Exercício 4 Paralelize o programa sequencial PI com uma construção de laço modificando o mínimo possível o programa sequencial static long num_steps = ; double step; void main () { int i; double x, pi, sum = 0.0; step = 1.0/(double) num_steps; for (i=0;i< num_steps; i++){ x = (i+0.5)*step; sum = sum + 4.0/(1.0+x*x); pi = step * sum;
25 Exercício 4 #include <omp.h> static long num_steps = ; double step; int main () { int i; double x, pi, sum = 0.0; step = 1.0/(double) num_steps; #pragma omp parallel { double x; #pragma omp for reduction(+:sum) for (i=0;i< num_steps; i++){ x = (i+0.5)*step; sum = sum + 4.0/(1.0+x*x); pi = step * sum;
Matheus S. Serpa, Vinícius G. Pinto, Philippe O. A. Navaux Contato: INTEL MODERN CODE PARTNER
INTEL MODERN CODE: INTRODUÇÃO À PROGRAMAÇÃO VETORIAL E PARALELA PARA O PROCESSADOR INTEL XEON PHI KNIGHTS LANDING Matheus S. Serpa, Vinícius G. Pinto, Philippe O. A. Navaux Contato: [email protected]
Programação em Paralelo OpenMP
Programação em Paralelo OpenMP N. Cardoso & P. Bicudo Física Computacional - MEFT 2012/2013 N. Cardoso & P. Bicudo Programação em Paralelo: OpenMP 1 / 15 Introdução Potencial do GPU vs CPU Cálculo: 367
Introdução ao OpenMP
Introdução ao OpenMP Fernando Silva DCC FCUP Recursos OpenMP.org (http://www.openmp.org) Tutorial (http://www.llnl.gov/computing/tutorials/openmp/) Implementação gratuita Omni OpenMP compiler project (http://phase.hpcc.jp/omni/)
Introdução à OpenMP (Dia 1) Prof. Guido Araujo
Introdução à OpenMP (Dia ) Prof. Guido Araujo www.ic.unicamp.br/~guido Roteiro Escrevendo programas usando OpenMP Usando OpenMP para paralelizar laços seriais com pequenas mudanças no código fonte Explorar
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre o
Paralela e Distribuída. com o MPI e o OpenMP
Programação Paralela e Distribuída Programação Híbrida com o e o OpenMP e OpenMP Uma forma de executar um programa em paralelo num cluster multiprocessor é criar um processo por cada processador. Nesse
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre o
Introdução OpenMP. Nielsen Castelo Damasceno
Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto
Sistemas Distribuídos e Paralelos
Sistemas Distribuídos e Paralelos Aula #6: Programação paralela em sistemas de memória compartilhada. ISUTIC - 2016 Eng. Alexander Rodríguez Bonet Aula de hoje Regiões paralelas. Cláusulas de âmbito. Partilha
Programação Paralela e Distribuída (DCC/UFRJ)
Programação Paralela e Distribuída (DCC/UFRJ) Aula 7: Programação com memória compartilhada usando OpenMP 1, 8, 10 e 15 de abril de 2015 OpenMP (Open MultiProcessing) Projetado para sistemas de memória
Introdução à Programação Paralela com OpenMP: Além das Diretivas de Compilação
Capítulo 3 Introdução à Programação Paralela com OpenMP: Além das Diretivas de Compilação Rogério A. Gonçalves, João Martins de Queiroz Filho e Alfredo Goldman Abstract Compilation directives have been
Paralelismo em Computadores com Tecnologia Multicore
IFRN - Pau dos Ferros Pau dos Ferros/RN, 25 de fevereiro de 2016 O minicurso Descrição: Para se utilizar os vários núcleos de processamento disponíveis nos computadores atuais de forma eficiente, faz necessário
OpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
PROGRAMAÇÃO. Programação paralela com o OpenMP Em paralelo
PROGRAMAÇÃO Programação paralela com o OpenMP Em paralelo O OpenMP traz o poder do multiprocessamento aos programas em C, C++ e Fortran. por Wolfgang Dautermann A nova safra de processadores com múltiplos
AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
Paralela e Distribuída. Memória Paralela com o OpenMP
Programação Paralela e Distribuída Programação em Memória Paralela com o OpenMP OpenMP O que significa OpenMP: Open specifications for Multi Processing via collaborative work between interested parties
Programação Concorrente e Paralela
projeto de programas paralelos 2016 PCAM problema particionamento comunicacao aglomeracao mapeamento desenhada para memória distribuída mas muitas idéias em comum Particionamento idéia é expor oportunidades
Programação de Computadores I Introdução ao C PROFESSORA CINTIA CAETANO
Programação de Computadores I Introdução ao C PROFESSORA CINTIA CAETANO Introdução Criada em 1972, por Dennis Ritchie; Centro de Pesquisas da Bell Laboratories; Para utilização no S.O. UNIX; C é uma linguagem
Variáveis primitivas e Controle de fluxo
Variáveis primitivas e Controle de fluxo Material baseado na apostila FJ-11: Java e Orientação a Objetos do curso Caelum, Ensino e Inovação, disponível para download em http://www.caelum.com.br/apostilas/
OpenMP. Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken
OpenMP Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken Sumário 1. Introdução 2. História 3. Motivação 4. Objetivos
Mochila Binária com OpenMP
UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE TÉCNOLOGIA CURSO DE CIÊNCIA DA COMPUTAÇÃO Mochila Binária com OpenMP Cícero Augusto de Lara Pahins, Cristiano Reis dos Santos. Professora: Profª Andrea Schwertner
Linguagem C Princípios Básicos (parte 1)
Linguagem C Princípios Básicos (parte 1) Objetivos O principal objetivo deste artigo é explicar alguns conceitos fundamentais de programação em C. No final será implementado um programa envolvendo todos
Programação Concorrente e Paralela. Noemi Rodriguez
2013 Objetivos princípios e técnicas de programação concorrente multiprocessadores memória compartilhada troca de mensagens obs: diferentes níveis de abstração! que princípios e técnicas são esses? notações
Conceitos básicos de programação
Para aprender uma linguagem de programação podemos começar por conhecer os vocábulos ou símbolos que formam o seu léxico e depois aprender como esses vocábulos integram as instruções (frases) que compõe
ponteiros INF Programação I Prof. Roberto Azevedo
ponteiros INF1005 -- Programação I -- 2016.1 Prof. Roberto Azevedo [email protected] ponteiros tópicos o que são ponteiros operadores usados com ponteiros passagem de ponteiros para funções referência
Exclusão Mútua (mutex)
2004-2017 Volnys Bernal 1 Exclusão Mútua (mutex) Volnys Borges Bernal [email protected] Departamento de Sistemas Eletrônicos Escola Politécnica da USP 2004-2017 Volnys Bernal 2 Tópicos Exclusão Mútua (Mutex)
Introdução. Atributos em Java. Atributos. Acesso à atributos em Java. Atributo versus variável. Atributos, métodos e encapsulamento.
Introdução Atributos, métodos e encapsulamento [email protected] Atributos Ipos de acesso: private, public, protected e default Encapsulamento Métodos Construtores Criando objetos Departamento de Ciências
Linguagem de Programação III
Linguagem de Programação III Aula-4 Construtores e Sobrecarga Prof. Esbel Tomás Valero Orellana Até Aqui Modelos e POO Classes e sua implementação em Java Encapsulamento Tipos de dados nativos em Java
Paralelismo de dados. (execução de simultaneidade) Tipo de arquitetura paralela SIMD. SIMD (Single Instruction Multiple Data)
Paralelismo de dados (execução de simultaneidade) Em métodos tradicionais de programação (processamento sequencial), uma grande quantidade de dados é processada em um único núcleo de uma CPU, enquanto
Introdução à Programação. Operadores, Expressões Aritméticas e Entrada/Saída de Dados
Introdução à Programação Operadores, Expressões Aritméticas e Entrada/Saída de Dados Programa em C #include int main main ( ) { Palavras Reservadas } float celsius ; float farenheit ; celsius
SSC PROGRAMAÇÃO CONCORRENTE. Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella
SSC- 0143 PROGRAMAÇÃO CONCORRENTE Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados
Fundamentos de Sistemas Operacionais
Fundamentos de Sistemas Operacionais Aula 4: Programação Concorrente Diego Passos Últimas Aulas Processos Compostos por: Código (programa). Estado (memória, registradores). Em um sistema com multiprogramação:
Seleção Múltipla Laços (while, do-while, for) AULA 05
Introdução a Programação IF669 http://www.cin.ufpe.br/~if669 Seleção Múltipla Laços (while, do-while, for) AULA 05 Ricardo Massa F. Lima [email protected] Sérgio C. B. Soares [email protected] Até aqui...
Sincronização e comunicação entre entidades de processamento. Mutex Volnys Bernal 1. Tópicos. Exclusão Mútua (mutex) Exclusão Mútua (Mutex)
2004-2013 Volnys Bernal 1 2004-2013 Volnys Bernal 2 Tópicos Exclusão Mútua (mutex) Volnys Borges Bernal [email protected] http://www.lsi.usp.br/~volnys Exclusão Mútua () Objetivo, utilidade, requisitos
Prof. Silvana Rossetto 9 de julho de DCC/IM/UFRJ
Computação Concorrente (MAB117) Gabarito Segunda Prova Prof. Silvana Rossetto 9 de julho de 2015 1 DCC/IM/UFRJ Questão 1 (2,5 pts) O código Java abaixo implementa uma solução para o problema do barbeiro
Sistemas Operacionais: Sincronização entre processos
Sistemas Operacionais: Sincronização entre processos Sincronização Programa concorrente Executado por diversos processos Acesso concorrente a dados Paralelismo real x Paralelismo aparente Multiprocessadores:
Linguagem Chapel. Walter Perez Urcia. Universidade de São Paulo Instituto de Matemática e Estadística Departamento de Ciências da Computação
Linguagem Chapel Walter Perez Urcia Universidade de São Paulo Instituto de Matemática e Estadística Departamento de Ciências da Computação 17 de junho de 2015 Walter Perez (IME - USP) Linguagem Chapel
ESTRUTURA COM DECISÃO COMPOSTA
LÓGICA DE PROGRAMAÇÃO PARA ENGENHARIA ESTRUTURA COM DECISÃO COMPOSTA Prof. Dr. Daniel Caetano 2018-1 Objetivos Entender o que são decisões compostas Compreender como implementar decisões compostas Capacitar
Programação Concorrente. Prof. Hugo Vieira Neto
Programação Concorrente Prof. Hugo Vieira Neto Concorrência Um programa concorrente descreve diversas atividades que ocorrem simultaneamente, de modo diferente de programas comuns, que descrevem apenas
Revisão C++ - Parte 1
Revisão C++ - Parte 1 Prof. Gustavo Leitão Campus Natal Central Disciplina Programação para Ambiente de Redes 5/3/2010 Objetivo da Aula 5/3/2010 5/3/2010 OBJETIVO DA AULA Revisar os principais comandos
C++ - Funções. Forma geral das funções C++
C++ - Funções Conjunto de instruções para executar uma tarefa particular, agrupadas numa unidade com um nome para referenciá-las. O código é agregado ao programa uma única vez e pode ser executado muitas
Tipos Básicos. Operadores de Incremento e Decremento. Operador Sizeof. Estruturas de Dados Aula 2: Estruturas Estáticas
Tipos Básicos Quantos valores distintos podemos representar com o tipo char? Estruturas de Dados Aula 2: Estruturas Estáticas 03/03/2010 Operadores de Incremento e Decremento ++ e -- Incrementa ou decrementa
Módulo 1. Introdução. AEDS I C++ (Rone Ilídio)
Módulo 1 Introdução AEDS I C++ (Rone Ilídio) Introdução Linguagens de Programação Fonte Compilador Executável SO I Hardware C++ - Características Evolução do C, ou seja, possui a mesma sintaxe É uma linguagem
Programação em Memória Partilhada com o OpenMP
Programação em Memória Partilhada com o OpenMP Ricardo Rocha Departamento de Ciência de Computadores Faculdade de Ciências Universidade do Po rto Computação Paralela 2015/2016 R. Rocha (DCC-FCUP) Programação
OpenMP. Um método de paralelização para as linguagens Fortran, C, C++ para shared memory systems.
OpenMP Um método de paralelização para as linguagens Fortran, C, C++ para shared memory systems. Directivas para o compilador Threads Biblioteca de rotinas Variáveis de ambiente entidade que pode executar
Programação Estruturada
Programação Estruturada Introdução à linguagem C Professores Emílio Francesquini e Carla Negri Lintzmayer 2018.Q3 Centro de Matemática, Computação e Cognição Universidade Federal do ABC Programação estruturada
Métodos Computacionais. Comandos Condicionais e de Repetição em C
Métodos Computacionais Comandos Condicionais e de Repetição em C Tópicos da Aula Hoje vamos acrescentar comportamentos mais complexos a programas em C Comandos Condicionais if-else switch Comandos de Repetição
Programação de Computadores I. Aula - Vetores. Professor Ilaim Costa Junior.
Programação de Computadores I Aula - Vetores Professor Ilaim Costa Junior www.ic.uff.br/~ilaim Vetores Estruturas de dados composta Permitem a uma variável armazenar múltiplos valores de um mesmo tipo
