Introdução ao OpenMP
|
|
|
- Ana Beatriz Bernardes Bandeira
- 8 Há anos
- Visualizações:
Transcrição
1 Introdução ao OpenMP Fernando Silva DCC FCUP Recursos OpenMP.org ( Tutorial ( Implementação gratuita Omni OpenMP compiler project ( Fernando Silva DCC FCUP 2
2 O que é o OpenMP? API para programação paralela explícita paralelismo em memória partilhada sobretudo paralelismo nos dados Constituída por: directivas de compilação, biblioteca de funções, e variáveis de ambiente Objectivo obter um standard de programação apoiado pelos grandes fabricantes de software e hardware Fernando Silva DCC FCUP 3 O que é o OpenMP (cont.)? Portável versões para C/C++ (ver. 1.0 em 1998) e Fortran (versão 1.0 em 1997) implementações para UNIX/Linux e Windows Significado: Open specifications for Multi Processing via collaborative work from software/hardware industry, academia and government Fernando Silva DCC FCUP 4
3 Um Programa Simples em OpenMP Directivas de compilação ou pragmas identificam pontos e formas de paralelização Ênfase na paralelização de ciclos Programa sequencial void main() { double r[1000]; Programa paralelo void main() { double r[1000]; for (int i=0; i<1000; i++) { large_computation(r[i]); #pragma omp parallel for for (int i=0; i<1000; i++) { large_computation(r[i]); Fernando Silva DCC FCUP 5 Modelo de Programação do OpenMP Paralelismo explícito anotações feitas pelo programador Modelo de memória partilhada baseado em threads trabalho é dividido por threads de execução variáveis podem ser partilhadas por todos os threads duplicadas (privadas) para cada thread threads comunicam através das variáveis partilhadas Usar sincronização para evitar competição entre threads Fernando Silva DCC FCUP 6
4 OpenMP Modelo de Execução Modelo de execução tipo fork join inicia execução com um processo (master thread) no início do construtor paralelo cria um team of threads ao completar o team of threads sincroniza numa barreira implícita apenas o master continua a execução Fernando Silva DCC FCUP 7 C/C++ Estrutura Geral do Código #include <omp.h> main() { int var1, var2, var3; parte_sequencial_1(); #pragma omp parallel private(var1,var2) shared(var3) { parte_paralela(); // executada pelos threads... // Todos os threads fazem o join com o master e terminam parte_sequencial_2(); Fernando Silva DCC FCUP 8
5 OpenMP: Directivas C/C++ #pragma omp directive name [clause, ] newline directive name uma directiva OpenMP válida. Tem de aparecer depois do pragma e antes das claúsulas [clause, ] Opcional. Podem aparecer em qualquer ordem e se necessário repetidas. newline Obrigatório. Seguido do bloco estruturado que vai ser executado em paralelo. Exemplo: #pragma omp parallel default(shared) private(beta,pi) Fernando Silva DCC FCUP 9 Compilação Condicional: _OPENMP #ifdef _OPENMP bloco_código; #endif Exemplo de código: printf( %d processadores livres\n, omp_get_num_procs()); Possibilita instrumentalizar o código Fernando Silva DCC FCUP 10
6 Syntax parallel #pragma omp parallel clause bloco_código; Indica que o bloco_código é para ser executado em paralelo. onde clause pode ser: if(exp) private(list) firstprivate(list) num_threads(int_exp) shared(list) default(shared none) copyin(list) reduction(operator: list) Fernando Silva DCC FCUP 11 Claúsulas OpenMP As claúsulas private, shared, default e firstprivate possibilitam ao utilizador o controlo do âmbito das variáveis na região paralela. private (list) as variáveis da lista ficam privadas a cada thread do team não são incializadas firstprivate(list) permite que as variáveis privadas sejam inicializadas shared (list) as variáveis da lista são partilhadas por todos os threads por defeito as variáveis são shared Fernando Silva DCC FCUP 12
7 Quantos threads? O número de threads na região paralela é determinado pelos seguintes factores (ordem de precedência): claúsula num_threads(int) função omp_set_num_threads() variável ambiente OMP_NUM_THREADS default depende da implementação Os threads são numerados de 0 a N 1 Por defeito, um programa com várias regiões em paralelo usará o mesmo número de threads para cada região, a menos que redefina como explicado. Fernando Silva DCC FCUP 13 Outras Claúsulas: reduction, copyin e if reduction (operador:lista) permite operar sobre as variáveis da lista copyin(list) possibilita a atribuição do mesmo valor a variáveis THREADPRIVATE if (exp) tem de avaliar como verdadeiro para que o team de threads seja criado, senão a execução será sequencial. Fernando Silva DCC FCUP 14
8 Programa Hello! #include <omp.h> main () { int nthreads, tid; // Fork team threads, cada uma cópia das variáveis. #pragma omp parallel private(nthreads, tid) { // Obtem e escreve thread id tid = omp_get_thread_num(); printf("hello World from thread = %d\n", tid); // apenas o master thread faz isto if (tid == 0){ nthreads = omp_get_num_threads(); printf("number of threads = %d\n", nthreads); /* Todos os theards juntam se no master Fernando Silva DCC FCUP 15 Constructores de work sharing Especificam regras de divisão de trabalho entre os threads, não cria os threads! Tipos de partilha: for partilha as iterações de um ciclo pelos threads da team (data paralelism). sections divide o trabalho em secções discretas, distintas, que são executadas pelos threads. Pode ser usado para paralelismo funcional. single serializa o código Fernando Silva DCC FCUP 16
9 Syntax for #pragma omp for clause { ciclo_for(); onde clause pode ser: private(list) firstprivate(list) lastprivate(list) reduction(operator: list) ordered schedule(type) Nowait O compilador distribui as iterações pelos threads Fernando Silva DCC FCUP 17 Exemplo for Fernando Silva DCC FCUP 18
10 Claúsulas schedule como dividir as iterações do ciclo pelos threads. static as iterações são agrupadas em conjuntos (chunks), estaticamente atribuídos aos threads. dynamic as iterações sõa agrupadas em bocados (chunks) e são dinamicamente distribuídos pelos threads; quando um termina, recebe dinamicamente outro chunk. guided indica o número mínimo de iterações a agrupar numa tarefa; runtime a decisão é tomada em tempo de execução a partir da var. OMP_SCHEDULE Fernando Silva DCC FCUP 19 Exemplo do uso da directiva for #include <omp.h> #define CHUNKSIZE 100 #define N 1000 main() { int i, chunk; float a[n], b[n], c[n]; /* Algumas inicializacoes */ for (i=0; i < N; i++) a[i] = b[i] = i * 1.0; chunk = CHUNKSIZE; #pragma omp parallel shared(a,b,c,chunk) private(i) { #pragma omp for schedule(dynamic,chunk) nowait for (i=0; i < N; i++) c[i] = a[i] + b[i]; // fim da secção paralela/ Fernando Silva DCC FCUP 20
11 Exemplo sections Fernando Silva DCC FCUP 21 Syntax sections #pragma omp sections clause { #pragma omp section newline código(); #pragma omp section newline código(); ; onde clause pode ser: private(list) firstprivate(list) lastprivate(list) reduction(operator: list) nowait Fernando Silva DCC FCUP 22
12 Exemplo sections #include <omp.h> #define N 1000 main() { int i, chunk; float a[n], b[n], c[n]; // Some initializations for (i=0; i < N; i++) a[i] = b[i] = i * 1.0; #pragma omp parallel shared(a,b,c) private(i) { #pragma omp sections nowait { #pragma omp section for (i=0; i < N/2; i++) c[i] = a[i] + b[i]; #pragma omp section for (i=n/2; i < N; i++) c[i] = a[i] + b[i]; // fim de secções Fernando Silva DCC FCUP 23 Constructores de Sincronização omp master especificar uma região que será executada apenas pelo master (os outros ignoram) omp critical especifica uma região crítica de código que deve ser executada apenas por um thread de cada vez. omp barrier quando esta directiva é alcançada por um thread, este espera até que os restnates cheguem ao mesmo ponto. Fernando Silva DCC FCUP 24
13 Constructores de Sincronização (cont.) omp atomic especifica um endereço de memória para actualização atómica. omp flush identifica um ponto de sincronização no qual é necessário providenciar uma visão consistente da memória. omp ordered especifica que as iterações devem ser executadas pela mesma ordem, como se fossem executadas seuqencialmente. Fernando Silva DCC FCUP 25 Funções OpenMP void omp_set_num_threads (int) invocada na parte sequencial. int omp_get_num_threads (void) retorna o número de threads activos int omp_get_max_threads (void) retorna o número máximo de threads permitidos int omp_get_thread_num (void) retorna o ID do thread (entre 0 e t-1) int omp_get_num_procs(void) retorna o número de processadores disponíveis para o programa Fernando Silva DCC FCUP 26
14 Funções OpenMP (cont) void omp_init_lock(omp_lock_t*) Inicializa um lock associado à variável de lock void omp_destroy_lock(omp_lock_t*) void omp_set_lock(omp_lock_t*) espera até conseguir o lock void omp_unset_lock(omp_lock_t*) liberta o lock double omp_get_wtime(void) retorna o o num. segundos decorridos (elapsed time) double omp_get_wtick(void) retorna os segundos decorridos entre chamadas sucessivas Fernando Silva DCC FCUP 27 Exemplo Redução #include <omp.h> #include <stdio.h> #include <stdlib.h> int main (int argc, char *argv[]) { int i, n; float a[100], b[100], sum; n = 100; /* Some initializations */ for (i=0; i < n; i++) a[i] = b[i] = i * 1.0; sum = 0.0; #pragma omp parallel for reduction(+:sum) for (i=0; i < n; i++) sum = sum + (a[i] * b[i]); printf(" Sum = %f\n",sum); Fernando Silva DCC FCUP 28
15 Exemplos funções OpenMP #include <omp.h> #include <stdio.h> #include <stdlib.h> int main (int argc, char *argv[]){ int nthreads, tid, procs, maxt, inpar, dynamic, nested; /* Start parallel region */ #pragma omp parallel private(nthreads, tid) { /* Obtain thread number */ tid = omp_get_thread_num(); /* Only master thread does this */ if (tid == 0) { printf("thread %d getting info...\n", tid); /* Get environment information */ procs = omp_get_num_procs(); nthreads = omp_get_num_threads(); maxt = omp_get_max_threads(); inpar = omp_in_parallel(); dynamic = omp_get_dynamic(); nested = omp_get_nested(); /* Print environment information */ printf("number of processors = %d\n", procs); printf("number of threads = %d\n", nthreads); printf("max threads = %d\n", maxt); printf("in parallel? = %d\n", inpar); printf("dynamic threads? = %d\n", dynamic); printf("nested parallelism? = %d\n", nested); /* Done */ Fernando Silva DCC FCUP 29
Programação em Paralelo OpenMP
Programação em Paralelo OpenMP N. Cardoso & P. Bicudo Física Computacional - MEFT 2012/2013 N. Cardoso & P. Bicudo Programação em Paralelo: OpenMP 1 / 15 Introdução Potencial do GPU vs CPU Cálculo: 367
Paralela e Distribuída. Memória Paralela com o OpenMP
Programação Paralela e Distribuída Programação em Memória Paralela com o OpenMP OpenMP O que significa OpenMP: Open specifications for Multi Processing via collaborative work between interested parties
Programação em Memória Partilhada com o OpenMP
Programação em Memória Partilhada com o OpenMP Ricardo Rocha Departamento de Ciência de Computadores Faculdade de Ciências Universidade do Po rto Computação Paralela 2015/2016 R. Rocha (DCC-FCUP) Programação
OpenMP. Slides baseados em tutorial de Tim Mattson da Intel
OpenMP Slides baseados em tutorial de Tim Mattson da Intel Modelo OpenMP Como as threads interagem? OpenMP é um modelo baseado em multithreading Threads se comunicam pelo compartilhamento de variáveis
Sistemas Distribuídos e Paralelos
Sistemas Distribuídos e Paralelos Aula #6: Programação paralela em sistemas de memória compartilhada. ISUTIC - 2016 Eng. Alexander Rodríguez Bonet Aula de hoje Regiões paralelas. Cláusulas de âmbito. Partilha
Paralelismo em Computadores com Tecnologia Multicore
IFRN - Pau dos Ferros Pau dos Ferros/RN, 25 de fevereiro de 2016 O minicurso Descrição: Para se utilizar os vários núcleos de processamento disponíveis nos computadores atuais de forma eficiente, faz necessário
Introdução OpenMP. Nielsen Castelo Damasceno
Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto
PROGRAMAÇÃO. Programação paralela com o OpenMP Em paralelo
PROGRAMAÇÃO Programação paralela com o OpenMP Em paralelo O OpenMP traz o poder do multiprocessamento aos programas em C, C++ e Fortran. por Wolfgang Dautermann A nova safra de processadores com múltiplos
Matheus S. Serpa, Vinícius G. Pinto, Philippe O. A. Navaux Contato: INTEL MODERN CODE PARTNER
INTEL MODERN CODE: INTRODUÇÃO À PROGRAMAÇÃO VETORIAL E PARALELA PARA O PROCESSADOR INTEL XEON PHI KNIGHTS LANDING Matheus S. Serpa, Vinícius G. Pinto, Philippe O. A. Navaux Contato: [email protected]
OpenMP. Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken
OpenMP Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken Sumário 1. Introdução 2. História 3. Motivação 4. Objetivos
OpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
Paralela e Distribuída. com o MPI e o OpenMP
Programação Paralela e Distribuída Programação Híbrida com o e o OpenMP e OpenMP Uma forma de executar um programa em paralelo num cluster multiprocessor é criar um processo por cada processador. Nesse
Introdução à OpenMP (Dia 1) Prof. Guido Araujo
Introdução à OpenMP (Dia ) Prof. Guido Araujo www.ic.unicamp.br/~guido Roteiro Escrevendo programas usando OpenMP Usando OpenMP para paralelizar laços seriais com pequenas mudanças no código fonte Explorar
Introdução à Programação Paralela com OpenMP: Além das Diretivas de Compilação
Capítulo 3 Introdução à Programação Paralela com OpenMP: Além das Diretivas de Compilação Rogério A. Gonçalves, João Martins de Queiroz Filho e Alfredo Goldman Abstract Compilation directives have been
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre o
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 03/07/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre o
Apostila de Introdução ao OpenMP
Apostila de Introdução ao OpenMP INE5645 Programação Paralela e Distribuída Prof. João Bosco M. Sobral Março de 2017 Quando você executa um programa sequencial As instruções são executadas em 1 núcleo
Programação Paralela e Distribuída (DCC/UFRJ)
Programação Paralela e Distribuída (DCC/UFRJ) Aula 7: Programação com memória compartilhada usando OpenMP 1, 8, 10 e 15 de abril de 2015 OpenMP (Open MultiProcessing) Projetado para sistemas de memória
Monografia. Análise Comparativa de Desempenho de um algoritmo Paralelo implementado nas Linguagens de Programação CPAR e OpenMP
Monografia Análise Comparativa de Desempenho de um algoritmo Paralelo implementado nas Linguagens de Programação CPAR e OpenMP disciplina: Programação Paralela e Distribuída Professora: Liria Matsumoto
AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias [email protected] Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
ALGORITMOS AULA 01. Baseado nas aulas do Prof. Jorgiano Vidal
ALGORITMOS AULA 01 Baseado nas aulas do Prof. Jorgiano Vidal LINGUAGEM C Uma das grandes vantagens do C é que ele possui tanto caracterìsticas de "alto nìvel" quanto de "baixo nìvel". Linguagem de propósito
Programação em Memória Compartilhada com OpenMP
Programação em Memória Compartilhada com OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz [email protected]
Programação de Alto Desempenho - 2. Prof: Carla Osthoff
Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: [email protected] 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda
Linguagem Chapel. Walter Perez Urcia. Universidade de São Paulo Instituto de Matemática e Estadística Departamento de Ciências da Computação
Linguagem Chapel Walter Perez Urcia Universidade de São Paulo Instituto de Matemática e Estadística Departamento de Ciências da Computação 17 de junho de 2015 Walter Perez (IME - USP) Linguagem Chapel
Agendamento para Sistemas Paralelos
Advanced Computer Architectures: Agendamento para Sistemas Paralelos Oliver Sinnen INESC-ID Instituto Superior Técnico Conteúdo I: Introdução II: Agendamento dinâmico III: Agendamento estático 2 I: Introdução
Programação Estruturada
Programação Estruturada Introdução à linguagem C Professores Emílio Francesquini e Carla Negri Lintzmayer 2018.Q3 Centro de Matemática, Computação e Cognição Universidade Federal do ABC Programação estruturada
Introdução à Programação em C
Introdução à Programação em C Tipos e Operadores Elementares Estruturas de Controlo Resumo Novidades em C Exemplo: Factorial Tipos de Dados Básicos Saltos Condicionais: if-then-else Valor de retorno de
Algoritmos e Programação
Algoritmos e Programação Aula 3 Introdução a Linguagem C Profa. Marina Gomes [email protected] 1 Aula de Hoje - Criar programas simples em C utilizando a estrutura básica; - Declarar variáveis;
Linguagem C Princípios Básicos (parte 1)
Linguagem C Princípios Básicos (parte 1) Objetivos O principal objetivo deste artigo é explicar alguns conceitos fundamentais de programação em C. No final será implementado um programa envolvendo todos
Ponteiros e Tabelas. K&R: Capítulo 5
Ponteiros e Tabelas K&R: Capítulo 5 Ponteiros e Tabelas Ponteiros e endereços Ponteiros e argumentos de funções Ponteiros e tabelas Alocação dinâmica de memória Aritmética de ponteiros Tabelas de ponteiros
Paralelização Introdução a vetorização, OpenMP e MPI
1/43 Paralelização Introdução a vetorização, OpenMP e MPI 3 OpenMP Paulo Penteado IAG / USP [email protected] Esta apresentação: Arquivos do curso: Artigo relacionado: http://www.ppenteado.net/ast/pp_para_on/pp_para_on_3.pdf
Programação de Computadores I Introdução ao C PROFESSORA CINTIA CAETANO
Programação de Computadores I Introdução ao C PROFESSORA CINTIA CAETANO Introdução Criada em 1972, por Dennis Ritchie; Centro de Pesquisas da Bell Laboratories; Para utilização no S.O. UNIX; C é uma linguagem
Message Passing Interface - MPI
Message Passing Interface - Pedro de Botelho Marcos Maio/2008 1 Sumário Introdução; Conceitos básicos; Comunicação; Principais rotinas; Compilando e executando códigos ; Exemplos; Referências; 2 Introdução
Linguagem C: Introdução
Linguagem C: Introdução Linguagem C É uma Linguagem de programação genérica que é utilizada para a criação de programas diversos como: Processadores de texto Planilhas eletrônicas Sistemas operacionais
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução
Introdução à linguagem C++
Estrutura de Dados e Algoritmos e Programação e Computadores II Aula 2: Introdução à linguagem C++ Introdução à linguagem C++ Conceitos básicos: variáveis, tipos de dados, constantes, I/O, etc. Estruturas
Linguagem de Programação III
Linguagem de Programação III Aula-4 Construtores e Sobrecarga Prof. Esbel Tomás Valero Orellana Até Aqui Modelos e POO Classes e sua implementação em Java Encapsulamento Tipos de dados nativos em Java
Programação: Vetores
Programação de Computadores I Aula 09 Programação: Vetores José Romildo Malaquias Departamento de Computação Universidade Federal de Ouro Preto 2011-1 1/62 Motivação Problema Faça um programa que leia
Programação de Computadores II
Programação de Computadores II 1. Programação Básica 2019.1 Slides adaptados do material de Karina Mochetti Problema, Algoritmo, Programa Um programa de computador é a implementação de um algoritmo para
Tipos Básicos. Operadores de Incremento e Decremento. Operador Sizeof. Estruturas de Dados Aula 2: Estruturas Estáticas
Tipos Básicos Quantos valores distintos podemos representar com o tipo char? Estruturas de Dados Aula 2: Estruturas Estáticas 03/03/2010 Operadores de Incremento e Decremento ++ e -- Incrementa ou decrementa
SSC PROGRAMAÇÃO CONCORRENTE. Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella
SSC- 0143 PROGRAMAÇÃO CONCORRENTE Aula 06 Modelos de Programação Prof. Jó Ueyama e Julio Cezar Estrella Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados
Carlos Eduardo Batista. Centro de Informática - UFPB
Linguagem de Programação I Carlos Eduardo Batista Centro de Informática - UFPB [email protected] Complexidade dos sistemas de software Estrutura Decomposição Abstração Hierarquia Projeto de sistemas complexos
Programação Concorrente e Paralela
projeto de programas paralelos 2016 PCAM problema particionamento comunicacao aglomeracao mapeamento desenhada para memória distribuída mas muitas idéias em comum Particionamento idéia é expor oportunidades
ESTRUTURAS CONDICIONAIS. Introdução à Ciência da ComputaçãoI Simone Senger de Souza
ESTRUTURAS CONDICIONAIS Introdução à Ciência da ComputaçãoI Simone Senger de Souza Estruturas de Controle ESTRUTURA SEQUENCIAL ESTRUTURA CONDICIONAL ESTRUTURA DE REPETIÇÃO 2 Estruturas Condicionais Estrutura
