Processamento Paralelo Utilizando GPU
|
|
|
- Cármen Leal Vidal
- 8 Há anos
- Visualizações:
Transcrição
1 Processamento Paralelo Utilizando GPU Universidade Estadual de Santa Cruz Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Evalero Orellana
2 Cronograma Breve introdução sobre processamento paralelo O que é CUDA? Problema abordado (Fractal de Mandelbrot) Características da Tecnologia CUDA Implementação do Algoritmo Resultados Obtidos Conclusões e Trabalhos Futuros
3 Introdução Processamento Paralelo Resolução de problemas computacionais de grande porte Engenharia nuclear Física médica Bioinformática Engenharia genética Fontes [Aiping D, 2011] [Alonso P. 2009], [Goddeke D. 2007] Redução de tempo Clusters Grides Tecnologias CPU versus GPU
4 Introdução Processamento Paralelo em GPU Multi- e many-cores CPU Massively parallel accelerators Figura 1 Arquiteturas CPU x GPU [Nvidia - 1]
5 Introdução GPGPU (acrônimo de General-purpose Computing on Graphics Processing Units) Marks Harris em 2002 definiu o uso das GPUs para fins não gráficos Fonte [GPGPU.org] OpenCL (Open Computing Language) Visa por em Prática a GPGPU Framework mantido pelas empresas Intel, AMD, Nvidia, Apple Inc, ATI. Fonte [Nvidia - 3]
6 O que é CUDA? CUDA (Computing Unified Device Architecture) Criada pela Nvidia Aplicar o GPGPU nas placas da Nvidia Extensão da linguagem C e C++ Oferece uma API (Application Programming Interface) Driver CUDA runtime e bibliotecas
7 Problema Computacional Abordado Fractal de Mandelbrot Funções recursivas Difícil plotagem Foi o primeiro fractal a ser resolvido em um computador Conjunto específico de pontos no plano complexo
8 Problema Computacional Abordado
9 Problema Computacional Abordado Algoritmo int Mandelbrot(complexo c){ int i = 0, ITR = 255; float x = 0, y = 0, tmp = 0; enquanto (x²+y² <= 2² && i < ITR) { tmp = x² - y² + c. real; y = 2*x*y + c.img; i++; } se(i < ITR) retorne i; senão retorne 0; }
10 Características da Tecnologia CUDA CUDA como um conjunto sorftware e hardware Acrescenta uma nova nomenclatura para as arquiteturas paralelas SIMT (Single Instruction Multiple Threads)
11 Características da Tecnologia CUDA CUDA como um conjunto sorftware e hardware Novo modelo de compilação para arquiteturas paralelas Compilador nvcc Fonte [Nvidia - 2] Figura 2 Compilação [HALFHILL, T.R.]
12 Características da Tecnologia CUDA CUDA como um conjunto sorftware e hardware Fluxo de execução Figura 3 Fluxo de execução [Nvidia - 1]
13 Características da Tecnologia CUDA Kernel Podem ser organizados em diversas hierarquias Grids formados por blocos Podem ser organizados em até 2 dimensões Bloco formados por threads Podem ser organizados em até 3 dimensões
14 Características da Tecnologia CUDA Extensões de linguagem Qualificadores de tipo Função: global, device, host Variável: device, constante, shared Identificadores de variável threads threadidx.x, threadidx.y, threadidx.z blockidx.x, blockidx.y Nova sintaxe para chamada de funções kernel Nome_funcao<<grid, blocos>>(parametros) Variáveis dim3 dim3 nome_variavel(x, y, z)
15 Implementação do Algoritmo Código Paralelo x Código Serial global void ponto_fractal(complexo ini, char *plano_d, float dx, float dy, int altura, int compr){ int tx = threadidx.x + blockidx.x * blockdim.x; int ty = threadidx.y + blockidx.y * blockdim.y; float real, img; real = ini.real + (dx*tx); img = ini.img (dy*ty); int i = 0; float x = 0; y = 0, tmp; while(x*x + y*y <= 4 && i < ITR){ tmp = x*x y*y + real; y = 2*x*y + img; x = tmp; i++; } if(i<itr) plano_d[tx*comprimento +ty] = i; else plano_d[tx*comprimento +ty] = 0; } void ponto_fractal(complexo ini){ int i = 0; float x = 0; y = 0, tmp; while(x*x + y*y <= 4 && i < ITR){ tmp = x*x y*y + real; y = 2*x*y + img; x = tmp; i++; } if(i<itr) return = i; else return = 0; }
16 Resultados Obtidos Ferramentas para os experimentos numéricos Máquina de testes Processador intel (R) Core i7 CPU 860 2,8GHz Placa gráfica Nvidia GeForce 9800GT 512MB de memória princial 112 cores HD de 250GB 8GB de memória RAM Compiladores gcc nvcc
17 Resultados Obtidos x1.200px x5.000px x10.000px x15.000px x20.000px
18 Resultados Obtidos x1.200px x5.000px x10.000px x15.000px x20.000px
19 Conclusões Desafios Absorção das diretivas introduzidas pela biblioteca CUDA Novo modelo de arquitetura SIMT Programação com threads Conquistas Frameworks para padronização Difusão no meio acadêmico Introdução da tecnologia em computadores de grande porte
20 Trabalhos Futuros Otimizar o código CUDA NVIDIA OpenCL Best Practices Guide [Nvidia - 3] Implementar o algoritmo com técnicas tradicionais de paralelismo MPI OpenMP Efetuar novos comparativos Paralela (CUDA) versus Paralela (MPI e OpenMP)
21 Agradecimentos
22 Dúvidas
23 Referências Aiping Ding, Tianyu Liu, Chao Liang, Wei Ji, and X George Xu (2011) EVALUATION OF SPEEDUP OF MONTE CARLO CALCULATIONS OF SIMPLE REACTOR PHYSICS PROBLEMS CODED FOR THE GPU/CUDA ENVIRONMENT. Alonso, P., Cortina, R, Martínez-Zaldívar, F. J., Ranilla, J. (2009) Neville elimination on multi- and many-core systems: OpenMP, MPI and CUDA, J. Supercomputing, in press, doi: /s z, SpringerLink Online Date: Nov. 18. Goddeke D, Strzodk R, Mohd-Yusof J, McCormick P, H.M Buijssen S, Grajewski M. e Turek S. (2007) "Exploring weak scalability for FEM calculations on a GPU-enhanced cluster". GPGPU.org (2011). Disponível em: Março. NVIDIA Corporation, (2011) NVIDIA CUDA C ProgrammingGuide 3.1. Disponível em: Março. NVIDIA Corporation, (2011) The CUDA Compiler Driver NVCC,disponível em: Março. NVIDIA Corporation, (2011) NVIDIA OpenCL Best Practices Guide. Disponível em: est_practices_guide.pdf, Março. HALFHILL,T.R. (2008) Parallelprocessingwithcuda. MicroprocessorReport, Janeiro (2011)
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução
Aplicando Processamento Paralelo com GPU ao Problema do Fractal de Mandelbrot
Aplicando Processamento Paralelo com GPU ao Problema do Fractal de Mandelbrot Bruno Pereira dos Santos¹, Dany Sanchez Dominguez¹, Esbel Valero Orellana¹. 1 Departamento de Ciências Exatas e Tecnológicas
O Problema do Fractal de Mandelbrot como Comparativo de Arquiteturas de Memória Compartilhada GPU vs OpenMP
O Problema do Fractal de Mandelbrot como Comparativo de Arquiteturas de Memória Compartilhada GPU vs OpenMP Bruno P. dos Santos, Dany S. Dominguez, Esbel V. Orellana Departamento de Ciências Exatas e Tecnológicas
5 Unidades de Processamento Gráfico GPUs
5 Unidades de Processamento Gráfico GPUs As GPUs são processadores maciçamente paralelos, com múltiplos elementos de processamento, tipicamente utilizadas como aceleradores de computação. Elas fornecem
Patrício Domingues Dep. Eng. Informática ESTG Instituto Politécnico de Leiria Leiria, Maio Programação Genérica de GPUs
Patrício Domingues Dep. Eng. Informática ESTG Instituto Politécnico de Leiria Leiria, Maio 2012 http://bit.ly/patricio Programação Genérica de GPUs 1 CUDA Teaching Center A ESTG/IPLeiria é um CUDA Teaching
PARALELIZAÇÃO DE APLICAÇÕES NA ARQUITETURA CUDA: UM ESTUDO SOBRE VETORES 1
PARALELIZAÇÃO DE APLICAÇÕES NA ARQUITETURA CUDA: UM ESTUDO SOBRE VETORES 1 DUTRA, Evandro Rogério Fruhling 2 ; VARINI, Andre Luis 2 ; CANAL, Ana Paula 2 1 Trabalho de Iniciação Científica _UNIFRA 2 Ciência
PARALELIZAÇÃO DO ALGORITMO AES E ANÁLISE SOBRE GPGPU 1 PARALLELIZATION OF AES ALGORITHM AND GPU ANALYSIS
Disciplinarum Scientia. Série: Naturais e Tecnológicas, Santa Maria, v. 16, n. 1, p. 83-94, 2015. Recebido em: 11.04.2015. Aprovado em: 30.06.2015. ISSN 2176-462X PARALELIZAÇÃO DO ALGORITMO AES E ANÁLISE
Introdução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Paralelização Eficiente para o Algoritmo Binário de Exponenciação Modular
Paralelização Eficiente para o Algoritmo Binário de Exponenciação Modular Pedro Carlos da Silva Lara Fábio Borges de Oliveira Renato Portugal Laboratório Nacional de Computação Científica Índice 1 Introdução
Taxonomia de Flynn. Procura classificar todas as arquitecturas de computadores com base no processamento das instruções e dos dado.
Multi-processamento Taxonomia de Flynn Arquitecturas SIMD Instruções vectoriais Arquitecturas MIMD Tipos de arquitectura MIMD Memória partilhada Multi-cores Taxonomia de Flynn Procura classificar todas
Processamento de Alto Desempenho utilizando Unidade de Processamento Gráfico - GPU
Processamento de Alto Desempenho utilizando Unidade de Processamento Gráfico - GPU Francisco Ribacionka e Ettore Enrico (STI ) USP/STI/InterNuvem [email protected] Março -2016 Processamento de Alto Desempenho
GPU (Graphics Processing Unit) Bruno Padilha Gregory De Bonis Luciana Kayo
GPU (Graphics Processing Unit) Bruno Padilha - 5745282 Gregory De Bonis - 6431180 Luciana Kayo - 6430992 O que é? O que é? - Processador auxiliar responsável principalmente por operações de ponto flutuante
Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas
Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas Claudio André [email protected] Motivação Seu computador
Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core
RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:
Programação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho
124 - Encontro Anual de Tecnologia da Informação Programação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho André Luís Stefanello¹, Crístian Cleder Machado1, Dioni da Rosa¹, Maurício
Arquitetura e Programação de GPU. Leandro Zanotto RA: 001962 Anselmo Ferreira RA: 023169 Marcelo Matsumoto RA: 085973
Arquitetura e Programação de GPU Leandro Zanotto RA: 001962 Anselmo Ferreira RA: 023169 Marcelo Matsumoto RA: 085973 Agenda Primeiras Placas de Vídeo Primeira GPU Arquitetura da GPU NVIDIA Arquitetura
Patricia Akemi Ikeda
Um estudo do uso eficiente de programas em placas gráficas Patricia Akemi Ikeda Dissertação apresentada ao Instituto de Matemática e Estatística da Universidade de São Paulo para obtenção do título de
PROGRAMAÇÃO PARALELA HÍBRIDA PARA CPU E GPU: UMA AVALIAÇÃO DO OPENACC FRENTE A OPENMP E CUDA
UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA PROGRAMAÇÃO PARALELA HÍBRIDA PARA CPU E GPU: UMA AVALIAÇÃO DO OPENACC FRENTE A OPENMP E CUDA DISSERTAÇÃO
Ambientes de computação de alto desempenho no LNCC
Ambientes de computação de alto desempenho no LNCC Roberto Pinto Souto MCTI/LNCC/CSR - CENAPAD-RJ [email protected] 24 de Março de 2014 (Seminário da Pós-graduaçao) 24 de Março de 2014 1 / 78 Roteiro 1 Introdução
Sistemas Distribuídos
Sistemas Distribuídos Classificação de Flynn Fonte: Professoras. Sarita UFRJ e Thais V. Batista - UFRN Arquiteturas Paralelas Computação Paralela Conceitos Permite a execução das tarefas em menor tempo,
Waldemar Celes. 25 de Agosto de 2014
Introdução a CUDA INF2062 Tópicos em Simulação e Visualização Waldemar Celes [email protected] Tecgraf, DI/PUC-Rio 25 de Agosto de 2014 W. Celes Introdução a CUDA 1 GPGPU Programação de propósito geral
Exploração de Paralelismo em Criptografia Utilizando GPUs
Renan Corrêa Detomini Exploração de Paralelismo em Criptografia Utilizando GPUs Monografia apresentada ao Departamento de Ciências de Computação e Estatística do Instituto de Biociências, Letras e Ciências
Análise Comparativa de Algoritmos NP-Completo Executados em CPU E GPU Utilizando CUDA
Computer on the Beach 2013 - Artigos Completos 79 Análise Comparativa de Algoritmos NP-Completo Executados em CPU E GPU Utilizando CUDA Elcio Arthur Cardoso, Rafael de Santiago Curso de Ciência da Computação
COMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1
COMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1 Márcia Da Silva 2, Igor Gamste Haugg 3, Eliézer Silveira Prigol 4, Édson L. Padoin 5, Rogério S. M. Martins
A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES
A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES Euzébio da Costa Silva 1, Victor Pereira Ribeiro 2, Susana Brunoro Costa de Oliveira 3 1 29520-000, [email protected] 2 29520-000, [email protected]
Programação de Alto Desempenho - 2. Prof: Carla Osthoff
Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: [email protected] 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda
SSC510 Arquitetura de Computadores. 6ª aula
SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas
Edison Gustavo Muenz. Estudo e implementação de um algoritmo de processamento de imagens com técnicas GPGPU
Edison Gustavo Muenz Estudo e implementação de um algoritmo de processamento de imagens com técnicas GPGPU Florianópolis SC Agosto / 2008 Edison Gustavo Muenz Estudo e implementação de um algoritmo de
Introdução aos Conceitos de Computação Paralela através da estimativa de Pi
Introdução aos Conceitos de Computação Paralela através da estimativa de Pi Diego da Silva Pereira 1 1 Professor de Redes de Computadores IFRN Câmpus Currais Novos. e-mail: [email protected] Resumo:
Leapfrog Geo 3.1. Notas técnicas da versão
Página 1 Leapfrog Geo 3.1 Notas técnicas da versão Este documento descreve os principais novos recursos e melhorias que estão no Leapfrog Geo 3.1. Por favor, contate sua equipe local de suporte para uma
ARQUITETURA DE COMPUTADORES
RCM00014 Haswell wafer ARQUITETURA DE COMPUTADORES Prof. Luciano Bertini Site: http://www.professores.uff.br/lbertini/ Objetivos do Curso Entendimento mais aprofundado do funcionamento
CUDA: Compute Unified Device Architecture. Marco Antonio Simões Teixeira
CUDA: Compute Unified Device Architecture Marco Antonio Simões Teixeira Sumário Introdução; CUDA: História; CUDA: programando; CUDA e deep learning; Links úteis; Considerações finais. 2 INTRODUÇÃO 3 O
Sistemas Operacionais Aula 3
Sistemas Operacionais Aula 3 Anderson L. S. Moreira [email protected] http://dase.ifpe.edu.br/~alsm Curso de Análise e Desenvolvimento de Sistemas de Informação Recife - PE O que fazer
Placa de vídeo em CUDA
Placa de vídeo em CUDA Matheus Costa Leone de Souza Krystian Aparacido Resumo Quando você tem um cálculo que possa ser grande demais para você realizar a mão, a primeira solução que lhe vem a cabeça é
GPU Computing: Implementação do método do Gradiente Conjugado utilizando CUDA
UNIVERSIDADE DE CAXIAS DO SUL CENTRO DE COMPUTAÇÃO E TECNOLOGIA DA INFORMAÇÃO CURSO DE BACHARELADO EM CIÊNCIA DA COMPUTAÇÃO MAURÍCIO GRISA GPU Computing: Implementação do método do Gradiente Conjugado
1. Conceitos Básicos de Computação
Introdução à Computação I IBM1006 1. Conceitos Básicos de Computação Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 1.Conceitos Básicos de Computação 1.1.
PROCESSAMENTO PARALELO EM CUDA APLICADO AO MODELO DE GERAÇÃO DE CENÁRIOS SINTÉTICOS DE VAZÕES E ENERGIAS - GEVAZP. André Emanoel Rabello Quadros
PROCESSAMENTO PARALELO EM CUDA APLICADO AO MODELO DE GERAÇÃO DE CENÁRIOS SINTÉTICOS DE VAZÕES E ENERGIAS - GEVAZP André Emanoel Rabello Quadros Dissertação de Mestrado apresentada ao Programa de Pós-Graduação
PARALELIZAÇÃO E COMPARAÇÃO DE MÉTODOS ITERATIVOS NA SOLUÇÃO DE SISTEMAS LINEARES GRANDES E ESPARSOS RESUMO
1 PARALELIZAÇÃO E COMPARAÇÃO DE MÉTODOS ITERATIVOS NA SOLUÇÃO DE SISTEMAS LINEARES GRANDES E ESPARSOS Lauro Cássio Martins de Paula 1 RESUMO Apresenta-se neste trabalho uma comparação de desempenho computacional
Disciplina de Arquitetura de Computadores
USP - ICMC - SSC SSC 0510 - Informática - 2o. Semestre 2009 Disciplina de Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Página Pessoal: http://www.icmc.usp.br/~fosorio/
Arquitetura de computadores
Arquitetura de computadores Arquitetura de Microprocessadores Curso Profissional de Técnico de Gestão e Programação de Sistemas O Computador Hardware Unidades Funcionais de um Sistema Informático Dispositivos
USO DE PARALELISMO DE DADOS PARA MAIOR EFICIÊNCIA DE ALGORITMOS DE PROCESSAMENTO DE IMAGENS
Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas - ICEB Departamento de Computação - DECOM USO DE PARALELISMO DE DADOS PARA MAIOR EFICIÊNCIA DE ALGORITMOS DE PROCESSAMENTO
Programação em Memória Compartilhada com OpenMP
Programação em Memória Compartilhada com OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz [email protected]
ARQUITECTURA DE COMPUTADORES 2013/2014 2º SEMESTRE
ARQUITECTURA DE COMPUTADORES 2013/2014 2º SEMESTRE Objectivos da Disciplina Príncipios gerais da arquitectura de computadores Estrutura e comportamento de um computador Programação em assembly Processadores
The future is parallel but it may not be easy
The future is parallel but it may not be easy Adriano Tabarelli, Alex Morinaga, Caio Silva, Cássia Ferreira, Daniel Santos, Eduardo Apolinário, Hugo Posca, Thiago Batista, Paulo Floriano Universidade de
AULA 2. Prof.: Jadiel Mestre. Introdução à Informática. Introdução à Informática Componentes de um Sistema de Informação
AULA 2 Prof.: Jadiel Mestre. Componentes de um Sistema de Informação Os componentes de um sistema de informação são divididos em três partes 2 1 Componentes físicos do computador Dispositivos de Entrada/Saída
Análise de desempenho e eficiência energética de aceleradores NVIDIA Kepler
Análise de desempenho e eficiência energética de aceleradores NVIDIA Kepler Emilio Hoffmann, Bruno M. Muenchen, Taís T. Siqueira, Edson L. Padoin e Philippe O. A. Navaux Universidade Regional do Noroeste
ANNCOM Biblioteca de Redes Neurais Artificiais para Alto Desempenho Utilizando Placas de Vídeo
Daniel Salles Chevitarese ANNCOM Biblioteca de Redes Neurais Artificiais para Alto Desempenho Utilizando Placas de Vídeo Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção
MÉTODOS NUMÉRICOS UTILIZANDO GNU/OCTAVE E GPGPU
REDUÇÃO DO TEMPO DE EXECUÇÃO DE MÉTODOS NUMÉRICOS UTILIZANDO GNU/OCTAVE E GPGPU ANDRÉ LUIS TIBOLA, VINÍCIUS MENEZES DE OLIVEIRA Resumo No presente trabalho é apresentada uma proposta para solução do problema
Linguagem C Princípios Básicos (parte 1)
Linguagem C Princípios Básicos (parte 1) Objetivos O principal objetivo deste artigo é explicar alguns conceitos fundamentais de programação em C. No final será implementado um programa envolvendo todos
Universidade Federal do ABC. Dissertação de Mestrado. Aderbal de Morais Junior
Universidade Federal do ABC Curso de Pós Graduação em Ciência da Computação Dissertação de Mestrado Aderbal de Morais Junior UMA BIBLIOTECA PARA DESENVOLVIMENTO DE APLICAÇÕES CUDA EM AGLOMERADOS DE GPUS
GPUs : Arquitetura e Programação. Bruno Cardoso Lopes Instituto de Computação - UNICAMP
GPUs : Arquitetura e Programação Bruno Cardoso Lopes Instituto de Computação - UNICAMP Agenda Introdução Stream processors programáveis Imagine stream processor Programação para GPUs NVIDIA CUDA Conclusão
MINI-CURSO: Introdução à Programação em CUDA
I Escola Regional de Alto Desempenho de SP ERAD-2010 MINI-CURSO: Introdução à Programação em CUDA Prof. Raphael Y. de Camargo Centro de Matemática, Computação e Cognição Universidade Federal do ABC (UFABC)
Disciplina de Algoritmos e Programação
Disciplina de Algoritmos e Programação Aula Passada 1º Programa: olamundo.c #include // biblioteca padrão de E/S /* Programa Olá Mundo */ int main(void) { printf( Olá mundo\n ); //exibe Olá mundo
Sistemas Distribuídos e Paralelos
Sistemas Distribuídos e Paralelos Aula #6: Programação paralela em sistemas de memória compartilhada. ISUTIC - 2016 Eng. Alexander Rodríguez Bonet Aula de hoje Regiões paralelas. Cláusulas de âmbito. Partilha
Introdução a Processamento de Alto desempenho
Introdução a Processamento de Alto desempenho Esbel T. Valero Orellana 1 1 Nucleo de Biologia Computacional e Gestão de Informações Biotecnológicas Universidade Estadual de Santa Cruz (UESC) Campus Soane
COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0
COMPUTAÇÃO PARALELA uma visão geral Guilherme Galante v.2.0 Guilherme Galante Bacharel em Informática Unioeste (2003) Mestre em Ciência da Computação UFRGS (2006) Professor Assistente do curso de Informática/Ciência
Computadores e Programação (DCC/UFRJ)
Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo
Paradigmas de Computação Paralela
Paradigmas de Computação Paralela Modelos e Linguagens de Computação Paralela João Luís Ferreira Sobral jls@... 1 Dezembro 2015 Razões para a computação paralela (cf. Skillicorn & Talia 1998) O mundo é
Programação em Paralelo. N. Cardoso & P. Bicudo. Física Computacional - MEFT 2012/2013
Programação em Paralelo CUDA N. Cardoso & P. Bicudo Física Computacional - MEFT 2012/2013 N. Cardoso & P. Bicudo Programação em Paralelo: CUDA 1 / 23 CUDA "Compute Unified Device Architecture" Parte 2
TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI
Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI CATEGORIA: CONCLUÍDO ÁREA:
Universidade Federal do Espírito Santo. Programação I Tipos de Dados Básicos - C Professora: Norminda Luiza
Universidade Federal do Espírito Santo Programação I Tipos de Dados Básicos - C Professora: Norminda Luiza Variáveis Tipos de Dados Básicos Formação dos identificadores o nome deve começar com uma letra
Programação Paralela em Ambientes Computacionais Heterogêneos com OpenCL
Programação Paralela em Ambientes Computacionais Heterogêneos com OpenCL César L. B. Silveira Prof. Dr. Luiz G. da Silveira Jr. Prof. Dr. Gerson Geraldo H. Cavalheiro 28 de outubro de 2010 [email protected]
Modelos de Computadores
Modelos de Computadores Computadores para uso mais básico: Office, editores de texto, etc. INSPIRON SMALL DESKTOP (FABRICANTE DELL) Componentes Configuração de R$2.854,00 Configuração de R$2.626,00 Processador
Windows 7, 8.1 e 10 Afinal qual o mais rápido?
Windows 7, 8.1 e 10 Afinal qual o mais rápido? Date : 20 de Agosto de 2015 Lançado há mais de três semanas, o novo Windows 10 tem surpreendido os utilizadores em vários aspectos. Este é certamente o sistema
Bruna Freire Pedroso da Costa Guilherme Carvalho Lucas Henrique Muniz Raul Vinícius Nascimento Vanessa Baptista. D&D Info
Bruna Freire Pedroso da Costa Guilherme Carvalho Lucas Henrique Muniz Raul Vinícius Nascimento Vanessa Baptista D&D Info Sistema de gerenciamento O SisAlu pode ser usado via rede e instalado em até 5 (cinco)
Apresentação dos Serviços para Processamento de Dados de Alto Desempenho disponibilizados pela InterNuvem
Apresentação dos Serviços para Processamento de Dados de Alto Desempenho disponibilizados pela InterNuvem Francisco Ribacionka e Ettore Enrico (STI ) USP/STI/InterNuvem [email protected] Março -2016 Apresentação
Projeto de Algoritmos
Projeto de Algoritmos Introdução aos Sistemas Computacionais Prof. Ernani Viriato de Melo / Reginaldo Costa http://www.ernani.eti.br http://reginaldofazu.blogspot.com 2º Semestre - 2008 Conceitos Básicos
Impacto da Arquitetura de Memória de GPGPUs na Velocidade da Computação de Estênceis
Impacto da Arquitetura de Memória de GPGPUs na Velocidade da Computação de Estênceis Thiago C. Nasciutti 1, Jairo Panetta 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica (ITA)
UNIVERSIDADE ESTADUAL PAULISTA Júlio de Mesquita Filho Pós-Graduação em Ciência da Computação
UNIVERSIDADE ESTADUAL PAULISTA Júlio de Mesquita Filho Pós-Graduação em Ciência da Computação Thiago Alexandre Domingues de Souza Uma Solução Paralela de Agrupamento de Dados em GPU UNESP 2017 Souza, Thiago
Parallel Computing Paradigms
João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... Web: Elearning 1 At the end of the course, students should be able to: Design and optimise parallel applications that can efficiently run on a wide
