Paradigmas de Processamento Paralelo na Resolução do Fractal de Mandelbrot
|
|
- Amanda Santana Godoi
- 5 Há anos
- Visualizações:
Transcrição
1 Paradigmas de Processamento Paralelo na Resolução do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Universidade Estadual de Santa Cruz
2 Cronograma
3 Introdução Serial vs Processamento Paralelo Processamento Paralelo Resolução de problemas computacionais de grande porte. Engenharias Física Médica Bioinformática Genética» Fontes [Aiping D, 2011] [Alonso P. 2009], [Goddeke D. 2007] Redução de tempo Cluster e Grides Fontes de processamento CPU versus GPU
4 Processamento Paralelo MPI (Message Passing Interface) Utiliza a CPU Memória distribuída Cooperação na realização da tarefa OpenMP (Open MultiProcessing) Utiliza CPU multi-processada Memória Compartilhada Vários cores compartilhando memória na cumprimento da tarefa. CUDA (Computing Unified Device Architecture) Utiliza a GPU (massivamente paralela) Threads utilizam uma hierarquia de memória para a execução da tarefa.
5 Processamento Paralelo Características MPI OpenMP CUDA FONTE DE PODER COMPUTACIONAL CPU CPU GPU MEMÓRIA DISTRIBUÍDA SIM NÃO SIM MEMÓRIA COMPARTILHADA NÃO SIM SIM
6 Problema Computacional Fractal São funções recursivas São continuas em todo seu domínio, no entanto em nenhum ponto é diferenciavel Plotagem manual é impraticável Benoît Mandelbrot ( ) = +. Eq. De Pierre Fatou ( ) Primeiro conjunto a ser utilizado plotado por um computador A plotagem em resoluções superiores 1200x1200 são excessivamente letas
7 Problema Computacional Fractal de Mandelbrot = (1) + = + (2) Onde e + são iterações e + e C = a + é a posição de um ponto no plano complexo que se deseja iterar Desenvolvendo as partes real e imaginária obtemos: + = + (3) + = + (4)
8 Problema Computacional Algoritmo Condições de parada ITR é a quantidade de iterações máxima Distância máxima da origem 2 Retorna 0 ou i int conj_mandelbrot(complexo c){ int I = 0; ITR = 255; float x = 0; y =0; tmp = 0; enquanto(x² + y² < 2² && i < ITR){ tmp = x² - y² + c.real; y = 2 * y * x + c.img; i++; } Se (i<itr) retorne i; Senão retorne 0; }
9 Problema Computacional Imagem produzida.
10 Resultados obtidos Configuração da estação de trabalho 1 Processador Intel Core i7 CPU 860 2,8GHz Memória RAM Placa Aceleradora Gráfica Experimentos com as verões 8GB GPU Nvidia GeForce 9800GT, 112 cores, 512 de RAM, 256bits PCI Express 16x Serial, OpenMP e CUDA Processadores Memória RAM Experimentos com a versão Configuração da estação de trabalho 2 8 nós Genuine Intel ia-64, modelo Madison com 9M cachê 16GB Compartilhada MPI
11 Resultados obtidos TEMPO EM MINUTOS 3,20E+01 1,60E+01 8,00E+00 4,00E+00 2,00E+00 1,00E+00 5,00E-01 2,50E-01 1,25E-01 6,25E-02 3,13E-02 1,56E-02 7,81E-03 3,91E-03 1,95E-03 9,77E-04 Processamento do Fractal de Mandelbrot 1024 x x x x x TAMANHO DA IMAGEM EM PIXEL Gráfico 1 Tempo de processamento das versões e diversos tamanhos de imagem com ITR = CUDA MPI OpenMP SERIAL
12 Resultados obtidos SpeedUP SpeedUP CUDA MPI OpenMP x x x x x TAMANHO DA IMAGEM EM PIXEL Gráfico 2 SpeedUP de processamento das versões em diversos tamanhos de imagem.
13 Conclusões Versões paralelas obtiveram melhor resultado na construção do fractal de alta resolução Versão CUDA alcançou melhor tempo de processamento Justificativa Arquitetura com grande quantidade de cores Algoritmo altamente paralelizável (Independência dos dados) Baixa transferência de dados MPI SpeedUP parecido com o da versão OpenMP MPI ficando com melhor speedup quando comparado com OpenMP Justificativa Configuração da estação de trabalho utilizada» Processadores do cluster mais robusto Serial Fica claro que é a versão mais lenta obtendo os maiores tempos de processamento
14 Conclusões Observações sobre técnicas tradicionais openmp) Pontos fortes Obtiveram melhor resultado Alto grau de independência dos dados Baixa necessidade de comunicação Sendo boas alternativas a serem exploradas Baixa curva de aprendizado (OpenMP) Pontos fracos Custo do hardware (MPI) Grande espaço e outros recursos auxiliares (MPI) Alta curva de aprendizado (MPI) (MPI e
15 Conclusões Observações sobre CUDA Pontos fortes A técnica em GPU apesar de recente é altamente poderosa Especialmente em aplicações altamente paralelizáveis Baixa curva de aprendizagem Menor custo e espaço pelo hardware Pontos fracos Necessidade de um hardware habilitado para CUDA Em contrapartida existe padronizações» OpenCL(Open Computing Language)
16 Trabalhos Futuros Melhorar e criar implementações NVIDIA OpenCL Best Practices Guide Versões híbridas OpenMP e MPI OpenMP e CUDA MPI e cuda MPI, OpenMP e CUDA Em desenvolvimento Versão paralela em CUDA para o problema de escoamento monofásico de petróleo Fonte: [M. Santos, Dominguez e Orellana 2009]
17 Dúvidas
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução
Leia maisProcessamento Paralelo Utilizando GPU
Processamento Paralelo Utilizando GPU Universidade Estadual de Santa Cruz Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Evalero Orellana Cronograma Breve introdução sobre processamento paralelo
Leia maisAplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos. Bruno Pereira dos Santos Dany Sanchez Dominguez
Aplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos Bruno Pereira dos Santos Dany Sanchez Dominguez 1 Roteiro 1. Introdução 2. Five-Spot Problem 3. Modelagem
Leia maisParadigmas de Processamento Paralelo na Resolução do Fractal de Mandelbrot
Paradigmas de Processamento Paralelo na Resolução do Fractal de Mandelbrot Bruno Pereira dos Santos e Dany Sanchez Dominguez Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa
Leia maisAplicando Processamento Paralelo com GPU ao Problema do Fractal de Mandelbrot
Aplicando Processamento Paralelo com GPU ao Problema do Fractal de Mandelbrot Bruno Pereira dos Santos¹, Dany Sanchez Dominguez¹, Esbel Valero Orellana¹. 1 Departamento de Ciências Exatas e Tecnológicas
Leia maisde petróleo. Um novo domínio chamado computação de propósito geral em processadores gráficos (GPGPU) surgiu quando os pipelines de gráficos de
12 1 1.1. Motivações Dentre os tipos de técnicas de Inteligência Artificial existentes, as técnicas de Programação Genética (PG) continuam mudando rapidamente conforme os pesquisadores e profissionais
Leia maisComparação de eficiência entre OpenCL e CUDA
Aluno: Thiago de Gouveia Nunes Orientador: Prof. Marcel P. Jackowski GPGPU O que é GPGPU? É programação de propósito geral em GPUs. =D GPGPU Existem 2 linguagens populares no mercado para GPGPU, o CUDA
Leia maisAluno de Pós-Graduação em Engenharia de Software para Dispositivos Móveis pela UNINTER
COMPARAÇÃO DE DESEMPENHO NA PROGRAMAÇÃO PARALELA HÍBRIDA (MPI + OPENMP) NA BUSCA DE TEXTO EM ARQUIVOS 1 COMPARISON OF PERFORMANCE IN HYBRID PARALLEL PROGRAMMING (MPI + OPENMP) IN SEARCH OF TEXT IN FILES
Leia maisO Problema do Fractal de Mandelbrot como Comparativo de Arquiteturas de Memória Compartilhada GPU vs OpenMP
O Problema do Fractal de Mandelbrot como Comparativo de Arquiteturas de Memória Compartilhada GPU vs OpenMP Bruno P. dos Santos, Dany S. Dominguez, Esbel V. Orellana Departamento de Ciências Exatas e Tecnológicas
Leia maisParalelização do Detector de Bordas Canny para a Biblioteca ITK usando CUDA
Paralelização do Detector de Bordas Canny para a Biblioteca ITK usando CUDA Luis Henrique Alves Lourenço Grupo de Visão, Robótica e Imagens Universidade Federal do Paraná 7 de abril de 2011 Sumário 1 Introdução
Leia maisUNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA
UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA RELATÓRIO TÉCNICO CIENTÍFICO Período: Outubro/2015 a
Leia maisWhat is? Eduardo Viola Nicola Disciplina de IPPD
What is? Eduardo Viola Nicola evnicola@inf.ufpel.edu.br Disciplina de IPPD Sumário 1)Introdução 2)Princípio Geral de Funcionamento 3)Exemplos de Aplicações 4)Modelo de Programação 5)Linguagens Suportadas
Leia maisParalelismo de dados. (execução de simultaneidade) Tipo de arquitetura paralela SIMD. SIMD (Single Instruction Multiple Data)
Paralelismo de dados (execução de simultaneidade) Em métodos tradicionais de programação (processamento sequencial), uma grande quantidade de dados é processada em um único núcleo de uma CPU, enquanto
Leia maisCelso L. Mendes LAC /INPE
Arquiteturas para Processamento de Alto Desempenho (PAD) Aula 9 Celso L. Mendes LAC /INPE Email: celso.mendes@inpe.br Aula 9 (3/5): E. Aceleradores Estrutura Planejada i. Estruturas mais Populares ii.
Leia maisDESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES
DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES João Ricardo Kohler Abramoski (PAIC/FUNDAÇÃO ARAUCÁRIA), Sandra Mara Guse Scós Venske (Orientadora), e-mail: ssvenske@unicentro.br
Leia maisComputação científica utilizando placas gráficas
Brasília, dezembro de 2008 Universidade de Brasília - Faculdade do Gama Sumário Introdução Sumário Introdução Arquitetura da GPU Sumário Introdução Arquitetura da GPU Modelo de programação Sumário Introdução
Leia maisFabrício Gomes Vilasbôas
Fabrício Gomes Vilasbôas Apresentação Placas Arquitetura Toolkit e Ferramentas de Debug Pensando em CUDA Programação CUDA Python Programação PyCUDA 1) Grids( padrão Globus) 2) Clusters ( padrão MPI) 3)
Leia maisAnálise de Desempenho da Paralelização do Problema de Caixeiro Viajante
Análise de Desempenho da Paralelização do Problema de Caixeiro Viajante Gabriel Freytag Guilherme Arruda Rogério S. M. Martins Edson L. Padoin Universidade Regional do Noroeste do Estado do Rio Grande
Leia maisAGA 511. Métodos Computacionais em Astronomia. Segundo semestre de 2017
AGA 511 Métodos Computacionais em Astronomia Segundo semestre de 2017 Informações gerais Prof. Alex Cavaliéri Carciofi Email: carciofi@usp.br Ramal: 2712 Colaborador: Carlos Eduardo Paladini Email: carlos.paladini@iag.usp.br
Leia maisSantos Dumont - LNCC: Utilização e Pesquisa. Carla Osthoff e Roberto Souto CENAPAD/LNCC Laboratório Nacional de Computação Científica
Santos Dumont - LNCC: Utilização e Pesquisa Carla Osthoff e Roberto Souto CENAPAD/LNCC Laboratório Nacional de Computação Científica www.lncc.br 1 Laboratório Nacional de Computação Científica LNCC/ MCTIC
Leia maisParalelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core
RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:
Leia maisé a saida do melhor individuo. A configuração de parâmetros da
61 4 4.1. Configuração Neste capítulo, comparam-se os resultados e o desempenho obtidos pela PGLIQ com a extensão do modelo proposto GPU-PGLIQ-I que foi desenvolvido nesta dissertação. Apresentam-se dois
Leia maisImplementação de um escalonador de processos em GPU
Implementação de um escalonador de processos em GPU Guilherme Martins guilhermemartins@usp.br 6 de abril de 2017 Guilherme Martins (guilhermemartins@usp.br) Implementação de um escalonador de processos
Leia maisClusterização K-Means Paralelo Aplicado na Classificação de Alvos em Imagens de Alta Resolução
Clusterização K-Means Paralelo Aplicado na Classificação de Alvos em Imagens de Alta Resolução Luís Paulo Manfré Ribeiro luis.ribeiro@inpe.br Instituto Nacional de Pesquisas Espaciais - INPE São José dos
Leia mais5 Resultados Experimentais
5 Resultados Experimentais Neste capítulo são apresentados os resultados dos experimentos elaborados para validar a linha de produção gráfica distribuída e os algoritmos propostos para melhorar o desempenho
Leia mais5 Unidades de Processamento Gráfico GPUs
5 Unidades de Processamento Gráfico GPUs As GPUs são processadores maciçamente paralelos, com múltiplos elementos de processamento, tipicamente utilizadas como aceleradores de computação. Elas fornecem
Leia maisProcessamento Sísmico de Alto Desempenho na Petrobras
Processamento Sísmico de Alto Desempenho na Petrobras Thiago Teixeira E&P-Exp/Geof/Tecnologia Geofísica Julho/2011 Processamento Sísmico e Interpretação 2 Aquisição Sísmica Linhas Sísmicas Volumes de dados
Leia maisSparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile?
Sparse Matrix-Vector Multiplication on GPU: When Is Rows Reordering Worthwhile? Paula Prata João Muranho Instituto de Telecomunicações Departamento de Informática Universidade da Beira Interior Instituto
Leia maisImplementação e investigação de algoritmos computacionais paralelos para caracterização de imagens radiológicas de mamografias
Implementação e investigação de algoritmos computacionais paralelos para caracterização de imagens radiológicas de mamografias Matheu A. Batista dos Santos, Pedro Lima Oliveira, Marcelo Ossamu Honda Departamento
Leia maisMonitorando o Consumo Energético de Aplicações Concorrentes com Arduino
Monitorando o Consumo Energético de Aplicações Concorrentes com Arduino Bruno Giacobo Pinto Lucas Mendonça da Silva Xavier Gerson G. H. Cavalheiro Laboratory of Ubiquitous and Parallel Systems Universidade
Leia maisProposta de Melhoria de uma Implementação Paralela para GPUs Usando CUDA - Estudo de Caso em Modelo Atmosférico
Proposta de Melhoria de uma Implementação Paralela para GPUs Usando CUDA - Estudo de Caso em Modelo Atmosférico Fabiano Cassol de Vargas, Matheus Beniz Bieger, Claudio Schepke 1 Laboratório de Estudos
Leia maisSuporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível
Suporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível Vinícius Garcia Pinto Lucas Mello Schnorr Nicolas Maillard Grupo de Processamento Paralelo e Distribuído (GPPD) Instituto
Leia mais3 Computação de Propósito Geral em Unidades de Processamento Gráfico
3 Computação de Propósito Geral em Unidades de Processamento Gráfico As Unidades de Processamento Gráfico (GPUs) foram originalmente desenvolvidas para o processamento de gráficos e eram difíceis de programar.
Leia maisProgramação de Alto Desempenho - 2. Prof: Carla Osthoff
Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: osthoff@lncc.br 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda
Leia maisBacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór
Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von
Leia maisComputação Paralela (CUDA)
Universidade Federal do Amazonas Faculdade de Tecnologia Departamento de Eletrônica e Computação Computação Paralela (CUDA) Hussama Ibrahim hussamaibrahim@ufam.edu.br Notas de Aula Baseado nas Notas de
Leia maisInfraestrutura de Hardware. Processamento Paralelo Multicores, Multi-Threading e GPUs
Infraestrutura de Hardware Processamento Paralelo Multicores, Multi-Threading e GPUs Perguntas que Devem ser Respondidas ao Final do Curso Como um programa escrito em uma linguagem de alto nível é entendido
Leia maisAnálise e Testes de Algoritmos Utilizando Sistemas de Arquiteturas Híbridas CPU/GPU
Análise e Testes de Algoritmos Utilizando Sistemas de Arquiteturas Híbridas CPU/GPU Danilo, Silva Maciel Univem - Marília, Brasil danilo.maciel@univem.edu.br Mauricio Duarte maur.duarte@gmail.com Univem
Leia maisINE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 13/11/2017 ALUNO
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUIDA PROVA 2 13/11/2017 ALUNO 1. Sockets - Indicar (Verdade/Falso): (2.0) (a) (Verdade/Falso) A comunicação entre processos consiste em transmitir uma mensagem entre
Leia maisAmbientes de computação de alto desempenho no LNCC
Ambientes de computação de alto desempenho no LNCC Roberto Pinto Souto MCTI/LNCC/CSR - CENAPAD-RJ rpsouto@lncc.br 24 de Março de 2014 (Seminário da Pós-graduaçao) 24 de Março de 2014 1 / 78 Roteiro 1 Introdução
Leia maisGPU (Graphics Processing Unit) Bruno Padilha Gregory De Bonis Luciana Kayo
GPU (Graphics Processing Unit) Bruno Padilha - 5745282 Gregory De Bonis - 6431180 Luciana Kayo - 6430992 O que é? O que é? - Processador auxiliar responsável principalmente por operações de ponto flutuante
Leia maisRequisitos do Sistema
Requisitos do Sistema Security Center 5.6 Para garantir que sua estação cliente seja executada de forma otimizada, é importante conhecer os requisitos mínimos, recomendados e de alto desempenho para uma
Leia maisAnálise de Desempenho e Paralelização de Algoritmos para Redes Neurais Profundas
Análise de Desempenho e Paralelização de Algoritmos para Redes Neurais Profundas Carlos A. T. Aguni, Alex E. Kawahira, Daniel Cordeiro 1 Escola de Artes Ciências e Humanidades Universidade de São Paulo
Leia maisUniversidade Federal de Ouro Preto
Outubro de 2012 WSCAD-WIC 2012 - Petrópolis - RJ A parallel simulator for large scale wireless sensor network (1) Universidade Federal de Ouro Preto A parallel simulator for large scale wireless sensor
Leia maisSob medida para seu sistema de segurança!
Surveillance servers, workstations & storages. Inpex WST200 G2 Sob medida para seu sistema de segurança! Concebidos por engenheiros e cientistas da computação, oriundos dos segmentos de videosurveillance
Leia maisConstrução de um protótipo de interface para microcomputador tipo PC para interligar duas placas mãe
Construção de um protótipo de interface para microcomputador tipo PC para interligar duas placas mãe Orientando: Cleverson dos Santos Orientador: Antonio Carlos Tavares Blumenau, Julho/2002 Roteiro da
Leia maisComputação paralela. Nielsen Castelo Damasceno
Computação paralela Nielsen Castelo Damasceno Introdução. Motivação. Como é utilizado. Fundamentos. Programação paralela. Open MP. MPI GPU (Cuda). Aplicação prática. Considerações Finais Referências. Agenda
Leia maisIntel Thread Building Blocks (TBB)
Intel Thread Building Blocks (TBB) MCZA020-13 - Programação Paralela Emilio Francesquini e.francesquini@ufabc.edu.br 2019.Q1 Centro de Matemática, Computação e Cognição Universidade Federal do ABC Disclaimer
Leia maisXV ESCOLA REGIONAL DE ALTO DESEMPENHO ERAD 2015
XV ESCOLA REGIONAL DE ALTO DESEMPENHO ERAD 2015 Impacto das Interfaces de Programação Paralela e do Grau de Paralelismo no Consumo Energético de uma Aplicação Thayson R. Karlinski, Arthur F. Lorenzon,
Leia maisIntrodução à Programação Paralela através de Padrões. Denise Stringhini Calebe Bianchini Luciano Silva
Introdução à Programação Paralela através de Padrões Denise Stringhini Calebe Bianchini Luciano Silva Sumário Introdução: conceitos de paralelismo Conceitos básicos sobre padrões de programação paralela
Leia maisProcessamento de áudio em tempo real utilizando dispositivos não convencionais:
Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento paralelo com Pure Data e GPU. André Jucovsky Bianchi ajb@ime.usp.br Departamento de Ciência da Computação Instituto
Leia maisIntrodução ao CUDA. Material elaborado por Davi Conte.
Introdução ao CUDA Material elaborado por Davi Conte. O objetivo deste material é que o aluno possa iniciar seus conhecimentos em programação paralela, entendendo a diferença da execução de forma sequencial
Leia maisParalelismo de dados. (execução de simultaneidade) Tipo de arquitetura paralela SIMD. SIMD (Single Instruction Multiple Data)
Paralelismo de dados (execução de simultaneidade) Em métodos tradicionais de programação (processamento sequencial), uma grande quantidade de dados é processada em um único núcleo de uma CPU, enquanto
Leia maisOpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
Leia maisAULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
Leia maisAplicações em CUDA. Medialab Instituto de Computação Universidade Federal Fluminense NVIDIA CUDA Research Center
Aplicações em CUDA Medialab Instituto de Computação Universidade Federal Fluminense NVIDIA CUDA Research Center Roteiro l Introdução l Eventos l Aspectos históricos l Operações atômicas l Introdução sobre
Leia maisModelos de Computadores
Modelos de Computadores Computadores para uso mais básico: Office, editores de texto, etc. INSPIRON SMALL DESKTOP (FABRICANTE DELL) Componentes Configuração de R$2.854,00 Configuração de R$2.626,00 Processador
Leia maisIntel Xeon Phi. Abilio. Funcionamento. Modelo de. Abilio. Linguagens Suportadas. Exemplos de Produtos no Mercado. 13 de agosto de / 22
13 de agosto de 2013 1 / 22 Sumário 1 2 3 4 5 6 2 / 22 Baseado na tecnologia Intel Many Integrated Core Co-processador ou um Supercomputador em uma placa 61 cores 8 GB de memória DDR5 Apresenta-se ao sistema
Leia maisIntrodução aos Conceitos de Computação Paralela através da estimativa de Pi
Introdução aos Conceitos de Computação Paralela através da estimativa de Pi Diego da Silva Pereira 1 1 Professor de Redes de Computadores IFRN Câmpus Currais Novos. e-mail: diego.pereira@ifrn.edu.br Resumo:
Leia maisARQUITETURA DE COMPUTADORES
RCM00014 Haswell wafer ARQUITETURA DE COMPUTADORES Prof. Luciano Bertini Site: http://www.professores.uff.br/lbertini/ Objetivos do Curso Entendimento mais aprofundado do funcionamento
Leia mais1.1 Descrição do problema A programação genética (PG) é uma meta-heurística utilizada para gerar programas de computadores, de modo que o computador
1 Introdução 1.1 Descrição do problema A programação genética (PG) é uma meta-heurística utilizada para gerar programas de computadores, de modo que o computador possa resolver problemas de forma automática
Leia maisANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1
ANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1 Éder Paulo Pereira 2, Gilberto Przygoda Marmitt 3, Emilio Hoffmann De Oliveira 4, Edson Luiz Padoin 5, Carlos Eduardo Das Chagas
Leia maisSIST706 Sistemas Distribuídos
Slide01 Introdução e Conceitos de Sistemas Distribuídos SIST706 Sistemas Distribuídos 2013/1 Prof. Jéfer Benedett Dörr @: prof.jefer@gmail.com profjefer.wordpress.com Sistema Distribuído Definição de Andrew
Leia maisUsando o benchmark Rodinia para comparação de OpenCL e OpenMP em aplicações paralelas no coprocessador Intel Xeon Phi
Usando o benchmark Rodinia para comparação de OpenCL e OpenMP em aplicações paralelas no coprocessador Intel Xeon Phi Leonardo Tavares Oliveira 1, Ricardo Menotti 1 1 Departamento de Computação Universidade
Leia maisLeapfrog Geo 3.1. Notas técnicas da versão
Página 1 Leapfrog Geo 3.1 Notas técnicas da versão Este documento descreve os principais novos recursos e melhorias que estão no Leapfrog Geo 3.1. Por favor, contate sua equipe local de suporte para uma
Leia maisIntrodução a CUDA. Esteban Walter Gonzalez Clua. Medialab - Instituto de Computação Universidade Federal Fluminense NVIDIA CUDA Research Center START
Introdução a CUDA START Esteban Walter Gonzalez Clua Medialab - Instituto de Computação Universidade Federal Fluminense NVIDIA CUDA Research Center 1536 cores Dynamic Parallelism Hyper - Q Pipeline
Leia maisMC4: Introdução à Programação Paralela em GPU para a Implementação de Métodos Numéricos
MC4: Introdução à Programação Paralela em GPU para a Implementação de Métodos Numéricos Aula 1: Introdução à programação paralela e ao ambiente de programação CUDA Profs.: Daniel Alfaro e Silvana Rossetto
Leia maisBarramentos e interfaces de comunicação Arquitetura e Organização de Computadores Curso de Análise e Desenvolvimento de Sistemas
Barramentos e interfaces de comunicação Arquitetura e Organização de Computadores Curso de Análise e Desenvolvimento de Sistemas 1 Barramentos Para que seja possível implementar o uso de dispositivos adicionais
Leia maisAuditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas
Auditoria de senhas em hardware paralelo com o John the Ripper O impacto das tecnologias de processamento paralelo na quebra de senhas Claudio André claudio.andre@correios.net.br Motivação Seu computador
Leia maisUM ESTUDO COMPARATIVO DE DESEMPENHO UTILIZANDO PROGRAMAÇÃO SEQUENCIAL VS PARALELA APLICADO EM ALGORITMOS GENÉTICOS 1
UM ESTUDO COMPARATIVO DE DESEMPENHO UTILIZANDO PROGRAMAÇÃO SEQUENCIAL VS PARALELA APLICADO EM ALGORITMOS GENÉTICOS 1 Eldair F. Dornelles 2, Henrique A. Richter 3, Miquéias F. M. Trennepohl 4, Taís T. Siqueira
Leia maisPROGRAMAÇÃO PARALELA EM CPU E GPU: UMA AVALIAÇÃO DO DESEMPENHO DAS APIS OPENMP, CUDA, OPENCL E OPENACC
PROGRAMAÇÃO PARALELA EM CPU E GPU: UMA AVALIAÇÃO DO DESEMPENHO DAS APIS OPENMP, CUDA, OPENCL E OPENACC Parallel Programming in CPU and GPU: A Performance Evaluation of OpenMP, CUDA, OpenCL and OpenACC
Leia maisUma Proposta de Aumento de Desempenho na Simulação de Árvores Trinomiais para Precificação de Opções
Uma Proposta de Aumento de Desempenho na Simulação de Árvores Trinomiais para Precificação de Opções Marcelo Lisboa Rocha Curso de Ciência da Computação UFT 109 Norte, Av. NS 15, ALCNO 14. Bloco II, Sala
Leia maisÁrea de Especialização de Computadores
MEEC Área de Especialização de Computadores Grupos de Disciplinas Metodolgias de Programação (MP) Arquitecturas de Computadores (AC) Arq. e Gestão de Redes de Computadores (RC) Arquitecturas de Processadores
Leia maisParadigmas de Computação
UCE- Computação Paralela e Distribuída Paradigmas de Computação João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... http://alba.di.uminho.pt/... 1 Paradigmas de Computação paralela Resultados da Aprendizagem
Leia maisArquitetura de computadores
Arquitetura de computadores Arquitetura de Microprocessadores Curso Profissional de Técnico de Gestão e Programação de Sistemas O Computador Hardware Unidades Funcionais de um Sistema Informático Dispositivos
Leia maisProgramação em Paralelo OpenMP
Programação em Paralelo OpenMP N. Cardoso & P. Bicudo Física Computacional - MEFT 2012/2013 N. Cardoso & P. Bicudo Programação em Paralelo: OpenMP 1 / 15 Introdução Potencial do GPU vs CPU Cálculo: 367
Leia maisJônatas Lopes de Paiva Instituto de Matemática e Estatística Universidade de São Paulo. 06 de maio de 2011
Jônatas Lopes de Paiva jlp@ime.usp.br Instituto de Matemática e Estatística Universidade de São Paulo 06 de maio de 2011 Introdução String-matching O que é? Em que é utilizado Tipos GPU GPGPU String-matching
Leia maisProgramação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho
124 - Encontro Anual de Tecnologia da Informação Programação Paralela Híbrida em CPU e GPU: Uma Alternativa na Busca por Desempenho André Luís Stefanello¹, Crístian Cleder Machado1, Dioni da Rosa¹, Maurício
Leia maisISPC:A SPMP Compiler for High-Performance CPU Programming
ISPC:A SPMP Compiler for High-Performance CPU Programming O paralelismo SIMD (Single Instruction Multiple Data) tem se tornado num mecanismo importante para melhorar o rendimento em CPU's modernas, devido
Leia maisParalelização Eficiente para o Algoritmo Binário de Exponenciação Modular
Paralelização Eficiente para o Algoritmo Binário de Exponenciação Modular Pedro Carlos da Silva Lara Fábio Borges de Oliveira Renato Portugal Laboratório Nacional de Computação Científica Índice 1 Introdução
Leia maisOrganização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional. Professor: Francisco Ary
Organização de Computadores Computação paralela; Sistema de entrada e saída (I/O); Suporte a Sistema operacional Professor: Francisco Ary Computação Paralela Capacidade de um sistema computacional executar
Leia maisBruna Freire Pedroso da Costa Guilherme Carvalho Lucas Henrique Muniz Raul Vinícius Nascimento Vanessa Baptista. D&D Info
Bruna Freire Pedroso da Costa Guilherme Carvalho Lucas Henrique Muniz Raul Vinícius Nascimento Vanessa Baptista D&D Info Sistema de gerenciamento O SisAlu pode ser usado via rede e instalado em até 5 (cinco)
Leia maisBarramentos. Prof: André Luiz da Costa Carvalho h6p://scufam.wordpress.com
Barramentos Prof: André Luiz da Costa Carvalho h6p://scufam.wordpress.com Hierarquia de Barramentos Princípio da Localidade de Referência Dados e programa que estão sendo usados devem ficar próximos ao
Leia maisCOMPONENTES DE UM COMPUTADOR (tecnologia) Adão de Melo Neto
COMPONENTES DE UM COMPUTADOR (tecnologia) Adão de Melo Neto 1 SUMÁRIO GABINETE FONTE COOLER BATERIA IDE, ATA e SATA SLOTS DE MEMÓRIA PLACA MAE ATX PROCESSADORES INTEL PLACAS DE VIDEO VIDEO GABINETE GABINETE
Leia maisMEU SISTEMA ESTÁ LENTO! ENTENDA AS POSSÍVEIS CAUSAS DESTE PROBLEMA
MEU SISTEMA ESTÁ LENTO! ENTENDA AS POSSÍVEIS CAUSAS DESTE PROBLEMA VOCÊ SABIA? Algumas vezes temos uma lentidão ao utilizar o Shop Control 9 e o primeiro culpado é sempre o sistema. Mas ao tratarmos dessa
Leia maisCOMPUTAÇÃO PARALELA E DISTRIBUÍDA
COMPUTAÇÃO PARALELA E DISTRIBUÍDA Aluno: Alessandro Faletti Orientadora: Noemi Rodriguez Introdução O objetivo inicial no projeto era aplicar a possibilidade de processamento em paralelo no sistema CSBase
Leia maisEXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1
EXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1 Henrique Bespalhuk Facci 2, Ronaldo Augusto de Lara Gonçalves UEM Universidade Estadual de Maringá Departamento de Informática Avenida
Leia maisDD3IMP (FINITE ELEMENT SOLVER) THE CHALLENGE OF COMPUTATIONAL PERFORMANCE IMPROVEMENT THROUGH HPC
DD3IMP (FINITE ELEMENT SOLVER) THE CHALLENGE OF COMPUTATIONAL PERFORMANCE IMPROVEMENT THROUGH HPC J.L. ALVES CT2M, UNIVERSIDADE DO MINHO CEMUC, UNIVERSIDADE DE COIMBRA MEI, 19 NOVEMBRO DE 2013 VAMOS POR
Leia maisCOMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0
COMPUTAÇÃO PARALELA uma visão geral Guilherme Galante v.2.0 Guilherme Galante Bacharel em Informática Unioeste (2003) Mestre em Ciência da Computação UFRGS (2006) Professor Assistente do curso de Informática/Ciência
Leia maisAvaliação de Desempenho
Avaliação de Desempenho Clock do Sistema Cristal de Quartzo envia onda de sinais constantes que são convertidas em sinais digitais 1GHz = 1 bilhão de pulsos Taxa de pulsos = taxa de clock Incremento de
Leia maisCOMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1. Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3.
COMPUTAÇÃO PARALELA COM ACELERADORES GPGPU 1 Emilio Hoffmann De Oliveira 2, Edson Luiz Padoin 3. 1 Trabalho de Conclusão de Curso 2 Aluno do Curso de Ciência da Computação - emiliohoffmann@hotmail.com
Leia maisArquiteturas Paralelas
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES Arquiteturas Paralelas Medidas de desempenho Alexandre Amory Edson Moreno Índice 2 1. Introdução 2. Medidas de Desempenho Introdução 3 Aumento de desempenho dos
Leia mais1 Introdução. I know because I must know. It's my purpose. It's the reason I'm here. (The Matrix) 1.1 Objetivos do trabalho
1 Introdução I know because I must know. It's my purpose. It's the reason I'm here. (The Matrix) 1.1 Objetivos do trabalho Os hardwares gráficos atualmente podem ser considerados como verdadeiros processadores
Leia maisImplementação Paralela do Algoritmo de Roteamento de Veículos com Janelas de Tempo sob a Plataforma CUDA
Implementação Paralela do Algoritmo de Roteamento de Veículos com Janelas de Tempo sob a Plataforma CUDA Aluno: Thiago William Machado RA: 107577 thiagowilliamm@yahoo.com.br Orientador: Prof. Dr. Ricardo
Leia maisCOMPARAÇÃO DE DESEMPENHO E EFICIÊNCIA ENERGÉTICA ENTRE MPSOC DE BAIXO CONSUMO E UM COMPUTADOR PESSOAL 1
COMPARAÇÃO DE DESEMPENHO E EFICIÊNCIA ENERGÉTICA ENTRE MPSOC DE BAIXO CONSUMO E UM COMPUTADOR PESSOAL 1 Ricardo Klein Lorenzoni 2, Edson Luiz Padoin 3, Philippe Olivier Alexandre Navaux 4, Marlon Vinícius
Leia maisLEAPFROG EDGE Página 1
LEAPFROG EDGE Página 1 Este documento descreve as melhorias e os principais novos recursos inseridos no Leapfrog EDGE 2.0. Para mais informações, contate sua equipe local da Leapfrog.. Índice Página 2
Leia maisAnálise Comparativa de Algoritmos NP-Completo Executados em CPU E GPU Utilizando CUDA
Computer on the Beach 2013 - Artigos Completos 79 Análise Comparativa de Algoritmos NP-Completo Executados em CPU E GPU Utilizando CUDA Elcio Arthur Cardoso, Rafael de Santiago Curso de Ciência da Computação
Leia maisBarramentos. Alberto Felipe Friderichs Barros
Barramentos Alberto Felipe Friderichs Barros Os principais componentes de um computador são: processador, memória e dispositivos de E/S. Para que estes módulos possam se comunicar é necessário que exista
Leia mais