Paralelização do Método de Jacobi em Memória Compartilhada 1
|
|
- Filipe Barbosa Regueira
- 7 Há anos
- Visualizações:
Transcrição
1 Paralelização do Método de Jacobi em Memória Compartilhada 1 Claudio Schepke cschepke@inf.ufrgs.br 1 PPGC - Instituto de Informática - UFRGS Introdução ao Processamento Paralelo e Distribuído Professor Philippe Navaux Resumo. A resolução de sistemas lineares através de métodos numéricos iterativos é uma das possibilidades adotadas para a busca da solução. No entanto, para sistemas com uma grande quantia de incógnitas, mesmo com a utilização de computadores com grande capacidade de processamento, as execuções podem ser demoradas. Uma solução para este problema está na utilização de arquiteturas paralelas. Neste contexto, este trabalho descreve uma implementação paralela do método de Jacobi para uma arquitetura com memória compartilhada, buscando aumentar a eficiḙncia do método através do uso de diferentes processos. 1. Introdução Diversos problemas físicos modelados matematicamente são discretizados e resolvidos computacionalmente [Lucquin and Pironneau, 1998]. Este é o caso das equações diferenciais parciais (EDPs), que podem ser representadas por sistemas de equações lineares [Saad and van der Vorst, 2]. Uma das formas que se demonstra adequada para a resolução desse tipo de sistemas é a utilização de métodos numéricos iterativos. Métodos numéricos iterativos buscam encontrar a solução de um sistema Ax = b, onde A é uma matriz de coeficientes, x é um vetor de incógnitas a ser determinado e b é o vetor de termos independentes. Através de sucessivas aproximações iterativas os métodos conseguem atingir uma solução aproximada da exata. No entanto, este processo pode ser bastante demorado, dependendo do tamanho do sistema a ser resolvido. Uma solução para melhorar o desempenho de métodos numéricos iterativos é a utilização de implementações paralelas, o que possibilita encontrar a solução de forma mais rápida, dividindo a carga de trabalho entre um número maior de processos [Keyes, 2]. Neste contexto, o presente trabalho apresenta uma implementação paralela do método de Jacobi para uma arquitetura com memória compartilhada [Dongarra et al., 1998, Dongarra et al., 1991]. A próxima seção apresenta a definição e descrição do método. Na seqüência são descritas as características da arquitetura escolhida. A quarta seção descreve a implementação paralela realizada para o método, bem como a experimentação feita através dum estudo de caso. Na quinta seção são apresentados os resultados obtidos e uma breve discussão dos mesmos. Por fim são apresentadas as conclusões obtidas com a realização do trabalho. 2. Método de Jacobi O método de Jacobi é um dos métodos numéricos mais simples e fáceis de paralelizar [Barrett et al., 1994, Dongarra et al., 1998]. Ele é obtido através da resolução de cada uma das equações do sistema linear Ax = b.
2 Para uma determinada equação i representada por n i= a i,j x j = b i pode-se obter o valor de x i através de x i = (b i j i a i,j x j )/a i,i De maneira iterativa x i é calculado em x (k) i = (b i j i a i,j x (k 1) j )/a i,i Desta forma, a resolução do sistema pode ser descrita através do algoritmo abaixo. JacobiMethod(A, x, b) initialize x () for k = 1 to N for i = 1 to n x i = for j = 1 to n x i = x i + a i,j xj k 1 x i = (b i x i )/a i,i x () = x check convergence Apesar do algoritmo apresentar a atualização de x i em uma determinada ordem, é possível realizar as operações de maneira desordenada, o que faciliza a implementação paralela do mesmo. 3. Arquiteturas com memória compartilhada Uma arquitetura com memória compartilhada é composta por um conjunto de processadores que compartilham um mesmo espaço de memória [Dongarra et al., 1991]. Esta é a maneira mais simples para que a comunicação entre dois processos seja realizada, uma vez que a zona de memória compartilhada é utilizada como se a mesma fosse um espaço de endereçamento que pertencesse a cada um dos programas. Uma das questões relacionadas a esse tipo de arquitetura é o mecanismo de acesso a memória, visto que cada um dos processadores vai carregar os dados em sua cache local. Assim são necessários técnicas que realizem a coerência de cache e a atualização da memória. Do ponto de vista da programação, existem diversos recursos para facilitar a programação concorrente. Algumas linguagens incorporam o conceito de threads [Andrews, 21], que permitem a instanciação de vários fluxos de execução Já em outras linguagens esse recurso é possível através do uso de bibliotecas especificamente desenvolvidas.
3 4. Implementação paralela do método e validação A paralelização do método neste trabalho ocorre através da divisão das operações do laço responsável pela obtenção das soluções parciais do vetor x. Assim, as operações do laço mais interno do método são distribuídas em N processos. A Figura 1 ilustra essa divisão do sistema em 3 partes. Cabe a cada um dos processos realizar as operações de uma dessas partes. Figura 1: Divisão do sistema de equações A implementação do algoritmos foi feita na linguagem Java [Gosling et al., 2, Boisvert et al., 21], utilizando a versão JDK 1.5. Para a criação dos processos foi utilizada a classe Threads, enquanto que a sincronização dos processos ocorre através do uso da interface Lock [Hyde, 1999]. As medições de tempo são feitas apenas durante o período de execução das threads, através da diferença de tempo obtida com a invocação do método System.currentTimeMillis(), antes e depois da execução das mesmas. Como estudo de caso foi utilizado a discretização de uma equação linear de Laplace. A precisão das soluções como garantia de convergência foi de 1 6 para a diferença entre a norma do vetor solução anterior e corrente da iteração. Os resultados obtidos representam a média de 1 execuções, que foram executadas em máquinas duais com 1GB de memória e 512 KB de cache L2. 5. Resultados e avaliação dos resultados As Figuras 2, 3, 4, 5 apresentam os resultados obtidos para as execuções com sistemas de 1, 3, 5 e 1 incógnitas, respectivamente. Para que o método encontrasse uma solução, segundo a tolerância definida, foram necessárias 12362, 81119, 1863 e iterações, respectivamente, para cada um dos casos anteriores. Nos gráficos, o número de processos varia de 1 a 8 para cada caso, sendo que o tempo de execução é medido em segundos. Os três primeiros casos foram executados numa máquina Pentium III, enquanto que para o último caso foi utilizado um computador AthlonMP24 de 2GHz. Através da análise dos gráficos, percebe-se que o tempo de execução com dois processos apresenta um ganho de desempenho muito bom em relação ao tempo seqüencial, especialmente a medida que o tamanho do sistema vai aumentando. De uma forma especial, o gráfico de tempo para o sistema de ordem 3 apresentou um ganho superlinear, o que pode ser explicado devido a um pior uso da cache no caso seqüencial. Nos gráficos, também é possível visualizar um tempo de execução maior com um número de processos ímpares em relação ao número de processos pares seguintes. Isto se deve a utilização de máquinas biprocessadas. Como geralmente são executados dois processos concorrentemente, no caso de processos ímpares, um dos processadores vai ficar ocioso enquanto o último processo for executado. Já em relação ao tempo utilizando o número de processo par seguinte, a carga total de trabalho será dividida por mais um processo, que poderá ser executado concorrentemente com outro processo. Um terceiro ponto observado é de que, quando não ocorre um bom aproveitamento do tamanho da cache, os tempos de execução começam a aumentar gradativamente na medida em que é utilizado um número maior de processadores. Isto ocorre devido a
4 6 "1" Figura 2: Matriz de ordem iterações 3 "3" Figura 3: Matriz de ordem iterações sobrecarga existente com a criação de novas threads. Por outro lado, este custo é relativamente mais baixo nos casos em que são utilizados sistemas com um grande número de incógnitas. Desta forma, parece natural a obtenção dum bom desempenho em sistemas multiprocessados que possuam um conjunto maior de processadores. 6. Conclusão O uso de sistemas multiprocessados é uma das formas existentes para explorar o paralelismo e, desta forma, aumentar o desempenho de um algoritmo. No caso de métodos
5 2 "5" Figura 4: Matriz de ordem iterações 8 "1" Figura 5: Matriz de ordem iterações numéricos, como o de Jacobi, esse tipo de arquitetura se apresenta como a melhor alternativa para a implementação de algoritmos eficientes [Dongarra et al., 1998]. Os resultados obtidos neste trabalho mostram que a eficiência do código é melhor a medida em que a carga de trabalho nos processadores é alta, o que atenua o tempo gasto na sincronização. Embora os testes tenham sido feitos em sistemas biprocessados é possível notar que o sobrecusto na sincronização é bastante pequeno, o que pode refletir num ganho de desempenho próximo do ideal com a utilização de mais processadores em sistemas maiores.
6 Como trabalhos futuros, é possível a utilização de sistemas que possuam mais processadores para confirmar a tendência de melhoria observada. Também é possível realizar a comparação de desempenho com outras implementações, como em multicomputadores, a fim de relacionar a eficiência entre as execuções. Referências Andrews, G. R. (21). Foundations of Multithreaded, Parallel, and Distributed Programming. Addison-Wesley, USA. Barrett, R., Berry, M., Chan, T. F., Demmell, J., Donato, J. M., Dongarra, J., Eijkhout, V., Pozo, R., Romine, C., and der Vorst, H. V. (1994). Templates for the Solution of Linear Systems: Building Blocks for Iterative Methods. SIAM, Philadelphia, PA. Boisvert, R. F., Moreira, J., Philippsen, M., and Pozo, R. (21). Java and numerical computing. IEEE Computing in Science and Engineering, 3(2): Dongarra, J. J., Duff, I. S., Sorensen, D. C., and van der Vorst, H. A. (1998). Numerical Linear Algebra for High-Performance Computers. SIAM, Philadelphia, PA. Dongarra, J. J., Duff, I. S., Sorensen, D. C., and Vorst, H. V. D. (1991). Solving Linear Systems on Vector and Shared Memory Computers. Society for Industrial & Applied Mathematics, Philadelphia, PA. Gosling, J., Joy, B., Steele, G., and Bracha, G. (2). The Java Language Specification Second Edition. Addison-Wesley, Boston, Mass. Hyde, P. (1999). Java Thread Programming. Sams Publishing, Indianapolis, Indiana, USA. Keyes, D. E. (2). Four horizons for enhancing the performance of parallel simulations based on partial differential equations. Lucquin, B. and Pironneau, O. (1998). Introduction to Scientific Computing. John Wiley & Sons, New York, USA. Saad, Y. and van der Vorst, H. A. (2). Iterative solution of linear systems in the 2th century. J. Comput. Appl. Math., 123(1-2):1 33.
DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES
DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES João Ricardo Kohler Abramoski (PAIC/FUNDAÇÃO ARAUCÁRIA), Sandra Mara Guse Scós Venske (Orientadora), e-mail: ssvenske@unicentro.br
Leia maisLCAD. LNCC - Programa de Verão Minicurso M16 Estrutura de Dados e Solvers. Lucia Catabriga
LNCC - Programa de Verão 2008 Minicurso M16 Estrutura de Dados e Solvers Lucia Catabriga www.inf.ufes.br/~luciac LCAD - Laboratório de Computação de Alto Desempenho Departamento de Informática - CT/UFES
Leia maisOpenMP: Variáveis de Ambiente
Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de
Leia maisIntrodução OpenMP. Nielsen Castelo Damasceno
Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto
Leia maisMétodos Iterativos para a Solução da Equação de Poisson
Métodos Iterativos para a Solução da Equação de Poisson Valdirene da Rosa Rocho, Dagoberto Adriano Rizzotto Justo, Programa de Pós-Graduação em Matemática Aplicada, PPGMap, UFRGS, 91509-900, Porto Alegre,
Leia maisProgramação de Alto Desempenho - 2. Prof: Carla Osthoff
Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: osthoff@lncc.br 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda
Leia maisCarlos Eduardo Batista Centro de Informática - UFPB
Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por
Leia maisAluno de Pós-Graduação em Engenharia de Software para Dispositivos Móveis pela UNINTER
COMPARAÇÃO DE DESEMPENHO NA PROGRAMAÇÃO PARALELA HÍBRIDA (MPI + OPENMP) NA BUSCA DE TEXTO EM ARQUIVOS 1 COMPARISON OF PERFORMANCE IN HYBRID PARALLEL PROGRAMMING (MPI + OPENMP) IN SEARCH OF TEXT IN FILES
Leia maisPARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1
PARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1 Jessica De Almeida Berlezi 2, Janiel Ceretta Foletto 3, Edson Luiz Padoin 4, Rogério S. M. Martins 5. 1 Trabalho realizado
Leia maisLinguagem de Programação II
Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB bidu@ci.ufpb.br Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes
Leia maisMatemática Aplicada Mestrados em Engenharia Industrial e Engenharia Química
Matemática Aplicada Mestrados em Engenharia Industrial e Engenharia Química Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança 1 o Semestre 2007/2008
Leia maisAULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação MULTIPROCESSADORES
Leia maisUNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA
UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA RELATÓRIO TÉCNICO CIENTÍFICO Período: Outubro/2015 a
Leia maisParadigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina)
Paradigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina) George Darmiton da Cunha Cavalcanti (gdcc@cin.ufpe.br) Informações Básicas Professor George Darmiton da Cunha Cavalcanti Monitores
Leia maisMonografia de Conclusão do Curso de Graduação em Ciência da Computação. 2
APLICAÇÃO DE BALANCEAMENTO DE CARGA COM CHARM++ NA PARALELIZANDO DE UM SIMULADOR DO MOVIMENTO DA ÁGUA NO SOLO 1 LOAD BALANCING APLICATION WITH CHARM++ IN THE PARALELIZATION OF A WATER MOVEMENT SIMULATOR
Leia maisCOMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1
COMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1 Márcia Da Silva 2, Igor Gamste Haugg 3, Eliézer Silveira Prigol 4, Édson L. Padoin 5, Rogério S. M. Martins
Leia maisProgramação Concorrente e Paralela
2010.2 Objetivos princípios e técnicas de programação paralela multiprocessadores memória compartilhada troca de mensagens arquiteturas alternativas multicomputadores troca de mensagens obs: Essa troca
Leia maisEXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1
EXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1 Henrique Bespalhuk Facci 2, Ronaldo Augusto de Lara Gonçalves UEM Universidade Estadual de Maringá Departamento de Informática Avenida
Leia maisSistemas Distribuídos e Paralelos
Sistemas Distribuídos e Paralelos Aula #6: Programação paralela em sistemas de memória compartilhada. ISUTIC - 2016 Eng. Alexander Rodríguez Bonet Aula de hoje Regiões paralelas. Cláusulas de âmbito. Partilha
Leia maisIntrodução à Computação: Sistemas de Computação
Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,
Leia maisParalelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core
RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:
Leia maisThe future is parallel but it may not be easy
The future is parallel but it may not be easy Adriano Tabarelli, Alex Morinaga, Caio Silva, Cássia Ferreira, Daniel Santos, Eduardo Apolinário, Hugo Posca, Thiago Batista, Paulo Floriano Universidade de
Leia maisSSC PROGRAMAÇÃO CONCORRENTE. Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama
SSC- 0742 PROGRAMAÇÃO CONCORRENTE Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados às
Leia maisProgramação Concorrente e Paralela
projeto de programas paralelos 2016 PCAM problema particionamento comunicacao aglomeracao mapeamento desenhada para memória distribuída mas muitas idéias em comum Particionamento idéia é expor oportunidades
Leia maisProgramação Concorrente e Paralela. Noemi Rodriguez
2013 Objetivos princípios e técnicas de programação concorrente multiprocessadores memória compartilhada troca de mensagens obs: diferentes níveis de abstração! que princípios e técnicas são esses? notações
Leia maisEstudo do Efeito de Malhas Bloco-Estruturadas em Escoamentos Incompressíveis de Fluidos Newtonianos
Estudo do Efeito de Malhas Bloco-Estruturadas em Escoamentos Incompressíveis de Fluidos Newtonianos Ana Paula Franco Bueno, José Laércio Doricio, Depto de Engenharia de Materiais, Aeronáutica e Automobilística,
Leia maisUNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO
032 UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO Código MAT Nome 01032 Cálculo Numérico A Créditos/horas-aula Pré-Requisitos
Leia maisPrecondicionadores baseados na aproximação da inversa da matriz de coeficientes
Precondicionadores baseados na aproximação da inversa da matriz de coeficientes João Paulo K. Zanardi, Italo C. N. Lima, Programa de Pós Graduação em Eneganharia Mecânica, FEN, UERJ 20940-903, Rio de Janeiro,
Leia maisTrabalho Prático. CI316 Programação Paralela Prof. Daniel Weingaertner
Trabalho Prático CI316 Programação Paralela Prof. Daniel Weingaertner Equações Diferencias Parciais Método de Jacobi Método de Gaus-Seidel Red-Black Gaus-Seidel Trabalho Prático Equações Diferenciais Parciais
Leia maisSERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
Leia maisSERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
Leia maisSERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
Leia maisRuby e JRuby em... Paralelos e Distribuídos. Felipe Barden Lucas Fialho Zawacki
Ruby e JRuby em... Paralelos e Distribuídos Felipe Barden 151343 Lucas Fialho Zawacki 172072 Sobre o que vamos falar? A linguagem Ruby e suas aplicações em programação paralela e distribuída. A implementação
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 13 04/2014 Sistemas de Equações Lineares Parte 3 MÉTODOS ITERATIVOS Cálculo Numérico 3/44 MOTIVAÇÃO Os métodos iterativos
Leia maisA IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES
A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES Euzébio da Costa Silva 1, Victor Pereira Ribeiro 2, Susana Brunoro Costa de Oliveira 3 1 29520-000, euzebioprogramacao@gmail.com 2 29520-000, victor3ifes@gmail.com
Leia maisUma introdução ao Apache Hama
Uma introdução ao Apache Hama O modelo BSP nas nuvens Thiago Kenji Okada 1 1 Departamento de Ciências da Computação (DCC) Instituto de Matemática e Estatística (IME) Universidade de São Paulo (USP) MAC5742
Leia maisConstrutores de Sicronização em OpenMP
Construtores de Sicronização em OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz evalero@uesc.br
Leia maisIMPLEMENTAÇÃO PARALELA DE UMA ARQUITETURA DE REDE NEURAL ARTIFICIAL DISTRIBUÍDA E REALIMENTADA 1
IMPLEMENTAÇÃO PARALELA DE UMA ARQUITETURA DE REDE NEURAL ARTIFICIAL DISTRIBUÍDA E REALIMENTADA 1 Jessica De Almeida Berlezi 2, Eldair Fabricio Dorneles 3, Edson Luiz Padoin 4, Rogério S. M. Martins 5.
Leia maisUniversidade Federal do RGS Instituto de Informática Departamento de Informática Aplicada
Universidade Federal do RGS Instituto de Informática Departamento de Informática Aplicada Disciplina: INF01151 - Sistemas Operacionais II N Turma: A, 2 Sem/2008 Prof. Cláudio Geyer CURSOS : Ciência da
Leia maisUma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II - Algoritmo Paralelo
Uma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II - Algoritmo Paralelo Fabio Henrique Pereira, Silvio Ikuyo Nabeta, Laboratório de Eletromagnetismo Aplicado, Departamento
Leia maisArquiteturas Paralelas
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES Arquiteturas Paralelas Medidas de desempenho Alexandre Amory Edson Moreno Índice 2 1. Introdução 2. Medidas de Desempenho Introdução 3 Aumento de desempenho dos
Leia maisExacta ISSN: Universidade Nove de Julho Brasil
Exacta ISSN: 1678-548 exacta@uninove.br Universidade Nove de Julho Brasil Pereira, Fabio Henrique; Ikuyo Nabeta, Sílvio Uma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II
Leia maisResolução de Sistemas Lineares. Ana Paula
Resolução de Sistemas Lineares Sumário 1 Introdução 2 Alguns Conceitos de Álgebra Linear 3 Sistemas Lineares 4 Métodos Computacionais 5 Sistemas Triangulares 6 Revisão Introdução Introdução Introdução
Leia maisSSC0611 Arquitetura de Computadores
SSC0611 Arquitetura de Computadores 20ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Arquiteturas MIMD As arquiteturas MIMD dividem-se
Leia maisTécnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot
Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução
Leia maisspeedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado
Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos
Leia maisResolução de sistemas de equações lineares: Método dos Gradientes Conjugados
Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Marina Andretta/Franklina Toledo ICMC-USP 24 de março de 2015 Baseado no livro Cálculo Numérico, de Neide B. Franco Marina Andretta/Franklina
Leia maisProcessamento de áudio em tempo real utilizando dispositivos não convencionais:
Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento paralelo com Pure Data e GPU. André Jucovsky Bianchi ajb@ime.usp.br Departamento de Ciência da Computação Instituto
Leia maisComputadores e Programação (DCC/UFRJ)
Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo
Leia maisSERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
Leia maisConceitos e Princípios Gerais
Conceitos e Princípios Gerais Conceitos e Princípios Gerais Fases na resolução de problemas físicos Resolução do Modelo Matemático Conceitos Básicos de Cálculo Numérico Erros em Processos Numéricos Fases
Leia maisParalelismo em Computadores com Tecnologia Multicore
IFRN - Pau dos Ferros Pau dos Ferros/RN, 25 de fevereiro de 2016 O minicurso Descrição: Para se utilizar os vários núcleos de processamento disponíveis nos computadores atuais de forma eficiente, faz necessário
Leia maisUNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO
032 UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO Código MAT Nome 01032 Cálculo Numérico A Créditos/horas-aula Súmula 04 /
Leia maisAlgoritmos de ordenação em forma paralela.
ISUTIC 2017 Algoritmos de ordenação em forma paralela. Docente: MSc. Angel Alberto Vazquez Sánchez Bibliografía A. Grama, Introduction to parallel computing. Pearson Education, 2003. I. Foster, Designing
Leia maisReferências. www.inf.ufes.br/~luciac
Computação Científica Sistema Lineares Métodos Diretos Métodos Iterativos Estacionários Lucia Catabriga LCAD - Laboratório de Computação de Alto Desempenho Departamento de Informática - CT/UFES LCAD Referências
Leia maisSistemas Distribuídos
Sistemas Distribuídos Thaís Vasconcelos Batista UFRN DIMAp http://www.dimap.ufrn.br/~thais thais@ufrnet.br Programa do Curso INTRODUÇÃO Conceitos Básicos Sistemas em Rede X Sistemas Distribuídos Necessidade
Leia maisSuporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível
Suporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível Vinícius Garcia Pinto Lucas Mello Schnorr Nicolas Maillard Grupo de Processamento Paralelo e Distribuído (GPPD) Instituto
Leia maisSistemas de Equações Lineares
Capítulo 3 Sistemas de Equações Lineares Um sistema com n equações lineares pode ser escrito na forma : ou na forma matricial onde com a 1,1 x 1 + a 1,2 x 2 + + a x n = b 1 a 2,1 x 1 + a 2,2 x 2 + + a
Leia maisConcorrência em Processos
Concorrência em Processos Anderson L. S. Moreira anderson.moreira@recife.ifpe.edu.br http://dase.ifpe.edu.br/~alsm Baseado nas aulas do professor Alberto Costa Neto da UFS 1 O que fazer com essa apresentação
Leia maisA computação aplicada à resolução de sistemas lineares
Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Departamento de Sistemas e Computação Programa de Educação Tutorial (PET) A computação aplicada à resolução de sistemas
Leia maisAnálise empírica de algoritmos de ordenação
Análise empírica de algoritmos de ordenação Mario E. Matiusso Jr. (11028407) Bacharelado em Ciências da Computação Universidade Federal do ABC (UFABC) Santo André, SP Brasil mario3001[a]ig.com.br Resumo:
Leia maisMÉTODOS ITERATIVOS MATRICIAIS
MÉTODOS ITERATIVOS MATRICIAIS Luciana da Silva Azevedo Rubén Panta Pazos Resumo: Neste trabalho apresentamos os métodos iterativos matriciais sob o ponto de vista do ensino na engenharia. Os métodos matriciais
Leia maisSERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
LEI Nº.9, DE 9//00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 70-000 Tel: (7)-09 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGCOMP
Leia maisBacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór
Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von
Leia maisBALANCEAMENTO DE CARGA EM SISTEMAS MULTIPROCESSADORES UTILIZANDO O MODELO DE PROGRAMAÇÃO CHARM++ 1
BALANCEAMENTO DE CARGA EM SISTEMAS MULTIPROCESSADORES UTILIZANDO O MODELO DE PROGRAMAÇÃO CHARM++ 1 Guilherme Henrique Schiefelbein Arruda 2, Edson Luiz Padoin 3. 1 Trabalho desenvolvido no contexto do
Leia maisParallel Computing Paradigms
João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... Web: Elearning 1 At the end of the course, students should be able to: Design and optimise parallel applications that can efficiently run on a wide
Leia maisAULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS
ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA
Leia maisFerramentas de Suporte
Cálculo Numérico Módulo I Prof Reinaldo Haas Como estudar Métodos Numéricos? 2 Uso do método numérico Computador Programa Desenvolver Utilizar Verificar validade dos resultados obtidos 3 Programas para
Leia maisFundamentos IV. Sistemas Lineares. Gustavo Vinhal. August 18, Departamento de Computação
Fundamentos IV Sistemas Lineares Gustavo Vinhal Departamento de Computação August 18, 2016 Métodos iterativos para a solução de sistema lineares Métodos iterativos Um sistema Ax = b pode ser resolvido
Leia maisProgramação Concorrente
INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC lau.lung@inf.ufsc.br Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica
Leia maisSERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
LEI Nº.9, DE 9//00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 0-000 Tel: ()-09 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGCOMP -
Leia maisAnálise de Desempenho da Paralelização do Problema de Caixeiro Viajante
Análise de Desempenho da Paralelização do Problema de Caixeiro Viajante Gabriel Freytag Guilherme Arruda Rogério S. M. Martins Edson L. Padoin Universidade Regional do Noroeste do Estado do Rio Grande
Leia maisANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1
ANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1 Éder Paulo Pereira 2, Gilberto Przygoda Marmitt 3, Emilio Hoffmann De Oliveira 4, Edson Luiz Padoin 5, Carlos Eduardo Das Chagas
Leia maisTÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI
Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI CATEGORIA: CONCLUÍDO ÁREA:
Leia maisTipos de Sistemas Operacionais
Tipos de Sistemas Operacionais Prof. Edwar Saliba Júnior Março de 2007 1 TIPOS DE S.O. Monoprogramáveis / monotarefas; Multiprogramáveis / multitarefas: Batch; Tempo compartilhado; Tempo real; Sistemas
Leia maisOptativa: Linha 2 Carga Horária: 45 hs Créditos: 03
Título: CTS18 Introdução à Simulação Numérica Optativa: Linha 2 Carga Horária: 45 hs Créditos: 03 Ementa: 1. Introdução 2. Análise de Erros 3. Resolução de equações não lineares 4. Resolução de Sistemas
Leia maisHORÁRIO ESCOLAR - CIÊNCIA DA COMPUTAÇÃO 2017 Atualizado 02/02/2017 INGRESSANTES A PARTIR DE 2010
HORÁRIO ESCOLAR - CIÊNCIA DA COMPUTAÇÃO 2017 Atualizado 02/02/2017 INGRESSANTES A PARTIR DE 2010 1 0 ANO - 1 0. SEMESTRE (Grade Curricular Nova) Cálculo Diferencial e Lógica Matemática Discreta Integral
Leia maisFigura 4.2: Matriz Curricular
Figura 4.2: Matriz Curricular 3660 Fundamentos de Matemática e Estatística Física Eletrônica Algoritmos e Programação Arquitetura de Computadores Metodologias e Técnicas de Computação Engenharia e Sistemas
Leia maisAplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos. Bruno Pereira dos Santos Dany Sanchez Dominguez
Aplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos Bruno Pereira dos Santos Dany Sanchez Dominguez 1 Roteiro 1. Introdução 2. Five-Spot Problem 3. Modelagem
Leia maisImplementação Paralela de Núcleos Computacionais do Solver Orthomin
Trabalho apresentado no XXXVII CNMAC, S.J. dos Campos - SP, 2017. Proceeding Series of the Brazilian Society of Computational and Applied Mathematics Implementação Paralela de Núcleos Computacionais do
Leia maisLinguagens para Programação Paralela. October 26, 2010
October 26, 2010 Linguagens X Bibliotecas expressividade facilidade de uso integração com programas e programadores Modelos de Linguagens Paralelas (lista não completa) paralelismo de dados (data-parallel)
Leia maisSSC510 Arquitetura de Computadores. 6ª aula
SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas
Leia maisAvaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM
Universidade Federal do Pampa 15º Escola Regional de Alto Desempenho/RS Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM Matheus Beniz Bieger - Claudio Schepke
Leia maisArquitetura de Computadores. Processamento Paralelo
Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple
Leia maisExemplo de Arquitetura: Cliente/Servidor com Mestre e Escravos. Interface. Fator de speed-up. Speed-up
Exemplo de Arquitetura: Cliente/Servidor com Mestre e s Arquitetura Mestre- Speed-up / Cliente Mestre Prof João Paulo A Almeida (jpalmeida@infufesbr) Cliente 2015/01 - INF02799 Com alguns slides de Parallel
Leia maisINTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares
INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do
Leia maisArquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano. Desenvolvimento de Aplicações Paralelas
Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano Desenvolvimento de Aplicações Paralelas (gec.di.uminho.pt/lesi/ap10203/aula06aplicaçõespar.pdf) João Luís Ferreira Sobral Departamento
Leia maisCurso de Programação Distribuída e Paralela 29/09/2008. Informática UFRGS. Sistemas Operacionais II (C. Geyer) Sincronização 1. Pg.
Sistemas Operacionais Professor Cláudio Geyer Instituto de - Sistemas Operacionais II (C. Geyer) Sincronização 1 Sistemas Operacionais Professor Cláudio Geyer Instituto de - Pg. 1 1 Tópicos ensinados no
Leia maisBibliografia em processamento paralelo
Bibliografia em processamento paralelo Andrews, Concurrent Programming: Principles and Practice Foster, Designing and Building Parallel Programs Wolfe, High Performance Compilers for Parallel Computing
Leia maisVariáveis em OpenMP. Esbel Tomás Valero Orellana
Variáveis em OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz evalero@uesc.br 31 de Maio de 2010
Leia maisPCC104 Projeto e Análise de Algoritmos
PCC104 Projeto e Análise de Algoritmos Joubert de Castro Lima joubertlima@gmail.com Professor Adjunto DECOM UFOP 2010/1 Figuras retiradas do livro Introduction to parallel Computing Programar em paralelo
Leia maisRUP RATIONAL UNIFIED PROCESS
O que é RUP? É um metodologia para gerenciar projetos de desenvolvimento de software que usa a UML como ferramenta para especificação de sistemas. Ele é um modelo de processo híbrido Mistura elementos
Leia maisAvaliação de Desempenho
September 25, 2012 O que é desempenho? em primeiro lugar, uma ótima tradução para performance... :-) tempo de execução (o centro das atenções!) outras: projeto, ciclo de vida, manutenção,... mesmo outras
Leia maisComputação Paralela (CUDA)
Universidade Federal do Amazonas Faculdade de Tecnologia Departamento de Eletrônica e Computação Computação Paralela (CUDA) Hussama Ibrahim hussamaibrahim@ufam.edu.br Notas de Aula Baseado nas Notas de
Leia maisOrganização de Computadores I
Organização de Computadores I Prof. Cláudio C. Rodrigues Bibliografia: 1. Arquitetura e Organização de Computadores: Projeto para o Desempenho, 5ª edição - William Stallings - Prentice Hall. livro texto
Leia maisWhat is? Eduardo Viola Nicola Disciplina de IPPD
What is? Eduardo Viola Nicola evnicola@inf.ufpel.edu.br Disciplina de IPPD Sumário 1)Introdução 2)Princípio Geral de Funcionamento 3)Exemplos de Aplicações 4)Modelo de Programação 5)Linguagens Suportadas
Leia maisINE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUÍDA
INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUÍDA Identificação: Disciplina: INE5645 - Programação Paralela e Distribuída Carga horária: 72 horas-aula Teóricas: 36 Práticas: 36 Período: 2º semestre de 2014 (em
Leia maisLaboratório de Simulação Matemática. Parte 7 2
Matemática - RC/UFG Laboratório de Simulação Matemática Parte 7 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago
Leia maisComparação entre Abordagens de Paralelização para o Problema do Jogo da Vida
Comparação entre Abordagens de Paralelização para o Problema do Jogo da Vida Daniel Michelon de Carli 1,2, Eduardo Spolaor Mazzanti 1,2,3, Rodrigo Dewes 1, Ronaldo Canofre M. dos Santos 1,3, Valdir Stumm
Leia mais