Paralelização do Método de Jacobi em Memória Compartilhada 1

Tamanho: px
Começar a partir da página:

Download "Paralelização do Método de Jacobi em Memória Compartilhada 1"

Transcrição

1 Paralelização do Método de Jacobi em Memória Compartilhada 1 Claudio Schepke cschepke@inf.ufrgs.br 1 PPGC - Instituto de Informática - UFRGS Introdução ao Processamento Paralelo e Distribuído Professor Philippe Navaux Resumo. A resolução de sistemas lineares através de métodos numéricos iterativos é uma das possibilidades adotadas para a busca da solução. No entanto, para sistemas com uma grande quantia de incógnitas, mesmo com a utilização de computadores com grande capacidade de processamento, as execuções podem ser demoradas. Uma solução para este problema está na utilização de arquiteturas paralelas. Neste contexto, este trabalho descreve uma implementação paralela do método de Jacobi para uma arquitetura com memória compartilhada, buscando aumentar a eficiḙncia do método através do uso de diferentes processos. 1. Introdução Diversos problemas físicos modelados matematicamente são discretizados e resolvidos computacionalmente [Lucquin and Pironneau, 1998]. Este é o caso das equações diferenciais parciais (EDPs), que podem ser representadas por sistemas de equações lineares [Saad and van der Vorst, 2]. Uma das formas que se demonstra adequada para a resolução desse tipo de sistemas é a utilização de métodos numéricos iterativos. Métodos numéricos iterativos buscam encontrar a solução de um sistema Ax = b, onde A é uma matriz de coeficientes, x é um vetor de incógnitas a ser determinado e b é o vetor de termos independentes. Através de sucessivas aproximações iterativas os métodos conseguem atingir uma solução aproximada da exata. No entanto, este processo pode ser bastante demorado, dependendo do tamanho do sistema a ser resolvido. Uma solução para melhorar o desempenho de métodos numéricos iterativos é a utilização de implementações paralelas, o que possibilita encontrar a solução de forma mais rápida, dividindo a carga de trabalho entre um número maior de processos [Keyes, 2]. Neste contexto, o presente trabalho apresenta uma implementação paralela do método de Jacobi para uma arquitetura com memória compartilhada [Dongarra et al., 1998, Dongarra et al., 1991]. A próxima seção apresenta a definição e descrição do método. Na seqüência são descritas as características da arquitetura escolhida. A quarta seção descreve a implementação paralela realizada para o método, bem como a experimentação feita através dum estudo de caso. Na quinta seção são apresentados os resultados obtidos e uma breve discussão dos mesmos. Por fim são apresentadas as conclusões obtidas com a realização do trabalho. 2. Método de Jacobi O método de Jacobi é um dos métodos numéricos mais simples e fáceis de paralelizar [Barrett et al., 1994, Dongarra et al., 1998]. Ele é obtido através da resolução de cada uma das equações do sistema linear Ax = b.

2 Para uma determinada equação i representada por n i= a i,j x j = b i pode-se obter o valor de x i através de x i = (b i j i a i,j x j )/a i,i De maneira iterativa x i é calculado em x (k) i = (b i j i a i,j x (k 1) j )/a i,i Desta forma, a resolução do sistema pode ser descrita através do algoritmo abaixo. JacobiMethod(A, x, b) initialize x () for k = 1 to N for i = 1 to n x i = for j = 1 to n x i = x i + a i,j xj k 1 x i = (b i x i )/a i,i x () = x check convergence Apesar do algoritmo apresentar a atualização de x i em uma determinada ordem, é possível realizar as operações de maneira desordenada, o que faciliza a implementação paralela do mesmo. 3. Arquiteturas com memória compartilhada Uma arquitetura com memória compartilhada é composta por um conjunto de processadores que compartilham um mesmo espaço de memória [Dongarra et al., 1991]. Esta é a maneira mais simples para que a comunicação entre dois processos seja realizada, uma vez que a zona de memória compartilhada é utilizada como se a mesma fosse um espaço de endereçamento que pertencesse a cada um dos programas. Uma das questões relacionadas a esse tipo de arquitetura é o mecanismo de acesso a memória, visto que cada um dos processadores vai carregar os dados em sua cache local. Assim são necessários técnicas que realizem a coerência de cache e a atualização da memória. Do ponto de vista da programação, existem diversos recursos para facilitar a programação concorrente. Algumas linguagens incorporam o conceito de threads [Andrews, 21], que permitem a instanciação de vários fluxos de execução Já em outras linguagens esse recurso é possível através do uso de bibliotecas especificamente desenvolvidas.

3 4. Implementação paralela do método e validação A paralelização do método neste trabalho ocorre através da divisão das operações do laço responsável pela obtenção das soluções parciais do vetor x. Assim, as operações do laço mais interno do método são distribuídas em N processos. A Figura 1 ilustra essa divisão do sistema em 3 partes. Cabe a cada um dos processos realizar as operações de uma dessas partes. Figura 1: Divisão do sistema de equações A implementação do algoritmos foi feita na linguagem Java [Gosling et al., 2, Boisvert et al., 21], utilizando a versão JDK 1.5. Para a criação dos processos foi utilizada a classe Threads, enquanto que a sincronização dos processos ocorre através do uso da interface Lock [Hyde, 1999]. As medições de tempo são feitas apenas durante o período de execução das threads, através da diferença de tempo obtida com a invocação do método System.currentTimeMillis(), antes e depois da execução das mesmas. Como estudo de caso foi utilizado a discretização de uma equação linear de Laplace. A precisão das soluções como garantia de convergência foi de 1 6 para a diferença entre a norma do vetor solução anterior e corrente da iteração. Os resultados obtidos representam a média de 1 execuções, que foram executadas em máquinas duais com 1GB de memória e 512 KB de cache L2. 5. Resultados e avaliação dos resultados As Figuras 2, 3, 4, 5 apresentam os resultados obtidos para as execuções com sistemas de 1, 3, 5 e 1 incógnitas, respectivamente. Para que o método encontrasse uma solução, segundo a tolerância definida, foram necessárias 12362, 81119, 1863 e iterações, respectivamente, para cada um dos casos anteriores. Nos gráficos, o número de processos varia de 1 a 8 para cada caso, sendo que o tempo de execução é medido em segundos. Os três primeiros casos foram executados numa máquina Pentium III, enquanto que para o último caso foi utilizado um computador AthlonMP24 de 2GHz. Através da análise dos gráficos, percebe-se que o tempo de execução com dois processos apresenta um ganho de desempenho muito bom em relação ao tempo seqüencial, especialmente a medida que o tamanho do sistema vai aumentando. De uma forma especial, o gráfico de tempo para o sistema de ordem 3 apresentou um ganho superlinear, o que pode ser explicado devido a um pior uso da cache no caso seqüencial. Nos gráficos, também é possível visualizar um tempo de execução maior com um número de processos ímpares em relação ao número de processos pares seguintes. Isto se deve a utilização de máquinas biprocessadas. Como geralmente são executados dois processos concorrentemente, no caso de processos ímpares, um dos processadores vai ficar ocioso enquanto o último processo for executado. Já em relação ao tempo utilizando o número de processo par seguinte, a carga total de trabalho será dividida por mais um processo, que poderá ser executado concorrentemente com outro processo. Um terceiro ponto observado é de que, quando não ocorre um bom aproveitamento do tamanho da cache, os tempos de execução começam a aumentar gradativamente na medida em que é utilizado um número maior de processadores. Isto ocorre devido a

4 6 "1" Figura 2: Matriz de ordem iterações 3 "3" Figura 3: Matriz de ordem iterações sobrecarga existente com a criação de novas threads. Por outro lado, este custo é relativamente mais baixo nos casos em que são utilizados sistemas com um grande número de incógnitas. Desta forma, parece natural a obtenção dum bom desempenho em sistemas multiprocessados que possuam um conjunto maior de processadores. 6. Conclusão O uso de sistemas multiprocessados é uma das formas existentes para explorar o paralelismo e, desta forma, aumentar o desempenho de um algoritmo. No caso de métodos

5 2 "5" Figura 4: Matriz de ordem iterações 8 "1" Figura 5: Matriz de ordem iterações numéricos, como o de Jacobi, esse tipo de arquitetura se apresenta como a melhor alternativa para a implementação de algoritmos eficientes [Dongarra et al., 1998]. Os resultados obtidos neste trabalho mostram que a eficiência do código é melhor a medida em que a carga de trabalho nos processadores é alta, o que atenua o tempo gasto na sincronização. Embora os testes tenham sido feitos em sistemas biprocessados é possível notar que o sobrecusto na sincronização é bastante pequeno, o que pode refletir num ganho de desempenho próximo do ideal com a utilização de mais processadores em sistemas maiores.

6 Como trabalhos futuros, é possível a utilização de sistemas que possuam mais processadores para confirmar a tendência de melhoria observada. Também é possível realizar a comparação de desempenho com outras implementações, como em multicomputadores, a fim de relacionar a eficiência entre as execuções. Referências Andrews, G. R. (21). Foundations of Multithreaded, Parallel, and Distributed Programming. Addison-Wesley, USA. Barrett, R., Berry, M., Chan, T. F., Demmell, J., Donato, J. M., Dongarra, J., Eijkhout, V., Pozo, R., Romine, C., and der Vorst, H. V. (1994). Templates for the Solution of Linear Systems: Building Blocks for Iterative Methods. SIAM, Philadelphia, PA. Boisvert, R. F., Moreira, J., Philippsen, M., and Pozo, R. (21). Java and numerical computing. IEEE Computing in Science and Engineering, 3(2): Dongarra, J. J., Duff, I. S., Sorensen, D. C., and van der Vorst, H. A. (1998). Numerical Linear Algebra for High-Performance Computers. SIAM, Philadelphia, PA. Dongarra, J. J., Duff, I. S., Sorensen, D. C., and Vorst, H. V. D. (1991). Solving Linear Systems on Vector and Shared Memory Computers. Society for Industrial & Applied Mathematics, Philadelphia, PA. Gosling, J., Joy, B., Steele, G., and Bracha, G. (2). The Java Language Specification Second Edition. Addison-Wesley, Boston, Mass. Hyde, P. (1999). Java Thread Programming. Sams Publishing, Indianapolis, Indiana, USA. Keyes, D. E. (2). Four horizons for enhancing the performance of parallel simulations based on partial differential equations. Lucquin, B. and Pironneau, O. (1998). Introduction to Scientific Computing. John Wiley & Sons, New York, USA. Saad, Y. and van der Vorst, H. A. (2). Iterative solution of linear systems in the 2th century. J. Comput. Appl. Math., 123(1-2):1 33.

DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES

DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES DESENVOLVIMENTO DE UM ALGORITMO PARALELO PARA APLICAÇÃO EM CLUSTER DE COMPUTADORES João Ricardo Kohler Abramoski (PAIC/FUNDAÇÃO ARAUCÁRIA), Sandra Mara Guse Scós Venske (Orientadora), e-mail: ssvenske@unicentro.br

Leia mais

LCAD. LNCC - Programa de Verão Minicurso M16 Estrutura de Dados e Solvers. Lucia Catabriga

LCAD. LNCC - Programa de Verão Minicurso M16 Estrutura de Dados e Solvers. Lucia Catabriga LNCC - Programa de Verão 2008 Minicurso M16 Estrutura de Dados e Solvers Lucia Catabriga www.inf.ufes.br/~luciac LCAD - Laboratório de Computação de Alto Desempenho Departamento de Informática - CT/UFES

Leia mais

OpenMP: Variáveis de Ambiente

OpenMP: Variáveis de Ambiente Treinamento OpenMP C/C++ 1 TREINAMENTO OpenMP C/C++ Módulo 1 Computação de Alto Desempenho Módulo 2 OpenMP: Construtores Paralelos Módulo 3 OpenMP: Diretivas de sincronização Módulo 4 OpenMP: Funções de

Leia mais

Introdução OpenMP. Nielsen Castelo Damasceno

Introdução OpenMP. Nielsen Castelo Damasceno Introdução OpenMP Nielsen Castelo Damasceno Computação de auto desempenho Processamento Paralelo Memória Distribuída e Compartilhada Modelo de programação OpenMP Métricas de Desempenho Computação de auto

Leia mais

Métodos Iterativos para a Solução da Equação de Poisson

Métodos Iterativos para a Solução da Equação de Poisson Métodos Iterativos para a Solução da Equação de Poisson Valdirene da Rosa Rocho, Dagoberto Adriano Rizzotto Justo, Programa de Pós-Graduação em Matemática Aplicada, PPGMap, UFRGS, 91509-900, Porto Alegre,

Leia mais

Programação de Alto Desempenho - 2. Prof: Carla Osthoff

Programação de Alto Desempenho - 2. Prof: Carla Osthoff Programação de Alto Desempenho - 2 Prof: Carla Osthoff E-mail: osthoff@lncc.br 3- Modelos de programação paralela Shared Memory/Threads Posix Win32 treads OpenMP Message Passing MPI Data Parallel OpenCL/Cuda

Leia mais

Carlos Eduardo Batista Centro de Informática - UFPB

Carlos Eduardo Batista Centro de Informática - UFPB Carlos Eduardo Batista Centro de Informática - UFPB bidu@ci.ufpb.br Motivação Arquitetura de computadores modernos Desafios da programação concorrente Definição de concorrência Correr junto Disputa por

Leia mais

Aluno de Pós-Graduação em Engenharia de Software para Dispositivos Móveis pela UNINTER

Aluno de Pós-Graduação em Engenharia de Software para Dispositivos Móveis pela UNINTER COMPARAÇÃO DE DESEMPENHO NA PROGRAMAÇÃO PARALELA HÍBRIDA (MPI + OPENMP) NA BUSCA DE TEXTO EM ARQUIVOS 1 COMPARISON OF PERFORMANCE IN HYBRID PARALLEL PROGRAMMING (MPI + OPENMP) IN SEARCH OF TEXT IN FILES

Leia mais

PARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1

PARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1 PARALELIZAÇÃO DE ALGORITMO DE INSPEÇÃO DE ROTAS UTILIZANDO PERMUTAÇÃO LEXICOGRÁFICA 1 Jessica De Almeida Berlezi 2, Janiel Ceretta Foletto 3, Edson Luiz Padoin 4, Rogério S. M. Martins 5. 1 Trabalho realizado

Leia mais

Linguagem de Programação II

Linguagem de Programação II Linguagem de Programação II Carlos Eduardo Ba6sta Centro de Informá6ca - UFPB bidu@ci.ufpb.br Mo6vação Adaptar a estrutura lógica de um problema (Ex.: Servidores Web). Lidar com disposi6vos independentes

Leia mais

Matemática Aplicada Mestrados em Engenharia Industrial e Engenharia Química

Matemática Aplicada Mestrados em Engenharia Industrial e Engenharia Química Matemática Aplicada Mestrados em Engenharia Industrial e Engenharia Química Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança 1 o Semestre 2007/2008

Leia mais

AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES

AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 03: PROCESSAMENTO PARALELO: MULTIPROCESSADORES Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação MULTIPROCESSADORES

Leia mais

UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA

UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA UNIVERSIDADE FEDERAL DO PARÁ PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO DIRETORIA DE PESQUISA PROGRAMA INSTITUCIONAL DE BOLSAS DE INICIAÇÃO CIENTÍFICA RELATÓRIO TÉCNICO CIENTÍFICO Período: Outubro/2015 a

Leia mais

Paradigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina)

Paradigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina) Paradigmas de Linguagens Computacionais (PLC) (Apresentação da disciplina) George Darmiton da Cunha Cavalcanti (gdcc@cin.ufpe.br) Informações Básicas Professor George Darmiton da Cunha Cavalcanti Monitores

Leia mais

Monografia de Conclusão do Curso de Graduação em Ciência da Computação. 2

Monografia de Conclusão do Curso de Graduação em Ciência da Computação. 2 APLICAÇÃO DE BALANCEAMENTO DE CARGA COM CHARM++ NA PARALELIZANDO DE UM SIMULADOR DO MOVIMENTO DA ÁGUA NO SOLO 1 LOAD BALANCING APLICATION WITH CHARM++ IN THE PARALELIZATION OF A WATER MOVEMENT SIMULATOR

Leia mais

COMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1

COMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1 COMPARAÇÃO DE DESEMPENHO ENTRE IMPLEMENTAÇÕES DO ALGORITMO JOGO DA VIDA COM PTHREAD E OPEMMP 1 Márcia Da Silva 2, Igor Gamste Haugg 3, Eliézer Silveira Prigol 4, Édson L. Padoin 5, Rogério S. M. Martins

Leia mais

Programação Concorrente e Paralela

Programação Concorrente e Paralela 2010.2 Objetivos princípios e técnicas de programação paralela multiprocessadores memória compartilhada troca de mensagens arquiteturas alternativas multicomputadores troca de mensagens obs: Essa troca

Leia mais

EXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1

EXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1 EXECUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES EM PROCESSADORES MULTI-CORE 1 Henrique Bespalhuk Facci 2, Ronaldo Augusto de Lara Gonçalves UEM Universidade Estadual de Maringá Departamento de Informática Avenida

Leia mais

Sistemas Distribuídos e Paralelos

Sistemas Distribuídos e Paralelos Sistemas Distribuídos e Paralelos Aula #6: Programação paralela em sistemas de memória compartilhada. ISUTIC - 2016 Eng. Alexander Rodríguez Bonet Aula de hoje Regiões paralelas. Cláusulas de âmbito. Partilha

Leia mais

Introdução à Computação: Sistemas de Computação

Introdução à Computação: Sistemas de Computação Introdução à Computação: Sistemas de Computação Beatriz F. M. Souza (bfmartins@inf.ufes.br) http://inf.ufes.br/~bfmartins/ Computer Science Department Federal University of Espírito Santo (Ufes), Vitória,

Leia mais

Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core

Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7. Escola de Verão Arquiteturas Multi-Core RSS-Verão-01/08 p.1/36 Paralelização de Algoritmos de CFD em Clusters Multi-Core MC7 Escola de Verão 2008 Arquiteturas Multi-Core Renato S. Silva LNCC - MCT Janeiro de 2008 RSS-Verão-01/08 p.2/36 Objetivo:

Leia mais

The future is parallel but it may not be easy

The future is parallel but it may not be easy The future is parallel but it may not be easy Adriano Tabarelli, Alex Morinaga, Caio Silva, Cássia Ferreira, Daniel Santos, Eduardo Apolinário, Hugo Posca, Thiago Batista, Paulo Floriano Universidade de

Leia mais

SSC PROGRAMAÇÃO CONCORRENTE. Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama

SSC PROGRAMAÇÃO CONCORRENTE. Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama SSC- 0742 PROGRAMAÇÃO CONCORRENTE Aula 03 Terminologia Geral de Computação Paralela Prof. Jó Ueyama Créditos Os slides integrantes deste material foram construídos a par4r dos conteúdos relacionados às

Leia mais

Programação Concorrente e Paralela

Programação Concorrente e Paralela projeto de programas paralelos 2016 PCAM problema particionamento comunicacao aglomeracao mapeamento desenhada para memória distribuída mas muitas idéias em comum Particionamento idéia é expor oportunidades

Leia mais

Programação Concorrente e Paralela. Noemi Rodriguez

Programação Concorrente e Paralela. Noemi Rodriguez 2013 Objetivos princípios e técnicas de programação concorrente multiprocessadores memória compartilhada troca de mensagens obs: diferentes níveis de abstração! que princípios e técnicas são esses? notações

Leia mais

Estudo do Efeito de Malhas Bloco-Estruturadas em Escoamentos Incompressíveis de Fluidos Newtonianos

Estudo do Efeito de Malhas Bloco-Estruturadas em Escoamentos Incompressíveis de Fluidos Newtonianos Estudo do Efeito de Malhas Bloco-Estruturadas em Escoamentos Incompressíveis de Fluidos Newtonianos Ana Paula Franco Bueno, José Laércio Doricio, Depto de Engenharia de Materiais, Aeronáutica e Automobilística,

Leia mais

UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO

UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO 032 UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO Código MAT Nome 01032 Cálculo Numérico A Créditos/horas-aula Pré-Requisitos

Leia mais

Precondicionadores baseados na aproximação da inversa da matriz de coeficientes

Precondicionadores baseados na aproximação da inversa da matriz de coeficientes Precondicionadores baseados na aproximação da inversa da matriz de coeficientes João Paulo K. Zanardi, Italo C. N. Lima, Programa de Pós Graduação em Eneganharia Mecânica, FEN, UERJ 20940-903, Rio de Janeiro,

Leia mais

Trabalho Prático. CI316 Programação Paralela Prof. Daniel Weingaertner

Trabalho Prático. CI316 Programação Paralela Prof. Daniel Weingaertner Trabalho Prático CI316 Programação Paralela Prof. Daniel Weingaertner Equações Diferencias Parciais Método de Jacobi Método de Gaus-Seidel Red-Black Gaus-Seidel Trabalho Prático Equações Diferenciais Parciais

Leia mais

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria

Leia mais

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria

Leia mais

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria

Leia mais

Ruby e JRuby em... Paralelos e Distribuídos. Felipe Barden Lucas Fialho Zawacki

Ruby e JRuby em... Paralelos e Distribuídos. Felipe Barden Lucas Fialho Zawacki Ruby e JRuby em... Paralelos e Distribuídos Felipe Barden 151343 Lucas Fialho Zawacki 172072 Sobre o que vamos falar? A linguagem Ruby e suas aplicações em programação paralela e distribuída. A implementação

Leia mais

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 13 04/2014 Sistemas de Equações Lineares Parte 3 MÉTODOS ITERATIVOS Cálculo Numérico 3/44 MOTIVAÇÃO Os métodos iterativos

Leia mais

A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES

A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES A IMPORTÂNCIA DE THREADS NO DESEMPENHO DE APLICAÇÕES Euzébio da Costa Silva 1, Victor Pereira Ribeiro 2, Susana Brunoro Costa de Oliveira 3 1 29520-000, euzebioprogramacao@gmail.com 2 29520-000, victor3ifes@gmail.com

Leia mais

Uma introdução ao Apache Hama

Uma introdução ao Apache Hama Uma introdução ao Apache Hama O modelo BSP nas nuvens Thiago Kenji Okada 1 1 Departamento de Ciências da Computação (DCC) Instituto de Matemática e Estatística (IME) Universidade de São Paulo (USP) MAC5742

Leia mais

Construtores de Sicronização em OpenMP

Construtores de Sicronização em OpenMP Construtores de Sicronização em OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz evalero@uesc.br

Leia mais

IMPLEMENTAÇÃO PARALELA DE UMA ARQUITETURA DE REDE NEURAL ARTIFICIAL DISTRIBUÍDA E REALIMENTADA 1

IMPLEMENTAÇÃO PARALELA DE UMA ARQUITETURA DE REDE NEURAL ARTIFICIAL DISTRIBUÍDA E REALIMENTADA 1 IMPLEMENTAÇÃO PARALELA DE UMA ARQUITETURA DE REDE NEURAL ARTIFICIAL DISTRIBUÍDA E REALIMENTADA 1 Jessica De Almeida Berlezi 2, Eldair Fabricio Dorneles 3, Edson Luiz Padoin 4, Rogério S. M. Martins 5.

Leia mais

Universidade Federal do RGS Instituto de Informática Departamento de Informática Aplicada

Universidade Federal do RGS Instituto de Informática Departamento de Informática Aplicada Universidade Federal do RGS Instituto de Informática Departamento de Informática Aplicada Disciplina: INF01151 - Sistemas Operacionais II N Turma: A, 2 Sem/2008 Prof. Cláudio Geyer CURSOS : Ciência da

Leia mais

Uma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II - Algoritmo Paralelo

Uma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II - Algoritmo Paralelo Uma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II - Algoritmo Paralelo Fabio Henrique Pereira, Silvio Ikuyo Nabeta, Laboratório de Eletromagnetismo Aplicado, Departamento

Leia mais

Arquiteturas Paralelas

Arquiteturas Paralelas ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES Arquiteturas Paralelas Medidas de desempenho Alexandre Amory Edson Moreno Índice 2 1. Introdução 2. Medidas de Desempenho Introdução 3 Aumento de desempenho dos

Leia mais

Exacta ISSN: Universidade Nove de Julho Brasil

Exacta ISSN: Universidade Nove de Julho Brasil Exacta ISSN: 1678-548 exacta@uninove.br Universidade Nove de Julho Brasil Pereira, Fabio Henrique; Ikuyo Nabeta, Sílvio Uma nova abordagem baseada em wavelets para o método Multigrid Algébrico: Parte II

Leia mais

Resolução de Sistemas Lineares. Ana Paula

Resolução de Sistemas Lineares. Ana Paula Resolução de Sistemas Lineares Sumário 1 Introdução 2 Alguns Conceitos de Álgebra Linear 3 Sistemas Lineares 4 Métodos Computacionais 5 Sistemas Triangulares 6 Revisão Introdução Introdução Introdução

Leia mais

SSC0611 Arquitetura de Computadores

SSC0611 Arquitetura de Computadores SSC0611 Arquitetura de Computadores 20ª Aula Arquiteturas Paralelas Arquitetura MIMD com Memória Compartilhada Profa. Sarita Mazzini Bruschi sarita@icmc.usp.br Arquiteturas MIMD As arquiteturas MIMD dividem-se

Leia mais

Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot

Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Técnicas de Processamento Paralelo na Geração do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Esbel Tomás Evalero Orellana Universidade Estadual de Santa Cruz Roteiro Breve introdução

Leia mais

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado

speedup aprimorado aprimorado Fração aprimorada speedup aprimorado Fração aprimorada speedup aprimorado Tempo original Fração aprimorada aprimorado Multiprocessadores - A evolução tecnológica dos processadores iria diminuir drasticamente. 2- O caminho para o aumento de desempenho é de unir mais de um processador para realizar a mesma tarefa em menos

Leia mais

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Marina Andretta/Franklina Toledo ICMC-USP 24 de março de 2015 Baseado no livro Cálculo Numérico, de Neide B. Franco Marina Andretta/Franklina

Leia mais

Processamento de áudio em tempo real utilizando dispositivos não convencionais:

Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento de áudio em tempo real utilizando dispositivos não convencionais: Processamento paralelo com Pure Data e GPU. André Jucovsky Bianchi ajb@ime.usp.br Departamento de Ciência da Computação Instituto

Leia mais

Computadores e Programação (DCC/UFRJ)

Computadores e Programação (DCC/UFRJ) Computadores e Programação (DCC/UFRJ) Aula 3: 1 2 3 Abstrações do Sistema Operacional Memória virtual Abstração que dá a cada processo a ilusão de que ele possui uso exclusivo da memória principal Todo

Leia mais

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria

Leia mais

Conceitos e Princípios Gerais

Conceitos e Princípios Gerais Conceitos e Princípios Gerais Conceitos e Princípios Gerais Fases na resolução de problemas físicos Resolução do Modelo Matemático Conceitos Básicos de Cálculo Numérico Erros em Processos Numéricos Fases

Leia mais

Paralelismo em Computadores com Tecnologia Multicore

Paralelismo em Computadores com Tecnologia Multicore IFRN - Pau dos Ferros Pau dos Ferros/RN, 25 de fevereiro de 2016 O minicurso Descrição: Para se utilizar os vários núcleos de processamento disponíveis nos computadores atuais de forma eficiente, faz necessário

Leia mais

UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO

UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO 032 UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA PURA E APLICADA PLANO DE ENSINO Código MAT Nome 01032 Cálculo Numérico A Créditos/horas-aula Súmula 04 /

Leia mais

Algoritmos de ordenação em forma paralela.

Algoritmos de ordenação em forma paralela. ISUTIC 2017 Algoritmos de ordenação em forma paralela. Docente: MSc. Angel Alberto Vazquez Sánchez Bibliografía A. Grama, Introduction to parallel computing. Pearson Education, 2003. I. Foster, Designing

Leia mais

Referências. www.inf.ufes.br/~luciac

Referências. www.inf.ufes.br/~luciac Computação Científica Sistema Lineares Métodos Diretos Métodos Iterativos Estacionários Lucia Catabriga LCAD - Laboratório de Computação de Alto Desempenho Departamento de Informática - CT/UFES LCAD Referências

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Thaís Vasconcelos Batista UFRN DIMAp http://www.dimap.ufrn.br/~thais thais@ufrnet.br Programa do Curso INTRODUÇÃO Conceitos Básicos Sistemas em Rede X Sistemas Distribuídos Necessidade

Leia mais

Suporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível

Suporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível Suporte à Execução Eficiente de Aplicações em Plataformas com Paralelismo Multi-Nível Vinícius Garcia Pinto Lucas Mello Schnorr Nicolas Maillard Grupo de Processamento Paralelo e Distribuído (GPPD) Instituto

Leia mais

Sistemas de Equações Lineares

Sistemas de Equações Lineares Capítulo 3 Sistemas de Equações Lineares Um sistema com n equações lineares pode ser escrito na forma : ou na forma matricial onde com a 1,1 x 1 + a 1,2 x 2 + + a x n = b 1 a 2,1 x 1 + a 2,2 x 2 + + a

Leia mais

Concorrência em Processos

Concorrência em Processos Concorrência em Processos Anderson L. S. Moreira anderson.moreira@recife.ifpe.edu.br http://dase.ifpe.edu.br/~alsm Baseado nas aulas do professor Alberto Costa Neto da UFS 1 O que fazer com essa apresentação

Leia mais

A computação aplicada à resolução de sistemas lineares

A computação aplicada à resolução de sistemas lineares Universidade Federal de Campina Grande Centro de Engenharia Elétrica e Informática Departamento de Sistemas e Computação Programa de Educação Tutorial (PET) A computação aplicada à resolução de sistemas

Leia mais

Análise empírica de algoritmos de ordenação

Análise empírica de algoritmos de ordenação Análise empírica de algoritmos de ordenação Mario E. Matiusso Jr. (11028407) Bacharelado em Ciências da Computação Universidade Federal do ABC (UFABC) Santo André, SP Brasil mario3001[a]ig.com.br Resumo:

Leia mais

MÉTODOS ITERATIVOS MATRICIAIS

MÉTODOS ITERATIVOS MATRICIAIS MÉTODOS ITERATIVOS MATRICIAIS Luciana da Silva Azevedo Rubén Panta Pazos Resumo: Neste trabalho apresentamos os métodos iterativos matriciais sob o ponto de vista do ensino na engenharia. Os métodos matriciais

Leia mais

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG LEI Nº.9, DE 9//00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 70-000 Tel: (7)-09 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGCOMP

Leia mais

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór

Bacharelado em Sistemas de Informação Sistemas Operacionais. Prof. Filipo Mór Bacharelado em Sistemas de Informação Sistemas Operacionais Prof. Filipo Mór WWW.FILIPOMOR.COM - REVISÃO ARQUITETURAS PARALELAS Evolução das Arquiteturas Evolução das Arquiteturas Entrada CPU Saída von

Leia mais

BALANCEAMENTO DE CARGA EM SISTEMAS MULTIPROCESSADORES UTILIZANDO O MODELO DE PROGRAMAÇÃO CHARM++ 1

BALANCEAMENTO DE CARGA EM SISTEMAS MULTIPROCESSADORES UTILIZANDO O MODELO DE PROGRAMAÇÃO CHARM++ 1 BALANCEAMENTO DE CARGA EM SISTEMAS MULTIPROCESSADORES UTILIZANDO O MODELO DE PROGRAMAÇÃO CHARM++ 1 Guilherme Henrique Schiefelbein Arruda 2, Edson Luiz Padoin 3. 1 Trabalho desenvolvido no contexto do

Leia mais

Parallel Computing Paradigms

Parallel Computing Paradigms João Luís Ferreira Sobral www.di.uminho.pt/~jls jls@... Web: Elearning 1 At the end of the course, students should be able to: Design and optimise parallel applications that can efficiently run on a wide

Leia mais

AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS

AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS ORGANIZAÇÃO E ARQUITETURA DE COMPUTADORES II AULA 06: PROGRAMAÇÃO EM MÁQUINAS PARALELAS Prof. Max Santana Rolemberg Farias max.santana@univasf.edu.br Colegiado de Engenharia de Computação PROGRAMAÇÃO PARALELA

Leia mais

Ferramentas de Suporte

Ferramentas de Suporte Cálculo Numérico Módulo I Prof Reinaldo Haas Como estudar Métodos Numéricos? 2 Uso do método numérico Computador Programa Desenvolver Utilizar Verificar validade dos resultados obtidos 3 Programas para

Leia mais

Fundamentos IV. Sistemas Lineares. Gustavo Vinhal. August 18, Departamento de Computação

Fundamentos IV. Sistemas Lineares. Gustavo Vinhal. August 18, Departamento de Computação Fundamentos IV Sistemas Lineares Gustavo Vinhal Departamento de Computação August 18, 2016 Métodos iterativos para a solução de sistema lineares Métodos iterativos Um sistema Ax = b pode ser resolvido

Leia mais

Programação Concorrente

Programação Concorrente INE 5410 Programação Concorrente Professor: Lau Cheuk Lung (turma A) INE UFSC lau.lung@inf.ufsc.br Conteúdo Programático 1. 2. Programação Concorrente 3. Sincronização 1. Condição de corrida, região critica

Leia mais

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG

SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG LEI Nº.9, DE 9//00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 0-000 Tel: ()-09 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGCOMP -

Leia mais

Análise de Desempenho da Paralelização do Problema de Caixeiro Viajante

Análise de Desempenho da Paralelização do Problema de Caixeiro Viajante Análise de Desempenho da Paralelização do Problema de Caixeiro Viajante Gabriel Freytag Guilherme Arruda Rogério S. M. Martins Edson L. Padoin Universidade Regional do Noroeste do Estado do Rio Grande

Leia mais

ANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1

ANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1 ANÁLISE DE DESEMPENHO COM A PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PERFEITOS 1 Éder Paulo Pereira 2, Gilberto Przygoda Marmitt 3, Emilio Hoffmann De Oliveira 4, Edson Luiz Padoin 5, Carlos Eduardo Das Chagas

Leia mais

TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI

TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: PROGRAMAÇÃO PARALELA - UMA INTRODUÇÃO AO PARALELISMO COM A OPENMPI CATEGORIA: CONCLUÍDO ÁREA:

Leia mais

Tipos de Sistemas Operacionais

Tipos de Sistemas Operacionais Tipos de Sistemas Operacionais Prof. Edwar Saliba Júnior Março de 2007 1 TIPOS DE S.O. Monoprogramáveis / monotarefas; Multiprogramáveis / multitarefas: Batch; Tempo compartilhado; Tempo real; Sistemas

Leia mais

Optativa: Linha 2 Carga Horária: 45 hs Créditos: 03

Optativa: Linha 2 Carga Horária: 45 hs Créditos: 03 Título: CTS18 Introdução à Simulação Numérica Optativa: Linha 2 Carga Horária: 45 hs Créditos: 03 Ementa: 1. Introdução 2. Análise de Erros 3. Resolução de equações não lineares 4. Resolução de Sistemas

Leia mais

HORÁRIO ESCOLAR - CIÊNCIA DA COMPUTAÇÃO 2017 Atualizado 02/02/2017 INGRESSANTES A PARTIR DE 2010

HORÁRIO ESCOLAR - CIÊNCIA DA COMPUTAÇÃO 2017 Atualizado 02/02/2017 INGRESSANTES A PARTIR DE 2010 HORÁRIO ESCOLAR - CIÊNCIA DA COMPUTAÇÃO 2017 Atualizado 02/02/2017 INGRESSANTES A PARTIR DE 2010 1 0 ANO - 1 0. SEMESTRE (Grade Curricular Nova) Cálculo Diferencial e Lógica Matemática Discreta Integral

Leia mais

Figura 4.2: Matriz Curricular

Figura 4.2: Matriz Curricular Figura 4.2: Matriz Curricular 3660 Fundamentos de Matemática e Estatística Física Eletrônica Algoritmos e Programação Arquitetura de Computadores Metodologias e Técnicas de Computação Engenharia e Sistemas

Leia mais

Aplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos. Bruno Pereira dos Santos Dany Sanchez Dominguez

Aplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos. Bruno Pereira dos Santos Dany Sanchez Dominguez Aplicação de Processamento Paralelo com GPU a Problemas de Escoamento Monofásico em Meios Porosos Bruno Pereira dos Santos Dany Sanchez Dominguez 1 Roteiro 1. Introdução 2. Five-Spot Problem 3. Modelagem

Leia mais

Implementação Paralela de Núcleos Computacionais do Solver Orthomin

Implementação Paralela de Núcleos Computacionais do Solver Orthomin Trabalho apresentado no XXXVII CNMAC, S.J. dos Campos - SP, 2017. Proceeding Series of the Brazilian Society of Computational and Applied Mathematics Implementação Paralela de Núcleos Computacionais do

Leia mais

Linguagens para Programação Paralela. October 26, 2010

Linguagens para Programação Paralela. October 26, 2010 October 26, 2010 Linguagens X Bibliotecas expressividade facilidade de uso integração com programas e programadores Modelos de Linguagens Paralelas (lista não completa) paralelismo de dados (data-parallel)

Leia mais

SSC510 Arquitetura de Computadores. 6ª aula

SSC510 Arquitetura de Computadores. 6ª aula SSC510 Arquitetura de Computadores 6ª aula PARALELISMO EM NÍVEL DE PROCESSOS PROFA. SARITA MAZZINI BRUSCHI Tipos de Paralelismo Instrução (granulosidade fina) Paralelismo entre as instruções Arquiteturas

Leia mais

Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM

Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM Universidade Federal do Pampa 15º Escola Regional de Alto Desempenho/RS Avaliação do Tempo de Processamento e Comunicação via Rotinas MPI Assíncronas no Modelo OLAM Matheus Beniz Bieger - Claudio Schepke

Leia mais

Arquitetura de Computadores. Processamento Paralelo

Arquitetura de Computadores. Processamento Paralelo Arquitetura de Computadores Processamento Paralelo 1 Multiprogramação e Multiprocessamento Múltiplas organizações de computadores Single instruction, single data stream - SISD Single instruction, multiple

Leia mais

Exemplo de Arquitetura: Cliente/Servidor com Mestre e Escravos. Interface. Fator de speed-up. Speed-up

Exemplo de Arquitetura: Cliente/Servidor com Mestre e Escravos. Interface. Fator de speed-up. Speed-up Exemplo de Arquitetura: Cliente/Servidor com Mestre e s Arquitetura Mestre- Speed-up / Cliente Mestre Prof João Paulo A Almeida (jpalmeida@infufesbr) Cliente 2015/01 - INF02799 Com alguns slides de Parallel

Leia mais

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do

Leia mais

Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano. Desenvolvimento de Aplicações Paralelas

Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano. Desenvolvimento de Aplicações Paralelas Arquitecturas Paralelas I Computação Paralela em Larga Escala LESI - 4º Ano Desenvolvimento de Aplicações Paralelas (gec.di.uminho.pt/lesi/ap10203/aula06aplicaçõespar.pdf) João Luís Ferreira Sobral Departamento

Leia mais

Curso de Programação Distribuída e Paralela 29/09/2008. Informática UFRGS. Sistemas Operacionais II (C. Geyer) Sincronização 1. Pg.

Curso de Programação Distribuída e Paralela 29/09/2008. Informática UFRGS. Sistemas Operacionais II (C. Geyer) Sincronização 1. Pg. Sistemas Operacionais Professor Cláudio Geyer Instituto de - Sistemas Operacionais II (C. Geyer) Sincronização 1 Sistemas Operacionais Professor Cláudio Geyer Instituto de - Pg. 1 1 Tópicos ensinados no

Leia mais

Bibliografia em processamento paralelo

Bibliografia em processamento paralelo Bibliografia em processamento paralelo Andrews, Concurrent Programming: Principles and Practice Foster, Designing and Building Parallel Programs Wolfe, High Performance Compilers for Parallel Computing

Leia mais

Variáveis em OpenMP. Esbel Tomás Valero Orellana

Variáveis em OpenMP. Esbel Tomás Valero Orellana Variáveis em OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz evalero@uesc.br 31 de Maio de 2010

Leia mais

PCC104 Projeto e Análise de Algoritmos

PCC104 Projeto e Análise de Algoritmos PCC104 Projeto e Análise de Algoritmos Joubert de Castro Lima joubertlima@gmail.com Professor Adjunto DECOM UFOP 2010/1 Figuras retiradas do livro Introduction to parallel Computing Programar em paralelo

Leia mais

RUP RATIONAL UNIFIED PROCESS

RUP RATIONAL UNIFIED PROCESS O que é RUP? É um metodologia para gerenciar projetos de desenvolvimento de software que usa a UML como ferramenta para especificação de sistemas. Ele é um modelo de processo híbrido Mistura elementos

Leia mais

Avaliação de Desempenho

Avaliação de Desempenho September 25, 2012 O que é desempenho? em primeiro lugar, uma ótima tradução para performance... :-) tempo de execução (o centro das atenções!) outras: projeto, ciclo de vida, manutenção,... mesmo outras

Leia mais

Computação Paralela (CUDA)

Computação Paralela (CUDA) Universidade Federal do Amazonas Faculdade de Tecnologia Departamento de Eletrônica e Computação Computação Paralela (CUDA) Hussama Ibrahim hussamaibrahim@ufam.edu.br Notas de Aula Baseado nas Notas de

Leia mais

Organização de Computadores I

Organização de Computadores I Organização de Computadores I Prof. Cláudio C. Rodrigues Bibliografia: 1. Arquitetura e Organização de Computadores: Projeto para o Desempenho, 5ª edição - William Stallings - Prentice Hall. livro texto

Leia mais

What is? Eduardo Viola Nicola Disciplina de IPPD

What is? Eduardo Viola Nicola Disciplina de IPPD What is? Eduardo Viola Nicola evnicola@inf.ufpel.edu.br Disciplina de IPPD Sumário 1)Introdução 2)Princípio Geral de Funcionamento 3)Exemplos de Aplicações 4)Modelo de Programação 5)Linguagens Suportadas

Leia mais

INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUÍDA

INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUÍDA INE 5645 PROGRAMAÇÃO PARALELA E DISTRIBUÍDA Identificação: Disciplina: INE5645 - Programação Paralela e Distribuída Carga horária: 72 horas-aula Teóricas: 36 Práticas: 36 Período: 2º semestre de 2014 (em

Leia mais

Laboratório de Simulação Matemática. Parte 7 2

Laboratório de Simulação Matemática. Parte 7 2 Matemática - RC/UFG Laboratório de Simulação Matemática Parte 7 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago

Leia mais

Comparação entre Abordagens de Paralelização para o Problema do Jogo da Vida

Comparação entre Abordagens de Paralelização para o Problema do Jogo da Vida Comparação entre Abordagens de Paralelização para o Problema do Jogo da Vida Daniel Michelon de Carli 1,2, Eduardo Spolaor Mazzanti 1,2,3, Rodrigo Dewes 1, Ronaldo Canofre M. dos Santos 1,3, Valdir Stumm

Leia mais