atualmente na literatura envolverem, em algum momento, a solução de um sistema algébrico e linear de equações.

Tamanho: px
Começar a partir da página:

Download "atualmente na literatura envolverem, em algum momento, a solução de um sistema algébrico e linear de equações."

Transcrição

1 Capítulo 5 Equações Algébricas Lineares A solução de modelos matemáticos associados a grande maioria dos problemas de engenharia requer a utilização de métodos computacionais eficientes para efetuar as mais diversas operações matriciais Em larga escala, esta universalidade se deve ao fato de praticamente todos os métodos numéricos utilizados para a solução de equações diferenciais ordinárias ou parciais encontrados atualmente na literatura envolverem, em algum momento, a solução de um sistema algébrico e linear de equações 51 Vetores e Matrizes Pelos motivos discutidos acima, as características mais importantes de vetores e matrizes serão revisadas a seguir, antes de entrarmos em detalhes sobre os métodos computacionais mais utilizados na solução estes sistemas 511 Operações Fundamentais Um vetor arbitrário x, cujos elementos x i são números reais, pertencente a um espaço vetorial real R n, pode ser escrito como x = x 1 x n, (51) onde n é o número de linhas O produto escalar entre dois vetores pertencente ao mesmo espaço vetorial R n gera o número escalar e real z = x T y z = n x k y k, (52) onde o vetor x T é a transposta do vetor x, ou a matrix real em R n n k=1 Z = x y T Z i,j = x i y j, (53) 13

2 14 Capítulo 5 Equações Algébricas Lineares onde o vetor y T é a transposta do vetor y Já o produto vetorial entre estes vetores gera o novo vetor z = x y z i = ε i,j,k x j y k, (54) onde ε i,j,k é o símbolo de permutação definido por 0 se i = j ou j = k ou k = i ε i,j,k = +1 se (i, j, k) = (1, 2, 3) ou (3, 1, 2) ou (2, 3, 1) 1 se (i, j, k) = (3, 2, 1) ou (1, 3, 2) ou (2, 1, 3) (55) Além disso, operações aritméticas com vetores pertencentes ao espaço vetorial acima geram novos vetores que também pertencem ao mesmo espaço vetorial Elas são definidas como: adição/subtração z = x ± y z i = x i ± y i, (56) e multiplicação/divisão por um escalar b y = b ±1 x y i = b ±1 x i (57) Similarmente, uma matriz arbitrária A, cujos elementos a i,j são números reais, pertencente a um espaço vetorial real R m n, pode ser escrita como a 1,1 a 1,n A =, (58) a m,1 a m,n onde m é o número de linhas e n é o número de colunas A transposta desta matriz, denominada B e também pertencente à R m n, é definida como B = A T b i,j = a j,i (59) Além disso, operações aritméticas com matrizes pertencentes ao espaço vetorial acima geram novas matrizes que também pertencem ao mesmo espaço vetorial Elas são definidas como: adição/subtração C = A ± B c i,j = a i,j ± b i,j, (510) e multiplicação/divisão por um escalar b C = b ±1 A c i,j = b ±1 a i,j (511) Por outro lado, a multiplicação entre matrizes gera C = A B c i,j = p a i,k b k,j, (512) k=1

3 51 Vetores e Matrizes 15 onde A, B e C pertencem à R m p, R p n e R m n, respectivamente Finalmente, o produto escalar entre uma matriz A do espaço real R m n e um vetor x do espaço real R n gera um novo vetor y = A x y i = n a i,j x j, (513) pertencente ao espaço vetorial real R m Podemos agora definir a inversa desta matriz, denominada C = A 1 e pertencente ao espaço vetorial R n m, como j=1 A C = I, (514) onde I é a matrix identidade, que pertencente à R m m 512 Propriedades Fundamentais Diversos tipos diferentes de matrizes podem ser encontrados na literatura, uma vez que estes dependem do problema em questão e dos métodos utilizados para resolvê-lo A chave para a construção de métodos computacionais eficientes para realização de operações matriciais está na estrutura destas matrizes, onde eficiência implica uma redução do número de operações e da quantidade de memória utilizadas Este estudo tem como foco principal as matrizes quadráticas A extensão dos resultados mostrados a seguir para a manipulação de outras matrizes e também vetores é trivial Matrizes Diagonais Uma das maneiras mais comuns de analisar uma matriz pertencente a um espaço vetorial real R n n é enxergá-la como uma composição de diversas diagonais de tamanhos diferentes Obviamente, a diagonal central é um vetor do espaço vetorial R n As diagonais imediatamente acima e abaixo da diagonal central pertencem ao espaço R n 1, e assim sucessivamente A razão por traz desta abordagem está na existência de diagonais contendo elementos nulos, que não precisam ser armazenados para operações matriciais O caso mais simples é o da matriz diagonal, onde todos os elementos fora da diagonal central são nulos Por exemplo, o caso R 5 5 tem a forma a 1, a 2, A = 0 0 a 3,3 0 0, (515) a 4, a 5,5

4 16 Capítulo 5 Equações Algébricas Lineares onde apenas 5 elementos, ou apenas n elementos no caso mais geral, precisam ser armazenados na memória RAM Outro caso também muito comum é o da matriz tri-diagonal, onde todos os elementos fora da diagonal central e das diagonais imediatamente superior e inferior a ela são nulos Novamente, no caso R 5 5 temos a 1,1 a 1, a 2,1 a 2,2 a 2,3 0 0 A = 0 a 3,2 a 3,3 a 3,4 0, (516) 0 0 a 4,3 a 4,4 a 4, a 5,4 a 5,5 onde apenas 13 (ou ) elementos, ou apenas n + 2 (n 1) elementos no caso mais geral, precisam ser armazenados na memória Em alguns casos especiais é possível encontrar matrizes penta-diagonais, onde as diagonais superiores não-nulas, assim como as diagonais inferiores não-nulas, não são consecutivas No caso R 5 5, podemos ter a 1,1 a 1,2 0 a 1,4 0 a 2,1 a 2,2 a 2,3 0 a 2,5 A = 0 a 3,2 a 3,3 a 3,4 0, (517) a 4,1 0 a 4,3 a 4,4 a 4,5 0 a 5,2 0 a 5,4 a 5,5 onde apenas 17 (ou ) elementos, ou apenas n+2 (n 1)+2 (n p) elementos no caso mais geral, precisam ser armazenados na memória RAM Neste exemplo mais geral, o parâmetro p é determinado a partir de dados provenientes do problema sendo resolvido Ainda podemos encontrar em diversas aplicações matrizes triangulares superiores ou inferiores, onde todos os elementos respectivamente abaixo ou acima da diagonal central são nulos No caso R 5 5, temos a 1,1 a 1,2 a 1,3 a 1,4 a 1,5 a 1, a 2,2 a 2,3 a 2,4 a 2,5 a 2,1 a 2, A = 0 0 a 3,3 a 3,4 a 354 ou a 3,1 a 3,2 a 3,3 0 0, a 4,4 a 4,5 a 4,1 a 4,2 a 4,3 a 4, a 5,5 a 5,1 a 5,2 a 5,3 a 5,4 a 5,5 (518) que são matrizes triangulares superiores ou inferiores, respectivamente Neste caso, apenas 15 (ou ) elementos, ou apenas n 1 j=0 n j elementos no caso mais geral, precisam ser armazenados Deve-se notar que seus determinantes são iguais ao produto de seus elementos diagonais, assim como ocorre no caso da matriz diagonal (515)

5 51 Vetores e Matrizes 17 Casos Especiais Existem também os casos onde a distribuição de zeros não segue qualquer padrão do qual possamos tirar proveito Contudo, ainda é possível encontrar matrizes deste tipo que possuem certas propriedades benéficas a eficiência de alguns métodos computacionais Uma destas propriedades é conhecida como dominância diagonal Uma matriz A possui tal característica se a i,i > n j i=1 a i,j para 1 i n (519) Simetria e anti-simetria são propriedades relevantes, e definidas como A = A T e A = A T, (520) onde uma matriz genérica A pode ser dividida na soma de suas partes simétrica e assimétrica com A = 1 2 ( A + A T ) ( A A T ) (521) Outra característica importante, associada a sistemas de equações algébricas e lineares, é conhecida como positividade definida Uma matriz A, pertencente ao espaço vetorial R n n, é positiva definida para todo vetor não-nulo x, pertencente ao espaço vetorial R n, se e somente se x T A x > 0, (522) o que leva a existência da fatoração A = L D R T, onde a matrix D é diagonal e todos os seus elementos são positivos Se a matriz A também for simétrica, além de positiva definida, temos ainda que R = L e que o cálculo desta fatoração é numericamente estável Ainda mais importante, a relação A = M M T existe, onde M é uma matriz triangular inferior única pertencente ao espaço vetorial R n n Esta última relação também é conhecida como fatoração de Cholesky 513 Autovalores e Autovetores O cálculo de autovalores e autovetores é extremamente importante na física e na engenharia Para os problemas abordados neste livro, este cálculo é equivalente a diagonalização de uma matriz Considerando a transformação linear representada pela matriz A, pertencente ao espaço R n n, A x = λ x ou (A λ I ) x = 0 (523) onde λ é um autovalor, x seu respectivo autovetor não-nulo e I a matriz identidade Um autovetor, neste caso pertencente ao espaço vetorial R n,

6 18 Capítulo 5 Equações Algébricas Lineares define um subespaço unidimensional que é invariante com respeito a multiplicação da matriz A por um escalar De acordo com a regra de Cramer, a ser discutida em maiores detalhes mais a frente, o sistema de equações representado por (523) somente não terá uma solução trivial se A λ I = 0, (524) ou seja, caso o seu determinante seja nulo Os autovalores são obtidos da equação (524) e, conseqüentemente, seus respectivos autovetores são obtidos da equação (523) Por exemplo, para uma matriz R 2 2, temos λ ± = a 1,1 + a 2,2 2 ± ( ) a1,1 a 2 2,2 a 1,2 a 2,1 +, (525) 2 que são soluções da equação ou polinômio característico λ 2 (a 1,1 + a 2,2 ) λ + a 1,1 a 2,2 a 1,2 a 2,1 = 0 (526) Vale a pena ressaltar que não existem soluções analíticas para o caso geral quando n 5, embora existam soluções analíticas para alguns casos especiais em que o valor máximo de n está acima deste número crítico Duas notas merecem atenção especial Primeiramente, a nomenclatura rigorosamente correta para x (ou x R ) é autovetor direito, uma vez que o autovetor esquerdo x L é obtido da equação x L A = λ x L ou x L (A λ I ) = 0, (527) que é similar a equação (523) Em segundo lugar, para matrizes quadráticas, o teorema da auto-decomposição nos garante a transformação similar D = M 1 A M, (528) onde D é a matriz diagonal composta pelos autovalores de A, M é a matriz composta pelos respectivos autovetores direitos e M 1, a inversa de M, é também a matriz composta pelos respectivos autovetores esquerdos 514 Sistemas de Equações O estudo de vetores e matrizes discutido anteriormente é extremamente importante uma vez que sistemas de equações algébricas e lineares são resolvidos em sua forma matricial Por exemplo, um sistema do espaço R 5 5 implícito e, conseqüentemente, acoplado é dado por a 1,1 x 1 + a 1,2 x 2 + a 1,3 x 3 + a 1,4 x 4 + a 1,5 x 5 = b 1 a 2,1 x 1 + a 2,2 x 2 + a 2,3 x 3 + a 2,4 x 4 + a 2,5 x 5 = b 2 a 3,1 x 1 + a 3,2 x 2 + a 3,3 x 3 + a 3,4 x 4 + a 3,5 x 5 = b 3, (529) a 4,1 x 1 + a 4,2 x 2 + a 4,3 x 3 + a 4,4 x 4 + a 4,5 x 5 = b 4 a 5,1 x 1 + a 5,2 x 2 + a 5,3 x 3 + a 5,4 x 4 + a 5,5 x 5 = b 5

7 51 Vetores e Matrizes 19 que pode ser escrito alternativamente como A x = b, ou seja, a 1,1 a 1,2 a 1,3 a 1,4 a 1,5 x 1 b 1 a 2,1 a 2,2 a 2,3 a 2,4 a 2,5 x 2 b 2 a 3,1 a 3,2 a 3,3 a 3,4 a 3,5 x 3 = b 3 (530) a 4,1 a 4,2 a 4,3 a 4,4 a 4,5 x 4 b 4 a 5,1 a 5,2 a 5,3 a 5,4 a 5,5 x 5 b 5 Outro exemplo similar, é o sistema implícito e tri-diagonal a 1,1 x 1 + a 1,2 x 2 = b 1 a 2,1 x 1 + a 2,2 x 2 + a 2,3 x 3 = b 2 a 3,2 x 2 + a 3,3 x 3 + a 3,4 x 4 = b 3, (531) a 4,3 x 3 + a 4,4 x 4 + a 4,5 x 5 = b 4 a 5,4 x 4 + a 5,5 x 5 = b 5 que pode ser escrito como (530), substituindo a matriz A por (516) A versão explícita e diagonal deste sistema é a 1,1 x 1 = b 1 a 2,2 x 2 = b 2 a 3,3 x 3 = b 3, (532) a 4,4 x 4 = b 4 a 5,5 x 5 = b 5 que pode ser escrito como (530), substituindo a matriz A por (515), onde cada equação pode ser resolvida independentemente das outras Vale a pena mencionar que um sistema explícito não é necessariamente desacoplado Por exemplo, a versão triangular superior do sistema geral a 1,1 x 1 + a 1,2 x 2 + a 1,3 x 3 + a 1,4 x 4 + a 1,5 x 5 = b 1 a 2,2 x 2 + a 2,3 x 3 + a 2,4 x 4 + a 2,5 x 5 = b 2 a 3,3 x 3 + a 3,4 x 4 + a 3,5 x 5 = b 3, (533) a 4,4 x 4 + a 4,5 x 5 = b 4 a 5,5 x 5 = b 5 que pode ser escrito como (530), substituindo a matriz A por (518), também é explícito, uma vez que cada equação pode ser resolvida independentemente se começarmos o processo de solução da última equação Existem diversas maneiras de se obter a solução de um sistema de equações algébricas, e todas elas podem ser divididas entre dois grupos distintos

8 20 Capítulo 5 Equações Algébricas Lineares As técnicas que fazem parte do primeiro grupo são conhecidas como métodos diretos Neste caso, todas as variáveis do sistema acoplado são obtidas simultaneamente Já as técnicas do segundo grupo são conhecidas como métodos indiretos Neste último caso, o sistema tem seu acoplamento modificado, o novo sistema é resolvido de maneira explícita, e realimentado repetidamente até que o acoplamento original seja recuperado 52 Métodos Diretos Nesta seção, os métodos diretos mais utilizados atualmente serão discutidos em detalhes Com o conhecimento fornecido a seguir, o leitor deverá ser capaz de compreender e utilizar quaisquer variantes modernas destes métodos encontradas na literatura De modo geral, iremos considerar o sistema genérico A x = b, onde temos 1 i n, n a i,j x j = b i j=1 ou 521 Regra de Cramer a 1,1 a 1,n a n,1 a n,n x 1 x n = b 1 b n (534) A solução de um sistema algébrico de equações lineares pode ser obtido através do uso adequado de certas propriedades do determinante da matriz quadrática A associada a este sistema Lembramos que se o sistema não for quadrático, ele será ou sob- ou sobre-determinado Este método é conhecido como Regra de Cramer O determinante em (534) tem a forma a 1,1 a 1,n d = (535) a n,1 a n,n Sabe-se que a multiplicação de um determinante por uma constante é equivalente a multiplicação de cada elemento de uma das colunas da matriz original, utilizada para o cálculo do determinante, pela mesma constante Desta forma, de acordo com esta propriedade, temos a 1,1 a 1,j x j a 1,n x j d = a i,1 a i,j x j a i,n (536) a n,1 a n,j x j a n,n Sabe-se também que a adição de uma coluna qualquer multiplicada por uma constante a outra coluna qualquer não altera o resultado do determi-

9 52 Métodos Diretos 21 nante Podemos escrever, de acordo com esta propriedade, que a 1,1 a1,j x j a 1,n a 1,1 b 1 a 1,n x j d= a i,1 ai,j x j a i,n = a i,1 b i a i,n a n,1 an,j x j a n,n a n,1 b n a n,n, (537) e, conseqüentemente, temos que a 1,1 b 1 a 1,n x j = a i,1 b i a i,n a n,1 b n a n,n / d, (538) para 1 j n, onde o índice j representa a coluna manipulada pela regra de Cramer Como mostra a Tabela 51, este procedimento tem utilizada teórica apenas pois o cálculo dos determinantes envolve um número significativo de operações longas Este número é n! se utilizarmos expansões espelhadas (Cramer-1) ou O(n 4 /3) se utilizarmos a primeira etapa da eliminação de Gauss (Cramer-2), o que aumenta o acúmulo do erro de arredondamento comparado a outros métodos diretos Uma avaliação rigorosa do número de operações envolve a contagem das multiplicações/divisões e adições/subtrações Contudo, o tempo computacional gasto com o primeiro grupo é muito maior que o gasto com o segundo Desta forma, consideraremos aqui apenas multiplicações e divisões, chamadas de operações longas 522 Eliminação de Gauss Um dos métodos diretos mais utilizados para solução de sistemas lineares, cujo número de operações é O(n 3 /3), é conhecido como eliminação de Gauss Ele é dividido em duas etapas A primeira consiste em re-escrever a matriz original em sua forma triangular superior Já a segunda etapa consiste em resolver o sistema explícito resultante utilizando substituição reversa Este método é numericamente estável quando aplicado a matrizes diagonalmente dominantes ou positiva definidas A construção de uma matriz triangular inferior seguida de uma substituição anversa segue linhas semelhantes, como descrito em maiores detalhes na seção 525 sobre decomposição LU Vamos considerar novamente o sistema (534) O primeiro objetivo é tornar a matriz A triangular superior, fazendo-a tomar uma forma similar à forma do sistema (533), não esquecendo de manipular o vetor b de acordo com as operações necessárias para a atingir a triangulação desejada O

10 22 Capítulo 5 Equações Algébricas Lineares algoritmo universal para obter esta matriz é dado por Passo 1: 1 k n 1 Passo 2: k + 1 i n cte = a i,k /a k,k a i,k = 0 (539) Passo 3: b i = b i cte b k k + 1 j n a i,j = a i,j cte a k,j O primeiro passo garante que o processo de eliminação baseado no termo diagonal seja aplicado a todas as linhas abaixo deste termo Porém, é no segundo passo que os elementos abaixo do respectivo termo diagonal em cada linha são eliminados Este passo também é utilizado para operar o vetor b Finalmente, o terceiro passo aplica as operações relacionadas à triangulação a todos os outros elementos de cada linha Uma vez construída a matriz triangular superior, podemos passar para a segunda etapa Assim como ocorre no caso de sistemas diagonais, onde a matriz A tem a forma (515), sistemas triangulares, onde a matriz A tem a forma (516), também possuem soluções explícitas Para isso, basta que o processo de solução se inicie pela última (ou primeira) equação, assumindo que a matriz seja triangular superior (ou inferior) Assim, o procedimento necessário para gerar a solução do sistema triangular superior, conhecido como substituição reversa, é dado por x n = b n / a n,n e (540) ( ) n / x i = b i a i,j x j a i,i para i = n 1,, 2, 1 j=i+1 Este método também pode ser utilizado para calcular a inversa de uma matriz com O(n 4 /3) operações longas Para tal, basta resolver o sistema (534) n vezes, com b i = δ i,k (1 k n), onde δ é o Delta de Kronecker e os vetores x obtidos são a k ā coluna da matriz inversa resultante 523 Eliminação de Gauss-Jordan A eliminação de Gauss-Jordan, uma variante da eliminação de Gauss que requer O(n 3 /2) operações longas, tem como objetivo encontrar a solução do sistema (534) zerando os elementos abaixo e acima de cada elemento diagonal da matriz A Desta forma, ele pode ser dividido em três etapas A primeira envolve o uso do algoritmo (539) para construção da matriz triangular superior, assim como na eliminação de Gauss Já a segunda etapa

11 52 Métodos Diretos 23 é semelhante a construção de uma matriz triangular inferior, o que torna a matriz resultante diagonal O algoritmo universal desta etapa é dado por Passo 1: n k 2 Passo 2: k 1 i 1 cte = a i,k /a k,k (541) a i,k = 0 b i = b i cte b k cujos índices variam de maneira reversa aos índices do algoritmo (539) O primeiro passo garante que o processo de eliminação baseado no termo diagonal seja aplicado a todas as linhas acima deste termo Porém, é no segundo passo que os elementos acima do respectivo termo diagonal em cada linha são eliminados Este passo também é utilizado para operar o vetor b Finalmente, o terceiro passo existente no algoritmo (539) não é necessário acima pois os elementos a esquerda do termo diagonal, na linha sendo utilizada para zerar os elementos acima deste termo, já são nulos Os dois passos iniciais do algoritmo utilizado para construção de uma matriz triangular inferior são exatamente os mesmos descritos em (541) Finalmente, procedimento requerido na terceira e última etapa é x i = b i / a i,i para i = 1,, n 1, n (542) já que o sistema resultante tem a mesma forma de (532) O presente método é numericamente mais instável que a eliminação de Gauss, além de requerer um número de operações ligeiramente superior ao do mesmo Contudo, esta diferença começa a se tornar significativa para valores elevados de n, como mostra a Tabela 51 Este método também pode ser utilizado para o cálculo da inversa de uma matriz Para tal, a matriz original precisa se reescrita como [A I ] = a 1,1 a 1,n 1 0 a n,1 a n,n 0 1, (543) onde I é a matriz identidade A inversa é obtida com a transformação da matriz acima, fazendo uso da eliminação de Gauss-Jordan, em [ I A 1 ] 1 0 b 1,1 b 1,n =, (544) 0 1 b n,1 b n,n ou seja, operando a transformação [A I ] [ I A 1 ] A matriz à direita é operada de maneira similar ao vetor b durante a solução do sistema (534)

12 24 Capítulo 5 Equações Algébricas Lineares Este método usa O(n 3 ) operações longas para o cálculo da matriz inversa e, portanto, é significativamente mais eficiente que a eliminação de Gauss utilizada para os mesmos fins 524 Eliminação de Thomas O sistema linear mais freqüentemente encontrado em situações práticas é tridiagonal, ou seja, ele tem uma forma semelhante ao sistema (531), onde a matriz quadrática tem a forma de (516) Por exemplo, a solução discreta de equações diferenciais ordinárias ou parciais gerada por métodos numéricos como diferenças, volumes ou elementos finitos, é usualmente obtida com a solução de sistemas matriciais lineares e tri-diagonais Devido a quantidade excessiva de elementos nulos nestas matrizes, a maneira mais eficiente de resolver este problema utiliza uma eliminação de Gauss modificada, conhecida como eliminação de Thomas O algoritmo deste novo método é semelhante ao (539), com uma diferença importante: os índices referentes ao primeiro e segundo passos precisam ser modificados para i = j = k + 1 Isto possibilita que as três diagonais centrais sejam armazenadas em vetores, pertencendo aos espaços vetoriais R n e R n 1, ao invés de matrizes, o que reduz a quantidade de informações armazenada e, assim, economiza memória RAM Logo, o novo algoritmo toma a forma Passo 1: 1 k n 1 cte = l k /d k Passo 2: b k+1 = b k+1 cte b k d k+1 = d k+1 cte u k (545) x n = b n /d n n 1 i 1 x i = (b i u i x i+1 )/d i onde u i são os elementos da diagonal superior u, d i são os elementos da diagonal central d e l i são os elementos da diagonal inferior l, pertencentes aos espaços R n 1, R n e R n 1, respectivamente Vale a pena mencionar que os dois passos da eliminação de Thomas são equivalentes às duas etapas da eliminação de Gauss Além disso, a inversa de uma matriz tri-diagonal pode ser calculada com o mesmo algoritmo utilizado para os mesmos fins tanto na eliminação de Gauss quanto na eliminação de Gauss-Jordan 525 Decomposição LU Este método é utilizado para decompor uma matriz A em um produto escalar entre matrizes triangulares superior U e inferior L, cujas formas são ilustradas em (518), todas pertencendo ao mesmo espaço vetorial R n n

13 52 Métodos Diretos 25 Contudo, o produto A = L U possui n 2 +n incógnitas e apenas n 2 equações Desta forma, a decomposição não é única Tradicionalmente, impõe-se que os elementos da diagonal central de L são unitários, ou seja, L i,i = 1 Isto facilita a armazenagem de ambas as matrizes triangulares na mesma variável que armazenava a matriz A originalmente A grande vantagem de utilizarmos este método para a solução do sistema (534) é o fato da decomposição ser independente do vetor b Desta forma, se o sistema (534) tiver que ser resolvido repetidas vezes no problema em questão, onde os componentes da matriz A são constantes e apenas b varia, a decomposição precisa ser feita apenar uma vez Assim sendo, a solução de um sistema linear e a inversão de uma matriz requerem O(n 3 /3) e O(4 n 3 /3) operações longas, respectivamente O número de operações utilizado na inversão pode ser reduzindo para O(n 3 ) caso o excessivo número de zeros nas colunas da matriz identidade seja adequadamente evitado Com isso, a decomposição LU é tão eficiente quanto a eliminação de Gauss na solução de um sistema linear e tão eficiente quanto a eliminação de Gauss-Jordan na inversão de uma matriz Por estas razões, ele é o método direto mais utilizado na literatura especializada As matrizes L e U, para o caso de uma matriz genérica A, são construídas através do processo conhecido como transformação de Gauss Primeiro, definimos as matrizes transformação como M k = I t k e T k e M 1 k = I + t k e T k, (546) onde os vetores t k e e k são definidos como ( ) t T i = 0,, 0, t i+1,k, t i+2,k,, t n 1,k, t n,k (547) ( ) T e j = δ 1,j, δ 2,j, δ i,j,, δ n 1,j, δ n,j (548) com t i,j = a i,j /a j,j Depois, definimos as relações matriciais o que nos permite escrever A k = M k A k 1 onde A 0 = A, (549) A = M 1 1 M 1 A 0 = M 1 1 A 1 = M 1 1 M 1 2 M 2 A 1 = M 1 1 M 1 2 A 2 (550) = = M 1 1 M 1 2 M 1 k M 1 n 2 M 1 n 1 A n 1 Sabendo que M k é uma matriz triangular inferior, assim como a sua inversa e os produtos escalares entre elas, podemos concluir que A k precisa

14 26 Capítulo 5 Equações Algébricas Lineares ser uma matriz triangular superior Conseqüentemente, L = M 1 1 M 1 2 M 1 k M 1 n 2 M 1 n 1 U = A n 1 (551) Desta forma, M 1 k representa a seqüencia de operações t i,j necessárias para transformar A na matriz triangular superior U Isto significa que a transformação Gaussiana que gera as matrizes L e U é, basicamente, descrita no algoritmo (539) Logo, após pequenas modificações, temos Passo 1: 1 k n 1 Passo 2: Passo 3: k + 1 i n a i,k = a i,k /a k,k (552) k + 1 j n a i,j = a i,j a i,k a k,j onde, agora, o segundo passo armazena em A os elementos de L abaixo da diagonal central, que não precisa ser colocada na memória pois já sabemos que seus elementos são unitários, e o terceiro passo armazena os elementos de U acima da diagonal central, incluindo a própria diagonal Isto pode ser feito pois já sabemos que os elementos de L acima e de U abaixo da diagonal central são nulos Com isso, a fatoração LU poder ser armazenada sem nenhum custo adicional de memória Este procedimento também é conhecido como método de Doolittle Sua variante mais conhecida, onde é a matriz triangular superior que possui elementos unitários na diagonal central, é chamada de método de Crout Qualquer matriz inversível A possui a fatoração LU descrita em (551) se e somente se seus primeiros sub-determinantes principais forem não-nulos Eles são os n determinantes das matrizes resultantes da eliminação de uma linha e uma coluna da matriz quadrática original passando por cada um dos elementos diagonais Caso A seja singular, esta fatoração ainda pode existir, mas condições especiais precisam ser satisfeitas Outro caso especial, conhecido como fatoração de Cholesky, existe se a matriz A for simétrica e positiva definida Sob estas circunstâncias, U = L T Conhecendo as matrizes L e U, podemos escrever A x = (L U) x = L (U x) = L x = b, (553) o que nos permite resolver o sistema original em dois estágios No primeiro, o sistema L x = b é resolvido com a substituição reversa x 1 = b 1 e (554) i 1 x i = b i l i,j x j para i = 2,, n 1, n, j=1 e

15 53 Métodos Indiretos 27 e, no segundo, o sistema U x = x é resolvido com a substituição reversa x n = x n / u n,n e (555) ( ) n / x i = x i u i,j x j u i,i para i = n 1,, 2, 1 j=i+1 Tabela 51: Número de operações aritméticas longas dos métodos diretos apresentados para uma matrix pertencendo ao espaço vetorial R n n Número de Operações Método Sistema Inversa Regra de Cramer 1 n! Regra de Cramer 2 n 4 /3 Eliminação de Gauss n 3 /3 n 4 /3 Eliminação de Gauss-Jordan n 3 /2 n 3 Eliminação de Thomas?? Decomposição LU n 3 /3 n 3 1 Cálculo dos determinantes com expansões espelhadas 2 Cálculo dos determinantes com eliminação de Gauss 53 Métodos Indiretos Métodos indiretos foram desenvolvidos para solução numérica de sistemas lineares quando a matriz A é extremamente longa e esparsa, porém sem nenhum padrão reconhecível na distribuição de elementos nulos que permita a construção de um método direto especializado que seja eficiente As versões clássicas modificam o sistema original (534) antes de resolvê-lo, e podem ser agrupadas na formulação universal A x = b M x = (M A) x + b, (556) onde M é a matriz de latência Todas partem de um chute inicial x (0) e utilizam algum processo iterativo na forma M x (k+1) = (M A) x (k) + b, (557) variando o índice iterativo k = 1, 2, 3, até atingir convergência A matriz de latência reduz o acoplamento inicial do sistema, que é recuperado após convergência O critério de parada deste processo impõe um valor máximo pré-definido ao erro absoluto e/ou relativo estimado a partir de x Quando

16 28 Capítulo 5 Equações Algébricas Lineares satisfeito, este critério indica x (k+1) x (k), e o sistema original A x = b é recuperado O método iterativo arbitrário (557) é convergente para qualquer chute inicial x (0) se a relação I M 1 A < 1 for satisfeita A diferença entre os métodos descritos a seguir se dá na escolha de M 531 Iteração de Richardson Provavelmente o método indireto mais tradicional, conhecido como iteração de Richardson, impõe M = I, o que nos permite escrever (557) como (k+1) (k) (k) x 1 x 1 b 1 d 1,1 u 1,i u 1,n x x i = x i + b i l i,1 d i,i u i,n x i, x n x n b n l n,1 l n,i d n,n x n onde A = L + D + U As matrizes U e L são triangulares superior e inferior, como em (518), mas com diagonais centrais compostas por zeros, e a matriz D é diagonal, como em (515) Logo, este sistema equivale a n x (k) i = b i a i,j x (k) j, (558) j=1 onde x (k) i = x (k+1) i x (k) i é o vetor residual e 1 i n Este método trata o sistema linear original (534) como se a matriz A fosse diagonal Assim, o sistema se torna explícito e parecido com (532), porém é inicialmente desacoplado e com um vetor b que varia após cada iteração até convergência, garantida com I A < 1, quando o acoplamento pleno é recuperado 532 Iteração de Jacobi A convergência do método de Richardson pode ser acelerada modificando a latência deste método, mantendo sua natureza explícita mas fortalecendo seu acoplamento inicial Isto pode ser obtido com a iteração de Jacobi, onde impõe-se M = D O sistema (557) é escrito na forma (k+1) d 1,1 0 0 x 1 b 1 0 u 1,i u 1,n x 1 0 d i,i 0 x i = b i l i,1 0 u i,n x i 0 0 d n,n x n ou, de maneira equivalente, na forma d i,i x (k) i b n = b i n j=1 l n,1 l n,i 0 x n (k), a i,j x (k) j, (559)

17 53 Métodos Indiretos 29 onde 1 i n Este método trata o sistema linear original (534) como se a matriz A fosse diagonal, tornando-o explícito e fracamente acoplado Assim, o sistema se torna parecido com (532), porém com um vetor b que varia após cada iteração até convergência É somente neste momento que o acoplamento pleno é recuperado A iteração de Jacobi é convergente para qualquer chute inicial x (0) se a matriz A possuir dominância diagonal 533 Iteração de Gauss-Seidel A convergência do método de Jacobi pode ser acelerada se modificarmos a latência do método original novamente, porém ainda mantendo sua natureza explícita Este objetivo pode ser atingido com a iteração de Gauss-Seidel, onde impõe-se M = D + U O sistema (557) é então escrito como d 1,1 u 1,i u 1,n x 1 0 d i,i u i,n x i 0 0 d n,n x n (k+1) = b x 1 b i l i,1 0 0 x i b n l n,1 l n,i 0 x n (k), ou, de maneira equivalente, com 1 i n, na forma n j=i+1 u i,j x (k) j + d i,i x (k) i = b i n j=1 a i,j x (k) j = (560) n d n,n x (k) n = b n a n,j x (k) j Agora, o sistema linear original (534) é tratado como se a matriz A fosse triangular superior, tornando-o explícito mas com um acoplamento inicial ainda mais forte Assim, o sistema se torna parecido com (533), e pode ser resolvido com uma substituição reversa O vetor b novamente varia após cada iteração, num processo de resgate do acoplamento pleno que termina após convergência Este novo procedimento, conhecido como iteração de Gauss-Seidel, é convergente para qualquer chute inicial x (0) se a matriz A possuir dominância diagonal O sistema de equações também poderia ser escrito em uma forma triangular inferior e, posteriormente, resolvido com uma substituição anversa Os dois procedimentos são equivalentes Vale a pena ressaltar que a divisão pelo coeficiente diagonal d i,i deve ser feita após o somatório de modo a minimizar o número de operações envolvidas j=1

18 30 Capítulo 5 Equações Algébricas Lineares 534 Técnicas de Relaxação Uma das técnicas mais conhecidas para melhorar a convergência de métodos iterativos latentes é conhecida como relaxação Ela consiste em reescrever o processo iterativo como x (k+1) i = (1 ω) x (k) i + ω x (k+1) i, (561) sendo ω o parâmetro de relaxação e x i a solução mais recente do método latente escolhido Esta relação efetivamente modifica a dominância diagonal do método iterativo sendo otimizado É interessante ressaltar que a escolha ω = 1 recupera o método latente original e que a fórmula acima deve ser aplicada a cada elemento assim que sua solução se tornar disponível Caso o método escolhido seja numericamente estável quando aplicado a um determinado problema, convergência é acelerada com 1 < ω 2, ou seja, a nova estimativa é uma extrapolação Caso contrário, o método pode ser estabilizado escolhendo 0 < ω < 1 de modo a garantir convergência Assim sendo, a nova estimativa gerada é uma interpolação O primeiro caso é conhecido como sobre-relaxação sucessiva e o segundo como subrelaxação sucessiva É possível determinar teoricamente o valor ótimo do parâmetro de relaxação para alguns problemas simples Contudo, este valor precisa ser determinado por tentativa e erro na grande maioria das vezes Para matrizes simétricas e positivamente definidas, convergência é garantida com 0 < ω 2 Mesmo quando esta condição não é satisfeita, ainda é aconselhável escolher o valor de ω dentro destes limites Finalmente, vale a pena mencionar que ω dever ser colocado em evidência ao programar (561) de modo a reduzir o número de multiplicações por iteração 535 Técnicas de Minimização O principal problema da técnica de relaxação, independentemente do método iterativo a ser otimizado, é a escolha adequada do parâmetro de relaxação Com isso, técnicas originalmente desenvolvidas para lidar com problemas de otimização passaram a ser utilizadas na solução de sistemas lineares Esta abordagem se tornou numa das alternativas mais utilizadas atualmente para solução de sistemas lineares gerados a partir da discretização de equações diferenciais ordinárias e parciais Steepest Descent O ponto de partida desta nova metodologia é definir a função escalar f(x) = 1 2 xt A x x T b, (562) que torna a busca pela solução do sistema original (534) equivalente a minimização da função f(x), caso a matriz A seja simétrica e positiva definida

19 53 Métodos Indiretos 31 Assim sendo, a função f(x) decresce mais rapidamente em direção ao seu mínimo na direção negativa do seu gradiente, ou seja, f = x x = b A x, (563) onde definimos o resíduo vetorial x para unificar a notação Caso ele seja não-nulo, existe um parâmetro positivo α que satisfaz a relação f(x + α x) < f(x) (564) O método conhecido como steepest descent estabelece / α = x T x x T A x, (565) que representa uma busca exata por linha A partir de um chute inicial x (0), podemos então implementar o algoritmo Passo 1: x (0) = b A x (0) (566) Passo 2: k = 0, 1, 2, α (k+1) = x (k) x (k) / x (k) A x (k) x (k+1) = x (k) + α (k+1) x (k) x (k+1) = b A x (k+1) onde x = x T para reduzir a poluição visual da notação Comparando o método descrito acima com a equação (558), podemos ver claramente que ele representa uma versão melhorada da iteração de Richardson, que é obtida com α = 1 Agora, o parâmetro α é calculado pela relação (561) de modo a acelerar convergência Contudo, este método é sensível a rigidez das equações, que é estimada como razão entre menor e maior autovalores Nestas situações, a função de minimização apresenta regiões bastante alongadas, fazendo com que seu gradiente praticamente não mude durante iterações, deteriorando convergência Gradientes Conjugados Os problemas enfrentados pelo método anterior podem ser evitados caso a função f(x) seja minimizada em relação a outros vetores direcionais que não necessariamente correspondem ao resíduo x A idéia agora é definir o parâmetro α que ele satisfaça a nova relação f(x + α y) < f(x), (567) onde y é o vetor residual modificado Conseqüentemente, a generalização das direções de busca estabelece que / α = y T x y T A y (568)

20 32 Capítulo 5 Equações Algébricas Lineares Garantindo que y não seja ortogonal à x e que as direções de busca sejam linearmente independentes, é possível obter convergência em menos de n iterações, onde os vetores residuais pertencem ao espaço vetorial R n Esta propriedade é conhecida como conjugação tipo A O objetivo é escolher y de modo que ele esteja o mais próximo possível de x, porém ainda sendo A-conjugado Como os vetores x de cada iteração são mutualmente ortogonais, é possível construir a combinar linear y = x β y, (569) de modo que o parâmetro β, em conjunto com α, satisfaça a relação f(x + α x α β y) < f(x) (570) O método dos gradientes conjugados estabelece que e nos leva ao novo algoritmo / β = y T A x y T A y, (571) Passo 1: x (0) = b A x (0) y (0) = x (0) Passo 2: k = 0, 1, 2, α (k+1) = ȳ (k) x (k) / ȳ (k) A y (k) x (k+1) = x (k) + α (k+1) x (k) (572) x (k+1) = b A x (k+1) Passo 3: β (k+1) = ȳ (k) A x (k+1) / ȳ (k) A y (k) y (k+1) = x (k+1) β (k+1) y (k) onde x = x T e ȳ = y T para reduzir a poluição visual da notação Este novo método ainda é semelhante a iteração de Richardson, mas agora α foi otimizado para lidar adequadamente com equações rígidas O procedimento descrito acima requer três multiplicações entre vetores e matrizes por iteração O algoritmo original deste método utiliza apenas uma multiplicação por iteração, o que é obtido com o cálculo recursivo do resíduo Com isso, o algoritmo (572) toma a forma Passo 1: x (0) = b A x (0) y (0) = x (0)

21 54 Controle de Erro 33 Passo 2: k = 0, 1, 2, / α (k+1) = x (k) x (k) ȳ (k) A y (k) x (k+1) = x (k) + α (k+1) y (k) (573) x (k+1) = x (k) α (k+1) A y (k) Passo 3: β (k+1) = x (k+1) x (k+1) / x (k) x (k) y (k+1) = x (k+1) + β (k+1) y (k) Existem duas abordagens clássicas que estendem esta metodologia aos sistemas assimétricos Ambas resolvem o sistema modificado A x = b Na primeira, as variáveis modificadas são A = A T A, x = x e b = A T b, e, na segunda, temos A = A A T, x = A T x e b = b Assim, os algoritmos descritos anteriormente podem ser utilizados com pequenas modificações, porém é preciso cuidado para uma implementação eficiente 54 Controle de Erro Como demonstrado ao longo deste capítulo, a solução de sistemas algébricos lineares pode ser obtida através de diferentes métodos Cada um deles requer multiplicações envolvendo parâmetros escalares, vetoriais e matriciais Tais parâmetros são compostos por números inteiros e reais racionais ou irracionais que precisam ser aproximados com um número finito de dígitos de precisão para fins de armazenamento A propagação deste erro de arredondamento em cada método está relacionada ao número de operações envolvidas e, principalmente, ao condicionamento das matrizes associadas aos sistemas sendo resolvidos A primeira fonte de erro é minimizada com a implementação eficiente de cada método, que reduz ao máximo o número de operações aritméticas A segunda fonte é discutida a seguir 541 Condicionamento de Matrizes A sensibilidade de um sistema pode ser avaliada através de sua resposta a pequenas perturbações Podemos escrever A x = b ( A + ɛ A ) x = b + ɛ b, (574) onde A e b pertencem aos espaços vetoriais R n n e R n, respectivamente, e ɛ é considerado um número pequeno Sabendo que x(0) = x, podemos substituir a derivada do sistema perturbado ẋ(0) = A 1 (b A x ) (575)

22 34 Capítulo 5 Equações Algébricas Lineares na expansão em série de Taylor de x(ɛ) x(ɛ) = x(0) + ɛ ẋ(0) + O(ɛ 2 ) (576) para obter, utilizando uma norma arbitrária, uma expressão relacionando os diferentes erros relativos que foram definidos como x K p (A) ( A + b ) + O(ɛ 2 ), (577) x = x(ɛ) x p x p, b = ɛ b p b p e A = ɛ A p A p, (578) onde o número de condicionamento da matriz A associado a norma L p é K p (A) = A p A 1 p (579) A expressão (577) nos diz que o erro relativo em x será no máximo K p (A) vezes o erro relativo em A e b Desta forma, a equação (579) é uma medida da sensibilidade do sistema linear Como K p (A) 1 para qualquer p, o sistema é mal-condicionado se este número for elevado Caso o sistema seja ortogonal, K 2 (A) = 1 indica que ele é perfeitamente condicionado Vale a pena ressaltar que apesar de uma matriz com determinante nulo ser singular, a distância entre o sistema e a singularidade não está correlacionada com a proximidade deste determinante de zero 542 Pivoteamento Os algoritmos descritos na seção 52 para a solução de sistemas lineares utilizando diferentes métodos diretos estão sujeitos a falhas dependendo da distribuição de elementos na matriz de coeficientes A O problema mais sério é a presença de elementos nulos na diagonal principal Este elementos podem já estar lá inicialmente ou ter sido gerados após as manipulações algébricas requeridas pelo método sendo utilizado Um exemplo prático é a construção de uma matriz triangular superior (ou inferior) A presença de zeros na diagonal resultante torna inviável a obtenção de uma solução por substituição reversa (ou anversa) Outro sério problema está relacionado a propagação do erro de arredondamento Ela pode não somente afetar a precisão do resultado final de maneira significativa como também causar instabilidade numérica, que deteriora ou até mesmo impede a convergência do método em situações extremas, caso a matriz de coeficientes não possua dominância diagonal ou seja mal-condicionada A técnica mais utilizada para resolver os dois problemas é conhecida como pivoteamento parcial Ela alterna linhas na matriz A, assim como os respectivos elementos no vetor b, ao longo da manipulação algébrica de

23 54 Controle de Erro 35 modo a tornar cada linha diagonalmente dominante O pivoteamento total alterna linhas e colunas, mas é raramente utilizado devido à seu alto custo computacional Pivoteamento parcial é aplicável a todos os métodos diretos apresentados, com exceção a regra de Cramer Para tal, basta acrescentar ao início do primeiro passo da primeira etapa de cada um destes métodos, onde a eliminação de Gauss é feita para tornar a matriz triangular superior ou inferior, a seguinte linha de comando Passo 1: 1 k n 1 onde a subrotina Pivot realiza as seguintes tarefas Passo 1: p = k e cte = 0 k i n p = i cte = a i,k Pivot(k, n, b, A ) (580) } se a i,k > cte (581) Passo 2: cte = b k e b k = b p e b p = cte k j n cte = a k,j e a k,j = a p,j e a p,j = cte somente para o caso da construção de uma matriz triangular superior Esta função precisa ser alterada para o caso de uma matriz triangular inferior, ou seja, os limites dos índices i e j precisam ser modificados 543 Pré-Condicionamento Assim como no caso anterior, os algoritmos descritos na seção 53 para a solução de sistemas lineares utilizando diferentes métodos indiretos também estão sujeitos a falhas Contudo, devido a natureza iterativa destes métodos, essas falhas estão fortemente relacionadas ao condicionamento da matriz A O problema pode ser melhor entendido se analisarmos o raio espectral da matriz, que também está associado a sua norma pela expressão ρ(a) A p, (582) onde, para o caso de uma matriz simétrica, temos ρ(a) = A 2 O raio espectral é definido como o autovalor de maior módulo Caso a matriz possua autovalores com magnitudes significativamente distintas, a convergência do processo iterativo fica comprometida A equação (528) no diz que qualquer matriz quadrática pode ser escrita como um produto entre seus autovalores e autovetores Além disso, em um

24 36 Capítulo 5 Equações Algébricas Lineares processo iterativo, a taxa de convergência de cada autovetor depende da magnitude do seu respectivo autovalor Quanto maior o autovalor, mais rápido seu autovetor converge para seu valor final Conseqüentemente, a convergência do método iterativo é fixada pelo menor autovalor do sistema de equações Não há problema quando todos os autovalores tem magnitudes similares, mas o número de iterações aumenta consideravelmente quando isto não é verdade, o que aumenta a propagação do erro de arredondamento Pré-condicionadores eliminam o problema pois modificam a matriz A de modo que seus autovalores tenham magnitudes similares Os verdadeiros autovalores são recuperados durante o processo iterativo e, após convergência, o sistema original é obtido Esta técnica é introduzida nos métodos indiretos clássicos com a modificação da matriz de latência para M = P M (0), (583) onde M (0) é a matriz de latência original de cada método e P é a matriz pré-condicionadora Da mesma forma, a inclusão de um pré-condicionador no método dos gradientes conjugados altera a forma do algoritmo para Passo 1: x (0) = b A x (0) P z (0) = x (0) y (0) = z (0) (584) Passo 2: k = 0, 1, 2, Passo 3: α (k+1) = x (k) z (k) / ȳ (k) A y (k) x (k+1) = x (k) + α (k+1) y (k) x (k+1) = x (k) α (k+1) A y (k) P z (k+1) = x (k+1) β (k+1) = x (k+1) z (k+1) / x (k) z (k) y (k+1) = z (k+1) + β (k+1) y (k) onde a solução do sistema P z = x deve ser obtida facilmente para que o algoritmo modificado seja eficiente A escolha adequada da matriz P não é trivial e foge ao escopo deste livro, mas existe uma vasta literatura especializa que pode ser consultada para este fim

Cálculo Numérico BCC760

Cálculo Numérico BCC760 Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares DMPA IM UFRGS Cálculo Numérico Índice Sistema de Equações Lineares 1 Sistema de Equações Lineares 2 com pivoteamento parcial 3 Método de Jacobi Método Gauss-Seidel Sistema de Equações Lineares n equações

Leia mais

Métodos Numéricos - Notas de Aula

Métodos Numéricos - Notas de Aula Métodos Numéricos - Notas de Aula Prof a Olga Regina Bellon Junho 2007 Introdução Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares,

Leia mais

SISTEMAS LINEARES PROF. EDÉZIO

SISTEMAS LINEARES PROF. EDÉZIO SOLUÇÕES NUMÉRICAS DE SISTEMAS LINEARES PROF. EDÉZIO Considere o sistema de n equações e n incógnitas: onde E : a x + a x +... + a n x n = b E : a x + a x +... + a n x n = b. =. () E n : a n x + a n x

Leia mais

Universidade Federal do Espírito Santo - UFES

Universidade Federal do Espírito Santo - UFES Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para

Leia mais

Sistemas Lineares. Métodos Iterativos Estacionários

Sistemas Lineares. Métodos Iterativos Estacionários -58 Sistemas Lineares Estacionários Lucia Catabriga e Andréa Maria Pedrosa Valli Laboratório de Computação de Alto Desempenho (LCAD) Departamento de Informática Universidade Federal do Espírito Santo -

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares. Um

Leia mais

decomposição de Cholesky.

decomposição de Cholesky. Decomposição LU e Cholesky Prof Doherty Andrade - DMA-UEM Sumário 1 Introdução 1 2 Método de Eliminação de Gauss 1 3 Decomposição LU 2 4 O método de Cholesky 5 5 O Algoritmo para a decomposição Cholesky

Leia mais

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 13 04/2014 Sistemas de Equações Lineares Parte 3 MÉTODOS ITERATIVOS Cálculo Numérico 3/44 MOTIVAÇÃO Os métodos iterativos

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos

Leia mais

UNIVERSIDADE FEDERAL DO ABC

UNIVERSIDADE FEDERAL DO ABC UNIVERSIDADE FEDERAL DO ABC BC49 Cálculo Numérico - LISTA - sistemas lineares de equações Profs André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda Métodos diretos Analise os sistemas

Leia mais

Uma equação linear com n variáveis tem a seguinte forma:

Uma equação linear com n variáveis tem a seguinte forma: Edgard Jamhour Uma equação linear com n variáveis tem a seguinte forma: a 1 x 1 + a 2 x 2 +... + a n x n = b onde a 1, a 2,..., a n e b são constantes reais. Um sistema de equações lineares é um conjunto

Leia mais

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do

Leia mais

Resolução de Sistemas de Equações Lineares

Resolução de Sistemas de Equações Lineares 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Resolução de Sistemas de Equações

Leia mais

INSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: 2002/

INSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: 2002/ INSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: / ANÁLISE NUMÉRICA Exercícios Considere o sistema linear 6 x 5 y = a)

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

SME0300 Cálculo Numérico Aula 11

SME0300 Cálculo Numérico Aula 11 SME0300 Cálculo Numérico Aula 11 Maria Luísa Bambozzi de Oliveira marialuisa @ icmc. usp. br Sala: 3-241 Página: tidia-ae.usp.br 21 de setembro de 2015 Tópico Anterior Sistemas Lineares: Métodos Exatos:

Leia mais

Disciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas

Disciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas Disciplina: Cálculo Numérico IPRJ/UERJ Sílvia Mara da Costa Campos Victer Aula 6 - Solução de Sistema de Equações Algébricas Métodos diretos: 1- Eliminação de Gauss com substituição recuada 2- Decomposição

Leia mais

Algoritmos Numéricos 2 a edição

Algoritmos Numéricos 2 a edição Algoritmos Numéricos 2 a edição Capítulo 2: Sistemas lineares c 2009 FFCf 2 2.1 Conceitos fundamentais 2.2 Sistemas triangulares 2.3 Eliminação de Gauss 2.4 Decomposição LU Capítulo 2: Sistemas lineares

Leia mais

Sistemas de Equações Lineares Algébricas

Sistemas de Equações Lineares Algébricas Sistemas de Equações Lineares Algébricas A 11 x 1 + A 12 x 2 +... + A 1n x n = b 1 A 21 x 1 + A 22 x 2 +... + A 2n x n = b 2............... A n1 x1 + A n2 x 2 +... + A nn x n = b n A 11 A 12... A 1n x

Leia mais

Resolução de Sistemas Lineares. Ana Paula

Resolução de Sistemas Lineares. Ana Paula Resolução de Sistemas Lineares Sumário 1 Introdução 2 Alguns Conceitos de Álgebra Linear 3 Sistemas Lineares 4 Métodos Computacionais 5 Sistemas Triangulares 6 Revisão Introdução Introdução Introdução

Leia mais

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares É um dos modelos mais u3lizados para representar diversos problemas de Engenharia (cálculo estrutural, circuitos elétricos, processos químicos etc.) Conservação da carga: i 1 i 2 i 3 = 0 i 3 i 4 i 5 =

Leia mais

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 12 04/2014 Sistemas de Equações Lineares Parte 2 FATORAÇÃO LU Cálculo Numérico 3/37 FATORAÇÃO LU Uma fatoração LU de uma dada

Leia mais

Modelagem Computacional. Parte 7 2

Modelagem Computacional. Parte 7 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

SME Roberto F. Ausas / Gustavo C. Buscaglia

SME Roberto F. Ausas / Gustavo C. Buscaglia SME0305-2016 Roberto F. Ausas / Gustavo C. Buscaglia ICMC - Ramal 736628, rfausas@gmail.com ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Métodos iterativos Vamos considerar o problema: Achar x R n

Leia mais

Prof. MSc. David Roza José 1/35

Prof. MSc. David Roza José 1/35 1/35 Métodos Iterativos Objetivos: Compreender a diferença entre os métodos de Gauss-Seidel e Jacobi; Saber analisar a dominância diagonal e entender o quê significa; Reconhecer como a relaxação pode ser

Leia mais

Método de Newton modificado

Método de Newton modificado Método de Newton modificado Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de setembro de 2010 1 / 36 Método de Newton Como já vimos, o método

Leia mais

Sistemas Lineares Métodos Diretos

Sistemas Lineares Métodos Diretos Sistemas Lineares Métodos Diretos Andrea M. P. Valli, Lucia Catabriga avalli@inf.ufes.br, luciac@inf.ufes.br March 19, 2018 Andrea M. P. Valli, Lucia Catabriga (UFES) DI-PPGI/UFES March 19, 2018 1 / 34

Leia mais

Métodos iterativos para sistemas lineares.

Métodos iterativos para sistemas lineares. Métodos iterativos para sistemas lineares. Alan Costa de Souza 7 de Setembro de 2017 Alan Costa de Souza Métodos iterativos para sistemas lineares. 7 de Setembro de 2017 1 / 46 Introdução. A ideia central

Leia mais

Cálculo Numérico. Resumo e Exercícios P1

Cálculo Numérico. Resumo e Exercícios P1 Cálculo Numérico Resumo e Exercícios P1 Fórmulas e Resumo Teórico Parte 1 Aritmética de ponto flutuante Operar com o número de algarismos significativos exigido. Arredondar após cada conta. Método de escalonamento

Leia mais

Sistemas de Equações Lineares Algébricas

Sistemas de Equações Lineares Algébricas Sistemas de Equações Lineares Algébricas A x + A x +... + A n x n b A x + A x +... + A n x n b............... A n x + A n x +... + A nn x n b n A A... A n x b A A... A n x b.................. A n A n...

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares Capítulo 3 Sistemas de equações lineares Os sistemas de equações lineares fazem parte da descrição matemática dos mais diversos fenômenos em todas as áreas das ciências naturais e também são peça fundamental

Leia mais

Fatoração LU André Luís M. Martinez UTFPR

Fatoração LU André Luís M. Martinez UTFPR Fatoração LU André Luís M. Martinez UTFPR Agosto de 2011 Sumário 1 Introdução Sumário 1 Introdução 2 Fatoração LU Sumário 1 Introdução 2 Fatoração LU 3 Método de Crout Sumário 1 Introdução 2 Fatoração

Leia mais

[a11 a12 a1n 7. SISTEMAS LINEARES 7.1. CONCEITO. Um sistema de equações lineares é um conjunto de equações do tipo

[a11 a12 a1n 7. SISTEMAS LINEARES 7.1. CONCEITO. Um sistema de equações lineares é um conjunto de equações do tipo 7. SISTEMAS LINEARES 7.1. CONCEITO Um sistema de equações lineares é um conjunto de equações do tipo a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 11 x 1 + a 12 x 2 +... + a 1n x n = b 2... a n1 x 1 + a

Leia mais

EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR. QUESTÃO 1: Indique as afirmativas verdadeiras.

EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR. QUESTÃO 1: Indique as afirmativas verdadeiras. EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR QUESTÃO 1: Indique as afirmativas verdadeiras. ( ) O número Pi não pode ser representado de forma exata em sistemas numéricos de

Leia mais

Métodos Numéricos. Turma CI-202-X. Josiney de Souza.

Métodos Numéricos. Turma CI-202-X. Josiney de Souza. Métodos Numéricos Turma CI-202-X Josiney de Souza josineys@inf.ufpr.br Agenda do Dia Aula 15 (21/10/15) Sistemas Lineares Métodos Diretos: Regra de Cramer Método da Eliminação de Gauss (ou triangulação)

Leia mais

Descomposição de Cholesky

Descomposição de Cholesky Frederico Almeida & Guilherme Aguilar Universidade Federal de Minas Gerais 20 de Novembro de 2018 Frederico A. & Guilherme A. (ICEX - UFMG) 20 de Novembro de 2018 1 / 29 Motivação Métodos de otimização

Leia mais

Resolução de sistemas de equações lineares: Fatorações de matrizes

Resolução de sistemas de equações lineares: Fatorações de matrizes Resolução de sistemas de equações lineares: Fatorações de matrizes Marina Andretta/Franklina Toledo ICMC-USP 27 de fevereiro de 2015 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina

Leia mais

6 MÉTODO DE ELEMENTOS FINITOS - MEF

6 MÉTODO DE ELEMENTOS FINITOS - MEF 6 MÉTODO DE ELEMENTOS FINITOS - MEF O Método de Elementos Finitos é uma técnica de discretização de um problema descrito na Formulação Fraca, na qual o domínio é aproximado por um conjunto de subdomínios

Leia mais

Profs. Alexandre Lima e Moraes Junior 1

Profs. Alexandre Lima e Moraes Junior  1 Raciocínio Lógico-Quantitativo para Traumatizados Aula 07 Matrizes, Determinantes e Solução de Sistemas Lineares. Conteúdo 7. Matrizes, Determinantes e Solução de Sistemas Lineares...2 7.1. Matrizes...2

Leia mais

Cálculo Numérico Prof. Guilherme Amorim 26/11/2013. Aula 11 Sistemas de Equações Lineares / Parte 4 Convergência e Sistemas mal-condicionados

Cálculo Numérico Prof. Guilherme Amorim 26/11/2013. Aula 11 Sistemas de Equações Lineares / Parte 4 Convergência e Sistemas mal-condicionados Cálculo Numérico Prof. Guilherme Amorim 26/11/2013 Aula 11 Sistemas de Equações Lineares / Parte 4 Convergência e Sistemas mal-condicionados Aula passada... Métodos Iterativos Jacobi Gauss-Seidel Pergunta...

Leia mais

Universidade Federal de Santa Catarina Centro Tecnológico Depto de Informática e Estatística Disciplina: INE50-Cálculo Numérico Cap. - Sistemas Lineares Lista de Exercícios - Soluções 1. Resposta: a) x

Leia mais

Sistemas de Equações Lineares

Sistemas de Equações Lineares Capítulo 3 Sistemas de Equações Lineares Um sistema com n equações lineares pode ser escrito na forma : ou na forma matricial onde com a 1,1 x 1 + a 1,2 x 2 + + a x n = b 1 a 2,1 x 1 + a 2,2 x 2 + + a

Leia mais

Parte 1 - Matrizes e Sistemas Lineares

Parte 1 - Matrizes e Sistemas Lineares Parte 1 - Matrizes e Sistemas Lineares Matrizes: Uma matriz de tipo m n é uma tabela com mn elementos, denominados entradas, e formada por m linhas e n colunas. A matriz identidade de ordem 2, por exemplo,

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares

Leia mais

Cálculo Numérico. Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson

Cálculo Numérico. Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson Cálculo Numérico Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson Métodos como: Métodos exatos Método de eliminação de Gauss Método de decomposição LU Método de Cholesky

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Autovalores e Autovetores Lucia Catabriga Algoritmos Numéricos II Computação Científica Universidade Federal do Espírito Santo de junho de 24 Resumo Este texto tem por objetivo introduzir os conceitos

Leia mais

Resolução de sistemas de equações lineares: Fatorações de matrizes

Resolução de sistemas de equações lineares: Fatorações de matrizes Resolução de sistemas de equações lineares: Fatorações de matrizes Marina Andretta/Franklina Toledo ICMC-USP 27 de agosto de 2012 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina

Leia mais

UNIVERSIDADE FEDERAL DE PERNAMBUCO Lista de Exercícios / Cálculo Numérico 1ª Unidade

UNIVERSIDADE FEDERAL DE PERNAMBUCO Lista de Exercícios / Cálculo Numérico 1ª Unidade 1) Analise as alternativas abaixo e marque V para verdadeiro e F para falso. No segundo caso, explique como as tornaria verdadeiras: ( ) O método das secantes é utilizado para solucionar um problema de

Leia mais

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009 Notas para o Curso de Álgebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009 2 Sumário 1 Matrizes e Sistemas Lineares 5 11 Matrizes 6 12 Sistemas Lineares 11 121 Eliminação Gaussiana 12 122 Resolução

Leia mais

Método de Newton truncado

Método de Newton truncado Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear

Leia mais

ESPARSIDADE. Portanto é evidente que processando e armazenado apenas os elementos não nulos pode-se melhorar consideravelmente a eficiência.

ESPARSIDADE. Portanto é evidente que processando e armazenado apenas os elementos não nulos pode-se melhorar consideravelmente a eficiência. SPARSIA Revisão abril - Introdução A prática de engenharia requer muitas vezes a análise de problemas grandes e complexos que são definidos por uma série de equações algébricas lineares envolvendo milhares

Leia mais

- identificar operadores ortogonais e unitários e conhecer as suas propriedades;

- identificar operadores ortogonais e unitários e conhecer as suas propriedades; DISCIPLINA: ELEMENTOS DE MATEMÁTICA AVANÇADA UNIDADE 3: ÁLGEBRA LINEAR. OPERADORES OBJETIVOS: Ao final desta unidade você deverá: - identificar operadores ortogonais e unitários e conhecer as suas propriedades;

Leia mais

Solução de sistemas de equações lineares

Solução de sistemas de equações lineares Cálculo Numérico Solução de sistemas de equações lineares Prof Daniel G Alfaro Vigo dgalfaro@dccufrjbr Departamento de Ciência da Computação IM UFRJ Parte I Métodos diretos Motivação: Circuito elétrico

Leia mais

2. Sistemas lineares

2. Sistemas lineares 2. Sistemas lineares 2.1 Conceitos fundamentais. 2.2 Sistemas triangulares. 2.3 Eliminação de Gauss. 2.4 Decomposição LU. 2.5 Decomposição de Cholesky. 2.6 Decomposição espectral. 2.7 Uso da decomposição.

Leia mais

Cálculo Numérico Faculdade de Ciências Sociais Aplicadas e Comunicação FCSAC Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Cálculo Numérico Faculdade de Ciências Sociais Aplicadas e Comunicação FCSAC Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Cálculo Numérico Faculdade de Ciências Sociais Aplicadas e Comunicação FCSAC Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Prof. Dr. Sergio Pilling (IPD/ Física e Astronomia) REVISÃO DA 1ª PARTE

Leia mais

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 1 Matrizes e Sistemas de Equações Lineares Geometria anaĺıtica em R 3 [1 01]

Leia mais

Figura : Monitoria. Monitoria Cálculo Numérico

Figura : Monitoria. Monitoria Cálculo Numérico Monitoria Cálculo Numérico 207-02 NOME Email Dia / Horário Local Ana Sofia Nunez de Abreu nunez.asofia@gmail.com Sex. 0-2h D- Luiz Eduardo Xavier luizeduardosxavier@gmail.com Ter, 5-7h Lab Rafael Mendes

Leia mais

SME300 - Cálculo Numérico - Turma Elétrica/Automação - Prof. Murilo F. Tomé. Lista 1: Solução Numérica de Sistema Lineares A = MÉTODOS DIRETOS.

SME300 - Cálculo Numérico - Turma Elétrica/Automação - Prof. Murilo F. Tomé. Lista 1: Solução Numérica de Sistema Lineares A = MÉTODOS DIRETOS. SME300 - Cálculo Numérico - Turma Elétrica/Automação - Prof. Murilo F. Tomé Lista 1: Solução Numérica de Sistema Lineares NORMAS DE VETORES E MATRIZES 1. Dado o vetor v = ( 3, 1, 8, 2) T, calcule v 1,

Leia mais

Resolução de Sistemas Lineares. Ana Paula

Resolução de Sistemas Lineares. Ana Paula Resolução de Sistemas Lineares Sumário 1 Aula Anterior 2 Decomposição LU 3 Decomposição LU com Pivotamento 4 Revisão Aula Anterior Aula Anterior Aula Anterior Aula Anterior Eliminação de Gauss Transforma

Leia mais

Escalonamento. Sumário. 1 Pré-requisitos. 2 Sistema Linear e forma matricial. Sadao Massago a Pré-requisitos 1

Escalonamento. Sumário. 1 Pré-requisitos. 2 Sistema Linear e forma matricial. Sadao Massago a Pré-requisitos 1 Escalonamento Sadao Massago 2011-05-05 a 2014-03-14 Sumário 1 Pré-requisitos 1 2 Sistema Linear e forma matricial 1 3 Forma escalonada 3 4 Método de eliminação de Gauss (escalonamento) 5 5 A matriz inversa

Leia mais

A = Utilizando ponto flutuante com 2 algarismos significativos, 2 = 0, x (0)

A = Utilizando ponto flutuante com 2 algarismos significativos, 2 = 0, x (0) MAP 22 - CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Sistemas Lineares : Utilizando o método de eliminação de Gauss, calcule o determinante e a seguir a inversa da matriz abaixo. Efetue todos os

Leia mais

Sistemas Lineares - Eliminação de Gauss

Sistemas Lineares - Eliminação de Gauss 1-28 Sistemas Lineares - Andréa Maria Pedrosa Valli Laboratório de Computação de Alto Desempenho (LCAD) Departamento de Informática Universidade Federal do Espírito Santo - UFES, Vitória, ES, Brasil 2-28

Leia mais

Introdução aos Métodos Numéricos. Instituto de Computação UFF

Introdução aos Métodos Numéricos. Instituto de Computação UFF Introdução aos Métodos Numéricos Instituto de Computação UFF Conteúdo Erros e Aproximações Numéricas Sistemas de Equações Lineares. Métodos diretos Interpolação Ajuste de Curvas Zeros de Função Sistemas

Leia mais

Resolução de Sistemas Lineares. Método de Gauss. O algoritimo conhecido como Método de Gauss é desenvolvido a partir de dois ingredientes básicos:

Resolução de Sistemas Lineares. Método de Gauss. O algoritimo conhecido como Método de Gauss é desenvolvido a partir de dois ingredientes básicos: Resolução de Sistemas Lineares Método de Gauss O algoritimo conhecido como Método de Gauss é desenvolvido a partir de dois ingredientes básicos: Resolução de Sistemas Lineares Triangulares Procedimento

Leia mais

4.1 Resolvendo o Sistema Linear

4.1 Resolvendo o Sistema Linear 4 Solução Numérica 4.1 Resolvendo o Sistema Linear Resolveremos o sistema (2 7) pelo método de Usawa acelerado por Gradiente Conjugado (ver [15, pp. 202]). Primeiro eliminamos a variável u e depois resolvemos

Leia mais

SME602 - Cálculo Numérico - - Prof. Murilo F. Tomé. Solução Numérica de Sistema Lineares A = MÉTODOS DIRETOS. x y z

SME602 - Cálculo Numérico - - Prof. Murilo F. Tomé. Solução Numérica de Sistema Lineares A = MÉTODOS DIRETOS. x y z SME602 - Cálculo Numérico - - Prof. Murilo F. Tomé Solução Numérica de Sistema Lineares NORMAS DE VETORES E MATRIZES 1. Dado o vetor v = (, 1, 8, 2) T, calcule v 1, v 2 e v. 2. Dada a matriz: A = 5 7 2

Leia mais

Vetores e Geometria Analítica

Vetores e Geometria Analítica Vetores e Geometria Analítica ECT2102 Prof. Ronaldo Carlotto Batista 23 de fevereiro de 2016 AVISO O propósito fundamental destes slides é servir como um guia para as aulas. Portanto eles não devem ser

Leia mais

Álgebra Linear e Geometria Analítica

Álgebra Linear e Geometria Analítica Álgebra Linear e Geometria Analítica Engenharia Electrotécnica Escola Superior de Tecnologia de Viseu wwwestvipvpt/paginaspessoais/lucas lucas@matestvipvpt 007/008 Álgebra Linear e Geometria Analítica

Leia mais

Interpolação polinomial

Interpolação polinomial Cálculo Numérico Prof. Daniel G. Alfaro Vigo dgalfaro@dcc.ufrj.br Departamento de Ciência da Computação IM UFRJ Motivação: População do Brasil Ano População (milhões) 1960 70, 992343 1970 94, 508583 1980

Leia mais

Matemática Computacional - Exercícios

Matemática Computacional - Exercícios Matemática Computacional - Exercícios 1 o semestre de 2007/2008 - Engenharia Biológica Teoria de erros e Representação de números no computador Nos exercícios deste capítulo os números são representados

Leia mais

étodos uméricos SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS ORDINÁRIOAS Prof. Erivelton Geraldo Nepomuceno

étodos uméricos SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS ORDINÁRIOAS Prof. Erivelton Geraldo Nepomuceno étodos uméricos SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS ORDINÁRIOAS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA

Leia mais

Universidade Federal do Espírito Santo - UFES

Universidade Federal do Espírito Santo - UFES Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof Isaac P Santos - 2018/1 Aula: Sistemas Lineares 1 Sistemas

Leia mais

Refletores de Householder e Fatoração QR

Refletores de Householder e Fatoração QR Refletores de Householder e Fatoração QR Antonio Elias Fabris Instituto de Matemática e Estatística Universidade de São Paulo Map 2210 Aplicações de Álgebra Linear Antonio Elias Fabris (IME-USP) Householder

Leia mais

Álgebra Linear Exercícios Resolvidos

Álgebra Linear Exercícios Resolvidos Álgebra Linear Exercícios Resolvidos Agosto de 001 Sumário 1 Exercícios Resolvidos Uma Revisão 5 Mais Exercícios Resolvidos Sobre Transformações Lineares 13 3 4 SUMA RIO Capítulo 1 Exercícios Resolvidos

Leia mais

Conceitos fundamentais em uma dimensão Bases

Conceitos fundamentais em uma dimensão Bases fundamentais em uma dimensão PME5425 Métodos de Elementos Finitos de Alta Ordem com Aplicações em Mecânica dos Fluidos e Transferência de Calor Prof. Programa de Pós-Graduação em Engenharia Mecânica Escola

Leia mais

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1 QUESTÕES ANPEC ÁLGEBRA LINEAR QUESTÃO 0 Assinale V (verdadeiro) ou F (falso): (0) Os vetores (,, ) (,,) e (, 0,) formam uma base de,, o espaço vetorial gerado por,, e,, passa pela origem na direção de,,

Leia mais

CCI-22 FORMALIZAÇÃO CCI-22 MODOS DE SE OBTER P N (X) Prof. Paulo André CCI - 22 MATEMÁTICA COMPUTACIONAL INTERPOLAÇÃO

CCI-22 FORMALIZAÇÃO CCI-22 MODOS DE SE OBTER P N (X) Prof. Paulo André CCI - 22 MATEMÁTICA COMPUTACIONAL INTERPOLAÇÃO CCI - MATEMÁTICA COMPUTACIONAL INTERPOLAÇÃO Prof. Paulo André ttp://www.comp.ita.br/~pauloac pauloac@ita.br Sala 0 Prédio da Computação -Gregory DEFINIÇÃO Em matemática computacional, interpolar significa

Leia mais

Cap. 4. Resolução Numérica de Sistemas Lineares. Filipe J. Romeiras

Cap. 4. Resolução Numérica de Sistemas Lineares. Filipe J. Romeiras MATEMÁTICA COMPUTACIONAL Cap. 4. Resolução Numérica de Sistemas Lineares Filipe J. Romeiras Departamento de Matemática Instituto Superior Técnico Outubro de 2007 Apontamentos das aulas da disciplina do

Leia mais

Algoritmos Numéricos II. Lucia Catabriga 1

Algoritmos Numéricos II. Lucia Catabriga 1 Algoritmos Numéricos II Autovalores e Autovetores Métodos de Transformação Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2014 Introdução Introdução Os métodos de transformação tem por objetivo modificar a

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear

Leia mais

Consideremos um sistema linear de n equações lineares e n incógnitas, do tipo:

Consideremos um sistema linear de n equações lineares e n incógnitas, do tipo: 58 3. Resolução de Sistemas Lineares MÉTODOS DIRETOS: são métodos que determinam a solução de um sistema linear com um número finito de operações. Entre os métodos diretos (Eliminação de Gauss, Eliminação

Leia mais

Modelagem Computacional. Parte 6 2

Modelagem Computacional. Parte 6 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 6 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 6 e 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Prof. MSc. David Roza José 1/26

Prof. MSc. David Roza José 1/26 1/26 Mínimos Quadrados Geral e Regressão Não Linear Objetivos: Implementar a regressão polinomial; Implementar regressão múltipla linear; Entender a formulação do modelo linear geral de mínimos quadrados;

Leia mais

Métodos Iterativos para a Solução da Equação de Poisson

Métodos Iterativos para a Solução da Equação de Poisson Métodos Iterativos para a Solução da Equação de Poisson Valdirene da Rosa Rocho, Dagoberto Adriano Rizzotto Justo, Programa de Pós-Graduação em Matemática Aplicada, PPGMap, UFRGS, 91509-900, Porto Alegre,

Leia mais

Física Computacional 18 matrizes: inversão, valores próprios e sol. da eq. De Schrödinger

Física Computacional 18 matrizes: inversão, valores próprios e sol. da eq. De Schrödinger Física Computacional 18 matrizes: inversão, valores próprios e sol. da eq. De Schrödinger 1. Trabalhar com matrizes, e aplicá-las a um problema físico a. Inversão da matriz, eliminação de Gauss b. Determinante

Leia mais

Métodos Numéricos e Estatísticos Parte I-Métodos Numéricos

Métodos Numéricos e Estatísticos Parte I-Métodos Numéricos Métodos Numéricos e Estatísticos Parte I-Métodos Numéricos Lic. Eng. Biomédica e Bioengenharia-2009/2010 lineares Muitos problemas da Física, Matemática, Engenharia, Biologia, economia e outras ciências,

Leia mais

Aula 25 - Espaços Vetoriais

Aula 25 - Espaços Vetoriais Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado

Leia mais

Resolução de sistemas de equações lineares: Fatorações de matrizes

Resolução de sistemas de equações lineares: Fatorações de matrizes Resolução de sistemas de equações lineares: Fatorações de matrizes Marina Andretta/Franklina Toledo ICMC-USP 5 de fevereiro de 2014 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina

Leia mais

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ Introdução Dada uma função y = f(x), o objetivo deste

Leia mais

Modelagem Computacional. Parte 8 2

Modelagem Computacional. Parte 8 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Laboratório de Simulação Matemática. Parte 6 2

Laboratório de Simulação Matemática. Parte 6 2 Matemática - RC/UFG Laboratório de Simulação Matemática Parte 6 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 6] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago

Leia mais

SME Cálculo Numérico. Lista de Exercícios: Gabarito

SME Cálculo Numérico. Lista de Exercícios: Gabarito Exercícios de prova SME0300 - Cálculo Numérico Segundo semestre de 2012 Lista de Exercícios: Gabarito 1. Dentre os métodos que você estudou no curso para resolver sistemas lineares, qual é o mais adequado

Leia mais

1 Álgebra linear matricial

1 Álgebra linear matricial MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a

Leia mais

étodos uméricos ZEROS DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos ZEROS DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos ZEROS DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA

Leia mais

Métodos numéricos para soluções de sistemas lineares

Métodos numéricos para soluções de sistemas lineares Métodos numéricos para soluções de sistemas lineares FACIP/UFU 1 de Junho de 2017 (FACIP/UFU) Métodos numéricos para soluções de sistemas lineares 1 de Junho de 2017 1 / 7 Motivação Os métodos numéricos

Leia mais