Notas de Aula. Álgebra Linear Numérica

Documentos relacionados
Análise de Arredondamento em Ponto Flutuante

Exercícios Teóricos Resolvidos

Notas de Cálculo Numérico

Universidade Federal de São João Del Rei - UFSJ

Capítulo SETE Números em Ponto Fixo e Ponto Flutuante

Representação de números em máquinas

Introdução. A Informação e sua Representação (Parte II) Universidade Federal de Campina Grande. Unidade Acadêmica de Sistemas e Computação

Unidade 5: Sistemas de Representação

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser:

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Eduardo Camponogara. DAS-5103: Cálculo Numérico para Controle e Automação. Departamento de Automação e Sistemas Universidade Federal de Santa Catarina

Resolução de sistemas lineares

Aritmética de Ponto Flutuante

Problemas de Valor Inicial para Equações Diferenciais Ordinárias

Notas sobre a Fórmula de Taylor e o estudo de extremos

Potenciação no Conjunto dos Números Inteiros - Z

CAPÍTULO 2. Grafos e Redes

Lista 1 para a P2. Operações com subespaços

REPRESENTAÇÃO DE DADOS EM SISTEMAS DE COMPUTAÇÃO AULA 03 Arquitetura de Computadores Gil Eduardo de Andrade

1 Propagação de Onda Livre ao Longo de um Guia de Ondas Estreito.

Capítulo 5: Aplicações da Derivada

Campos Vetoriais e Integrais de Linha

Exercícios Adicionais

Aula 2 - Cálculo Numérico

Retas e Planos. Equação Paramétrica da Reta no Espaço

Organização e Arquitetura de Computadores I

7 - Análise de redes Pesquisa Operacional CAPÍTULO 7 ANÁLISE DE REDES. 4 c. Figura Exemplo de um grafo linear.

INSTITUTO TECNOLÓGICO

Prova de Admissão para o Mestrado em Matemática IME-USP

ESPAÇOS MUNIDOS DE PRODUTO INTERNO

Álgebra. SeM MiSTéRio

Universidade Federal de São Carlos Departamento de Matemática Curso de Cálculo Numérico - Turma E Resolução da Primeira Prova - 16/04/2008

por séries de potências

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES SISTEMAS DE NUMERAÇÃO: REPRESENTAÇÃO EM PONTO FLUTUANTE. Prof. Dr. Daniel Caetano

Representando Instruções no Computador

Testedegeradoresde. Parte X. 38 Testes de Ajuste à Distribuição Teste Chi-Quadrado

Equações Diferenciais Ordinárias

Capítulo 7. Topologia Digital. 7.1 Conexidade

2. Representação Numérica

CCI-22 CCI-22. 2) Erros de arredondamento. Matemática Computacional

Métodos Numéricos. Turma CI-202-X. Josiney de Souza.

Material Teórico - Módulo de Métodos sofisticados de contagem. Princípio das Casas dos Pombos. Segundo Ano do Ensino Médio

36 a Olimpíada Brasileira de Matemática Nível Universitário Primeira Fase

Um estudo sobre funções contínuas que não são diferenciáveis em nenhum ponto

Cálculo Numérico Aula 1: Computação numérica. Tipos de Erros. Aritmética de ponto flutuante

Truques e Dicas. = 7 30 Para multiplicar fracções basta multiplicar os numeradores e os denominadores: 2 30 = 12 5

Aula 4 Estatística Conceitos básicos

Capítulo 1 - Erros e Aritmética Computacional

Aula 4 Conceitos Básicos de Estatística. Aula 4 Conceitos básicos de estatística

Álgebra Linear. André Arbex Hallack Frederico Sercio Feitosa

Curvas de nível homotópicas a um ponto

Aula 9 Plano tangente, diferencial e gradiente

0, OU COMO COLOCAR UM BLOCO QUADRADO EM UM BURACO REDONDO Pablo Emanuel

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

Aula 2 Sistemas de Numeração (Revisão)

Exercícios 1. Determinar x de modo que a matriz

Somatórias e produtórias

MD Sequências e Indução Matemática 1

AV1 - MA (b) Se o comprador preferir efetuar o pagamento à vista, qual deverá ser o valor desse pagamento único? 1 1, , , 980

Karine Nayara F. Valle. Métodos Numéricos de Euler e Runge-Kutta

Métodos Numéricos. A. Ismael F. Vaz. Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.

Cálculo em Computadores trajectórias 1. Trajectórias Planas. 1 Trajectórias. 4.3 exercícios Coordenadas polares 5

Faculdade de Computação

Curvas em coordenadas polares

a 1 x a n x n = b,

Material Teórico - Aplicações das Técnicas Desenvolvidas. Exercícios e Tópicos Relacionados a Combinatória. Segundo Ano do Ensino Médio

Introdução. A Informação e sua Representação (Parte III) Universidade Federal de Campina Grande Departamento de Sistemas e Computação

CADERNO DE ATIVIDADES UMA PROPOSTA METODOLÓGICA PARA O ESTUDO DAS EQUAÇÕES DIFERENCIAIS ORDINÁRIAS POR MÉTODOS NUMÉRICOS.

TÉCNICAS DE PROGRAMAÇÃO

A otimização é o processo de

Fração como porcentagem. Sexto Ano do Ensino Fundamental. Autor: Prof. Francisco Bruno Holanda Revisor: Prof. Antonio Caminha M.

Texto 07 - Sistemas de Partículas. A figura ao lado mostra uma bola lançada por um malabarista, descrevendo uma trajetória parabólica.

Discussão de Sistemas Teorema de Rouché Capelli

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas?

FACULDADE DE CIÊNCIA E TECNOLOGIA. Cursos de Engenharia. Prof. Álvaro Fernandes Serafim

CURSO E COLÉGIO APOIO. Professor: Ronaldo Correa

Universidade Federal Fluminense ICEx Volta Redonda Introdução a Matemática Superior Professora: Marina Sequeiros

UNIVERSIDADE FEDERAL DO ESPÍRITO SANTO PROGRAMA DE EDUCAÇÃO TUTORIAL - MATEMÁTICA PROJETO FUNDAMENTOS DE MATEMÁTICA ELEMENTAR

Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB

QUESTÕES COMENTADAS E RESOLVIDAS

Organização e Arquitetura de Computadores. Aula 10 Ponto Flutuante Parte I Juliana F. Camapum Wanderley

Capítulo 3 - Sistemas de Equações Lineares

Capítulo 3 - Sistemas de Equações Lineares

Sistema de equações lineares

7 AULA. Curvas Polares LIVRO. META Estudar as curvas planas em coordenadas polares (Curvas Polares).

ANÁLISE NUMÉRICA DEC /97

Linguagem e Técnicas de Programação I Tipos de dados, variáveis e constantes. Prof. MSc. Hugo Souza Material desenvolvido por: Profa.

Gráficos de funções em calculadoras e com lápis e papel (*)

Um jogo de preencher casas

Computadores XII: Aprendendo a Somar A4 Texto 3

Notas Para um Curso de Cálculo. Daniel V. Tausk

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 6. O trabalho feito pela força para deslocar o corpo de a para b é dado por: = =

As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

Exercícios resolvidos P2

Vetores. Definição geométrica de vetores

DICAS PARA CÁLCULOS MAIS RÁPIDOS ARTIGO 06

Aula 3 OS TRANSITÒRIOS DAS REDES ELÉTRICAS

Introdução ao estudo de equações diferenciais

Dinâmica de um Sistema de Partículas Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Aritmética de Ponto Flutuante e Noções de Erro. Ana Paula

Transcrição:

Notas de Aula Álgebra Linear Numérica Rodney Josué Biezuner 1 Departamento de Matemática Instituto de Ciências Exatas ICEx) Universidade Federal de Minas Gerais UFMG) Notas de aula da disciplina Álgebra Linear Numérica do Curso de Graduação em Matemática Computacional, ministrado durante o segundo semestre do ano de 2009 30 de novembro de 2009 1 E-mail: rodney@matufmgbr; homepage: http://wwwmatufmgbr/ rodney

Sumário 0 Introdução: Representação de Números Reais no Computador 3 01 Ponto Flutuante 3 02 Erros de Arredondamento 5 03 O Padrão de Ponto Flutuante IEEE 754 5 031 Números normalizados 5 032 Números denormalizados 6 033 Outros valores numéricos 6 1 Matrizes Esparsas 7 11 Problema Modelo 7 111 Problema de Poisson Unidimensional 7 112 Problema de Poisson Bidimensional 8 12 Matrizes Esparsas 10 13 Implementação Computacional de Matrizes Esparsas 11 2 Invertibilidade de Matrizes Esparsas 13 21 Normas Matriciais 13 22 Matrizes Diagonalmente Dominantes 18 23 Teorema dos Discos de Gershgorin 19 24 Propriedade FC 22 25 Matrizes Irredutíveis 27 26 Exercícios 29 3 Métodos Iterativos Lineares 31 31 Método Iterativos Básicos 32 311 Método de Jacobi 32 312 Método de Gauss-Seidel 33 313 Método SOR 33 314 Comparação da Velocidade de Convergência dos Três Métodos no Problema Modelo 34 315 Método de Jacobi Amortecido 35 32 Análise de Convergência dos Métodos Iterativos Lineares 36 321 Convergência dos Métodos Iterativos Lineares 37 322 Velocidade de Convergência dos Métodos Iterativos Lineares 40 323 Convergência para Matrizes Simétricas Positivas Definidas 42 33 Convergência dos Métodos Iterativos Lineares para Matrizes de Discretização 44 331 Convergência do Método de Jacobi 44 332 Convergência do Método de Gauss-Seidel 50 333 Convergência do Método SOR 52 334 Convergência do Método de Jacobi Amortecido 59 335 Resumo 61 1

Rodney Josué Biezuner 2 34 Exercícios 61 4 Métodos de Projeção 62 41 Teoria Geral 62 411 Representação Matricial 63 412 Minimização de Funcionais 64 413 Estimativa do Erro em Métodos de Projeção 66 42 Caso Unidimensional: Métodos de Descida 67 421 Métodos de Descida 67 422 Método da Descida Mais Acentuada 68 43 Exercícios 72 5 Métodos de Subespaços de Krylov 74 51 Motivação 74 52 Subespaços de Krylov 75 53 Algoritmo de Arnoldi 76 54 Implementação Prática: Métodos de Ortogonalização Estáveis 79 541 Método de Gram-Schmidt Modificado MGS) 79 542 Método de Gram-Schmidt Modificado com Reortogonalização MGSR) 82 55 Método de Arnoldi para Sistemas Lineares 83 56 Decomposição QR via MGS 85 57 Algoritmo de Lanczos e Método do Gradiente Conjugado 87 58 Método do Gradiente Conjugado como um Método de Descida 91 581 Convergência do Método do Gradiente Conjugado em Aritmética Exata 94 59 Velocidade de Convergência do Método do Gradiente Conjugado 96 591 Polinômios de Chebyshev 96 592 Velocidade de Convergência do CG 99 510 Exercícios 101 6 O Problema do Autovalor 102 61 Caracterização Variacional dos Autovalores de uma Matriz Simétrica: Quociente de Rayleigh 102 62 Método das Potências 105 621 Método das Potências Inverso 107 622 Método das Potências com Deslocamento 107 623 Iteração do Quociente de Rayleigh 109 63 Algoritmo QR 110 631 Redução de uma matriz a sua forma de Hessenberg 111 632 Aceleração do algoritmo QR 114 633 Implementação prática do algoritmo QR 116 64 Iteração de subespaços e iteração simultânea 116 641 Equivalência entre o Algoritmo QR e Iteração Simultânea 118 642 Convergência do Algoritmo QR 119 65 Método de Arnoldi e Algoritmo de Lanczos 119 66 O Problema de Autovalor Simétrico 120 67 Exercícios 121

Capítulo 0 Introdução: Representação de Números Reais no Computador Computadores digitais usam um número finito de bits para representar um número real, portanto eles podem representar apenas um subconjunto finito dos números reais, o que leva a dois tipos diferentes de limitações: 1) números representados não podem ser arbitrariamente grandes ou arbitrariamente pequenos; 2) existem lacunas entre os numéros representados Estas limitações físicas levam respectivamente aos erros de overflow e underflow e aos erros de arredondamento Para discutir estes erros de maneira inteligente, introduzimos alguma terminologia 01 Definição Definimos o erro absoluto causado por uma computação por Erro absoluto = valor calculado) valor exato) O erro relativo causado por uma computação é definido por Erro relativo = erro absoluto valor exato O erro relativo permite comparar entre os erros cometidos de maneira significativa Por exemplo, o erro absoluto entre 1 valor exato) e 2 valor calculado) e o erro absoluto entre 1000000 valor exato) e 1000001 valor calculado) são os mesmos No entanto, o erro relativo no primeiro caso é 1, enquanto que o erro relativo no segundo caso é 10 6, expressando o fato intuitivo que o erro cometido no primeiro caso é muito maior que o erro cometido no segundo caso Às vezes o erro relativo é expresso como uma porcentagem: Erro percentual = [erro relativo) 100] % Assim, o erro percentual no primeiro caso é 100%, enquanto que o erro percentual no segundo caso é 10 4 = 0, 0001% 01 Ponto Flutuante Na Matemática Pura, os números reais são infinitos, infinitamente grandes e infinitamente pequenos Não existe um número maior ou um número menor Além disso, eles também são continuamente distribuídos: não existem espaços entre números reais, pois entre quaisquer dois números reais sempre existe outro número real Mais que isso, eles são distribuídos uniformemente na reta real Um número real é infinitamente preciso: 3

Rodney Josué Biezuner 4 os números depois do ponto decimal são infinitos incluindo o 0) Em outras palavras, usando a base 10, números reais correspondem a séries da forma a = a 0 + onde a 0 Z e a n {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} O padrão para representar números reais em Matemática Computacional é o número de ponto flutuante Números de ponto flutuante não são infinitos: existe um número de ponto flutuante máximo e um número de ponto flutuante mínimo Existe um número fixado de pontos flutuantes, logo existem espaços entre eles Números de ponto flutuante de precisão simples tipo float) tem aproximadamente 8 dígitos decimais significantes, enquanto que números de ponto flutuante de precisão dupla tipo double) tem aproximadamente 17 dígitos decimais significantes O qualificativo aproximadamente se refere ao fato que os números de ponto flutuante são armazenados no computador na base binária, logo a conversão da base binária para a base decimal introduz alguma imprecisão Um número de ponto flutuante é armazenado internamente em duas partes: um significando e um expoente, semelhante à notação científica Esta escolha de representação garante que a distribuição dos valores representados em ponto flutuante não será uniforme Para entender isso, vamos assumir que o significando é limitado a um único dígito decimal e que o expoente é restrito aos valores 1, 0, 1 A tabela abaixo registra todos os números reais positivos que podemos representar: n=1 a n 10 n 1 0 1 0 0 1 1 10 1 = 0, 1 1 10 0 = 1 1 10 1 = 10 2 2 10 1 = 0, 2 2 10 0 = 2 2 10 1 = 20 3 3 10 1 = 0, 3 3 10 0 = 3 3 10 1 = 30 4 4 10 1 = 0, 4 4 10 0 = 4 4 10 1 = 40 5 5 10 1 = 0, 5 5 10 0 = 5 5 10 1 = 50 6 6 10 1 = 0, 6 6 10 0 = 6 6 10 1 = 60 7 7 10 1 = 0, 7 7 10 0 = 7 7 10 1 = 70 8 8 10 1 = 0, 8 8 10 0 = 8 8 10 1 = 80 9 9 10 1 = 0, 9 9 10 0 = 9 9 10 1 = 90 O fato do espaço entre os valores em ponto flutuante aumentar em proporção ao tamanho dos números é que justifica o nome ponto flutuante Uma representação em que os espaços entre os valores representados tem um tamanho fixo é chamada uma representação em ponto fixo 02 Definição Definimos a precisão de um ponto flutuante como sendo o número de dígitos significativos que ele possui em seu significando A exatidão de um ponto flutuante é a sua aproximação do valor exato Quanto mais dígitos significativos um ponto flutuante possui, mais preciso ele é: o double 03333333333333333 é uma representação mais precisa do número real 1/3 do que o float 03333333 Por outro lado, o float 03333333 é uma representação mais exata de 1/3 do que o double 03444444444444444, apesar deste ser um ponto flutuante mais preciso, porque a maioria dos seus dígitos significativos estão errados Os erros computacionais tais como os erros de cancelamento e arredondamento afetam a exatidão de um valor em ponto flutuante Aumentar a precisão de float para double tem o potencial de aumentar a exatidão, mas não a garante

Rodney Josué Biezuner 5 02 Erros de Arredondamento Quando um valor computado está entre dois valores representáveis, ele será substituído pelo valor representado mais próximo Esta é a origem dos erros de arredondamento 03 Definição Definimos o erro de arredondamento por Erro de arredondamento = valor representado) valor exato) 04 Definição Um erro de cancelamento é um erro de arredondamento que ocorre quando a maioria dos dígitos significativos são perdidos durante a subtração de dois valores aproximadamente iguais 03 O Padrão de Ponto Flutuante IEEE 754 Antes do padrão IEEE 754 ser publicado em 1985, existiam muitos formatos de ponto flutuante implementados em hardware e software, o que dificultava a portabilidade dos programas Os resultados obtidos variavam de uma máquina para outra Atualmente, a maioria dos fabricadores aderem ao padrão IEEE 754, fruto de uma cooperação histórica entre cientistas de computação e desenhistas de chips de microprocessadores A sigla IEEE significa Institute of Electrical and Electronics Engineers Os formatos de precisão aritmética simples float e dupla double são armazenados em 32 bits e 64 bits, respectivamente Cada formato divide um número em três partes: sinal um bit), expoente e fração Os dois formatos diferem quanto ao número de bits alocados para o expoente e para a fração No formato float 8 bits são alocados para o expoente e 23 para a fração, enquanto que no formato double 11 bits são alocados para o expoente e 52 para a fração O bit de sinal representa o sinal do número: 0 para positivo e 1 para negativo O expoente não possui sinal: para representar expoentes negativos, o padrão adiciona um viés positivo; para obter o valor verdadeiro do expoente sem viés), é necessário subtrair o viés No formato de precisão simples, o expoente com 8 bits pode armazenar valores com viés) entre 0 e 255, mas 0 e 255 são reservados; o viés é 127, de modo que os valores verdadeiros sem viés) do expoente variam entre 126 e +127 No formato de precisão dupla, o expoente com 11 bits pode armazenar valores com viés) entre 0 e 2047, com 0 e 2047 são reservados; o viés é 1023, de modo que os valores verdadeiros sem viés) do expoente variam entre 1022 e +1023 031 Números normalizados Representemos por s o sinal, e o expoente e f a fração Quando e não é um valor reservado isto é, 1 e 254 no formato float e 1 e 2047 no formato double) existe um algarismo 1 e um ponto binário implícitos à esquerda do primeiro bit de f, de modo que o número representado por s, e, f é o número n = 1) s 1f) 2 E onde E = e 127 float) ou E = e 1023 double), chamado um número normalizado O algarismo 1 e o ponto binário implícitos, juntamente com a parte fracionária f, constituem o significando do número, de modo que um número de precisão simples possui 24 bits no seu significando, enquanto que um número de precisão dupla possui 53 bits no seu significando Assim, o maior valor possível em módulo para float corresponde a s = 1, e = 254 e f = 11111111111111111111111, ou seja, 23 i=0 1 2 i 2127 3, 4028 10 38,

Rodney Josué Biezuner 6 enquanto que o maior valor possível em módulo para double corresponde a s = 0, e = 2047 e f = 1111111111111111111111111111111111111111111111111111, ou seja, 52 i=0 1 2 i 21023 1, 7977 10 308 032 Números denormalizados Se e = 0 um dos valores reservados) e f 0, nós temos o que se chama um número denormalizado ou subnormal) Existe um algarismo 0 e um ponto binário implícitos à esquerda do primeiro bit de f, de modo que o número representado por s, e, f é o número n = 1) s 0f) 2 E onde E = 126 float) ou E = 1022 double) Assim, o menor valor possível em módulo para float corresponde a s = 0, e = 0 e f = 00000000000000000000001, ou seja, 1 2 23 2 126 1, 4013 10 45, um pouco menor do que o menor valor possível 1 2 126 = 1, 1755 10 38 para um float normalizado, correspondente a s = 0, e = 1 e f = 00000000000000000000000 O menor valor possível em módulo para double corresponde a s = 0, e = 0 e f = 0000000000000000000000000000000000000000000000000001, ou seja, 1 2 52 2 1022 4, 9407 10 324 um pouco menor do que o menor valor possível 1 2 1022 2, 2251 10 308 para um double normalizado, correspondente a s = 0, e = 1 e f = 0000000000000000000000000000000000000000000000000000 A existência dos números denormalizados permitem uma convergência para zero menos abrupta Quando os valores computados vão se tornando menores e menores, atingindo o menor valor possível para um float ou double normalizado, ao invés de caírem abruptamente para zero na próxima iteração, eles são convertidos em números denormalizados No entanto, o espaço entre números representados no intervalo [1, 2] é igual a 2 52 222 10 16 ; em geral, no intervalo [ 2 j, 2 j+1] o espaço é 2 j 2 52, de modo que o espaço relativo nunca excede 2 52 033 Outros valores numéricos Se e = f = 0, o valor numérico é 0 ou +0, dependendo de s Se f = 0 e e = 255 para float ou se e = 2047 para double, então o valor numérico é Infinity ou +Infinity Se f 0 e e = 255 para float ou se e = 2047 para double, então independentemente do valor de 0 nós temos NaN Not a Number) Por exemplo, dividindo 0 por 0 resulta em NaN Em geral, no padrão IEEE 754 uma operação inválida produz NaN, divisão por zero produz ±Infinity, overflow produz o maior número normalizado possível ou ±Infinity e underflow produz ±0, o menor número normalizado possível ou um número denormalizado

Capítulo 1 Matrizes Esparsas Matrizes esparsas são matrizes onde a imensa maioria das entradas são nulas Esta é uma definição vaga Não existe um limite inferior para o número de zeros em uma matriz, em relação ao tamanho desta, a partir do qual podemos declarar uma matriz com sendo esparsa Isto é, não existe um limite preciso a partir do qual uma matriz deixa de ser esparsa e se torna uma matriz densa isto é, uma matriz em que o número de zeros é irrelevante) Em geral, matrizes esparsas são definidas operacionalmente, no sentido de que uma matriz pode ser chamada esparsa, sempre que técnicas especiais podem ser usadas para tirar vantagem do grande número de zeros e sua localização Equações diferenciais parciais são a maior fonte de problemas de álgebra linear numérica envolvendo matrizes esparsas Engenheiros elétricos lidando com redes elétricas nos anos 1960s foram os primeiros a explorar a esparcidade das matrizes de coeficientes associadas aos problemas tratados para resolver sistemas lineares Como os computadores tinham pouca capacidade de armazenamento e poder de processamento, e os problemas envolviam um número enorme de variáveis, métodos de solução direta que tiram vantagem da existência de um número muito grande de zeros tiveram que ser desenvolvidos 11 Problema Modelo Como fonte de matrizes esparsas, consideraremos o problema de resolver a equação de Poisson com condição de Dirichlet discretizada através de diferenças finitas em uma e duas dimensões, que fornece uma matriz esparsa simétrica 111 Problema de Poisson Unidimensional Considere o problema de Dirichlet para a equação de Poisson no intervalo unitário I = 0, 1): { u = f x) se 0 < x < 1, u 0) = a, u 1) = b Seja h > 0 As expansões de Taylor para uma função u à direita e à esquerda de um ponto x 0 são dadas respectivamente por e Se somarmos estas duas equações, obtemos ux 0 + h) = ux 0 ) + u x 0 )h + 1 2! u x 0 )h 2 + 1 3! u x 0 )h 3 +, ux 0 h) = ux 0 ) u x 0 )h + 1 2! u x 0 )h 2 1 3! u x 0 )h 3 + u x 0 ) = ux 0 h) 2ux 0 ) + ux 0 + h) h 2 2 4! u4) x 0 )h 2 2 5! u6) x 0 )h 4, 7 11)

Rodney Josué Biezuner 8 o que fornece uma aproximação para a derivada segunda u x 0 ) de u em x 0 : com erro u x 0 ) ux 0 h) 2ux 0 ) + ux 0 + h) h 2 ɛ = 1 12 u4) ξ)h 2 = Oh 2 ), onde x 0 h ξ x 0 + h Esta aproximação é chamada uma diferença centrada para a derivada segunda Divida o intervalo [0, 1] em n subintervalos de comprimento h = 1/n através de n 1 pontos interiores uniformemente espaçados: x 0 = 0, x 1 = h, x 2 = 2h,, x n 1 = n 1) h, x n = nh = 1, de modo que [0, 1] = [x 0, x 1 ] [x 1, x 2 ] [x n 1, x n ] Introduzimos a notação: u i = ux i ), f i = f x i ) Esta é uma discretização uniforme do intervalo [0, 1] Uma vez discretizado o domínio da equação diferencial parcial, procedemos à discretização desta última Usando diferenças centradas para cada ponto interior x i, 1 i n 1, temos u i 1 + 2u i u i+1 h 2 = f i 12) Esta discretização em diferenças finitas para a equação de Poisson é chamada fórmula dos três pontos Portanto, para encontrar a solução discretizada temos que resolver o sistema linear com n 1 equações a n 1 incógnitas: h 2 2u 1 u 2 ) = f 1 + ah 2 h 2 u 1 + 2u 2 u 3 ) = f 2, ou seja, 1 h 2 h 2 u n 3 + 2u n 2 u n 1 ) = f n 2 h 2 u n 2 + 2u n 1 ) = f n 1 + bh 2 2 1 1 2 1 1 1 1 2 1 1 2 Esta é uma matriz tridiagonal, simétrica e esparsa 112 Problema de Poisson Bidimensional u 1 u 2 u n 2 u n 1 = f 1 + ah 2 f 2 f n 2 f n 1 + bh 2 Considere o problema de Dirichlet homogêneo para a equação de Poisson no quadrado unitário Ω = 0, 1) 0, 1) { u = f x, y) em Ω, 13) u = 0 sobre Ω Discretizamos o quadrado Ω através dos pontos x i, y j ) = ih, jh), 0 i, j n,

Rodney Josué Biezuner 9 onde h = 1 n, produzindo a malha ou gride) uniforme Ω d = { x, y) Ω : x = i x, y = j y, 0 i, j n } A malha dos pontos interiores é dada por Ω d = {x, y) Ω : x = i x, y = j y, 1 i, j n 1}, enquanto que a fronteira discretizada é o conjunto Ω d = {x, y) Ω : x = i x, y = j y, 0 i n, 0 j m} A equação de Poisson pode ser agora discretizada Denotamos u xx u yy = f x, y) u i,j = u x i, y j ), f i,j = f x i, y j ) Aproximamos cada derivada parcial de segunda ordem pela sua diferença centrada, obtendo u xx u i 1,j + 2u i,j u i+1,j x 2, u yy u i,j 1 + 2u i,j u i,j+1 y 2 Portanto, a equação de Poisson discretizada toma a forma u i 1,j u i,j 1 + 4u i,j u i+1,j u i,j+1 h 2 = f i,j 14) Como a função u é calculada em cinco pontos, esta discretização em diferenças finitas para a equação de Poisson é chamada a fórmula dos cinco pontos Para cada ponto interior da malha obtemos uma equação, logo temos um sistema linear de n 1) 2 equações com o mesmo número de incógnitas Diferente do caso unidimensional, no entanto, não existe uma maneira natural de ordenar os pontos da malha, logo não podemos obter imediatamente uma representação matricial para o problema discretizado Precisamos antes escolher uma ordenação para os pontos da malha, e como existem várias ordenações possíveis, existem várias matrizes associadas Talvez a mais simples ordenação é a ordem lexicográfica Nesta ordem, os pontos da malha são percorridos linha por linha, da esquerda para a direita, de baixo para cima: u 1,1, u 2,1,, u n 1,1, u 1,2, u 2,2,, u n 1,2,, u 1,m 1, u 2,m 1,, u n 1,m 1 Neste caso, a matriz associada ao sistema linear é uma matriz n 1) 2 n 1) 2 que pode ser escrita como uma matriz de n 1) 2 blocos de dimensão n 1) n 1) na forma B I I B I A = 1 I h 2 I I B I I B n 1) n 1)

Rodney Josué Biezuner 10 onde I é a matriz identidade n 1) n 1) e B é a matriz n 1) n 1) dada por Observe que B = para todo 1 i n 1) 2, enquanto que 4 1 1 4 1 1 1 1 4 1 1 4 a ii = 4 a ij = 1 n 1) n 1) se o ponto j é vizinho à esquerda ou à direita do ponto i, ou se o ponto j é vizinho acima ou abaixo do ponto i Por exemplo, se n = 4, temos 4 1 0 1 0 0 0 0 0 1 4 1 0 1 0 0 0 0 0 1 4 0 0 1 0 0 0 A = 1 1 0 0 4 1 0 1 0 0 h 2 0 1 0 1 4 1 0 1 0 0 0 1 0 1 4 0 0 1 0 0 0 1 0 0 4 1 0 0 0 0 0 1 0 1 4 1 0 0 0 0 0 1 0 1 4 Observe que a matriz A é uma matriz simétrica, pentadiagonal e esparsa 12 Matrizes Esparsas Outros problemas de EDPs, especialmente aqueles envolvendo derivadas primeiras tais como problemas de convecção-difusão), em geral levam a matrizes não-simétricas Discretizações de outros tipos, tais como as encontradas em elementos finitos, levam a matrizes esparsas com outro tipo de estrutura De qualquer modo, todos possuem em comum o fato de a matriz de discretização ser uma matriz esparsa Existem essencialmente dois tipos de matrizes esparsas: estruturadas e não-estruturadas Uma matriz estruturada é uma em que as entradas não-nulas formam um padrão regular, frequentemente ao longo de um número pequeno de diagonais tais como as matrizes que vimos no problema modelo na seção anterior) Os elementos não-nulos podem também estar organizados em blocos submatrizes densas) de mesmo tamanho, organizadas ao longo de um número pequeno de blocos diagonais Discretizações através de diferenças finitas tipicamente dão origem a matrizes esparsas com estruturas regulares Uma matriz esparsa em que as entradas não-nulas são irregularmente localizadas é uma matriz esparsa irregularmente estruturada Os métodos de volumes finitos ou elementos finitos aplicados a domínios com geometria complexa em geral levam matrizes irregularmente estruturadas Esta distinção não afeta em geral métodos de solução direta mas é muito importante para os métodos de solução iterativos Neste últimos, uma das operações básicas essenciais é a do produto de uma matriz por um vetor

Rodney Josué Biezuner 11 13 Implementação Computacional de Matrizes Esparsas Para tirar vantagem do grande número de elementos nulos, esquemas especiais são necessários para armazenar matrizes esparsas na memória do computador O principal objetivo é representar apenas os elementos nãonulos O esquema mais simples de armazenamento é o chamado formato de coordenadas A estrutura de dados consiste de três vetores arrays): um vetor real contendo os valores e dois vetores inteiros, um deles contendo os índices das linhas, enquanto que o outro contém os índices das colunas 11 Exemplo A matriz pode ser representada por A = 1 0 0 3 0 5 7 0 0 2 3 0 2 4 0 0 0 6 9 0 0 0 0 0 4 valuearray = 2 9 1 4 3 4 2 5 3 6 7, rowindexarray = 3 4 1 3 3 5 2 2 1 4 2, columnindexarray = 3 4 1 4 1 5 5 1 4 3 2 Cada vetor tem comprimento igual ao número de elementos não-nulos da matriz elementos são listados em ordem arbitrária Observe que os Provavelmente, o formato mais popular para armazenar matrizes esparsas gerais é o formato compressed row storage CRS) Neste esquema, as linhas da matriz são armazenadas uma a uma em um vetor real, da primeira até a última, preservando a ordem Um segundo vetor inteiro contendo os índices das colunas é usado Um terceiro vetor inteiro contém a posição no vetor de valores reais ou no vetor de índices de coluna onde cada linha começa, mais um elemento para indicar a primeira posição vazia dos dois vetores 12 Exemplo A matriz A = pode ser representada no formato CSR por 1 0 0 3 0 5 7 0 0 2 3 0 2 4 0 0 0 6 9 0 0 0 0 0 4 valuearray = 1 3 5 7 2 3 2 4 6 9 4, columindexarray = 1 4 1 2 5 1 3 4 3 4 5, rowpointerarray = 1 3 6 9 11 12 Enquanto o comprimento dos dois primeiros vetores é igual ao número de elementos não-nulos da matriz, o comprimento do terceiro vetor é igual ao número de linhas da matriz mais um Dentro de cada linha os elementos ainda podem ser armazenados em ordem arbitrária, o que pode ser muito conveniente Este esquema é o preferido pois é o mais útil para realizar as computações típicas, tais como multiplicação da matriz por vetores Em CRS, a multiplicação matriz-vetor pode ser implementada da seguinte forma em

Rodney Josué Biezuner 12 C/C++ ou Java): for int i = 0; i < n; i++ ) { lowerindex = rowpointerarray[i]; upperindex = rowpointerarray[i+1]; //loop over row i for int j = lowerindex; j < upperindex; j++ ) Av[i] += valuearray[j]* v[columarray[j]]; } Um esquema correspondente, armazenando colunas ao invés de linhas é o compressed column storage CCS), usado no Octave Os esquemas considerados acima são chamados estáticos Esquemas dinâmicos, envolvendo listas encadeadas, em geral economizam ainda mais memória e tem acesso ainda mais rápido à memória Cada linha da matriz pode ser representada por uma lista encadeada A matriz toda é representada por uma lista de listas encadeadas, seguindo a ordem de linhas da matriz Desta forma, o início de cada linha não precisa ser representado O índice da coluna de cada elemento da linha ainda precisa ser representado, é claro, e isso pode ser feito através de um ponteiro específico Outras esquemas podem ser utilizados, tirando vantagem da estrutura da matriz esparsa Por exemplo, em matrizes diagonais as diagonais não-nulas podem ser armazenadas separadamente Em matrizes simétricas, é necessário armazenar apenas os elementos da diagonal principal e da parte triangular superior ou inferior) da matriz, mas isso em geral implica em algoritmos mais complicados para fazer operações com a matriz

Capítulo 2 Invertibilidade de Matrizes Esparsas Neste capítulo desenvolveremos métodos gerais e fáceis de aplicar para determinar a invertibilidade de matrizes esparsas, principalmente aquelas que surgem através da discretização de equações diferenciais parciais através de diferenças finitas Em particular, isso implicará a existência e unicidade de soluções para sistemas lineares envolvendo tais matrizes Uma vez que isso esteja estabelecido, poderemos nos dedicar nos próximos capítulos a estudar métodos iterativos para encontrar estas soluções 21 Normas Matriciais Lembramos o conceito de norma vetorial: 21 Definição Seja V um espaço vetorial real ou complexo Uma norma vetorial em V é uma função : V R que satisfaz as seguintes propriedades: i) x > 0 para todo x 0 e x = 0 se x = 0; ii) αx = α x para todo x V e para todo α R; iii) Desigualdade Triangular) x + y x + y para todos x, y V Denotaremos por M n R) o espaço vetorial das matrizes complexas n n e por M n C) o espaço vetorial das matrizes complexas n n Quando estivermos nos referindo a qualquer um destes espaços ou seja, quando a afirmação que fizermos valer para qualquer um deles), usaremos a notação M n simplesmente 22 Definição Uma norma matricial no espaço vetorial M n é uma norma vetorial : M n R que satisfaz a propriedade submultiplicativa para todas as matrizes A, B M n AB A B 21) A seguir, veremos alguns exemplos das normas matriciais mais importantes em M n A verificação de que as normas apresentadas constituem normas vetoriais é deixada como exercício Exercício 21) 23 Exemplo Norma l 1 norma da soma): A 1 = a ij 22) i,j=1 13

Rodney Josué Biezuner 14 De fato, AB 1 = a ik b kj i,j=1 k=1 i,j,k=1 24 Exemplo Norma l 2 norma euclidiana): Com efeito, AB 2 2 = n i,j=1 2 a ik b kj k=1 a ik b kj A 2 = i,j,k,l=1 a ij 2 i,j=1 a ik b lj = 1/2 n ) n ) a ik 2 b lj 2 = i,j=1 k=1 l=1 a ik i,k=1 b lj = A 1 B 1 j,l=1 23) a ik 2 i,k=1 b lj 2 = A 2 2 B 2 2 A norma l 2 também é chamada mais raramente e somente para matrizes) norma de Schur, norma de Frobenius ou norma de Hilbert-Schmidt 25 Exemplo Normas l p : De modo geral, dado p 1, definimos a norma matricial A p = a ij p i,j=1 26 Exemplo Norma l modificada norma do máximo modificada): A norma l norma do máximo) A = 1/p max 1 i,j n a ij é uma norma vetorial em M n mas não é uma norma matricial: por exemplo, se [ ] 1 1 A =, 1 1 então A 2 = [ 2 2 2 2 e portanto A 2 = 2 > 1 = A A ] j,l=1 24) No entanto, um múltiplo escalar desta norma vetorial é uma norma matricial: A n = n max a ij 25) 1 i,j n Com efeito, AB n = n max 1 i,j n a ik b kj n k=1 max 1 i,j n k=1 a ik b kj n max = n n A B ) = n A n B = AB n 1 i,j n k=1 A B

Rodney Josué Biezuner 15 27 Exemplo Norma do operador: Dada uma norma vetorial em R n ou C n, ela induz uma norma matricial através da definição Ax A = max Ax = max Ax = sup x =1 x 1 x 0 x 26) Aqui vemos A como um operador linear em R n ou C n, portanto contínuo, de modo que o máximo de A é atingido na esfera e na bola fechada Para ver que a primeira e a terceira definições coincidem de modo que o sup na terceira definição é de fato um máximo), use o fato que Agora observe que Ax x ) = x A x max Ax max Ax, x =1 x 1 já que a bola fechada contém a esfera Por outro lado, se x = ε < 1, segue que ) x A = Ax = Ax > Ax, x x ε de modo que o máximo de Ax não é atingido no interior da bola, logo max Ax max Ax x =1 x 1 e portanto a primeira e a segunda definições coincidem Finalmente, para ver que a norma do operador é uma norma matricial, escreva ) ABx ABx Bx ABx Bx Ay Bx AB = max = max max max max max = A B x 0 x x 0 Bx x Bx 0 Bx x 0 x y 0 y x 0 x A norma do operador satisfaz a propriedade extremamente útil para todo vetor x R n ou C n 28 Exemplo Norma do máximo das somas das linhas: Ax A x 27) A L = max 1 i n j=1 a ij 28) Esta norma é a norma do operador induzida pela norma vetorial l De fato, se x = x 1,, x n ), temos Ax = max 1 i n a ij x j max a ij x j max a ij x 1 i n 1 i n = A L x, de modo que j=1 j=1 max Ax A L x =1 Supondo que a i-ésima linha de A é não-nula, definimos o vetor y = y 1,, y n ) C n por a ij se a ij 0, y i = a ij, 1 se a ij = 0 j=1

Rodney Josué Biezuner 16 o que implica y = 1, a ij y j = a ij e max Ax Ay = max x =1 1 i n a ij y j = max 29 Exemplo Norma do máximo das somas das colunas: j=1 A C = max 1 j n 1 i n j=1 a ij = A L a ij 29) Esta norma é a norma do operador induzida pela norma vetorial l 1 De fato, escrevendo A em termos de suas colunas A = [A 1 A n ] segue que Se x = x 1,, x n ), segue que donde Ax 1 = x 1 A 1 + + x n A n 1 A C = max 1 j n A j 1 x i A i 1 = n = A C x i = A C x 1, x i A i 1 max Ax 1 A C x 1 =1 Agora, se escolhermos y j = e j, temos que y j 1 = 1 e x i max 1 j n A j 1 Ay 1 = A j 1 para todo k, logo max Ax 1 max Ay j x 1 =1 1 j n 1 = max A j 1 j n 1 = A C 210 Exemplo p-normas: Este é o nome geral para as normas do operador induzidas pela norma vetorial l p em R n ou C n Para distingui-las das normas matriciais l p no próprio espaço vetorial M n, vamos denotá-las por Ax p A p = sup x 0 x p O caso especial da norma do operador induzida pela norma vetorial l 2 a norma vetorial euclidiana) é também chamada a norma espectral e satisfaz A 2 = { } λ max = max λ : λ é um autovalor de A A

Rodney Josué Biezuner 17 De fato, A A é uma matriz hermitiana logo todos os seus autovalores são não-negativos Pela caracterização variacional dos autovalores de uma matriz hermitiana temos λ max = max x 0 A Ax, x 2 x 2 2 = max x 0 Ax 2 2 x 2 2 Observe que a 2-norma é diferente da norma matricial l 2 Exercício 23) Note também que se A é uma matriz hermitiana, então A A = A 2 e A 2 é portanto o módulo do maior autovalor de A, isto é, a norma espectral de A é o raio espectral de A, definido como sendo o maior valor absoluto dos autovalores λ 1,, λ n de A: ρ A) = max λ i,,,n 211 Exemplo Norma induzida por uma matriz invertível: Se é uma norma matricial qualquer e se S é uma matriz invertível, então define uma norma matricial Com efeito, A S = S 1 AS 210) AB S = S 1 ABS = S 1 ASS 1 BS S 1 AS S 1 BS = A S B S Lembramos que todas as normas em um espaço vetorial de dimensão finita são equivalentes, e isso vale em particular para normas matriciais: 212 Teorema Seja V um espaço vetorial real ou complexo de dimensão finita Então todas as normas vetoriais em V são equivalentes, isto é, se 1 e 2 são duas normas vetoriais quaisquer em V, então existem constantes C 1, C 2 > 0 tais que e x 1 C 1 x 2 para todo x V x 2 C 2 x 1 Prova: Para mostrar a equivalência entre todas as normas de um espaço vetorial, por transitividade basta fixar uma norma 1 e mostrar que qualquer norma arbitrária 2 é equivalente a 1 Seja B = {e 1,, e n } uma base para V, de modo que todo vetor x V se escreve na forma x = x i e i e defina 1 como sendo a norma l 1 em relação a esta base: x 1 = x i

Rodney Josué Biezuner 18 Então, se 2 é uma norma qualquer em V, segue da desigualdade triangular que x 2 x i e i 2 = x i e i 2 ) max e n i,,n 2 x i = C 2 x 1, onde denotamos C 2 = max e i,,n 2 Para provar a desigualdade reversa, considere a esfera unitária na norma da soma S = {x V : x 1 = 1} A desigualdade anterior garante que a função x x 2 é contínua na topologia definida pela norma 1 e portanto assume um valor mínimo m no conjunto fechado e limitado compacto) S Necessariamente m > 0: se existisse e = n x i e i S tal que e 2 = 0, teríamos e = n x i e i = 0, contrariando o fato que {e 1,, e n } é um conjunto linearmente independente Portanto, x x m 1 2 para todo x V, x 0 Tomando C 1 = 1/m, segue que x 1 C 1 x 2 para todo x V 22 Matrizes Diagonalmente Dominantes 213 Definição Dizemos que uma matriz A n n é diagonalmente dominante se a ii a ij para todo i = 1,, n j=1 j i e estritamente diagonalmente dominante se a ii > a ij para todo i = 1,, n j=1 j i 214 Lema Seja A M n Se existe alguma norma matricial tal que I A < 1, então A é invertível Prova De fato, sob esta condição, afirmamos que a inversa é dada explicitamente pela série Para todo N N podemos escrever k=0 k=0 A 1 = I A) k 211) k=0 N N N N+1 A I A) k = [I I A)] I A) k = I A) k I A) k = I I A) N+1 Como é uma norma matricial, temos que I A) k I A k k=0 k=1

Rodney Josué Biezuner 19 Logo, de I A < 1 segue que lim I N A)N+1 = 0 Portanto, tomando o limite quando N, concluímos 211) 215 Corolário Se A M n é uma matriz singular e é uma norma matricial, então I A 1 Em particular, se é uma norma matricial, então I 1 Prova Para provar a segunda afirmação do enunciado, basta tomar A = 0 216 Proposição Se A é uma matriz estritamente diagonalmente dominante, então A é invertível Prova Denote por D a matriz diagonal cujas entradas diagonais são as entradas diagonais de A Uma matriz estritamente diagonalmente dominante possui, por definição, entradas diagonais não-nulas, logo D é uma matriz invertível A matriz D 1 A tem apenas 1 s na diagonal principal e se mostramos que D 1 A é invertível, isto implicará que A é invertível Para provar isso, considere a matriz I D 1 A Temos I D 1 A ) ij = { 0 se i = j, a ij /a ii se i j Usemos a norma do máximo das somas das linhas Para cada 1 i n temos I D 1 A ) = a ij ij = 1 a ij < 1, a ii j=1 j=1 j i logo I D 1 A < 1 e o resultado segue do Lema 214 Às vezes, exigir dominância diagonal estrita em todas as linhas é pedir demais Para certas matrizes, dominância diagonal junto com dominância diagonal estrita em apenas uma linha é suficiente para garantir a sua invertibilidade As matrizes de discretização obtidas no capítulo anterior satisfazem esta condição nas linhas correspondentes à pontos adjacentes à fronteira), e nenhuma delas é estritamente diagonalmente dominante Por outro lado, vale a pena ressaltar que esta condição não é suficiente para estabelecer a invertibilidade de uma matriz em geral, como o exemplo 4 2 1 0 1 1 0 1 1 demonstra 23 Teorema dos Discos de Gershgorin A primeira ferramenta teórica é o importante Teorema dos Discos de Gershgorin Ele decorre da seguinte observação: se A é uma matriz complexa n n, podemos sempre escrever A = D + B, onde D = diag a 11,, a nn ) é a matriz diagonal formada pela diagonal principal de A e B consiste dos elementos restantes de A, possuindo uma diagonal principal nula Se definirmos A ε = D + εb, então A 0 = D e A 1 = A Os autovalores de D são a 11,, a nn, enquanto que os autovalores de A ε devem estar localizados em vizinhanças dos pontos a 11,, a nn, desde que ε seja suficientemente pequeno O mesmo deve valer para os autovalores da matriz A: eles devem estar contidos em discos centrados nos elementos a 11,, a nn da diagonal principal se os discos são suficientemente grandes O Teorema de Gershgorin dá uma estimativa precisa e simples de calcular para os raios destes discos em função das entradas restantes da matriz A Denote o disco complexo fechado de centro em a e raio R por a ii j=1 j i D R a) = {z C : z a R}

Rodney Josué Biezuner 20 217 Teorema Teorema dos Discos de Gershgorin) Se A M n C) e R i A) = a ij 212) denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal principal, então todos os autovalores de A estão contidos na união dos n discos de Gershgorin G A) = j=1 j i n D Ri A) a ii ) 213) Além disso, se uma união de k destes discos forma uma região que é disjunta dos n k discos restantes, então existem exatamente k autovalores de A nesta região Prova Seja λ um autovalor de A e x = x 1,, x n ) 0 um autovetor associado Seja k um índice tal que x k x j para j = 1,, n, isto é, x k é a coordenada de x de maior valor absoluto Denotando por Ax) k a k-ésima coordenada do vetor Ax = λx, temos λx k = Ax) k = a kj x j que é equivalente a Daí, ou seja, x k λ a kk a kj x j = j=1 j k x k λ a kk ) = j=1 j k j=1 a kj x j j=1 j k a kj x j x k a kj = x k R k A), λ a kk R k A) Isso prova o resultado principal do Teorema de Gershgorin como não sabemos qual k é apropriado para cada autovalor λ, e um mesmo k pode servir para vários autovalores λ, tudo o que podemos afirmar é que os autovalores estão na união dos discos) Para provar a segunda afirmação, escreva A = D + B, onde D = diag a 11,, a nn ) e defina para 0 t 1 Note que A t = D + tb j=1 j k R i A t ) = R i tb) = tr i A) Para simplificar a notação, assuma que a união dos primeiros k discos de Gershgorin satisfaz G k A) [G A) \G k A)] = Temos G k A) = k D RiA) a ii ) D RiA t) a ii ) = {z C : z a ii R i A t )} = {z C : z a ii tr i A)} D RiA) a ii ),

Rodney Josué Biezuner 21 logo, e G k A t ) G k A) G k A) [G A t ) \G k A t )] = para 0 t 1 Porque os autovalores são funções contínuas das entradas de uma matriz, o caminho λ i t) = λ i A t ) é um caminho contínuo que liga λ i A 0 ) = λ i D) = a ii a λ i A 1 ) = λ i A) Seja 1 i k Como λ i A t ) G k A t ) G k A), concluímos que para cada 0 t 1 existem k autovalores de A t em G k A); em particular, fazendo t = 1, obtemos que G k A) possui pelo menos k autovalores de A Da mesma forma, não pode haver mais que k autovalores de A em G k A), pois os n k autovalores restantes de A 0 = D começam fora do conjunto G k A) e seguem caminhos contínuos que permanecem fora de G k A) A união G A) dos discos de Gershgorin é conhecida como a região de Gershgorin Observe que enquanto não podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segunda afirmação do teorema permite-nos fazer tal conclusão desde que os discos de Gershgorin sejam dois a dois disjuntos O Teorema dos Discos de Gershgorin permite entender o resultado da Proposição 216: se uma matriz A é estritamente diagonalmente dominante, então os discos de Gershgorin D RiA) a ii ) não interceptam a origem, logo 0 não pode ser um autovalor para a matriz A, o que implica que A é invertível Além disso, se todos os elementos da diagonal principal de A são reais e positivos, então os autovalores de A estão localizados no semiplano direito de C, de modo que se A é também simétrica, concluímos que todos os autovalores de A são positivos A aplicação mais óbvia do Teorema dos Discos de Gershgorin é na estimativa dos autovalores de uma matriz Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral de uma matriz Por exemplo, como A e A t possuem os mesmos autovalores, existe um teorema dos discos de Gershgorin equivalente para as colunas de uma matriz Em particular, todos os autovalores de A estão localizados na interseção destas duas regiões: G A) G A t ) Isso implica a seguinte estimativa simples para o raio espectral de uma matriz complexa: 218 Corolário Se A M n C), então ρ A) min max,,n j=1 a ij, max j=1,,n a ij = min A L, A C ) Prova O ponto no i-ésimo disco de Gershgorin que é mais distante da origem tem módulo a ii + R i A) = a ij e um resultado semelhante vale para as colunas de A O resultado do Corolário 218 não é surpreendente em vista do raio espectral de uma matriz ser menor que qualquer norma matricial veja o próximo capítulo) Um resultado melhor pode ser obtido uma vez que se observa que A e S 1 AS também possuem os mesmos autovalores, qualquer que seja a matriz invertível S Em particular, quando S = D = diag p 1,, p n ) é uma matriz diagonal com todos os seus elementos positivos, isto é, p i > 0 para todo i, aplicando o Teorema de Gershgorin à matriz ) D 1 pj AD = a ij p i e à sua transposta, obtemos o seguinte resultado que permite obter uma estimativa arbitrariamente boa dos autovalores de A: j=1

Rodney Josué Biezuner 22 219 Corolário Se A M n C) e p 1,, p n > 0, então todos os autovalores de A estão contidos em G D 1 AD ) G DA t D 1) = n n z C : z a ii 1 p i z C : z a ii p j n p j a ij j=1 j i 1 a ij p i i j 214) Em particular, ρ A) min p 1,,p n>0 max,,n 1 p i j=1 p j a ij, max p j j=1,,n 1 a ij 215) p i 24 Propriedade FC Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantirão a sua invertibilidade, uma observação fundamental é a de que se A é uma matriz diagonalmente dominante, então 0 não pode ser um ponto interior de nenhum disco de Gershgorin De fato, se λ é um autovalor de A interior a algum disco de Gershgorin então devemos ter desigualdade estrita λ a ii < R i A) = a ij para algum i Se 0 é um autovalor de A interior a algum disco de Gershgorin, então a ii < a ij j=1 j i para algum i e A não pode ser diagonalmente dominante na linha i Uma condição equivalente para que um autovalor λ de A não seja um ponto interior de nenhum disco de Gershgorin é que λ a ii R i A) = a ij para todo i = 1,, n j=1 j i Tais pontos λ na região de Gershgorin G A) não necessariamente autovalores de A) constituem precisamente a fronteira G A) da região de Gershgorin Chamaremos a fronteira de um disco de Gershgorin {z C : z a ii = R i A)} um círculo de Gershgorin 220 Lema Seja A M n C) e λ um autovalor de A que não é um ponto interior de nenhum disco de Gershgorin Seja x = x 1,, x n ) 0 um autovetor associado a λ e k um índice tal que j=1 j i x k x j para j = 1,, n Se i é qualquer índice tal que x i = x k

Rodney Josué Biezuner 23 então o i-ésimo círculo de Gershgorin passa por λ Se, além disso, então a ij 0, x j = x k e o j-ésimo círculo de Gershgorin também passa por λ Prova Como na demonstração do Teorema de Gershgorin, temos x i λ a ii a ij x j = j=1 j i para todo índice i Logo, se x i = x k, temos Como por hipótese para todo índice i, segue que a ij x j x k a ij = x k R i A) 216) j=1 j i λ a ii R i A) λ a ii R i A) λ a ii = R i A) Em geral, x i = x k implica que as desigualdades em 216) são identidades; em particular, donde a ij x j = x i a ij j=1 j i j=1 j i a ij x i x j ) = 0 j=1 j i Esta é uma soma de termos não-negativos, pois x i x j, logo se a ij 0 necessariamente devemos ter x j = x i = x k Este lema técnico tem as seguintes conseqüências úteis: 221 Teorema Seja A M n C) uma matriz cujas entradas são todas não-nulas e seja λ um autovalor de A que não é um ponto interior de nenhum disco de Gershgorin Então todo círculo de Gershgorin de A passa por λ isto é, λ está na interseção de todos os círculos de Gershgorin de A) e se x = x 1,, x n ) 0 é um autovetor associado a λ então Prova Decorre diretamente do lema anterior j=1 j i x i = x j para todos i, j = 1,, n 222 Corolário Se A M n C) é uma matriz cujas entradas são todas não-nulas e diagonalmente dominante tal que a ii > n a ij para pelo menos alguma linha i, então A é invertível j=1 j i

Rodney Josué Biezuner 24 Prova Pois, como A é diagonalmente dominante, se 0 é um autovalor de A então 0 não pode ser um ponto interior de nenhum disco de Gershgorin Por outro lado, pelo teorema anterior, segue que todo círculo de Gershgorin passa por 0 Entretanto, o i-ésimo círculo de Gershgorin centrado em a ii e com raio R i < a ii não pode passar por 0 Concluímos que 0 não é um autovalor de A, logo A é invertível As matrizes do Corolário 222 são as antíteses das matrizes esparsas que nos interessam Usando com maior cuidado a informação dada pelo Lema 220 podemos obter resultados que se aplicam a matrizes esparsas 223 Definição Dizemos que uma matriz A = a ij ) M n C) satisfaz a propriedade FC se para todo par de inteiros distintos i, j existe uma seqüência de inteiros distintos i 1 = i, i 2, i 3,, i m 1, i m = j, com 1 m n, tais que todas as entradas matriciais são não-nulas a i1 i 2, a i2 i 3,, a im 1 i m Por exemplo, a matriz diagonalmente dominante não-invertível 4 0 2 1 1 1, 0 1 1 já vista anteriormente, não satisfaz a propriedade FC porque o par 2, 1 não admite tal seqüência a única seqüência possível é a 23, a 31 ) Já qualquer par de inteiros distintos i, j tal que a ij 0 admite a seqüência trivial não-nula a ij, de modo que uma matriz cujas entradas não-diagonais são todas não-nulas satisfaz a propriedade FC O significado da abreviatura FC, ou fortemente conexo, ficará claro mais adiante 224 Teorema Seja A M n C) uma matriz que satisfaz a propriedade FC e seja λ um autovalor de A que não é um ponto interior de nenhum disco de Gershgorin Então todo círculo de Gershgorin de A passa por λ isto é, λ está na interseção de todos os círculos de Gershgorin de A) e se x = x 1,, x n ) 0 é um autovetor associado a λ então x i = x j para todos i, j = 1,, n Prova Seja x = x 1,, x n ) 0 um autovetor associado a λ e i um índice tal que Pelo Lema 220, x i x k para k = 1,, n λ a ii = R i A) Seja j i qualquer outro índice e i 1 = i, i 2, i 3,, i m 1, i m = j, com 1 m n, índices tais que todas as entradas matriciais a ii2, a i2 i 3,, a im 1 j 0 Como a ii2 0, segue da segunda afirmativa do Lema 220 que x i2 = x i Mas então a i2i 3 0 e portanto x i3 = x i2 = x i Prosseguindo desta forma, concluímos que x i = x i2 = x im 1 = x j Em particular, segue novamente do Lema 220 que o j-ésimo círculo de Gershgorin passa por λ Como j é arbitrário, isso prova o teorema 225 Corolário Se A M n C) é uma matriz que satisfaz a propriedade FC e diagonalmente dominante tal que a ii > n a ij para pelo menos alguma linha i, então A é invertível j=1 j i

Rodney Josué Biezuner 25 Prova Segue do teorema anterior da mesma forma que o Corolário 222 segue do Teorema 221 Vamos tentar entender melhor o significado da propriedade FC Note que ela se refere apenas à localização dos elementos não-nulos de A fora da diagonal principal os elementos da diagonal principal e os valores específicos dos elementos fora da diagonal principal são irrelevantes Isso motiva as seguintes definições: 226 Definição Dada uma matriz A = a ij ) M n C) definimos o módulo da matriz A como sendo a matriz A = a ij ) cujos elementos são os módulos dos elementos da matriz A e a matriz indicadora de A como sendo a matriz M A) = µ ij ), onde µ ij = { 1 se aij 0, 0 se a ij = 0 O conceito de uma seqüência de entradas não-nulas da matriz A que aparece na definição da propriedade FC pode ser visualizado em termos de caminhos em um grafo associado a A: 227 Definição Dada uma matriz A M n C), o grafo direcionado de A é o grafo direcionado Γ A) com n nodos P 1,, P n tais que existe um arco direcionado em Γ A) de P i a P j se e somente se a ij 0 Um caminho direcionado γ em um grafo Γ é uma seqüência de arcos P i1 P i2, P i2 P i3, em Γ O comprimento de um caminho direcionado é o número de arcos sucessivos no caminho direcionado Um ciclo é um caminho direcionado que começa e termina no mesmo nó Dizemos que um grafo direcionado é fortemente conexo se entre qualquer par de nodos distintos P i, P j Γ existir um caminho direcionado de comprimento finito que começa em P i e termina em P j Observe que quando Γ é um grafo direcionado com n nodos, se existe um caminho direcionado entre dois nodos de Γ, então sempre existe um caminho direcionado entre estes dois nodos de comprimento menor que ou igual a n 1 Exercício 27) 228 Teorema A M n C) satisfaz a propriedade FC se e somente se Γ A) é fortemente conexo Agora estamos em condições de verificar a invertibilidade das matrizes esparsas oriundas da discretização de EDPs através de diferenças finitas: 229 Teorema As matrizes de discretização do problema modelo são invertíveis Prova É fácil ver que as matrizes de discretização obtidas no capítulo anterior para o intervalo e para o quadrado são matrizes diagonalmente dominantes com dominância diagonal estrita nas linhas correspondentes a pontos interiores adjacentes à fronteira Além disso, elas satisfazem a propriedade FC De fato, cada índice i da matriz corresponde a um ponto interior P i da malha e a ij 0 sempre que P i e P j são pontos vizinhos naqueles esquemas Então, dados dois pontos distintos P i, P j é fácil encontrar uma seqüência de índices i 1 = i, i 2, i 3,, i m 1, i m = j, com 1 m n, tais que todas as entradas matriciais a i1i 2, a i2i 3,, a im 1i m são não-nulas: no caso unidimensional, basta percorrer a malha diretamente de P i até P j andando a partir de P i sempre para a direita ou sempre para a esquerda, conforme o caso, até encontrar P j ), e no caso bidimensional basta usar qualquer caminho interior de P i até P j pode-se usar a ordem lexicográfica para percorrer a malha, ou a ordem lexicográfica inversa, dependendo das posições relativas de P i e P j ; no entanto, estes caminhos são mais longos que o necessário) Em outras palavras, identificando as malhas de pontos internos com os grafos direcionados da matriz de discretização, de modo que existe um arco direcionado entre

Rodney Josué Biezuner 26 dois pontos da malha se e somente se eles são vizinhos, os esquemas de discretização considerados garantem que estes grafos são fortemente conexos Verificar a propriedade FC a partir do grafo direcionado de A pode ser impraticável se o tamanho da matriz for muito grande ou se a matriz não tiver origem na discretização de um problema de EDPs Existe um método computacional mais explícito para fazê-lo: 230 Teorema Sejam A M n C) e P i, P j nodos de Γ A) Existe um caminho direcionado de comprimento m em Γ A) de P i para P j se e somente se A m ) ij 0 ou, equivalentemente, se e somente se [M A) m ] ij 0 Prova Provaremos o teorema por indução Para m = 1 a afirmativa é trivial Para m = 2, temos A 2) ij = A ) ik A ) kj = k=1 a ik a kj, de modo que A 2) 0 se e somente se a ik, a kj são ambos não-nulos para algum índice k Mas isso é ij equivalente a dizer que existe um caminho direcionado de comprimento 2 em Γ A) de P i para P j Em geral, supondo a afirmativa provada para m, temos A m+1) ij = A m ) ik A ) kj = k=1 k=1 A m ) ik a kj = 0 se e somente se A m ) ik, a kj são ambos não-nulos para algum índice k Por hipótese de indução, isso é equivalente a existir um caminho direcionado de comprimento m em Γ A) de P i para P k e um caminho direcionado de comprimento 1 em Γ A) de P k para P j, isto é, um caminho direcionado de comprimento m + 1 em Γ A) de P i para P j O mesmo argumento vale para M A) 231 Definição Seja A = a ij ) M n C) Dizemos que A 0 se a ij 0 para todos 1 i, j n e que A > 0 se a ij > 0 para todos 1 i, j n 232 Corolário Seja A M n C) Existe um caminho direcionado de comprimento m em Γ A) de cada nodo P i para cada nodo P j se e somente se A m > 0 k=1 ou, equivalentemente, se e somente se M A) m > 0 233 Corolário Seja A M n C) A satisfaz a propriedade FC se e somente se I + A ) n 1 > 0 ou, equivalentemente, se e somente se [I + M A)] n 1 > 0