UNIVERSIDADE FEDERAL DO PARANÁ WAGNER AUGUSTO ALMEIDA DE MORAES AUTOVALORES, AUTOVETORES E A DECOMPOSIÇÃO EM VALORES SINGULARES

Documentos relacionados
Matrizes Semelhantes e Matrizes Diagonalizáveis

Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor.

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia

Álgebra Linear I - Aula 22

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:

Álgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas

Aula 19 Operadores ortogonais

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.

Forma Canônica de Matrizes 2 2

- identificar operadores ortogonais e unitários e conhecer as suas propriedades;

CM005 Álgebra Linear Lista 3

1 Álgebra linear matricial

Álgebra Linear I - Aula 20

Capítulo 5. Operadores Auto-adjuntos. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo

AUTOVALORES E AUTOVETORES

Aula 1 Autovetores e Autovalores de Matrizes Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17

Valores e vectores próprios

1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55

SME Gustavo C. Buscaglia

Teorema da Triangularização de Schur e Diagonalização de Matrizes Normais

G3 de Álgebra Linear I

Processamento de Imagens CPS755

Álgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo.

Primeira prova de Álgebra Linear - 06/05/2011 Prof. - Juliana Coelho

Unidade 22 - Teorema espectral para operadores simétricos, reconhecimento de cônicas. A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa

Álgebra Linear (MAT-27) Ronaldo Rodrigues Pelá. 21 de outubro de 2011

Parte I. Álgebra Linear. Sistemas Dinâmicos Lineares. Autovalores, autovetores. Autovalores, autovetores. Autovalores e Autovetores.

Diagonalização de Operadores. Teorema Autovetores associados a autovalores distintos de um operador linear T : V V são linearmente independentes.

APLICAÇÕES DA ÁLGEBRA LINEAR NA GENÉTICA APPLICATIONS OF LINEAR ALGEBRA IN GENETICS APLICACIONES DEL ÁLGEBRA LINEAL EN LA GENÉTICA

Geovan Tavares, Hélio Lopes e Sinésio Pesco PUC-Rio Departamento de Matemática Laboratório Matmidia

UNIVERSIDADE FEDERAL DE MINAS GERAIS (UFMG) ADÉLIO DANIEL DE SOUSA FREITAS

1 Auto vetores e autovalores

Polinômio Mínimo e Operadores Nilpotentes

Algebra Linear. 1. Revisitando autovalores e autovetores. 2. Forma Diagonal e Forma de Jordan. 2.1 Autovalores distintos. 2.2 Autovalores complexos

1 Matrizes Ortogonais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais

1 Determinantes, traços e o teorema espectral para operadores arbitrários

O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS. Marco Antonio Travassos 1, Fernando Pereira Sousa 2

Dou Mó Valor aos Autovalores

Parte 3 - Produto Interno e Diagonalização

(c) apenas as afirmações (II) e (III) são necessariamente verdadeiras;

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Álgebra Linear I - Aula 21

ficha 4 valores próprios e vectores próprios

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática

Introduzir os conceitos de base e dimensão de um espaço vetorial. distinguir entre espaços vetoriais de dimensão fnita e infinita;

5. Seja R : R 3 R 3 uma rotação em torno do eixo gerado por (0, 0, 1). Suponha que R mande o vetor

Q1. Considere as bases: der 2 e der 3, respectivamente. Seja T :R 2 R 3 a transformação linear Temos que T(1,2) é igual a: [T] BC = 1 0

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1

Decomposição em valores singulares, pseudoinversas, normas,

1 Diagonalização de Matrizes 2 2. Sistemas de Equações Diferenciais Lineares

LEONARDO MORETO ELIAS MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS

Universidade Federal Fluminense - GAN

Noções de Álgebra Linear

A forma canônica de Jordan

Álgebra Linear Teoria de Matrizes

ESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R

Capítulo 7. Operadores Normais. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo

Álgebra Linear I - Aula 19

folha prática 5 valores próprios e vetores próprios página 1/3

Autovalores e Autovetores

Módulos. Volume 2ª edição. Hernando Bedoya Ricardo Camelier. Álgebra Linear II

Álgebra Linear Semana 05

7 temos que e u =

GAAL - Terceira Prova - 15/junho/2013. Questão 1: Analise se a afirmação abaixo é falsa ou verdadeira:

Os Quatro Subespaços Fundamentais

G4 de Álgebra Linear I

Resolução do efólio B

Capítulo 6. Operadores Ortogonais. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo

Ficha de Exercícios nº 3

FORMA CANÔNICA DE JORDAN

Produto Interno - Mauri C. Nascimento - Depto. de Matemática - FC UNESP Bauru

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2009

UNIVERSIDADE FEDERAL DE SANTA CATARINA PROFMAT. Ana Maria Mrás SEQUÊNCIA DE FIBONACCI E UMA FÓRMULA PARA O SEU TERMO GERAL

2 Propriedades geométricas de curvas parametrizadas no R 4

Synergismus Scyentifica UTFPR. XIII ERMAC Mini Curso. Diferenciais

G3 de Álgebra Linear I

Legenda. Questões. Lista de Exercícios - Autovalores e autovetores. Cálculos Teoria Geometria

Equação Geral do Segundo Grau em R 2

Álgebra Linear. 8 a Lista: a) Use o processo de ortogonalização de Gram Schmidt para construir uma base ortonormada para W.

TÓPICOS. Valores e vectores próprios. Equação característica. Matrizes semelhantes. Matriz diagonalizável. Factorização PDP -1

GAAL - Exame Especial - 12/julho/2013. Questão 1: Considere os pontos A = (1, 2, 3), B = (2, 3, 1), C = (3, 1, 2) e D = (2, 2, 1).

P4 de Álgebra Linear I de junho de 2005 Gabarito

PLANO DE ENSINO E APRENDIZAGEM

ÁLGEBRA LINEAR - MAT0024

EES-20: Sistemas de Controle II

Álgebra Linear I - Aula 18

ÁLGEBRA LINEAR I - MAT0032

Estabilidade Interna. 1. Estabilidade Interna. 2. Análise de Estabilidade Segundo Lyapunov. 3. Teorema de Lyapunov

Capítulo 2. Ortogonalidade e Processo de Gram-Schmidt. Curso: Licenciatura em Matemática

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

A primeira coisa a fazer é saber quais são as equações das curvas quando elas já se encontram na melhor

Álgebra Linear e Geometria Analítica

Inversão de Matrizes

Universidade Federal de Alagoas UFAL Centro de Tecnologia - CTEC Programa de Pós-Graduação em Engenharia Civil - PPGEC

Transcrição:

UNIVERSIDADE FEDERAL DO PARANÁ WAGNER AUGUSTO ALMEIDA DE MORAES AUTOVALORES, AUTOVETORES E A DECOMPOSIÇÃO EM VALORES SINGULARES CURITIBA

Resumo Neste trabalho estudamos primeiramente o que são autovalores e autovetores de uma matriz, condições para sua existência e como determiná-los. Com esses conceitos bem definidos, introduzimos o conceito de diagonalização de uma matriz, no qual estabelecemos algumas condições para que a matriz seja diagonálizavel e, por fim, como calcular as potências de uma matriz diagonalizável. Num segundo momento, passamos às aplicações desses conceitos. A primeira aplicação está relacionada com a Sequência de Fibonacci, famosa sequência numérica introduzida pelo matemático italiano Leonardo de Pisa (7-5 em seu livro Liber Abaci, onde os dois primeiros números são iguais a e a partir do segundo, cada elemento é a soma dos dois antecessores. O objetivo foi determinar uma fórmula na qual consigamos qualquer elemento dessa sequência sem a necessidade de calcular todos os termos antecedentes, para isso, precisamos calcular potências de uma matriz. Uma outra aplicação está relacionado com Genética. A partir do genótipo dos pais, estudamos qual a distribuição genótipa esperada em qualquer geração a partir da proporção inicial, onde novamente foi necessário calcular potências de uma matriz. Mas o que acontece com uma matriz A retangular qualquer? Discutimos então algumas propriedades básicas das matrizes A T A e AA T, definimos o conceito de valor singular e a partir disso, pudemos construir a Decomposição em Valores Singulares (também conhecida como SVD. Essa decomposição apresenta diversas propriedades e vantagens, pois podemos aplicá-la a qualquer matriz e a partir dela, obtemos bases ortonormais para a imagem e para o núcleo de A e A T. Além disso, a partir da SVD podemos decompor uma matriz quadrada qualquer num produto de duas matrizes, onde uma é ortogonal e outra é simétrica semidefinida positiva, e se a matriz for invertível, definida positiva. Essa decomposição, chamada Decomposição Polar, possui várias aplicações na área da engenharia. Palavras-chave: Autovalor, Autovetor, Aplicações, SVD, Decomposição Polar. ii

Conteúdo Introdução 4 Autovalores e Autovetores 6. Autovalores e autovetores........................... 6. Diagonalização................................. 8.3 Potência de Matriz................................4 Matrizes Simétricas............................... Aplicações 6. Sequência de Fibonacci............................. 6. Genética..................................... 9 3 SVD - Decomposição em Valores Singulares 6 3. As matrizes A T A e AA T............................. 6 3. Decomposição em Valores Singulares..................... 3 4 Aplicações - SVD 38 4. Decomposição Polar.............................. 38 4. Deformações.................................. 44 iii

Introdução Este trabalho é o resultado de um ano de Iniciação Científica, orientado pelo Prof. Ademir Alves Ribeiro com importante colaboração da Prof a. Elizabeth Wegner Karas e do Prof. Lucas Garcia Pedroso e ajuda dos meus colegas de iniciação científica: Karla C. Arsie, Leonardo Moreto, Tuanny Brufati e Flávia M. Fernandes. O conteúdo deste trabalho foi apresentado em formato de banner no CWB II Congresso de Matemática e suas Aplicações e no 9 o EVINCI (Encontro de Iniciação Científica da UFPR. Estudamos o que são autovalores e autovetores, condições para diagonalizar uma matriz e como diagonalizá-la e como calcular potências de matrizes e, a partir disso, partimos para aplicações. Como esses conceitos só se aplicam sob certas hipóteses, começamos a estudar a Decomposição em Valores Singulares, que se assemelha com a diagonalização, porém pode ser aplicada a qualquer matriz, tanto quadrada quanto retangular. Como são várias as aplicações dessa decomposição, nos concentramos numa só, que é no processo de deformação de sólidos visto na engenharia. O trabalho está dividido na seguinte maneira: O capítulo é dedicado a parte teórica sobre autovalores e autovetores, com sua definição e diversas consequências, além de tratar sobre diagonalização e potência de matrizes e uma seção especial para discutir propriedades de matrizes simétricas e o Teorema Espectral. O capítulo traz duas aplicações da diagonalização e potência de matriz. A primeira, tendo como referência [], trata da sequência de Fibonacci, tratada por Leonardo de Pisa (7-5 em seu livro Liber Abaci, onde pretendemos encontrar uma fórmula para obter qualquer termo dessa sequência. Ao modelarmos esse problema, chegamos num impasse, onde deveríamos efetuar potências de uma matriz e a partir da diagonalização conseguimos esta fórmula. Em seguida, utilizando [], abordamos dois problemas de genética, onde pretendemos determinar como é a distribuição do genótipo da população numa determinada geração e novamente após a modelagem matemática, recorremos a 4

diagonalização para encontrar potências de matrizes. O capítulo 3 trata da SVD, sigla para Singular Value Decomposition, a Decomposição em Valores Singulares. Para isso, estudamos as matrizes A T A e AA T e, a partir dessa análise, conseguimos compreender e construir a SVD. Uma das vantagens da SVD é que, diferente da diagonalização, podemos aplicá-la a qualquer matriz, independente de sua dimensão. Como a SVD se assemelha muito com o Teorema Espectral, vimos que elas coincidem sob certas hipóteses. Essa decomposição é de suma importância e possui várias aplicações em diversas áreas da ciência. Foi utilizado [3] e [4] como referências. No capítulo 4 veremos uma aplicação da SVD na área da Engenharia. Com a Decomposição em Valores Singulares, construimos outra decomposição interessante para matrizes quadradas: a Decomposiçaõ Polar, vista em [3]. Nesta decomposição, toda matriz quadrada pode ser escrita como o produto de uma ortogonal e uma simétrica semidefinida positiva, e se for inversível, definida positiva. No caso da matriz ser inversível, vimos também que a decomposição polar é única. Após construir essa nova decomposição, demos uma breve introdução sobre Deformações e pela função de deformação obtemos o Jacobiano de Deformação, que guarda como foi modificado o sólido, como rotação, reflexão, alongamento e/ou contração. Vimos alguns casos que conseguimos identificar de imediato, porém, para outros foi preciso aplicar a Decomposição Polar para descobrirmos como o sólido foi modificado, utilizando [5]. 5

Capítulo Autovalores e Autovetores Neste capítulo, vamos nos concentrar no estudo dos autovalores e autovetores de uma matriz. Na seção, apresentaremos a definição de autovalor e autovetor, métodos para determiná-los e alguns exemplos. Na seção, veremos algumas propriedades dos autovetores e a decomposição chamada Diagonalização. Na seção 3, utilizando a diagonalização, mostraremos como calcular potências naturais de matrizes. Por fim, na seção 4, estudaremos uma classe especial de matrizes, as Matrizes Simétricas.. Autovalores e autovetores Definição.. Considere A R n n, dizemos que u R n não-nulo é autovetor de A se existe λ R tal que: Au = λu Neste caso, dizemos que u é autovetor de A associado ao autovalor λ. Exemplo.. Seja A = 3 3 4, note que u = é autovetor de A associado ao autovalor λ = : 3 3 4 = 4 =. Observe que podemos escrever a igualdade Au = λu como: (A λiu = 6

Ora, como u é não-nulo, temos que a matriz (A λi é não inversível. Com isso, podemos enunciar o seguinte teorema: Teorema.3. Seja u autovetor de A associado ao autovalor λ. As seguintes afirmações são equivalentes:. Au = λu. N(A λi {} 3. det(a λi = Demonstração. Como u é autovetor de A, ele é não-nulo, mas observe que u N(A λi 3 Seja v N(A λi não-nulo. Logo (A λiv =, portanto A λi é não-inversível, caso contrário, chegaríamos à contradição de que v =. 3 Como det(a λi =, A λi é não-inversível, logo a equação (A λiu = possui solução não-trivial, portanto Au = λu. Definição.4. O polinômio p A (λ = det(a λi é dito Polinômio Característico de A. Denotaremos o conjunto Σ(A = {λ; λ é autovalor de A} como Espectro da matriz A Corolário.5. O espectro de uma matriz A coincide com o conjunto das raízes do polinômio característico de A, portanto #Σ(A será no máximo n. O conjunto dos autovetores associados ao autovalor λ é o N(A λi\{} e será denominado autoespaço correspondente ao autovalor λ. Com esse corolário, conseguimos determinar os autovalores e autovetores de matrizes de dimensão até 4 4. A partir disso, o polinômio característico terá grau maior ou igual a 5, o que dificulta o calculo de suas raízes. Exemplo.6. Considere A = 3 3 4 ; 7

p A (λ = det(a λi = 3 λ 3 4 λ = λ λ 6 Portanto Σ(A = {, 3}. Os autovetores associados a λ = é o N(A + I =. Os autovetores associados a λ = 3 é o N(A 3I = 3.. Diagonalização Definição.7. Uma matriz A R n n é dita Diagonalizável se existir uma matriz inversível P e uma matriz diagonal D tal que: A = PDP Teorema.8. Sejam λ, λ,..., λ k autovalores distintos de A R n n com autovetores associados u, u,..., u k. Os vetores u, u,..., u k são linearmente independentes. Demonstração. Seja r a dimensão do subespaço do R n gerado por u,..., u k e suponha r < k. Podemos supor (reordenando u i se for necessário que u,..., u r sejam linearmente independentes. Logo, u,..., u r, u r+ são linearmente dependentes, portanto existem escalares a i s nem todos nulos que satisfazem: a u + a u +... + a r u r + a r+ u r+ = Note que a r+, senão u,..., u r seriam linearmente dependentes. Logo a r+ u r+ e a,..., a r não podem ser todos nulos. Multiplicando por A, obtemos: a Au + a Au +... + a r Au r + a r+ Au r+ = Como u i s são autovetores, a λ u + a λ u +... + a r λ r u r + a r+ λ r+ u r+ = Agora, multiplicando por λ r+ a primeira igualdade e então subtraindo desta última, temos: 8

a (λ λ r+ u +... + a r (λ r λ r+ u r = Ou seja, uma combinação nula onde nem todos os escalares são nulos, o que contradiz a independência linear de u,..., u r. Logo r = k. Teorema.9. Uma matriz A R n n é diagonalizável se, e somente se, A possui n autovetores linearmente independentes. Demonstração. Sendo A diagonalizável, podemos escrever A = PDP, que é equivalente à: AP = PD Sendo u i a i-ésima coluna de P e λ i o elemento d ii de D, podemos escrever a igualdade acima como: λ A ( ( λ u u... u n = u u... u n... Ou seja, λ n Au i = λ i u i Portanto as colunas de P são autovetores de A. Como P é inversível, os n autovetores de A são linearmente independentes. Reciprocamente, se A possui n autovetores linearmente independentes, podemos construir uma matriz inversível P tal que suas colunas sejam autovetores de A. Fazendo a multiplicação AP, obtemos PD, onde D é diagonal com elemento d ii o autovalor λ i, correspondente à i-ésima coluna de P, ou seja: AP = PD A = PDP Logo, A é diagonalizável. Corolário.. Se A R n n possui n autovalores distintos, então A é diagonalizável. 9

Exemplo.. Seja A = 3. Já vimos que Σ(A = {, 3} e que 3 4 são autovetores de A. Seja P = 3 e D = 3 3 5 5 onde P = 5 5 A = u = e u = 3 3. Então 3 3 5 5 5 5 Note que a matriz P não é única, pois podemos escolher qualquer autovetor associado ao respectivo autovalor. Assim como D, onde podemos reordenar os autovalores. Mas lembre-se que a ordem que o autovalor aparece na matriz D interfere na posição de seu autovetor correspondente na matriz P. Quando a matriz A não possui n autovalores distintos, ela pode ou não ser diagonalizável, dependendo se tem ou não n autovetores linearmente independentes, como veremos no próximo exemplo. Exemplo.. Seja A = 4 e B = 4. 3 6 Note que Σ(A = Σ(B = {, 4}. E álém disso, o autovalor λ = tem multiplicidade em p A e p B Porém, veja que N(A 4I = e N(A I = Como A possui apenas autovetores linearmente independentes, A não é diagonalizável. Por outro lado, temos que N(B 4I = e N(B I = 3,. Logo, B possui 3 autovetores linearmente independentes, portanto B é diagonalizável.

B = 3 4 3 3..3 Potência de Matriz Nesta seção, iremos mostrar como calcular de forma rápida potências naturais de uma matriz A R n n diagonalizável, reduzindo o problema em calcular potências de uma matriz diagonal, que é extremamente simples, já que basta elevar a essa potência cada elemento da diagonal. Teorema.3. Considere A R n n uma matriz diagonalizável e k N. Então A k = PD k P Demonstração. Iremos usar indução em k O caso k = é trivialmente verificado. Como A é diagonalizável, existem D e P tal que A = PDP Suponha que valha para k, iremos investigar o que acontece para k + A k+ = A k A = (PD k P (PDP = PD k (P PDP = PD k DP = PD k+ P Exemplo.4. Seja A = 3 3 4, vamos calcular A5. Já vimos que A = 3 5 5 3 3, então: 5 5 A 5 = 3 3 5 3 5 5 = 3 5 5 87 65 98 ( 5 3 5 3 5 5 5 5 =

.4 Matrizes Simétricas Definição.5. Uma matriz A R n n é dita simétrica se A = A T. Teorema.6. Todos os autovalores de uma matriz simétrica A são reais, ou seja, Σ(A R. A demonstração desse teorema foge um pouco do objetivo deste trabalho, podendo ser encontrada em [??] Definição.7. Uma matriz Q R n n é dita ortogonal quando suas colunas formam um conjunto ortonormal em R n. Corolário.8. Q R n n é ortogonal se e somente se Q T Q = I A seguir, veremos um dos principais teoremas da Álgebra Linear Teorema.9. (Teorema Espectral Se A R n n é simétrica, então existem matrizes P, D R n n tais que P é ortogonal, D é diagonal e P T AP = D Demonstração. Vamos provar por indução em n. Para n =, o resultado é imediato. Suponha então que seja válido para n, vamos provar que vale para n. Pelo Teorema.6, sabemos que todos os autovalores de A são reais. Considere então o autovetor unitário v R n associado ao autovalor λ R, ou seja, Av = λv com v =. Seja B = {u, u,..., u n } uma base ortonormal para v, onde u j R n e considere a matriz M = ( u... u n R n (n. Note que M T M = I R (n (n e que Au j v, para todo j =,..., n, pois v T (Au j = (v T Au j = (A T v T u j = (Av T u j = (λv T u j = λv T u j =. b j Portanto, Au j = b j u + b j u +... + b (n j u n, com b i j R. Definindo b j = b j. b (n j temos que Au j = Mb j. Tomando B = ( b b... b n R (n (n, conclui-se que AM = MB. Portanto B = M T AM, logo B é simétrica, uma vez que, B T = (M T AM T = M T A T (M T T = M T AM = B.

Pela hipótese de indução, existem matrizes Q, E R (n (n, com Q ortogonal e E diagonal tais que Definindo P = ( v MQ e D = De fato, Temos que: v T v = v = λ E Q T BQ = E. P T v T ( v P = v MQ = T v Q T M T Q T M T v, temos que P é ortogonal e D é diagonal. v T MQ Q T M T MQ v T MQ = v T ( u... u n Q = ( v T u... v T u n Q = (... Q = R (n Q T M T v = (v T QM T = T = R (n Q T M T MQ = Q T IQ = Q T Q = I R (n (n Assim, P T P = I = I Rn n. D é diagonal, por definição. Por fim, temos que P T AP = D. P T AP = v T Q T M T A ( v MQ = v T Q T M T ( Av AMQ = v T Av Q T M T Av v T AMQ Q T M T AMQ v T Av = v T (λv = λv T v = λ v = λ v T AMQ = v T (AMQ = v T (MBQ = (v T MBQ = (... BQ = R (n Q T M T Av = (v T A T MQ T = (v T AMQ T = T = R (n Q T M T AMQ = Q T (M T AMQ = Q T BQ = E 3

Portanto, P T AP = λ E = D Corolário.. Se A R n n é simétrica, então existe uma base ortonormal para o R n formada por autovetores de A. Definição.. Seja A R n n uma matriz simétrica, dizemos que A é: definida positiva se x T Ax > para todo x R n \ {} semidefinida positiva se x T Ax para todo x R n \ {} definida negativa se x T Ax < para todo x R n \ {} semidefinida negativa se x T Ax para todo x R n \ {} A seguir, vamos enunciar a principal caracterização de matrizes definidas positivas. Teorema.. Seja A R n n simétrica, então A é definida positiva se e somente se todos os seus autovalores são positivos. Demonstração. Se A é definida positiva, temos que x T Ax > para todo x R n \ {}, em particular, podemos tomar x = u i, onde u i é autovetor de A associado ao autovalor λ i, assim u T i Au i = u T i (λ i u i = λ i u i > Como u i >, conclui-se que λ i >. Agora, suponha que A possui todos os seus autovalores positivos. Como A é simétrica, pelo Corolário. podemos contruir uma base ortonormal para o R n formada por autovetores de A. Seja B = {u,..., u n } uma base ortonormal para o R n tal que Au i = λ i u i, considere x R n não nulo, então x = a u + a u +... + a n u n, com pelo menos algum a i. Portanto x T Ax = (a u +... + a n u n T A(a u +... + a n u n = (a u T +... + a nu T n (a Au +... + a n Au n = (a u T +... + a nu T n (a λ u +... + a n λ n u n 4

Aplicando a distributiva e usando o fato que u T i u j = se i j e u T i u j = se i = j, temos que x T Ax = a λ +... + a nλ n Como todos os autovalores são positivos e existe pelo menos um a i x T Ax >., temos que 5

Capítulo Aplicações Com os conceitos e teoremas bem entendidos, veremos agora duas aplicações. Na seção, veremos a Sequência de Fibonacci, estudada primeiramente por Leonardo de Pisa (7-5. Utilizando a diagonalização para calcular potências de matrizes, vamos determinar uma fórmula para calcular qualquer termo da sequência sem precisar calcular os termos antecedentes através da fórmula de recorrência. Além disso, com essa fórmula veremos que quando dividimos um termo pelo antecedente, o resultado se aproxima cada vez mais do número de ouro. Na seção, faremos uma breve explicação sobre conceitos básicos de genética e apresentar problemas. Com cruzamentos préestabelecidos, ambos buscam determinar a distribuição do genótipo numa população em qualquer geração, sabendo a distribuição inicial. Novamente iremos precisar calcular potências de matrizes.. Sequência de Fibonacci Leonardo de Pisa (7-5, mais conhecido como Fibonacci, foi um dos maiores matemáticos da Idade Média. Foi responsável pela introdução na Europa do sistema indo-arábico de númeração. Este foi um dos propósitos de seu livro mais famoso, Liber Abaci, publicado em. Neste livro, contém um célebre problema que iremos tratar nesta seção. O Problema dos coelhos Um casal de coelhos recém-nascidos começou a cruzar com a idade de mês e, a partir de então, produz um casal de coelhos por mês. Suponha que iniciemos com um 6

casal de coelhos recém-nascidos e que nenhum dos coelhos que nasceram a partir desse casal morreu. Quantos casais de coelhos haverá no início de cada mês? Figura.: Tabela dos cruzamentos nos primeiros 6 meses No início do mês, temos apenas o casal recém-nascido e no início do mês, esse casal virou adulto. No ínicio do mês, temos o casal inicial e um casal recém-nascido. A figura. ilustra os cruzamentos nos primeiros meses, e a partir dela podemos perceber um certo padrão. O número de casais vivos no início do mês n, que denotaremos por f n será a soma do: Número de casais vivos no mês anterior: f n Número de casais recém-nascidos, que é o número de casais adultos no mês anterior: f n Assim, temos que f = f = e f n = f n + f n para n >. Com isso, podemos calcular facilmente os primeiros termos da sequência: f =, f 3 = 3, f 4 = 5, f 5 = 8, f 6 = 3,... E se quisermos um termo qualquer, como por exemplo, f 48?? Para isso, vamos desenvolver uma fórmula que nos permita calcular qualquer termo da sequência, sem precisar calcular os termos antecedentes. Primeiramente, vamos escrever f n e f n em termos de f n e f n. 7

f n = f n + f n f n = f n que pode ser posto em notação matricial como Fazendo A = e w n = f n f n f n+ f n = f n f n, podemos escrever como Note que w = f f = e que: w n = Aw n. w = Aw w = Aw = A(Aw = A w w 3 = Aw = A(A w = A 3 w. w n = A n w Assim, para calcularmos w n precisamos calcular as potências da matriz A, que pode ser facilmente realizada se utilizarmos o Teorema.3. Para isso, precisamos ver se A é diagonalizável. cujas raízes são p A (λ = λ λ = λ λ λ = + 5 e λ = 5. Como A possui autovalores distintos, pelo Corolário., A é diagonalizável. Os autovetores associados aos autovalores λ e λ são respectivamente u = + 5 e u = 8 5.

Portanto, fazendo D = obtemos: Portanto, A = w n = A n w = + 5 5 + 5 + 5 5 5, P = + 5 + 5 5 5 ( n + 5 ( 5 e calculando a inversa de P, 5 5 5 + 5 5 5 n 5 5 5 + 5 5 5 Assim, temos uma fórmula para calcular f n, que é a segunda componente de w n : f n = + 5 5 n+ n+ 5 Portanto, utilizando uma calculadora científica comum, obtemos f 48 = 7.778.74.49 Note que o número + 5 é o número de ouro, comumente denotado por φ, e além disso, 5 =. Assim, podemos sintetizar nossa fórmula: φ f n = φn+ ( φ n+ 5 Vamos analisar um comportamento curioso da Sequência de Fibonacci. Seja a n = f n com n >. Pergunta: Essa sequência é convergente? f n A resposta é sim e o mais curioso, converge para φ. lim a n = lim n + n + f n f n = lim n + φ n+ ( φ (n+ 5 φ n ( φ n 5 φ n+ ( φ (n+ = lim n + φ n ( φ n = φ. Genética Antes de começarmos esta seção, vamos relembrar alguns conceitos básicos de genética Gene: Unidade Fundamental da Hereditariedade (A e a. Hereditariedade Autossômica: Indivíduo de cada sexo possui dois desses genes. 9

Genótipo: Nome dado a esse par de genes. Determina como esses genes se manifestam no indivíduo. Pares possível: AA, Aa, aa. Gene Dominante: Característica predomina sobre as outras. Denota-se por A. Gene Recessivo: Característica não predomina sobre as outras. Denota-se por a Na Hereditariedade Autossômica, cada indivíduo herda de seus pais um dos genes do par de cada um, para formar seu próprio par. O gene herdado é questão de sorte, ou seja, a probabilidade de herdar cada gene é a mesma. Exemplo.. Vamos analisar como se dá o cruzamento entre indivíduos Aa e aa. A a a Aa aa a Aa aa Figura.: Tabela do provável genótipo do descendente de pais Aa e aa Há uma probabilidade de 5% do descendente ter genótipo Aa e 5% de ter genótipo do tipo aa. Problema Suponha um agricultor com uma população de plantas que possuem os três tipos possíveis de genótipos (AA, Aa, aa, que deseja implementar um sistema no qual cada planta é fertilizada com uma do genótipo AA. Nosso objetivo é determinar uma expressão para a distribuição dos três genótipos na população após um número n de gerações em termos da proporção inicial. Para n =,,..., vamos denotar por: a n = fração de plantas do genótipo AA na n-ésima geração b n = fração de plantas do genótipo Aa na n-ésima geração c n = fração de plantas do genótipo aa na n-ésima geração Fica claro que a n + b n + c n =, para n =,... Com a Figura.3, podemos expressar como fica a distribuição na n-ésima geração:

A A A AA AA A AA AA A A A AA AA a Aa Aa A A a Aa Aa a Aa Aa Figura.3: Tabela do cruzamento entre um indivíduo AA com os três genótipos possíveis a n = a n + b n b n = b n + c n c n = Note que podemos escrever essa distribuição em forma matricial como: Fazendo w n = a n b n c n a n b n c n = e A = a n b n c n, temos para n > w n = Aw n onde w é a proporção inicial dada no início do problema. Observe que para calcularmos w n, ocorre o mesmo que acontecia na modelagem da Sequência de Fibonacci, ou seja w n = A n w Portanto, vamos ver se A é diagonalizável e, após isso, determinar w n. cujas raízes são p A (λ = λ λ λ =, λ = e λ 3 = = λ 3 + 3 λ + λ

Como A possui 3 autovalores distintos, A é diagonalizável. Os autovetores de A são, respectivamente u =, u = e u 3 =. Logo, fazendo P =, D = e levando-se em conta que P = P, temos que Portanto, A = n ( w n = A n w = n a + b + c ( n b ( n c ( n b + ( n c Como a + b + c =, conclui-se que: a n = ( n b ( b n = ( n b + ( n c c n = n c Se continuarmos o processo de cruzamento infinitamente, como ( n +, obteremos: a n = ( n b ( n + c ( b n = n b + ( n + c + c n = a b c =

Logo, no limite teremos todas as plantas do tipo AA. Exemplo.. Se w = e a geração 5, a Figura.4 nos mostra como estará a distribuição na 3a, 5 a AA Aa aa 3 a Geração 83% 7% % 5 a Geração 96% 4% % a Geração 99, 9%, % % Figura.4: Distribuição dos genótipos na 3 a, 5 a e a geração Agora, vamos mudar um pouco as condições do Problema e analisar como se comportará w n. Problema Agora, fazendo com que cada planta cruze com outra de seu próprio genótipo, o que vai acontecer na n-ésima geração? Com a Figura.5, podemos expressar como fica a distribuição na n-ésima geração: a n = a n + 4 b n b n = b n c n = c n + 4 b n A A A AA AA A AA AA A a A AA Aa a Aa aa a a a aa aa a aa aa Figura.5: Tabela do cruzamento entre indivíduos de mesmo genótipo Agora, temos que A = 4 4 e 3

p A (λ = cujas raízes são λ 4 4 λ = λ 3 + 5 λ λ + λ =, λ = e λ 3 = Note que agora A não possui 3 autovalores distintos, portanto ainda não temos garantias que A é diagonalizável. Porém, como dim N(A I =, A é diagonalizável, pois existem autovetores linearmente independentes associados ao autovalor λ =. u =, u = e u 3 = Fazendo P = e D =, novamente temos que P = P, portanto A = e w n = A n w = n n ( n a b c = a + c + ( ( ( n b n+ b ( ( n+ b Assim, a n = a + b n = ( n b c n = c + ( ( n+ b ( ( n+ b 4

Se continuássemos os cruzamentos infinitamente, como ( n +, temos que a n = a + b n = c n = c + ( ( n+ + b a + b ( n + b ( ( n+ + b c + b Assim, no limite obteremos apenas plantas de genótipos AA e aa. Exemplo.3. Se w = e a geração 5, a Figura.6 nos mostra como estará a distribuição na 3a, 5 a AA Aa aa 3 a Geração 9% 7% 64% 5 a Geração 3% % 66% a Geração 3, 475%, 5% 67, 475% Figura.6: Distribuição dos genótipos na 3 a, 5 a e a geração 5

Capítulo 3 SVD - Decomposição em Valores Singulares Vimos que se A R n n possuir n autovetores linearmente independentes, ela será diagonalizável. Note que essas hipóteses são muito restritas. Existe uma decomposição que se assemelha muito com a diagonalização, a SVD, sigla para Singular Value Decomposition. A Decomposição em Valores Singulares diz que qualquer matriz, tanto quadrada quanto retangular, pode ser escrita como o produto de matrizes ortogonais e diagonais. Na seção, veremos propriedades das matrizes A T A e AA T que nos serão necessárias para a construção da SVD. Na seção iremos enunciar a SVD, demonstrar e mostrar um passo a passo para determiná-la. 3. As matrizes A T A e AA T Nesta seção, dada uma matriz A R m n vamos estudar algumas propriedades básicas das matrizes A T A e AA T. Teorema 3.. As matrizes A T A R n n e AA T R m m são simétricas semidefinidas positivas. Demonstração. Primeiramente, vamos mostrar que são simétricas. ( A T A T = A T ( A T T = A T A ( AA T T = ( A T T A T = AA T 6

Para mostrar que são semidefinidas positivas, note que para todo x R n e y R m vale x T ( A T A x = (Ax T Ax = Ax y T ( AA T y = ( A T y T A T y = A T y Com isso, concluímos que: Existe uma base ortonormal para o R n formada por autovetores de A T A Existe uma base ortonormal para o R m formada por autovetores de AA T Os autovalores de A T A e AA T são não-negativos. Teorema 3.. Os autovalores positivos das matrizes A T A e AA T mesma multiplicidade. são os mesmos, e com Demonstração. Considere v R n um autovetor de A T A associado ao autovalor λ. A T Av = λ i v = AA T (Av = λ (Av como Av, temos que Av é autovetor de AA T associado ao mesmo autovalor λ. Reciprocamente, seja u R m um autovetor de AA T associado ao autovalor µ. AA T u = µu = A T A ( A T u = µ ( A T u como A T u, temos que A T u é autovetor de A T A associado ao mesmo autovalor µ. Vamos provar agora que possuem mesma multiplicidade. Suponha que λ seja autovalor de A T A de multiplicidade k. Como A T A é simétrica, sabemos que existem k autovetores linearmente independentes associados ao autovalor λ. Seja B = {v, v,..., v k } base dos autovetores de A T A associados ao autovalor λ. Já vimos que Av i será autovetor de AA T associado ao mesmo autovalor λ. Vamos mostrar que C = {Av, Av,..., Av k } é uma base para os autovetores de AA T associados ao autovalor λ. Primeiramente vamos mostrar que esse conjunto de vetores é linearmente independentes. 7

De fato, suponha c i s R tais que c Av + c Av +... + c k Av k = Multiplicando pela esquerda por A T e usando o vato que A T Av i = λv i, temos c A T Av + c A T Av +... + c k A T Av k = = λ (c v + c v +... + c k v k = Como λ, temos que c v + c v +... + c k v k = Como v, v,..., v k são linearmente independentes (pois geram B, conclui-se que c i = para i =,,..., k. Assim, Av, Av,..., Av k são linearmente independentes. Vamos mostrar agora que qualquer autovetor de AA T associado ao autovalor λ pode ser escrito como combinação linear desses vetores. Seja u R m tal que AA T u = λu Como A T u é autovetor de A T A, temos que A T u = a v + a v +... + a k v k Multiplicando pela esquerda por A e usando o fato que AA T u = λu e que λ AA T u = a Av + a Av +... + a k Av k = u = a λ Av + a λ Av +... + a k λ Av k Assim, C = {Av, Av,..., Av k } é uma base para os autovetores de AA T associados ao autovalor λ. Portanto, a multiplicidade de λ como autovalor de AA T também é k. Exemplo 3.3. Seja A =, vamos calcular os autovalores de A T A e AA T. Note que A T A R 3 3 e AA T vamos começar por A T A. R 4 4, como elas compartilham os autovalores positivos, 8

A T A = = 3 3 cujo polinômio característico é p A T A(λ = λ 3 + 8λ 5λ Portanto, seus autovalores são λ = 5, λ = 3 e λ 3 = AA T = = e seu polinômio característico é p AA T (λ = λ 4 8λ 3 + 5λ logo, seus autovalores são λ = 5, λ = 3 e λ 3 = λ 4 = No exemplo acima, como esperado, as matrizes A T A e AA T eram simétricas e possuíam os mesmos autovalores positivos, com mesma multiplicidade, porém, o cálculo desses autovalores era mais simples em A T A do que em AA T. Além disso, pudemos perceber que elas não compartilham o autovalor λ = com mesma multiplicidade. O próximo teorema irá explicar porquê isso ocorre. Teorema 3.4. Se v R n é um autovetor de A T A R n n associado ao autovalor λ =, então Av = Demonstração. Temos que A T Av = 9

Multiplicando pela esquerda por v T obtemos v T A T Av = = (Av T Av = = Av = = Av = Corolário 3.5. N(A = N(A T A Logo, não podemos assumir que v sendo autovetor de A T A associado ao autovalor λ =, Av será autovetor de AA T associado a λ =. Assim, partiremos para uma análise diferente. Seja r o número de autovalores nãonulos de A T A e AA T (com multiplicidade, como existem n autovalores de A T A e m autovalores de AA T, a multiplicidade de λ = é n r para A T A m r para AA T 3. Decomposição em Valores Singulares Definição 3.6. As raízes quadradas dos r autovalores positivos de A T A e AA T são chamadas de Valores Singulares de A e denotada por σ. σ i = λ i Teorema 3.7. Se v i R n é autovetor unitário de A T A associado ao autovalor positivo λ i, então u i = σ i Av i é um autovetor unitário de AA T associado ao mesmo autovalor. Demonstração. Pelo Teorema 3., sabemos que u i é autovetor de AA T associado ao autovalor λ i, basta vermos que u i é unitário. u i = u T i u i = ( T Av i Av i = v T σ i σ i σ i A T Av i = v T i (λ i v i = v T i v i = v i = = u i = λ i i 3

Teorema 3.8. (Decomposição em Valores Singulares Toda matriz A R m n pode ser decomposta como A = UΣV T onde U R n n é ortogonal e suas colunas são formadas por autovetores de AA T Σ R m n é diagonal, cujas entradas diagonais são valores singulares de A V R m m é ortogonal e suas colunas são formadas por autovetores de A T A Demonstração. Vamos contruir essa decomposição. Seja r o número de valores singulares de A. Vamos ordenar os autovalores de A T A de modo que: λ λ... λ r > e λ r+ = λ r+ =... = λ n = Assim, temos também σ σ... σ r Assim, temos que dim N(A T A = n r, logo dim N(A = n r. Pelo Teorema do Núcleo e Imagem, dim I(A + dim N(A = n = dim I(A = r Portanto, o posto de A é r. Considere v, v,..., v n R n tais que: A T Av i = λ i v i, para i r A T Av i =, para r + i n v i =, para i n v T i v j =, para i j Note que podemos fazer essas escolhas pois A T A é simétrica. Agora, para i r, fazemos u i = Av i σ i 3

Já vimos que u i = e, além disso, temos que u T i u j = se i j, i, j r. De fato, u T i u j = ( T Av i Av j = v T i A T Av j = v T i σ i σ j σ i σ j σ i σ j ( λ j v j = λ j σ i σ j v T i v j = Perceba que u i I(A. Como dim I(A = r e temos r u s linearmente independentes, temos que {u, u,..., u r } forma uma base ortonormal para o I(A. Como dim I(A = dim I(A T = r, temos que dim N(A T = m r Considere então {u r+, u r+,..., u m } uma base ortonormal para o N(A T. Como I(A = N(A T, temos u T i u j = i j, i, j m Seja V = ( ( v v... v r v r+... v n e U = u u... u r u r+... u m Por construção, V R n n e U R m m são matrizes ortogonais, logo V T V = VV T = I R n n e U T U = UU T = I R m m. Vamos efetuar a seguinte multiplicação U T AV u T u T u T Av u T Av... u T Av n u T. u T m A ( v v... v n = u T. u T m ( Av Av... Av n = u T Av u T Av... u T Av n.... u T mav u T mav... u T mav n Assim, o elemento i j é u T i Av j. 3

Se j > r, temos que A T Av j = e já vimos que N(A T A = N(A, logo Av j = e u T i Av j = Se j r, temos que Av j = σ j u j (pela definição de u i, quando i r, assim u T i Av j = u T i (σ j u j = σ j u T i u j Se j i, já vimos que u T i u j =, portanto u T i Av j = Se j = i, temos que u T i u i = e u T i Av i = σ i Portanto, pela análise conclui-se que: Se i = j r, o elemento i j é σ i Se i j ou i = j > r, o elemento i j é. σ Fazendo Σ = Σ r, onde Σ σ r =... σ r, com Σ R m n e Σ r R r r temos Como U e V são matrizes ortogonais: Σ = U T AV A = UΣV T Pela contrução da SVD, conseguimos enunciar o seguinte corolário. Corolário 3.9. Ao fazermos a Decomposição em Valores Singulares de uma matriz A R m n, temos que: As r primeiras colunas de U formam uma base ortonormal para I(A 33

As m r últimas colunas de U formam uma base ortonormal para N(A T As r primeiras colunas de V formam uma base ortonormal para I(A T As n r últimas colunas de V formam uma base ortonormal para N(A Há uma grande semelhança entre a SVD e a Decomposição Espectral, vista no Teorema.9. Existe um caso em que elas coincidem. Teorema 3.. Considere A R n n simétrica definida positiva. Se v R n n é um autovetor de A T A associado ao autovalor λ, então v será autovetor de A associado ao autovalor σ, onde σ = λ, ou seja A T Av = λv = Av = σv Demonstração. Vamos demonstrar por absurdo. Suponha que Av σv. Seja w = Av σv, então Aw = A(Av σv = Aw = A v σav Como A = A T, podemos escrever como Aw = A T Av σav = Aw = λv σav Como λ = σ, temos Note que σv Av = w, então Aw = σ(σv Av Aw = σw Logo, σ é autovalor de A associado ao autovetor w, o que é um absurdo, pois A é definida positiva e σ <. Portanto Av = σv Teorema 3.. Se A R n n é simétrica definida positiva, então a Decomposição em Valores Singulares coincide com a Decomposição Espectral. Demonstração. 34

Já vimos que A T A é semidefinida positiva. Vamos mostrar agora que se A é definida positiva, A T A também é. Suponha que exista um v R n, v tal que v T (A T Av =. v T A T Av = = (Av T Av = = Av = = Av = Logo v é autovetor de A associado ao autovalor λ =, que é um absurdo, pois A é definida positiva. Portanto A T A é definida positiva e assim, possui n autovalores nãonulos. Vamos contruir a SVD de A. Seja {v, v,..., v n } base ortonormal para o R n tal que A T Av i = λ i v i Temos que Pelo Teorema 3., conclui-se que u i = σ Av i u i = σ Av i = σ (σv i = v i para i n. Logo e V = U A = UΣU T Pelo Teorema 3., temos também que os valores singulares de A são seus autovalores, logo a SVD coincide com a decomposição Espectral. Vamos agora com um exemplo mostrar o passo a passo para a Decomposição em Valores Singulares de uma matriz A R m n Exemplo 3.. Considere a matriz A = R 4 3. Passo. Calcular A T A e AA T. 35

A T A = 3 3 e AAT = Passo. Calcular os autovalores de A T A e AA T. Sabemos que os autovalores não-nulos são os mesmos, então escolhe-se, em geral, a matriz de menor dimensão para facilitar o cálculo. Neste caso, A T A R 3 3 e AA T R 4 4 Autovalores de A T A: λ = 5, λ = 3 e λ 3 = Como A T A possui r = autovalores não-nulos, AA T possui m r = 4 = autovalores nulos, logo Autovalores de AA T : λ = 5, λ = 3, λ 3 = e λ 4 = Passo 3. Calcular os r valores singulares de A. Basta tomarmos a raíz quadrada dos autovalores não-nulos. σ = 5 e σ = 3 Passo 4. Calcular os r autovetores associado aos autovalores não-nulos de A T A de modo que sejam ortonormais. Como A T A é simétrica, sabemos que autovetores associado a autovalores distintos são ortogonais, basta então ortonormalizar os casos em que a multiplicidade do autovalor é maior que usando qualquer método, como por exemplo o processo de Gram- Schimidt. No nosso exemplo a multiplicidade em ambos os casos é. v = e v = 6 6 6 36

Passo 5. Calcular uma base ortonormal para N(A. Como no nosso exemplo dim N(A =, basta determinar um vetor unitário pertencente ao N(A, eles serão as n r = 3 = últimas colunas de V. v 3 = 3 3 3 Passo 6. Calcular os r primeiros u s pela fórmula u i = σ Av i u = e u = Passo 7. Calcular uma base ortonormal para o N(A T Elas serão as m r = 4 = últimas colunas de U. u 3 = 3 3 3 e u 4 = 5 5 3 5 5 Passo 8. Por fim, montar as matrizes U, V e Σ. A = UΣV T = 3 5 3 5 3 5 3 5 5 3 6 6 6 3 3 3 37

Capítulo 4 Aplicações - SVD Veremos agora uma aplicação da SVD no caso em que a matriz é quadrada. Na seção, ao fazer a Decomposição em Valores Singulares, fazendo pequenas manipulações, conseguimos que a matriz torne o produto de uma matriz ortogonal por uma simétrica semidefinida positiva, ou o contrário, o produto de uma semidefinida positiva por uma ortogonal. A primeira é chamada de Decomposição Polar e a segunda de Decomposição Polar Reversa. Veremos que no caso da matriz ser inversível, essas decomposições são únicas e a matriz ortogonal nessas duas decomposições é a mesma. Na seção, daremos uma breve introdução sobre Deformações e ver como o Jacobiano de Deformação nos mostra como o sólido foi modificado e, num caso geral, precisaremos usar a Decomposição Polar para isso. 4. Decomposição Polar Teorema 4.. Se A R n n, então existem S e S simétricas semidefinidas positivas e Q ortogonal tais que A = QS = S Q onde A = QS é dita Decomposição Polar e A = S Q é dita Decomposição Polar Reversa Demonstração. Como A é quadrada, aplicando a SVD obtemos A = UΣV T 38

onde U, V, Σ R n n Como V T V = I, podemos escrever A = U(V T VΣV T = (UV T (VΣV T Fazendo Q = UV T e S = VΣV T, temos A = QS onde Q é ortogonal e S é simétrica semidefinida positiva. Q é ortogonal. Q T Q = (UV T T (UV T = (VU T (UV T = V(U T UV T = VV T = I S é simétrica semidefinida positiva S T = (VΣV T T = VΣ T V T = VΣV T = S Como as entradas diagonais de Σ são maiores ou iguais a (pela SVD, S é semidefinida positiva, pois as entradas diagonais de Σ são seus autovalores. De forma análoga, como U T U = I, podemos escrever A = UΣ(U T UV T = (UΣU T (UV T = (UΣU T Q Fazendo S = UΣU T, temos A = S Q De forma análoga ao que acontece com S, S também é simétrica semidefinida positiva. Exemplo 4.. Vamos calcular a Decomposição Polar e a Decomposição Polar Reversa de A = 4 5 4 5 Primeiramente, precisamos calcular a SVD de A. 39

A T A = 4 4 5 5 4 5 4 5 = 3 5 Como A T A é diagonal, temos que λ = 5 e λ = 3 Cujos autovetores são v = e v Como r = n =, não precisamos calcular N(A. Os valores singulares de A são σ = 5 e σ = 4 Calculando os vetores colunas de U pela fórmula u i = σ i Av i, temos u = e u = Assim, as matrizes que formam a SVD de A são U =, Σ = 5 4 Vamos agora calcular a Decomposição Polar A = QS Portanto Q = UV T = S = VΣV T = 5 4 A = QS = e V =. = = 4 5 4 5 Para a Decomposição Polar Reserva A = S Q, já vimos que podemos usar a mesma matriz Q, resta-nos calcular S : 4

Logo S = UΣU T = 5 4 A = S Q = 9 9 = Teorema 4.3. Se A e B são matrizes simétricas definidas positivas tais que A = B, então A = B Demonstração. Como A e B são definidas positivas, temos que A = B também é definida positiva. Portanto, pela Teorema.9, existem P ortogonal e D diagonal tais que 9 9 A = B = PDP T = ( u u... u n λ λ... λ n ( u u... u n T onde λ i > para i n. Multiplicando por P pela direita, temos que A ( u u... u n = B ( u u... u n = ( u u... u n λ λ... λ n ( A u A u... A u n = ( B u B u... B u n = ( λ u λ u... λ n u n Pelo Teorema 3., temos que se u i é autovetor de A associado ao autovalor λ i, então u i será autovetor de A associado ao autovalor σ i = λ i A u i = λ i u i = Au i = σ i u i A u i = λ i u i = B u i = λ i u i = Bu i = σ i u i 4

Portanto ( Au Au... Au n = ( σ u σ u... σ n u n = ( Bu Bu... Bu n A ( u u... u n = ( u u... u n σ σ... σ n = B ( u u... u n AP = PΣ = BP = A = PΣP T = B = A = B Onde Σ é diagonal, com entradas diagonais σ i. Pelo Teorema anterior, vamos mostrar que quando A é inversível, existem únicos Q, S e S nas decomposições polares. Teorema 4.4. Seja A R n n inversível. Se A = Q S = Q S, onde Q e Q são ortogonal e S e S são simétricas definidas positivas, então Q = Q e S = S Demonstração. Vimos na decomposição polar que S é simétrica semidefinida positiva, mas como A é inversível, S e S também são inversíveis, logo S e S são definidas positivas. Temos que assim, A T = S Q T = S Q T A T A = (S Q T (Q S = (S Q T (Q S = S (Q T Q S = S (Q T Q S = S = S Como S e S são definidas positivas, temos pelo Teorema 4. que S = S 4

Vamos chamar então simplesmente de S. Logo A = Q S = Q S Como S é inversível, temos que Q = Q Corolário 4.5. Se A R n n é inversível e A = S Q = S Q, então S = S e Q = Q, onde S e S são simétricas definidas positivas e Q e Q são ortogonais Agora vamos mostrar que a matriz Q é a mesma, tanto na decomposição polar, quanto na decomposição polar reversa Teorema 4.6. Se A R n n é inversível tal que A = Q S = S Q, então Q = Q, onde S e S são simétricas definidas positivas e Q e Q são ortogonais. Demonstração. Como Q é ortogonal, Q Q T = I e podemos escrever S Q = (Q Q T S Q = Q (Q T S Q Seja R = Q T S Q. Como S é simétrica definida positiva, existe P ortogonal e D diagonal tais que S = PDP T, com as entradas diagonais de D maiores que. Assim R = Q T S Q = Q T (PDPT Q = (Q T PD(QT PT Como Q T P é ortogonal, temos que R é simétrica definida positiva. Portanto Como S Q = Q S, temos S Q = Q R Q S = Q R Pelo Teorema 4.3, conclui-se que S = R e que Q = Q 43

4. Deformações Nesta seção, vamos estudar um pouco sobre Deformações num ponto de vista macroscópico, ignorando o que acontece a nivel atômico e molecular, tendo como principal referência [5] Considere um sólido genérico B R 3, descrito como um conjunto contínuo de e- lementos que ocupam uma determinada região do espaço de volume V e superfície limítrofe S, sendo x o vetor posição do ponto P. O conhecimento da posição de todos os pontos do sólido B num determinado instante em relação a uma origem considerada fixa permite que se defina a configuração do sólido nesse instante, como mostra a Figura 4.. Figura 4.: Configuração Inicial do sólido B Este sólido está sujeito a um processo no qual ocorrem deformações e o sólido inicial B passa a uma configuração deformada B R 3. Para caracterizar esse processo, podemos considerar uma função de deformação φ: φ : B B x φ(x onde φ(x = (φ (x, φ (x, φ 3 (x 44

Para facilitar a notação, vamos definir x := φ(x A escolha do sistema de eixos de referência pode ser feita considerando um sistema de eixos em que os pontos sejam referidos na configuração inicial do sólido ou num sistema de eixos associado à configuração deformada do sólido. Considere no sólido uma curva L e sobre ela um ponto P, sendo x(t o seu vetor posição, onde t é o parâmetro identificador da posição do ponto na curva L. Ao aplicarmos a função φ na curva L, obtemos uma curva L e nela o ponto P. Figura 4.: Configuração Inicial e Deformada, após aplicar a função φ O vetor x (t está relacionado com o vetor x(t através da função de deformação x (t = φ(x(t Derivando em relação a t, obtemos dx dt = J φ (x dx dt onde as componentes de J φ (x são as derivadas de φ em relação à x: 45

[ Jφ (x ] i j = φ i x j J φ (x é o chamado Jacobiano de Deformação e denotado por J J = φ φ φ x x x 3 φ φ φ x x x 3 φ 3 φ 3 φ 3 x x x 3 Muitas vezes se escreve apenas dx = Jdx Este Jacobiano de Deformação representa os movimentos sofridos pelo sólido ao ser deformado, como rotação, reflexão, alongamento ou compressão. Note que J se refere a um ponto específico e, geralmente, não ao sólido como um todo, como veremos nos próximos exemplos. Exemplo 4.7. Vamos calcular o Jacobiano de Deformação, onde φ(x, x, x 3 = (x + x, x 3, x. Temos que φ = x + x φ = x 3 φ 3 = x Assim, J = φ φ φ x x x 3 φ φ φ x x x 3 φ 3 φ 3 φ 3 x x x 3 = + x Veja que J não é o mesmo para todo o sólido, pois J depende de x. Note que para todo ponto (, x, x 3 temos que J = Neste caso, J é uma matriz ortogonal e os pontos da forma (, x, x 3 não sofrem alonga- 46

mentos nem contrações, apenas rotação, como vemos na Figura 4.3. Figura 4.3: Rotação no plano x x 3 Quando num determinado ponto, J for simétrico, existirá uma base ortonormal onde J será diagonal e, neste caso, esse ponto sofrerá apenas alongamentos ou contrações, sendo esta base ortonormal as direções principais. Exemplo 4.8. Vamos considerar agora a seguinte função deformação φ(x, x, x 3 = (3x, x, 4x 3. Temos então que 3 J = 4 Na Figura 4.4 vemos como J age no ponto P = (,, T que pertence ao plano x x 3. Porém, nem sempre J será ortogonal ou simétrica, neste caso aplicamos a Decomposição Polar na matriz J para investigar como o sólido é deformado. Pela relação dx = Jdx, ao aplicarmos a decomposição polar J = QS, temos que dx = QS dx 47

Figura 4.4: Alongamento no plano x x 3 ou seja, primeiramente o elemento dx irá sofrer apenas alongamentos ou contrações pela ação de S e após isso, rotações ou reflexões pela ação de Q. De forma semelhante, pela decomposição polar reversa J = S Q, temos que dx = S Qdx e agora, o elemento dx primeiro sofrerá rotações ou reflexões por Q, e depois alongamentos ou contrações por S. Exemplo 4.9. Considere o bloco retangular R : [, ] [, ] [, ] sujeito a seguinte função deformação: φ(x, x, x 3 = ( x, x, x 3 Temos que J = Veja que J é o mesmo para todos os pontos do sólido e J não é nem ortogonal, nem simétrico. Vamos calcular a Decomposição Polar e a Decomposição Polar Reversa de J. Para isso, temos que calcular primeiramente a SVD de J. 48

4 J T J = = Portanto, seus autovalores são λ = 4, λ = e λ 3 = com autovetores v =, v = e v 3 = Note que J T J não possui autovalor nulo, assim não precisamos calcular N(J e {v, v, v 3 } já forma um conjunto ortonormal, logo não precisamos ortonormalizá-lo. Assim, os valores singulares de J são σ =, σ = e σ 3 = Utilizando a relação u i = σ i Jv i, temos u = = u = = u 3 = = Logo, J = UΣV T, onde U =, Σ = e V = 49

Pelo Teorema 4., J = QS = S Q As matrizes Q, S e S são: Q = UV T = = S = VΣV T = = S = UΣU T = = Note que x 3 permanece o mesmo após a deformação. A Figura 4.5 mostra o que acontece com o bloco no plano x x Figura 4.5: Alongamento e Rotação do bloco no plano x x 5

Bibliografia [] Anton, Howard: Álgebra Linear com Aplicações. Bookman. [] Kolman, Bernard: Introdução à Álgebra Linear com Aplicações. LTC Editora. 6. [3] Strang, Gilbert: Álgebra Linear e suas Aplicações. Cengage Learning. 6. [4] Leon, Steven: Álgebra Linear com Aplicações. LTC Editora. 999. [5] Disponível em http://paginas.fe.up.pt/ ldinis/capitulo.pdf. Acessado dia 3 de fevereiro de 5