Um Curso de Nivelamento. Instituto de Matemática UFF

Tamanho: px
Começar a partir da página:

Download "Um Curso de Nivelamento. Instituto de Matemática UFF"

Transcrição

1 Introdução à Álgebra Linear Um Curso de Nivelamento Jorge Delgado Depto. de Matemática Aplicada Katia Frensel Depto. de Geometria Instituto de Matemática UFF Março de 2005

2 J. Delgado - K. Frensel ii Instituto de Matemática - UFF

3 Conteúdo Noções Preliminares 1 1. Corpos Sistemas de Equações Lineares Operações Elementares Multiplicação de Matrizes Matrizes Invertíveis Espaços Vetoriais Espaço Vetorial - definições e propriedades básicas Subespaço Vetorial Bases e Dimensão Coordenadas Equivalência por Linhas resumo Transformações Lineares Transformação Linear - noções básicas Funcionais Lineares Polinômios Álgebras - generalidades Interpolação de Lagrange Ideais de Polinômios Decomposição de um polinômio em fatores primos iii

4 5. Determinantes Propriedades dos Determinantes Formas Canônicas - Preliminares Formas Canônicas Elementares Polinômios Anuladores Subespaços Invariantes Triangulação Simultânea e Diagonalização Simultânea Decomposição em Soma Direta Somas Diretas Invariantes O Teorema da Decomposição Primária Forma Canônica Racional Subespaços cíclicos e anuladores Decomposição Cíclica e a Forma Racional Forma Canônica de Jordan Forma Canônica Racional dos Operadores Nilpotentes Cálculo da Forma Canônica dos Operadores Nilpotentes Forma Canônica de Jordan Forma Canônica de Jordan Real Operadores Semi-Simples Espaços Vetoriais com Produto Interno Produto Interno - Definições básicas Funcionais Lineares e Adjuntos Operadores Unitários Operadores Normais Diagonalização simultânea de uma família comutativa de operadores normais Formas J. Delgado - K. Frensel iv Instituto de Matemática - UFF

5 7. Formas Positivas Resumo sobre matrizes positivas Funções de operadores J. Delgado - K. Frensel 0 Instituto de Matemática - UFF

6 Noções Preliminares 1. Corpos Um corpo comutativo é um conjunto K, cujos elementos são chamados escalares, com um par de operações: + x K e y K = x + y K (adição) x K e y K = xy = x y K (multiplicação) que satisfazem as seguintes propriedades: 1. A adição é comutativa: x + y = y + x, x, y K. 2. A adição é associativa: x + (y + z) = (x + y) + z, x, y, z K. 3. Existe um único elemento 0 K (zero), tal que x + 0 = x, x K. Para saber mais... Da história da Álgebra Linear, consulte as páginas: st-andrews.ac.uk/history/ HistTopics/Matrices_and_ determinants.html e st-andrews.ac.uk/history/ HistTopics/Abstract_ linear_spaces.html 4. A cada x K corresponde um único elemento x K, tal que x + ( x) = A multiplicação é comutativa: x y = y x, x, y K. 6. A multiplicação é associativa: x (y z) = (x y) z, x, y, z K. 7. Existe um único elemento 1 K {0} (um), tal que x 1 = x, x K. 8. A cada x K {0} (x não-nulo) corresponde um único elemento x 1 ou 1 x em K, tal que x x 1 = A multiplicação é distributiva em relação à adição: x (y + z) = x y + x z, x, y, z K. 1

7 Corpos Definição 1.1 Um subcorpo de K é um subconjunto F de K que é um corpo com as operações de adição e multiplicação de K. Assim, dizer que F é um subcorpo do corpo K significa que 0 e 1 estão em F e que se x e y são elementos de F, então, x + y, xy, x e x 1 (caso x 0) são também elementos de F. Exemplo 1.1 O conjunto dos números complexos C = {a + ib a, b R} é um corpo com as operações de adição e multiplicação usuais. Exemplo 1.2 O conjunto dos números reais R é um subcorpo de C. Exemplo 1.3 O conjunto dos números racionais Q = { p p Z, q Z {0}} é um q subcorpo de R e de C. Mais ainda, é fácil verificar que todo subcorpo de C deve conter Q. Exemplo 1.4 O conjunto {x + y 2 x, y Q} é um subcorpo de C. Exemplos... Os corpos Z p = Z/(pZ) com p > 0 inteiro primo têm característica p. Observação 1.1 Num corpo K pode ser possível adicionar uma quantidade finita de parcelas iguais a 1 e obter 0, isto é, = 0. Quando esse fato acontece, o menor natural k, tal que a soma de k parcelas 1 é igual a 0, é chamado a característica de K. Quando tal número natural não existe, dizemos que o corpo tem característica zero. Em todo o seguinte, vamos considerar apenas corpos de característica zero. J. Delgado - K. Frensel 2 Instituto de Matemática - UFF

8 Sistemas de Equações Lineares 2. Sistemas de Equações Lineares Seja K um corpo (como sempre, de característica zero) e seja o sistema de m equações lineares a n incógnitas A 11 x 1 + A 12 x A 1n x n = y 1 A 21 x 1 + A 22 x A 2n x n = y A m1 x 1 + A m2 x A mn x n = y m, ( ) onde y 1,..., y m e A ij, 1 i m e 1 j n, são elementos de K. Definição 2.1 Uma n upla (x 1, x 2,..., x n ) K n que satisfaz o sistema é chamada uma solução do sistema. Se (y 1, y 2,..., y m ) = (0, 0,..., 0), dizemos que o sistema é homogêneo. se c 1, c 2,..., c m K, dizemos que (c 1 A 11 + c 2 A c m A m1 )x 1 +(c 1 A 12 + c 2 A c m A m2 )x (c 1 A 1n + c 2 A 2n + + c m A mn )x n = c 1 y 1 + c 2 y c m y m é uma combinação linear das equações do sistema. Note que toda solução do sistema é, também, uma solução desta nova equação. Dizemos que dois sistemas de equações lineares são equivalentes se cada equação de um dos sistemas é combinação linear das equações do outro sistema. Em particular, sistemas de equações lineares que são equivalentes possuem exatamente as mesmas soluções. J. Delgado - K. Frensel 3 Instituto de Matemática - UFF

9 Operações Elementares 3. Operações Elementares Podemos escrever o sistema ( ) na forma matricial AX = Y, onde A 11 A 12 A 1n A A = 21 A 22 A 2n A m1 A m2 A mn m n é a matriz dos coeficientes do sistema, x 1 x X = 2. y 1 y e Y = 2.. x n n 1 y m m 1 Vamos considerar três operações elementares sobre as linhas da matriz A que correspondem a formar combinações lineares das equações do sistema AX = Y: 1. multiplicação de uma linha de A por um escalar não-nulo; 2. substituição da p ésima linha de A pelo resultado da soma da linha p ésima mais c vezes a linha q ésima, sendo c K {0} e p q números entre 1 e m; 3. transposição de duas linhas de A. Uma operação elementar sobre linhas é uma função e que a cada matriz A de tamanho m n associa outra matriz e(a) de mesmo tamanho. Para as três operações elementares acima, temos: 1. e(a) ij = A ij se i p, e(a) pj = c A pj. 2. e(a) ij = A ij se i p, e(a) pj = A pj + c A qj. 3. e(a) ij = A ij se i p, e i q, e(a) pj = A qj e e(a) qj = A pj. J. Delgado - K. Frensel 4 Instituto de Matemática - UFF

10 Operações Elementares Teorema 3.1 Para cada operação elementar e existe uma operação elementar e 1 do mesmo tipo, tal que, e 1 (e(a)) = e(e 1 (A)) = A. Prova. De fato, Se e é a multiplicação da p ésima linha por c (c 0), então e 1 multiplicação da p ésima linha por c 1. é a Se e é a operação que substitui a p ésima linha de A pela p ésima linha mais c vezes a q ésima linha, então e 1 é a operação que substitui a p ésima linha de A pela p ésima linha de A mais c vezes a q ésima linha de A. Se e é a operação que transpõe as linhas p e q de A, então e 1 = e. Definição 3.1 Sejam A e B matrizes m n sobre o corpo K. Dizemos que B é equivalente por linhas a A se B pode ser obtida de A por uma seqüência finita de operações elementares sobre as linhas de A. Observação 3.1 A equivalência por linhas no conjunto das matrizes m n é uma relação de equivalência. Teorema 3.2 Se A e B são matrizes m n equivalentes por linhas, então os sistemas homogêneos AX = 0 e BX = 0 têm exatamente as mesmas soluções. Prova. Podemos passar de A para B por meio de uma seqüência finita de operações elementares sobre as linhas. A = A 0 A 1 A 2 A k = B. Basta então observar que uma operação elementar sobre linhas não altera o conjunto de soluções. De fato. Sejam C e D matrizes m n tais que e(c) = D. Então, toda linha de D é uma combinação linear das linhas de C. Como C = e 1 (e(c)) = e 1 (D), toda linha de C é, também, uma combinação linear J. Delgado - K. Frensel 5 Instituto de Matemática - UFF

11 Operações Elementares das linhas de D. Logo, C e D são matrizes equivalentes e, portanto, os sistemas homogêneos associados a tais matrizes possuem as mesmas soluções. Exemplo 3.1 Seja A a matriz A = sobre o corpo Q. Vamos efetuar uma seqüência finita de operações elementares sobre as linhas de A: A = (2) (2) (1) /2 55/ (2) (2) (1) 0 1 1/2 7/ /2 7/ /2 7/ / / / (2) /3 (2) /3 = B 0 1 1/2 7/ /2 7/ /3 Como as matrizes 3 4 A e B são equivalentes por linhas, os sistemas lineares homogêneos 2x 1 x 2 + 3x 3 + 2x 4 = 0 x 1 + 4x 2 x 4 = 0 2x 1 + 6x 2 x 3 + 5x 4 = 0 e x 3 11x 3 4 = 0 x x 3 4 = 0 x 2 5x 3 4 = 0 têm as mesmas soluções. Logo, toda solução do sistema é da forma ( 17 x 3 4, 5 x 3 4, 11 x ) 3 4, x 4, x4 R. J. Delgado - K. Frensel 6 Instituto de Matemática - UFF

12 Operações Elementares Ou seja, toda solução é um múltiplo da solução ( 17, 5, 11, 3). Definição 3.2 Uma matriz R de tamanho m n é dita linha-reduzida ou reduzida por linhas se: a. a primeira entrada não-nula de cada linha não-nula de R é igual a 1; b. toda coluna de R que contém a primeira entrada não-nula de alguma linha tem todos as suas outras entradas nulas; Exemplo 3.2 A matriz B obtida no exemplo anterior é reduzida por linhas. Exemplo 3.3 A matriz identidade n n I cujas entradas são: { 1, se i = j I ij = δ ij = 0, se i j. Em alguns textos... A matriz identidade é também chamada matriz unidade, pois, como veremos mais adiante, atua como unidade multiplicativa para as matrizes. Exemplo 3.4 As matrizes e não são reduzidas por linhas. Teorema 3.3 Toda matriz m n com entradas sobre um corpo K é equivalente por linhas a uma matriz reduzida por linhas. Prova. Seja A uma matriz m n. Se toda entrada na primeira linha de A é 0, a condição a. está satisfeita no que diz respeito à primeira linha. Se a primeira linha tem uma entrada não-nula, seja k o menor inteiro positivo j para o qual A 1j 0. Multiplicando a linha 1 por A 1 1j, a condição a. fica satisfeita em relação à linha 1. J. Delgado - K. Frensel 7 Instituto de Matemática - UFF

13 Operações Elementares Para cada i 2, somamos A ik vezes a linha 1 à linha i, para tornar as outras entradas na k ésima coluna iguais a zero. Consideremos agora a matriz que resultou das operações acima. Se toda entrada da linha 2 é nula, nada fazemos a essa linha. Mas se alguma entrada da linha 2 é diferente de zero, multiplicamos essa linha por um escalar de modo que a primeira entrada não-nula seja 1. No caso em que a linha 1 tenha uma primeira entrada não-nula na coluna k, a primeira entrada não-nula na linha 2 aparece numa coluna k, onde k k. Somando múltiplos adequados da linha 2 às diversas linhas, podemos fazer com que todas as entradas da coluna k, com exceção do 1 na linha 2, sejam nulas. Observe que ao efetuarmos essas últimas operações, não alteramos as entradas da linha 1 nas colunas 1,..., k e nenhuma entrada da coluna k. Além disso, se a linha 1 fosse nula, as operações com a linha 2 não afetariam a linha 1. Trabalhando com uma linha de cada vez da maneira acima, chegaremos a uma matriz reduzida por linhas após um número finito de etapas. Definição 3.3 Uma matriz R de tamanho m n é dita linha-reduzida à forma em escada ou reduzida por linhas à forma em escada, se: a. R é reduzida por linhas; b. toda linha de R cujas entradas são todas nulas ocorre abaixo de todas as linhas que possuem uma entrada não-nula; c. se as linhas 1,..., r são as linhas não-nulas de R e se a primeira entrada não-nula da linha i ocorre na coluna k i, i = 1,..., r, então k 1 < k 2 <... < k r. Isto é, existe um inteiro positivo r, 1 r m e r inteiros positivos k 1, k 2,..., k r com 1 k i n, tais que: a. R ij = 0, para i > r e 1 j n; b. R ij = 0, para j < k i e 1 i r; J. Delgado - K. Frensel 8 Instituto de Matemática - UFF

14 Operações Elementares c. R ikj = δ ij, para 1 i r e 1 j r; d. k 1 <... < k r. Exemplo 3.5 A matriz identidade n n e a matriz nula m n são matrizes reduzidas por linhas à forma em escada. Exemplo 3.6 A matriz / é uma matriz reduzida por linhas à forma em escada. Teorema 3.4 Toda matriz é equivalente por linhas a uma matriz reduzida por linhas à forma em escada. Prova. Sabemos que toda matriz A é equivalente por linhas a uma matriz reduzida por linhas R. Efetuando um número finito de transposições das linhas de R, obtemos uma matriz equivalente por linhas a R, e portanto a A, que é reduzida por linhas à forma em escada. Exemplo 3.7 A matriz A do exemplo 3.1 é equivalente por linhas à matriz B que está na forma reduzida por linhas. Essa matriz é, por sua vez, equivalente por linhas à matriz /3 C = / /3 que é a forma reduzida por linhas à forma em escada. Seja R uma matriz m n reduzida por linhas à forma em escada e sejam 1,..., r as linhas não-nulas de R. Suponhamos que o primeiro elemento não-nulo da linha i, 1 i r, ocorra na coluna k i. J. Delgado - K. Frensel 9 Instituto de Matemática - UFF

15 Operações Elementares Então, o sistema RX = 0 consiste de r equações não-triviais. Além disso, a incógnita x ki aparecerá, com coeficiente não-nulo, apenas na i ésima equação. Se indicarmos por u 1,..., u n r as n r incógnitas que são diferentes de x k1,..., x kr, então as r equações não triviais do sistema são da forma: x k1 +. x kr + n r C 1j u j = 0 j=1.. n r C rj u j = 0 j=1 Todas as soluções do sistema RX = 0 são obtidas atribuindo valores arbitrários às incógnitas u 1,... u n r e calculando os valores correspondentes de x k1,..., x kr por meio de (1). Exemplo 3.8 Seja R a seguinte matriz 3 5 reduzida por linhas à forma em escada /2 R = Neste caso, temos r = 2, k 1 = 2 e k 2 = 4. As equações não-triviais do sistema RX = 0 são x 2 3x x 5 = 0 x 2 = 3x x 5 x 4 + 2x 5 = 0 x 4 = 2x 5 Atribuindo valores arbitrários x 1 = a, x 3 = b e x 5 = c, vemos que qualquer solução do sistema RX = 0 é da forma ( a, 3b 1 2 c, b, 2c, c). Observação 3.2 Seja R uma matriz m n reduzida por linhas à forma em escada. Se o número r de linhas não-nulas é menor que n, o sistema RX = 0 possui soluções não-triviais, isto é, soluções (x 1,..., x n ) em que nem todo x j é nulo. Teorema 3.5 Se A é uma matriz m n com m < n, então o sistema homogêneo AX = 0 admite soluções não-triviais. (1) J. Delgado - K. Frensel 10 Instituto de Matemática - UFF

16 Operações Elementares Prova. Seja R uma matriz m n reduzida por linhas à forma em escada que seja equivalente por linhas à matriz A. Então, os sistemas AX = 0 e RX = 0 possuem as mesmas soluções. Se r é o número de linhas não-nulas em R, então r m. Como m < n, temos r < n. Logo, pela observação acima, RX = 0 e, portanto, AX = 0 admite soluções não-triviais. Teorema 3.6 Se A é uma matriz quadrada n n, então, A é equivalente por linhas à matriz identidade n n se, e somente se, o sistema AX = 0 possui apenas a solução trivial. Prova. (= ) Se A é equivalente por linhas à matriz identidade I, então, os sistemas AX = 0 e IX = 0 possuem as mesmas soluções. Logo, AX = 0 possui apenas a solução trivial. ( =) Suponhamos agora que AX = 0 possua apenas a solução trivial X = 0 = (0, 0,..., 0). Seja R uma matriz reduzida por linhas à forma em escada equivalente por linhas à matriz A e seja r o número de linhas não-nulas de R. Como RX = 0 possui apenas a solução trivial, temos que r n. Mas como R possui n linhas, temos que r = n. Além disso, como k 1 < k 2 <... < k n e R possui n colunas, temos que k i = i para cada 1 i n. Logo, R é a matriz identidade. Consideremos agora o sistema não-homogêneo de equações lineares AX = Y. A matriz completa A do sistema AX = Y é a matriz m (n+1) cujas n primeiras colunas são as colunas de A e cuja última coluna é Y. Isto é, A ij = A ij, se j n A i(n+1) = Y i. J. Delgado - K. Frensel 11 Instituto de Matemática - UFF

17 Operações Elementares Efetuando uma seqüência finita de operações elementares sobre as linhas de A, obtemos uma matriz R reduzida por linhas à forma em escada. Efetuando a mesma seqüência de operações elementares sobre a matriz completa A, obteremos uma matriz R cujas primeiras n colunas são as colunas de R e cuja última coluna z 1 z Z = 2. resulta de aplicar a mesma seqüência de operações sobre as linhas da matriz Y. Da mesma forma que no caso homogêneo, podemos mostrar que os sistemas AX = Y e RX = Z são equivalentes e, portanto, admitem as mesmas soluções. Se R possui r linhas não-nulas, com a primeira entrada não-nula da linha i ocorrendo na coluna k i, 1 i r, então as r primeiras equações de RX = Y exprimem x k1,..., x kr em termos das (n r) incógnitas restantes e dos escalares z 1,..., z r. Além disso, as (m r) últimas equações são: 0 = z r+1 0 = z r = z m. Portanto, a condição para o sistema ter uma solução é que z i = 0 para r < i m. Se tal condição é satisfeita, todas as soluções do sistema são obtidas atribuindo-se valores arbitrários às (n r) incógnitas x i, 1 i n, i {k 1,..., k r }, e calculando x ki a partir da i ésima equação. z m Exemplo 3.9 Seja K o corpo dos números racionais, e seja A a matriz A = J. Delgado - K. Frensel 12 Instituto de Matemática - UFF

18 Operações Elementares Para resolver o sistema AX = Y, para Y = y 1 y 2 y 3 dado, devemos aplicar uma seqüência de operações elementares sobre as linhas da matriz completa A que torne A reduzida por linhas: y y y y 2 (2) y 2 2y 1 (2) y 2 2y y y y 3 y 2 + 2y 1 (1) y /5 (y 1 + 2y 2 )/ /5 (y 2 2y 1 )/5 (2) 0 1 1/5 (y 2 2y 1 )/ y 3 y 2 + 2y y 3 y 2 + 2y 1 A condição para que o sistema tenha uma solução é y 3 2y 2 + 2y 1 = 0. Se os escalares y 1, y 2, e y 3 satisfazem essa condição, todas as soluções são obtidas atribuindo-se um valor c a x 3 e depois calculando: x 1 = 3c + 1(y y 2 ) x 2 = 1c + 1(y y 1 ). Observação 3.3 Suponhamos que as entradas da matriz A e os escalares y 1,..., y m estejam num subcorpo F do corpo K. Se o sistema AX = Y admite uma solução com x 1,..., x n em K, ele admite uma solução com x 1,..., x n em F. De fato, a condição para o sistema admitir uma solução, sobre cada um dos dois corpos, é que sejam válidas certas relações entre y 1,..., y m em F (a saber as relações z i = 0, para i > r). Por exemplo, se AX = Y é um sistema de equações lineares no qual os escalares y k e A ij são números reais e, se existe uma solução na qual x 1,..., x n são números complexos, então existe uma solução com x 1,..., x n números reais. J. Delgado - K. Frensel 13 Instituto de Matemática - UFF

19 Multiplicação de Matrizes 4. Multiplicação de Matrizes Definição 4.1 Seja A uma matriz m n sobre o corpo K e seja B uma matriz n p sobre o corpo K. O produto AB é a matriz C de tamanho m p sobre o corpo K, cujas entradas são C ij = Observação 4.1 A ik B kj. k=1 Se β 1,..., β n são as linhas da matriz B e γ 1,..., γ m são as linhas da matriz C, então γ i = A i1 β 1 + A i2 β A in β n. Isto é, as linhas de C são combinações lineares das linhas de B. De fato, γ i = (C ( i1, C i2,..., C ip ) ) = A ik B k1, A ik B k2,..., A ik B kp = = k=1 k=1 k=1 A ik (B k1, B k2,..., B kp ) k=1 A ik β k. k=1 Exemplo ( 4.1 ) a ( ) 1 0 = ( ) b. Neste caso: ( 2 γ 1 = (5, 1, 2) = 1 (5, 1, 2) + 0 (15, 4, 8) γ 2 = (0, 7, 2) = 3 (5, 1, 2) + 1 (15, 4, 8). ) ( ) 1 = ( ) Neste caso: γ 1 = ( 2, 4) = 1 (2, 4) γ 2 = (6, 12) = 3 (2, 4). J. Delgado - K. Frensel 14 Instituto de Matemática - UFF

20 c Multiplicação de Matrizes = Neste caso: γ 1 = (2, 3, 4) = 0 (1, 5, 2) + 1 (2, 3, 4) + 0 (9, 1, 3) γ 2 = (0, 0, 0) = 0 (1, 5, 2) + 0 (2, 3, 4) + 0 (9, 1, 3) γ 3 = (0, 0, 0) = 0 (1, 5, 2) + 0 (2, 3, 4) + 0 (9, 1, 3). Observação 4.2 O produto de matrizes não é comutativo. De fato, considere o seguinte exemplo: ( ) ( ) Sejam A = e B = Então ( ) ( ) AB = = BA Se I é a matriz identidade m m e A é uma matriz m n, então IA = A. Se I é a matriz identidade n n e A é uma matriz m n, então AI = A. Se O k,m é a matriz nula k m, então, para toda matriz A m n e qualquer matriz B p k, temos O k,m A = O k,n e BO k,m = O p,m. Se B é uma matriz n p, as colunas de B são as n 1 matrizes β 1,..., β p dadas por: B 1j B β j = 2j. Bnj n 1, 1 j p. A matriz B é a sucessão dessas p colunas: B = (β 1, β 2,..., β p ). Seja A uma matriz m n. Então Aβ j é a j ésima coluna da matriz C = AB, pois como J. Delgado - K. Frensel 15 Instituto de Matemática - UFF

21 Multiplicação de Matrizes C ij = A ik B kj, k=1 então C j = C 1j C 2j. C mj m 1 = A 1k B kj A 2k B kj = Aβ j.. A mk B kj k=1 k=1 k=1 Assim, AB = (Aβ 1, Aβ 2,..., Aβ p ) m p. Teorema 4.1 Se A, B e C são matrizes sobre o corpo K tais que os produtos BC e A(BC) são definidos, então estão definidos os produtos AB e (AB)C. Além disso, A(BC) = (AB)C. Prova. Suponhamos que B é uma matriz n p, que A é uma matriz com m linhas e que C é uma matriz com l colunas. Como os produtos BC e A(BC) estão definidos, temos que C é uma matriz p l e que A é uma matriz m n, já que BC é uma matriz n l. Assim, o produto AB existe e é uma matriz m p, e o produto (AB)C existe e é uma matriz m l. Além disso, usando a definição, temos: [A (BC)] ij = A ik (BC) kj = = = k=1 k=1 r=1 p A ik B kr C rj = p (AB) ir C rj r=1 = [(AB) C] ij. Como queríamos demonstrar. A ik k=1 ( r=1 p r=1 k=1 p B kr C rj A ik B kr ) C rj J. Delgado - K. Frensel 16 Instituto de Matemática - UFF

22 Multiplicação de Matrizes Observação 4.3 Devido à propriedade associativa da multiplicação de matrizes, se A é uma matriz quadrada, o produto A A... A, de k fatores iguais a A, está definido sem ambigüidade e indicaremos esse produto por A k, convencionando A 0 = I. A relação A(BC) = (AB)C implica que combinações lineares de combinações lineares das linhas de C são, ainda, combinações lineares das linhas de C. Definição 4.2 Uma matriz m m é uma matriz elementar se ela pode ser obtida da matriz identidade m m por meio de uma única operação elementar sobre as linhas. Exemplo 4.2 As matrizes elementares 2 2 são: ( ) ( ) ( ) ( ) c 1 0 c 0 ; ; ; c com c 0; ( ) c com c 0. Teorema 4.2 Seja e uma operação elementar sobre linhas e seja E a matriz m m elementar E = e(i). Então, para toda matriz A m n, temos: e(a) = EA. Prova. Analisemos, separadamente as três operações elementares. a. Seja e a operação substituição da linha r por c vezes a linha r, com c 0. Então, { δ ik, se i r E ik = cδ rk, se i = r { m A ij, Logo, (EA) ij = E ik A kj = ca rj, k=1 se i r, isto é, EA = e(a). se i = r b. Seja e a operação transposição das linhas r e s, r s. Então, J. Delgado - K. Frensel 17 Instituto de Matemática - UFF

23 Logo, (EA) ij = Multiplicação de Matrizes δ ik, se i r e i s E ik = δ rk, se i = s δ sk, se i = r. m A ij, E ik A kj = A rj, A sj, k=1 se i r e j s se i = s se i = r, isto é, EA = e(a). c. Seja e a operação substituição da linha r pela soma de c vezes a linha s mais a linha r. Então, { δ ik, se i r E ik = δ rk + cδ sk, se i = r. Logo, (EA) ij = { m A ij, E ik A kj = A rj + ca sj, k=1 se i r, isto é, EA = e(a). se i = r Corolário 4.1 Sejam A e B matrizes m n sobre o corpo K. Então, B é equivalente por linhas a A se, e somente se, B = PA, onde P é um produto de matrizes elementares m m. Prova. Suponhamos que B = PA, onde P = E s... E 2 E 1, e as E j são matrizes elementares m m. Então, E 1 A é equivalente por linhas à matriz A; E 2 E 1 A = E 2 (E 1 A) é equivalente por linhas à matriz E 1 A, e portanto a A; Continuando o raciocínio indutivamente, obtemos que (E s... E 1 )A é equivalente por linhas à matriz A. Suponhamos agora que B é equivalente por linhas à matriz A. Sejam e 1,..., e s operações elementares sobre linhas que aplicadas consecutivamente sobre a matriz A dão como resultado B. Se E 1,..., E s são as matrizes elementares correspondentes, então B = e s (e s 1 (... (e 1 (A))...)) = (E s E s 1... E 1 ) A. Como queríamos demonstrar. J. Delgado - K. Frensel 18 Instituto de Matemática - UFF

24 Matrizes Invertíveis 5. Matrizes Invertíveis Definição 5.1 Seja A uma matriz quadrada, n n, sobre o corpo K. uma matriz B n n tal que BA = I é dita uma inversa de A pela esquerda. uma matriz B n n tal que AB = I é dita uma inversa de A pela direita. uma matriz B n n tal que AB = BA = I é dita uma inversa de A. Neste caso, dizemos que A é invertível. Lema 5.1 Se A possui uma inversa B pela esquerda e uma inversa C pela direita, então B = C e A é invertível. Prova. Suponhamos que BA = I e que AC = I. Então, B = BI = B(AC) = (BA)C = IC = C. Como BA = AB = I, A é invertível. Observe que Se A possui inversa pela direita e pela esquerda, então A é invertível e a inversa (bilateral) é única. Se A é invertível, designamos por A 1 a única matriz que é inversa (bilateral) de A. Teorema 5.1 Sejam A e B matrizes n n sobre o corpo K. 1. Se A é invertível, então A 1 é invertível e (A 1 ) 1 = A. 2. Se A e B são invertíveis, então AB é invertível e (AB) 1 = B 1 A 1. Prova. Como A 1 A = AA 1 = I, temos que A 1 é invertível e (A 1 ) 1 = A. Como (AB)(B 1 A 1 ) = (B 1 A 1 )(AB) = I, temos que AB é invertível e (AB) 1 = B 1 A 1. J. Delgado - K. Frensel 19 Instituto de Matemática - UFF

25 Matrizes Invertíveis Corolário 5.1 Um produto A 1 A 2 A k, k N, de matrizes invertíveis n n é, também, invertível. Teorema 5.2 As matrizes elementares são invertíveis e suas inversas são matrizes elementares do mesmo tipo. Prova. Seja E uma matriz elementar correspondente à operação elementar sobre linhas e. Se e 1 é a operação inversa de e, e E 1 é a sua matriz elementar associada, então EE 1 = e(e 1 ) = e(e 1 (I)) = I, E 1 E = e 1 (E) = e 1 (e(i)) = I, de modo que E é invertível e E 1 = E 1. Exemplo 5.1 As inversas das matrizes elementares 2 2 são: ( ) 1 ( ) ( ) c = ; = ( ) 1 c ; 0 1 ( ) = c 1 ( ) 1 0 ; c 1 ( ) 1 c 0 = 0 1 ( ) 1/c 0, c 0; 0 1 ( ) = 0 c ( /c ), c 0. Teorema 5.3 Se A é uma matriz n n, as seguintes afirmações são equivalentes: 1. A é invertível; 2. A é equivalente por linhas à matriz identidade; 3. A é um produto de matrizes elementares. J. Delgado - K. Frensel 20 Instituto de Matemática - UFF

26 Matrizes Invertíveis Prova. Seja R uma matriz reduzida por linhas à forma em escada que seja equivalente por linhas à matriz A. Então, existem matrizes elementares E 1,..., E k, tais que, R = E k... E 1 A. Como cada E i, 1 i k, é invertível, temos que, A = E E 1 k R. Sendo o produto de matrizes invertíveis uma matriz invertível, temos que A é invertível se, e somente se, R é invertível. Já que R é uma matriz quadrada que é reduzida por linhas à forma em escada, R é invertível se, e somente se, cada linha de R contém uma entrada não-nula, isto é, se, e somente se, R = I. Assim, A é invertível se, e somente se, R = I, isto é, se, e somente se, A é equivalente por linhas à matriz identidade. Logo, as afirmações 1. e 2. são equivalentes. Se R = I, temos que A = E E 1 k, isto é, A é um produto de matrizes elementares. E se A é um produto de matrizes elementares, então A é invertível, pois toda matriz elementar é invertível. Logo, as afirmações 1. e 3. são equivalentes. Corolário 5.2 Se A é uma matriz n n invertível e se uma seqüência de operações elementares sobre linhas reduz A à matriz identidade I, então a mesma seqüência de operações sobre linhas, quando aplicada à matriz identidade I, produz A 1. Corolário 5.3 Sejam A e B matrizes m n. Então, B é equivalente por linhas a A se, e somente se, B = PA, onde P é uma matriz invertível m m. Teorema 5.4 Seja A uma matriz n n. As seguintes afirmações são equivalentes: 1. A é invertível. 2. O sistema homogêneo AX = 0 possui apenas a solução trivial X = 0. J. Delgado - K. Frensel 21 Instituto de Matemática - UFF

27 Matrizes Invertíveis 3. O sistema de equações AX = Y possui uma única solução X para Prova. cada matriz Y n 1. Pelo teorema 3.6, a afirmação 2. é equivalente a que a matriz A seja equivalente por linhas à matriz identidade I. Então, pelo teorema 5.3, as afirmações 1. e 2. são equivalentes. Se A é inversível, a única solução do sistema AX = Y é X = A 1 Y. Suponhamos, agora, que AX = Y possui uma solução para cada Y. Seja R uma matriz reduzida por linhas à forma em escada que seja equivalente por linhas à matriz A. Para mostrar que R = I, basta mostrar que a última linha de R não é nula. 0 Seja E = 0. e seja P uma matriz n n invertível, tal que R = PA. Como, 0 1 por hipótese, o sistema AX = P 1 E tem solução, o sistema RX = PAX = E tem solução. Logo, a última linha de R não é nula. Isto é, R = I. Assim, pelo teorema 5.3, A é invertível. Corolário 5.4 Uma matriz quadrada com inversa à esquerda ou à direita é invertível. Prova. Seja A uma matriz n n. Suponhamos que A possui uma inversa à esquerda, isto é, uma matriz B tal que BA = I. Então, o sistema AX = 0 possui somente a solução trivial, pois X = IX = (BA)X = B(AX) = B0 = 0. Portanto, A é invertível. Suponhamos agora que A possui uma inversa à direita, isto é, uma matriz C tal que AC = I. Então C possui uma inversa à esquerda e é, portanto, invertível, com inversa A = C 1. Logo, A é invertível com inversa C. Corolário 5.5 Seja A = A 1 A 2 A k, onde A 1,..., A k são matrizes n n. Então, A é invertível se, e somente se, cada A j é invertível. J. Delgado - K. Frensel 22 Instituto de Matemática - UFF

28 Matrizes Invertíveis Prova. Já provamos que o produto de duas matrizes invertíveis é invertível. Então, por indução, podemos provar que o produto de um número finito de matrizes invertíveis é invertível. Suponhamos agora que A é invertível e que X é uma solução do sistema A k X = 0. Então, AX = (A 1 A 2 A k 1 )A k X = 0. Como A é invertível, temos que X = 0. Logo, o sistema A k X = 0 possui apenas a solução trivial e A k é, portanto, invertível. é invertível, temos, usando o argumento ante- Como A 1 A k 1 = AA 1 k rior, que A k 1 é invertível. Assim, podemos provar por indução, que cada matriz A j é invertível. Seja R uma matriz reduzida por linhas à forma em escada equivalente por linhas à matriz A e seja P uma matriz invertível tal que R = PA. Então, X é uma solução do sistema AX = Y se, e somente se, X é uma solução do sistema RX = PY. Seja A a matriz completa do sistema AX = Y com escalares arbitrários y 1,..., y m na última coluna. Se efetuarmos sobre A uma seqüência de operações elementares sobre linhas que reduza A a R, torna-se-á evidente o que é a matriz P. Em particular, se A é uma matriz quadrada, esse processo mostrará se A é invertível ou não e, se for invertível, qual é a inversa P. Exemplo 5.2 ( ) 2 1 Seja K o corpo dos números racionais e seja A =. 1 3 Então, ( ) 2 1 y y 2 (3) ( ) 1 3 y y 1 (2) ( 1 3 y y 1 2y 2 ) (1) ( ) 1 3 y ( y 1 + 2y 2 )/7 (2) ( ) Então, A é inversível e A 1 3/7 1/7 = 1/7 2/7 ( 1 0 (3y 1 + y 2 )/7 0 1 ( y 1 + 2y 2 )/7 ) J. Delgado - K. Frensel 23 Instituto de Matemática - UFF

29 Matrizes Invertíveis Como P = E k... E 1 é o produto das matrizes elementares que correspondem às operações elementares efetuadas sobre as linhas de A para se obter R, podemos trabalhar com duas seqüências de matrizes, uma descrevendo a redução de A à matriz R e a outra registrando o efeito da mesma seqüência de operações sobre a matriz identidade para obter a matriz P. Exemplo 5.3 Determinemos a matriz P tal que R = PA é reduzida por linhas à forma em escada, onde 1 1/2 1/3 A = 1/2 1/3 1/4. 1/3 1/4 1/5 Aplicando operações elementares à matriz A e à matriz identidade simultaneamente, obtemos: 1 1/2 1/ /2 1/3 1/ /3 1/4 1/ (2) + (2) 1 1/2 1/ /12 1/12 1/ /12 1/45 1/3 0 1 (2) 1 1/2 1/ /12 1/12 1/ /180 1/6 1 1 (1) + (1) 1 1/2 1/ (2) + (2) 1 1/ (2) R = = I P = Logo, A é invertível e P = A 1. J. Delgado - K. Frensel 27 Instituto de Matemática - UFF

30 Matrizes Invertíveis J. Delgado - K. Frensel 28 Instituto de Matemática - UFF

31 Espaços Vetoriais 1. Espaço Vetorial - definições e propriedades básicas Definição 1.1 Um espaço vetorial sobre o corpo K é um conjunto E, cujos elementos são chamados vetores, e um par de operações: adição: + x E, y E = x + y E multiplicação por escalares: λ K, x E = λ x E, Lembre que... Os elementos do corpo K são chamados escalares. com as seguintes propriedades: 1. (x + y) + z = x + (y + z), x, y, z E (propriedade associativa da adição). 2. x + y = y + x, x, y E (propriedade comutativa da adição). 3. Existe 0 E, tal que x + 0 = x, x E (0 é o vetor nulo). 4. Para cada x E, existe ( x) E, tal que, x + ( x) = 0 (o vetor ( x) é o simétrico ou inverso aditivo de x). 5. (λ + µ)x = λx + µx, x E, λ, µ K. 6. λ(x + y) = λx + λy, x, y E, λ K x = x, x E. 8. (λµ)x = λ(µx), x E, λ, µ K. Observação O vetor nulo 0 é único, isto é, se 0 E é tal que 0 + x = x, x E, então 0 = 0. 29

32 Espaço Vetorial - definições e propriedades básicas De fato, 0 = = λ 0 = 0, para todo λ K. Com efeito, λ0 = λ(0 + 0) = λ0 + λ0 = 0 = λ0 + ( λ0) = (λ0 + λ0) + ( λ0) = λ0 + (λ0 + ( λ0)) = 0 = λ0 + 0 = λ0. Note que... 0 representa o zero do corpo K, enquanto 0 é o vetor nulo do espaço vetorial E x = 0, x E. De fato, 0 x = (0 + 0) x = 0 x + 0 x = 0 = 0 x + ( 0 x) = (0 x + 0 x) + ( 0 x) = 0 x + (0 x + ( 0 x)) = 0 x + 0 = 0 x. 4. Sejam λ K e x E. Então, λx = 0 se, e somente se, λ = 0 ou x = 0. Para verificar essa afirmação, suponha que λx = 0, com λ 0. Então, 0 = λ 1 (λx) = (λ 1 λ)x = 1 x = x. 5. Para cada x E existe um único vetor y E, tal que x + y = 0. De fato, y = y+0 = y+(x+( x)) = (y+x)+( x) = 0+( x) = x. 6. ( 1)x = x, x E. Para verificar essa afirmação, considere a seguinte cadeia de igualdades: 0 = 0x = (1 + ( 1))x = 1x + ( 1)x = x + ( 1)x = ( 1)x = x. Definição 1.2 Designamos por x y o vetor x + ( y). Exemplo Seja K um corpo. O conjunto K n = {(x 1, x 2,..., x n ) x 1, x 2,..., x n K}, é o espaço vetorial das n úplas sobre K, com as operações de adição e multiplicação por escalares de K definidas por: J. Delgado - K. Frensel 30 Instituto de Matemática - UFF

33 Espaço Vetorial - definições e propriedades básicas + : (x 1,..., x n ) + (y 1,..., y n ) = (x 1 + y 1,..., x n + y n ) : λ (x 1,..., x n ) = (λx 1,..., λx n ). Neste espaço, o vetor nulo é 0 = (0,..., 0). Se K = R, então K n = R n, se K = C, então K n = C n etc. 2. O conjunto das matrizes m n com entradas no corpo K: K m n = {A A = (A ij ) ij é uma matriz com A ij K} é um espaço vetorial com as operações: Note que... K 1 n se identifica com K n. + : (A + B) ij = A ij + B ij : (λ A) ij = λa ij. 3. Seja S um conjunto não-vazio e K um corpo. O conjunto das funções de S em K: F(S, K) = {f : S K} é um espaço vetorial com as operações dadas por: + : (f + g)(p) = f(p) + g(p), p S : (λ f)(p) = λ f(p), λ K, p S. Neste caso, o vetor nulo é a função zero: O(p) = 0, p S e, para cada f F(S, K), a função f F(S, K) que a cada p S faz corresponder o escalar ( f)(p) = (f(p)), é o inverso aditivo de f. Em geral... Você pode verificar que se S é um conjunto não-vazio e E é um espaço vetorial, então o conjunto F(S, E) que consiste das aplicações f : S E é um espaço vetorial com as operações de adição e multiplicação por escalares herdadas das operações correspondentes que fazem de E um espaço vetorial. Observe que os espaços vetoriais dos itens 1. e 2. são casos particulares deste exemplo (item 3.). De fato, no item 1. o conjunto S é {1, 2,..., n} ; no item 2. o conjunto S é {(i, j) 1 i m, e 1 j n}. 4. O conjunto das funções polinomiais na indeterminada x com coeficientes sobre o corpo K K[x] = {p(x) = c 0 + c 1 x +... c n x n c 0, c 1,..., c n K, n N}, é um espaço vetorial com as operações definidas como no item Se F é um subcorpo de K, então K é, de maneira natural, um espaço vetorial sobre F. Em particular, todo corpo é um espaço vetorial sobre si mesmo. Por exemplo Atividade. 1. O conjunto K n[x] que consiste das funções polinomiais na indeterminada x, grau menor ou igual a n e com coeficientes sobre o corpo K é um espaço vetorial? 2. O conjunto K[x, y] que consiste dos polinômios nas indeterminadas x e y com coeficientes no corpo K é um espaço vetorial? O que pode dizer sobre o caso em que o grau é menor ou igual a n? 3. Generalize as conclusões de 2. para o conjunto dos polinômios com uma quantidade finita de indeterminadas. Justifique suas respostas. J. Delgado - K. Frensel 31 Instituto de Matemática - UFF

34 Espaço Vetorial - definições e propriedades básicas C é um espaço vetorial sobre R, R é um espaço vetorial sobre Q, C é um espaço vetorial sobre Q, C é um espaço vetorial sobre C etc. Observação 1.2 As propriedades associativa e comutativa da adição de vetores implicam que uma soma envolvendo um certo número de vetores independe da maneira pela qual estes vetores estão combinados ou associados. Logo, se v 1,..., v n são vetores em E, a soma deles pode ser escrita, sem ambigüidade, como v 1 + v v n. Definição 1.3 Um vetor β do espaço vetorial E é uma combinação linear dos vetores v 1, v 2,..., v n E, se existem escalares c 1, c 2,..., c n K, tais que β = c 1 v 1 + c 2 v c n v n Observação 1.3 Usando as propriedades associativa e comutativa da adição e as propriedades distributivas da multiplicação por escalares, obtemos: c i v i + d i v i = (c i + d i )v i, i=1 c i=1 c i v i = i=1 i=1 i=1 (cc i )v i. J. Delgado - K. Frensel 32 Instituto de Matemática - UFF

35 Subespaço Vetorial 2. Subespaço Vetorial Definição 2.1 Seja E um espaço vetorial sobre o corpo K. Um subconjunto F E é um subespaço vetorial de E se F for um espaço vetorial sobre K com as operações de adição de vetores e multiplicação de vetores por escalares que fazem de E um espaço vetorial. Ou seja, F E é um subespaço vetorial de E se: 1. 0 F; 2. v F = v F; 3. u F e v F = u + v F; 4. λ K e v F = λv F. Proposição 2.1 Um subconjunto não-vazio F E é um subespaço vetorial de E se, e somente se, λv + w F, v, w F, λ K. Prova. (= ) é evidente. ( =) Como F, seja v F. Logo, ( 1)v + v = 0 F. Sejam w F e λ K. Então, λw + 0 = λw F. Em particular, w = ( 1)w F. Finalmente, se v, w F, então 1v+w = v+w F. Logo, F é um subespaço vetorial de E. Exemplo E é um subespaço de E. 2. F = {0} é um subespaço de E, denominado o subespaço nulo de E. 3. O espaço K[x] das funções polinomiais com coeficientes no corpo K é um subespaço do espaço de todas as funções de K em K. J. Delgado - K. Frensel 33 Instituto de Matemática - UFF

36 Subespaço Vetorial 4. Uma matriz n n A sobre o corpo K é dita simétrica se A ij = A ji, i, j {1,..., n}. As matrizes simétricas formam um subespaço do espaço vetorial K n n das matrizes n n sobre o corpo K. 5. Uma matriz n n A sobre o corpo C dos números complexos é hermitiana se A jk = A kj, j, k {1,..., n}. Se A é uma matriz hermitiana, todas as entradas da diagonal A 11, A 22,..., A nn, são números reais. O conjunto das matrizes hermitianas n n não é um subespaço do espaço das matrizes n n sobre o corpo C, pois, por exemplo, a matriz identidade I é hermitiana, mas ii não é. O conjunto das matrizes hermitianas n n é um espaço vetorial sobre o corpo R dos números reais. Lema 2.1 Se A é uma matriz m n sobre K e B, C são matrizes n p sobre K, então A(λB + C) = λ(ab) + AC, onde λ K é um escalar qualquer. Prova. [A(λB + C)] ij = = = = λ A ik (λb + C) kj k=1 A ik (λb kj + C kj ) k=1 (λa ik B kj + A ik C kj ) k=1 A ik B kj + k=1 k=1 A ik C kj = λ[ab] ij + [AC] ij. J. Delgado - K. Frensel 34 Instituto de Matemática - UFF

37 Subespaço Vetorial Exemplo 2.2 Seja A uma matriz m n sobre K. O subconjunto {X K n 1 AX = 0} é um subespaço de K n 1. De fato: Se AX = AY = 0, então A(λX + Y) = λax + AY = 0, λ K. Se X = 0, então AX = 0. Proposição 2.2 A interseção de uma coleção arbitrária {F α } α I de subespaços de E é um subespaço de E. Prova. Seja F = α I F α. Como 0 F α, α I, temos que 0 F. Logo, F. Se v, w F, então v, w F α, α I. Logo, λv + w F α, α I, ou seja, λv + w F, λ K e v, w F. Definição 2.2 Seja S E um subconjunto. O subespaço de E gerado por S é a interseção de todos os subespaços de E que contém S. Isto é, o subespaço de E gerado por S é o menor subespaço de E que contém S. Observação 2.1 O subespaço gerado por S = é o subespaço nulo. O único vetor desse subespaço é o vetor nulo, 0. Proposição 2.3 Seja S E um subconjunto não-vazio. Então o subespaço F gerado por S é o conjunto de todas as combinações lineares de vetores em S. Prova. Seja W o conjunto de todas as combinações lineares de vetores de S. Seja λ K e consideremos as combinações lineares: v = α 1 v α k v k, w = β 1 w β l w l W, onde v i S, i {1,..., k} e w j S, j {1,..., l}. J. Delgado - K. Frensel 35 Instituto de Matemática - UFF

38 Subespaço Vetorial Então, para λ K, temos λv + w = λα 1 v λα k v k + β 1 w β l w l W, pois λv + w é uma combinação linear de vetores em S. Como W, já que S W e S, temos que W é um subespaço de E que contém S. Logo, F W. Seja v W. Então, v = α 1 v α k v k, onde v i S, i {1,..., n}. Como S F e F é um subespaço de E, temos que v F. Logo, W F. Assim, F = W. Exemplo 2.3 Seja E = K[x] o espaço vetorial das funções polinomiais de K em K e seja S = {f n (x) = x n n N}. Então, E é o subespaço gerado por S. Definição 2.3 Sejam S 1,..., S k subconjuntos do espaço vetorial E. O conjunto formado por todas as somas da forma v 1 + v v k, v i S i, i = 1,..., k. é chamado a soma dos subconjuntos S 1,..., S k, e se designa por S 1 + S S k. Proposição 2.4 Se W 1,..., W k são subespaços do espaço vetorial E, então W W k é um subespaço de E. Além disso, W W k é o subespaço gerado pelo conjunto k S = W i. Prova. Sejam v, w W W k. Então, existem vetores v i, w i W i, 1 i k, tais que v = v v k e w = w w k. Logo, o vetor λv + w = (λv 1 + w 1 ) (λv k + w k ) i=1 J. Delgado - K. Frensel 36 Instituto de Matemática - UFF

39 Subespaço Vetorial pertence a W W k, já que λv i + w i W i, i = 1,..., k. Além disso, como W W k, já que 0 W W k, temos que W W k é um subespaço de E. k Seja W o subespaço gerado pelo conjunto S = W i. Então, W é o conjunto de todas as combinações lineares de vetores em S. i=1 Como k S = W i W W k i=1 e W W k é um subespaço, temos que W W W k. Além disso, como todo vetor em W W k é uma combinação linear de vetores em S, temos que W W k W. Logo, W = W W k. J. Delgado - K. Frensel 37 Instituto de Matemática - UFF

40 Bases e Dimensão 3. Bases e Dimensão Definição 3.1 Seja E um espaço vetorial sobre o corpo K. Dizemos que um subconjunto S E é linearmente dependente (LD) se existem vetores distintos v 1,..., v n em S e escalares λ 1,..., λ n K, não todos nulos, tais que λ 1 v λ n v n = 0. Um conjunto S que não é linearmente dependente é dito linearmente independente (LI). Isto é, S é LI se para toda coleção de vetores distintos v 1,..., v n em S e escalares λ 1,..., λ n em K, vale a implicação: λ 1 v λ n v n = 0 = λ 1 = λ 2 =... = λ n = 0. Observação 3.1 Todo subconjunto S E que contém o vetor nulo é LD, pois 1 0 = 0. Todo conjunto que contém um conjunto LD é LD. Todo subconjunto de um conjunto LI é LI. Definição 3.2 Seja E um espaço vetorial. Uma base de E é um conjunto linearmente independente de vetores em E que geram o espaço E. Definição 3.3 Dizemos que um espaço vetorial tem dimensão finita se ele possui uma base finita. Observação 3.2 Verifique a afirmação! Um subconjunto {v 1,..., v n } E é uma base de E se, e somente se, todo vetor v E se expressa, de modo único, como combinação linear dos vetores v 1,..., v n, ou seja, existem escalares únicos λ 1,..., λ n E, tais que v = λ 1 v λ n v n. Exemplo 3.1 Seja K um corpo e seja S o subconjunto de K n formado pelos vetores J. Delgado - K. Frensel 38 Instituto de Matemática - UFF

41 Bases e Dimensão e 1 = (1, 0, 0,..., 0, 0) e 2 = (0, 1, 0,..., 0, 0).. e n = (0, 0, 0,..., 0, 1). Se x 1,..., x n são escalares em K, o vetor x 1 e x n e n é o vetor (x 1,..., x n ). Assim, S gera K n. Como x 1 e x n e n = (0,..., 0) se, e somente se, x 1 = x 2 =... = x n = 0, S é LI. Logo, S é uma base de K n, conhecida como a base canônica de K n. Exemplo 3.2 Seja K um corpo e K m n o espaço das matrizes m n com entradas no corpo K. Considere as matrizes A ij que tem 1 na entrada i, j e zero nas demais. Se B K m n, então B = i,j B ij A ij. Logo, o conjunto {A ij 1 i m e 1 j n} é LI e gera o espaço K m n. Exemplo 3.3 Seja P uma matriz invertível n n sobre o corpo K. Então, as colunas P 1,..., P n formam uma base do espaço das matrizes colunas K n 1. De fato, se X é uma matriz coluna n 1, então PX = x 1 P x n P n. Como PX = 0 admite apenas a solução trivial X = 0, {P 1,..., P n } é LI. Seja Y K n 1 e seja X = P 1 Y. Então, ( x1 ) Y = PX = x 1 P x n P n, onde X = Assim, {P 1,..., P n } gera o espaço K n 1.. x n. Portanto, {P 1,..., P n } é uma base finita de K n 1. J. Delgado - K. Frensel 39 Instituto de Matemática - UFF

42 Bases e Dimensão Verifique que... O conjunto S é um subespaço de K n 1 conhecido como o espaço solução ou espaço das soluções do sistema linear homogêneo AX = 0. Exemplo 3.4 Seja A uma matriz n n com entradas no corpo K e seja S = {X K n 1 AX = 0}, o conjunto de todas as soluções do sistema linear homogêneo AX = 0. Seja R uma matriz reduzida por linhas à forma em escada que seja equivalente por linhas à matriz A. Então, S = {X K n 1 RX = 0}. Seja r o número de linhas não-nulas da matriz R, e suponhamos que as primeiras entradas não-nulas das linhas não-nulas de R ocorram nas colunas k 1 <... < k r. Seja J = {1,..., n} {k 1,..., k n } o conjunto dos n r índices distintos de k 1,..., k r. Então, o sistema RX = 0 tem a forma x k1 + c 1j x j = 0 j J. x kr + j J. c rj x j = 0, onde c ij K. Todas as soluções são obtidas atribuindo valores arbitrários aos x j com j J e calculando os valores correspondentes de x k1,..., x kr. Para cada j J, seja E j a solução obtida colocando x j = 1 e x i = 0 para todo i J {j}. Afirmação: os vetores E j, j J, formam uma base de S. Como a matriz coluna E j possui um 1 na linha j e zero nas outras linhas indexadas por elementos de J, temos que {E j j J} é um conjunto LI, já que Seja T = ( t1 )... t n x j E j = 0 se, e somente se, x j = 0 j J. j J uma matriz coluna que está no espaço solução S. Então, N = j J t j E j, J. Delgado - K. Frensel 40 Instituto de Matemática - UFF

43 Bases e Dimensão também está no espaço solução e é uma solução tal que t j j ésima linha, para todo j J. ocupa a Como só existe uma solução tal que x j = t j para todo j J, temos que T = N. Logo, {E j j J} gera S. Com isso provamos que {E j j J} é uma base de S e que esse espaço tem dimensão finita. Definição 3.4 Seja E um espaço vetorial de dimensão finita e seja {v 1,..., v n } uma base de E. Então, por definição, a dimensão de E, designada por dim(e), é dim E def = n. Demonstremos que o número dim E está bem definido, isto é, todas as bases de E possuem a mesma quantidade de vetores. Lema 3.1 Seja {u 1,..., u l } um conjunto LI de vetores do espaço vetorial E tal que todo u i é combinação linear dos vetores w 1,..., w m de E. Então, l m. Prova. Vamos provar o lema usando indução em m. 1. Se m = 1, existem λ 1,..., λ l K, tais que u i = λ i w 1, para todo 1 i l. Como u i 0 para todo i, pois {u 1,..., u l } é LI, temos que λ i 0 para todo i {1,..., l}. Suponhamos, por absurdo, que l > 1. Então, ) 1 u 1 + ( 1λ2 u 2 + 0u u l = w 1 + ( w 1 ) = 0, λ 1 o que é um absurdo, já que {u 1,..., u l } é LI. 2. Suponhamos que o lema vale para m 1 e vamos provar que vale, também, para m. Cada vetor u i do conjunto linearmente independente {u 1,..., u l } é combinação J. Delgado - K. Frensel 41 Instituto de Matemática - UFF

44 Bases e Dimensão linear dos vetores w 1,..., w m, isto é, existem λ (j) i K, 1 i m, 1 j l, tais que u 1 = λ (1) 1 w λ (1) m w m u 2 = λ (2) 1 w λ (2) m w m. u l = λ (l) 1 w λ (l) m w m Se λ j 1 = 0 para todo j = 1,..., l, temos que todo u i, i = 1,..., l, é combinação linear dos vetores w 2,..., w m. Logo, pela hipótese de indução, l m 1 m. Podemos supor então, sem perda de generalidade, que λ Sejam a = 1 λ (1) 1 e v j = u j aλ j 1 u 1, j = 2,..., l. Então, v j = β (j) 2 w β (j) m w m, onde β (j) i K, i = 2,..., m e j = 2,..., l. Isto é, cada v j é uma combinação linear de w 2,..., w m. Se provarmos que {v 2,..., v l } é LI teremos, pela hipótese de indução, Sejam µ 2,..., µ l K tais que Então, l 1 m 1 = l m. µ 2 v µ l v l = 0. 0 = µ 2 u µ l u l a(µ 2 λ (2) µ l λ (l) 1 )u 1. Como {u 1,..., u l } é LI, temos que µ 2 =... = µ l = 0. Logo, {v 2,..., v l } é LI. Lema 3.2 Como conseqüência do lema anterior, temos o seguinte lema. Sejam {w 1,..., w m } um conjunto gerador e {u 1,..., u l } um conjunto LI do espaço vetorial E. Então l m. Teorema 3.1 Sejam {v 1,..., v n } e {w 1,..., w m } bases de um espaço vetorial E. Então, m = n. J. Delgado - K. Frensel 42 Instituto de Matemática - UFF

45 Bases e Dimensão Prova. Como {v 1,..., v n } é um conjunto LI de vetores de E e {w 1,..., w m } é um conjunto gerador de E, temos n m. Analogamente, como {v 1,..., v n } é um conjunto gerador de E e {w 1,..., w m } é um conjunto LI de vetores de E, temos n m. Portanto, n = m. Exemplo O espaço vetorial K n sobre o corpo K tem dimensão n: dim K n = n. Em particular, o espaço C n sobre o corpo C tem dimensão n e o espaço R n sobre o corpo R tem dimensão n. 2. O espaço vetorial K m n das matrizes m n com entradas no corpo K tem dimensão mn. 3. Se A é uma matriz m n, então o espaço solução do sistema homogêneo AX = 0 tem dimensão n r, onde r é o número de linhas não-nulas de uma matriz linha reduzida à forma em escada e equivalente por linhas a A. Exemplo 3.6 Seja S um conjunto qualquer e F(S, K) o conjunto de todas as funções de S em K. Sabemos, pelo item 3. do exemplo 1.1, que F(S, K) é um espaço vetorial sobre o corpo K. Afirmação: F(S, K) tem dimensão finita se, e somente se, S é um conjunto finito. Nesse caso, dim F(S, K) = #S, onde #S é o número de elementos de S. De fato, ( =) Suponhamos que S = {p 1,..., p n } é um conjunto finito. Sejam f i : S K, i = 1,..., n, as funções definidas por: f i (p j ) = δ ij, j = 1,..., n. Se f F(S, K), então, J. Delgado - K. Frensel 43 Instituto de Matemática - UFF

46 Bases e Dimensão f = f(p 1 )f f(p n )f n. E se f = λ 1 f λ n f n, então f(p i ) = λ 1 f 1 (p i ) λ n f n (p i ) = λ i f i (p i ) = λ i, para todo i = i,..., n. Logo, todo f F(S, K) se escreve de modo único como combinação linear das funções f 1,..., f n. Assim, {f 1,..., f n } é uma base de F(S, K) e dim F(S, K) = n = #S. (= ) Se F(S, K) tem dimensão finita, todo subconjunto LI de F(S, K) tem um número finito de elementos. Suponhamos, por absurdo, que S tem uma infinidade de elementos. Consideremos o conjunto T = {f p : S K f p (p) = 1 e f p (q) = 0, q S {p}}. O conjunto T é LI, pois, se p 1,..., p n S são elementos distintos em S e λ 1,..., λ n são escalares em K tais que λ 1 f p λ n f pn = 0, então λ 1 f p1 (p i ) λ n f pn (p i ) = 0,, para i = 1,..., n. Como λ 1 f p1 (p i ) λ n f pn (p i ) = λ i f pi (p i ) = λ i, temos que λ i = 0, para todo i = 1,..., n. Assim, T é infinito e LI, que contradiz o fato de F(S, K) ter dimensão finita. Exemplo 3.7 Seja K um subcorpo do corpo dos números complexos C, e seja E o espaço vetorial das funções polinomiais sobre K. Isto é, E é o conjunto das funções f : K K da forma f(x) = c 0 + c 1 x c n x n, onde n N e c 0,..., c n K. Observe que E é um subespaço vetorial do espaço F(K, K) de todas as funções de K em K. Considere as funções polinomiais f k (x) = x k, k N. O conjunto infinito {f 0, f 1,..., f k,...} é uma base de E. De fato, dado f(x) = c 0 + c 1 x c n x n em E, temos que J. Delgado - K. Frensel 44 Instituto de Matemática - UFF

47 Bases e Dimensão f = c 0 f 0 + c 1 f c n f n. Então, o conjunto {f k k N} gera o espaço E. Além disso, conjunto {f k k N} é LI, pois se c 0 f 0 + c 1 f c n f n = 0, ou seja, c 0 + c 1 x c n x n = 0, x K, temos que c 0 = c 1 =... = c n = 0, já que um polinômio de grau n com coeficientes complexos tem no máximo n raízes. Observamos que o espaço E não tem uma base finita, pois se tivesse, todo conjunto LI de vetores de E teria uma quantidade finita de elementos. Assim, E tem dimensão infinita. Observação 3.3 Convencionamos que o espaço nulo {0} (gerado pelo conjunto vazio) tem dimensão zero. Lema 3.3 Seja {w 1,..., w m } E um conjunto LI e seja w E. Então, {w, w 1,..., w m } é LI se, e somente se, w não é combinação linear dos vetores w 1,..., w n. Prova. (= ) Suponhamos que w é uma combinação linear de w 1,..., w m. Então, existem λ 1,..., λ m K tais que w = λ 1 w λ m w m, ou seja, 1 w + ( λ 1 )w ( λ n )w m = 0, Como o coeficiente 1 de w é diferente de zero, o conjunto {w, w 1,..., w m } é LD. ( =) Suponhamos que o conjunto {w, w 1,..., w m } é LD. Então, existem escalares λ, λ 1,..., λ m, não todos nulos, tais que λw + λ 1 w λ m w m = 0. Se λ = 0, então λ 1 w λ m w m = 0, onde os coeficientes λ 1,..., λ m não são todos nulos, o que é um absurdo, já que {w 1,..., w m } é LI. Logo, λ 0 e ( w = λ 1 λ ) ( w λ m λ ) w m, J. Delgado - K. Frensel 45 Instituto de Matemática - UFF

48 Bases e Dimensão isto é, w é uma combinação linear dos vetores w 1,..., w m. Teorema 3.2 Seja E um espaço vetorial não-nulo e seja {u 1,..., u n } um conjunto de geradores de E. Então {u 1,..., u n } contém uma base de E. Prova. Vamos provar que existe {u i1,..., u il } {u 1,..., u n } tal que: I. {u i1,..., u il } é LI. II. {u j, u i1,..., u il } não é LI, j {1,..., n}. Seja i 1 {1,... n} tal que u i1 0. Então {u i1 } é LI. Se {u i1 } satisfaz II. o processo termina. Se {u i1 } não satisfaz II., então existe i 2 {1,..., n} tal que {u i1, u i2 } é LI. Como esse processo é finito, com no máximo n etapas, podemos obter {u i1,..., u il } {u 1,..., u n } que satisfaz I. e II.. Vamos provar agora que {u i1,..., u il } é uma base de E. Como {u j, u i1,..., u il } não é LI, existem escalares λ (j) 1,..., λ(j) n tais que u j = λ (j) 1 u i λ (j) n u il, para todo j = 1,..., n. Seja v E. Como {u 1,..., u n } gera o espaço E, existem escalares λ 1,..., λ n, tais que v = λ 1 u λ n u n. Logo, v = λ j u j = j=1 j=1 λ j l k=1 λ (j) k u i k = ( l ) λ j λ (j) k u ik, k=1 j=1 isto é, v é uma combinação linear dos vetores u i1,..., u il. Logo, {u i1,..., u il } é uma base de E. Teorema 3.3 Seja E um espaço vetorial de dimensão finita n e seja {w 1,..., w m } E um subconjunto LI. Então {w 1,..., w m } está contido numa base de E: {w 1,..., w m, w m+1,..., w m+k }. J. Delgado - K. Frensel 46 Instituto de Matemática - UFF

49 Bases e Dimensão Prova. Vamos provar que existe um conjunto de vetores {w 1,..., w m, w m+1,..., w m+k } tal que: I. é linearmente independente; II. {w 1,..., w m, w m+1,..., w m+k, w} não é LI, w E. Se o conjunto LI {w 1,..., w m } não satisfaz II., existe w m+1 E tal que {w 1,..., w m, w m+1 } é LI. Se {w 1,..., w m, w m+1 } não satisfaz II., então existe w m+2 {w 1,..., w m, w m+1, w m+2 } é LI. E tal que Este processo é finito, com no máximo n m etapas, pois todo subconjunto LI de E tem no máximo n = dim E elementos. Como {w 1,..., w m, w m+1,..., w m+k } satisfaz I. e II., temos que este conjunto é LI e {v, w 1,..., w m+k } não é LI, v E. Assim, todo v E é uma combinação linear dos vetores w 1,..., w m+k. Logo, {w 1,..., w m, w m+1,..., w m+k } é uma base de E que contém o conjunto LI {w 1,..., w m }. Corolário 3.1 Seja E um espaço vetorial sobre o corpo K. Se {v 1,..., v n } é um conjunto de vetores LI e E tem dimensão finita, então n dim E. Se {v 1,..., v n } gera o espaço E, então E tem dimensão finita e n dim E. Corolário 3.2 Seja E um espaço vetorial de dimensão finita n. Se {v 1,..., v n } é um conjunto de vetores LI ou um conjunto gerador de E, então é uma base de E. Prova. Suponhamos que {v 1,..., v n } é um conjunto LI. Se {v 1,..., v n } não gera E, existe w E tal que {w, v 1,..., v n } é LI. Então, n + 1 dime = n, o que é um absurdo. Se {v 1,..., v n } gera o espaço E, então existe um subconjunto {v i1,..., v ik } J. Delgado - K. Frensel 47 Instituto de Matemática - UFF

50 Bases e Dimensão de {v 1,..., v n } que é uma base de E. Como dim E = n = k, temos que {v 1,..., v n } é uma base de E. Teorema 3.4 Seja F um subespaço vetorial de um espaço E de dimensão finita. Então, F tem dimensão finita e dim F dim E. Além disso, dim F = dim E se, e somente se, F = E. Prova. Podemos supor que F {0}. Vamos provar que existem vetores v i F, i = 1,..., k tais que: I. {v 1,..., v k } é LI. II. {v, v 1,..., v k } não é LI, v F. Como F, existe v 1 0 em F. Então o conjunto {v 1 } é LI. Se {v 1 } não satisfaz II., existe v 2 F tal que {v 1, v 2 } é LI. Como todo conjunto LI de E tem no máximo dim E = n elementos, o processo pára em algum k n. Logo {v 1,..., v k } é uma base de F e dim F = k dim E. Se dim F = dim E = n e {v 1,..., v n } é uma base de F, temos que {v 1,..., v n } é uma base de E. Logo E = F. Teorema 3.5 Sejam F 1 e F 2 subespaços vetoriais de dimensão finita de um espaço vetorial E. Então F 1 + F 2 é um subespaço vetorial de dimensão finita de E, e dim(f 1 + F 2 ) = dim F 1 + dim F 2 dim(f 1 F 2 ). Prova. Como F 1 F 2 é um subespaço dos espaços F 1 e F 2, F 1 F 2 tem dimensão finita. Se {v 1,..., v k } é uma base de F 1 F 2, existem w 1,..., w m em F 1, tais que {v 1,..., v k, w 1,..., w m } é uma base de F 1 e existem u 1,..., u l, tais que {v 1,..., v k, u 1,..., u l } é uma base de F 2. J. Delgado - K. Frensel 48 Instituto de Matemática - UFF

51 Bases e Dimensão Afirmação: {v 1,..., v k, w 1,..., w m, u 1,..., u l } é uma base de F 1 + F 2. É claro que o conjunto acima gera o espaço F 1 +F 2. Basta, então, verificar que o conjunto é LI. Sejam λ 1,..., λ k, µ 1,..., µ m, δ 1,..., δ l escalares tais que k m l λ i v i + µ j w j + δ s u s = 0 (1) i=1 j=1 s=1 Como ( l k δ s u s = λ i v i + s=1 i=1 ) m µ j w j F 1 F 2, j=1 existem escalares ρ 1,..., ρ k tais que, l k δ s u s = ρ i v i, ou seja s=1 i=1 k ρ i v i i=1 l δ s u s = 0. s=1 Então, ρ 1 =... = ρ k = δ 1 =... = δ l = 0, já que {v 1,..., v k, u 1,..., u l } é uma base de F 2. Como δ 1 =... = δ l = 0, temos, por (1), que k m λ i v i + µ j w j = 0. i=1 j=1 Logo, λ 1 =... = λ k = µ 1 =... = λ m = 0, já que {v 1,..., v k, w 1,..., w m } é uma base de F 1. Provamos, assim, que {v 1,..., v k, w 1,..., w m, u 1,..., u l } é uma base de F 1 + F 2. Então, dim(f 1 + F 2 ) = k + m + l = (k + m) + (k + l) k, ou seja, dim(f 1 + F 2 ) = dim F 1 + dim F 2 dim(f 1 F 2 ). J. Delgado - K. Frensel 49 Instituto de Matemática - UFF

52 Coordenadas 4. Coordenadas Note que... Na definição ao lado, a palavra seqüência é crucial, pois o seu significado implica numa relação de precedência entre os vetores da base. Isto é, há o primeiro vetor, o segundo, e assim sucessivamente e sem ambigüidade. Definição 4.1 Se E é um espaço vetorial de dimensão finita, uma base ordenada de E é uma seqüência finita de vetores LI que geram E. Se a seqüência v 1,..., v n é uma base ordenada de E, então o conjunto {v 1,..., v n } é uma base de E. Notação. B = {v 1,..., v n }. Dado um vetor v E, existem escalares únicos λ 1,..., λ n K, denominados as coordenadas de v em relação à base ordenada B, tais que v = λ 1 v λ n v n. Designamos por [v] B a matriz n 1 cujas entradas são as coordenadas de v em relação à base ordenada B. Isto é, λ 1 [v] B =. λ n Seja agora B = {v 1,..., v n} uma outra base ordenada de E. Então, para cada j = 1,..., n, existem escalares A ij K, tais que v j = A ij v i. i=1 Sejam λ 1,..., λ n as coordenadas de um vetor v em relação à base ordenada B, isto é, v = λ 1 v λ nv n. Então, v = = = = v = λ j v j j=1 j=1 j=1 λ j A ij v i i=1 A ij λ j v i ( i=1 ) A ij λ j v i. i=1 j=1 J. Delgado - K. Frensel 50 Instituto de Matemática - UFF

53 Coordenadas Pela unicidade das coordenadas de um vetor em relação a uma base, temos que λ i = n j=1 A ijλ j, para todo 1 i n. Logo, [v] B = A [v] B, onde A = (A ij ) 1 ij n é a matriz cuja j ésima coluna é A j = [v j ] B. A matriz A é chamada matriz de mudança da base B para a base B. Afirmação. A matriz A é invertível. Com efeito, basta mostrar que o sistema homogêneo AX = 0 possui somente a solução trivial. Se AX = 0, seja v = x 1 v x n v n, onde X =.. Então, x n [v] B = A[v] B = AX = 0. Logo, v = x 1 v x n v n = 0. Como {v 1,..., v n } é LI, temos que x 1 =... = x n = 0, ou seja, X = 0. x 1 Observação 4.1 Como A é invertível, temos que: [v] B = A 1 [v] B. Logo, [v j ] B = A 1 [v j ] B = A 1 e j = j ésima coluna da matriz A 1. Isto é, A 1 é a matriz de mudança da base B para a base B. Teorema 4.1 Sejam B uma matriz n n invertível sobre o corpo K, E um espaço vetorial sobre o corpo K e B = {v 1,..., v n } uma base ordenada de E. Então, existe uma única base ordenada B = {v 1,..., v n} de E tal que [v] B = B[v] B, v E. Prova. Caso exista B, teremos que [v j ] B = B[v j ] B = B j = j ésima coluna de B. J. Delgado - K. Frensel 51 Instituto de Matemática - UFF

54 Coordenadas Ou seja, v j = B ij v i. i=1 Afirmação. {v 1,..., v n} é uma base de E. De fato, como dim E = n, basta mostrar que v 1,..., v n são LI. Se 0 = x 1 v x nv n então, 0 = = 0 = = 0 = x j v j = j=1 x j ( j=1 ) B ij x j v i i=1 j=1 B ij x j, j=1 B ij v i i=1 i = 1,..., n x 1 = BX = 0, onde X =.. x n Como B é invertível, temos que X = 0, ou seja, x 1 =... = x n = 0. Exemplo 4.1 Seja K um corpo e seja x = (x 1,..., x n ) um vetor de K n. Se B é a base canônica de K n, B = {e 1,..., e n }, a matriz das coordenadas do vetor x em relação à base B é dada por Exemplo 4.2 x 1 [x] B =.. x n Para cada número real θ R, a matriz ( ) cos θ sen θ P = sen θ cos θ é invertível e ( P 1 cos θ = sen θ ) sen θ cos θ Consideremos os vetores J. Delgado - K. Frensel 52 Instituto de Matemática - UFF

55 Coordenadas v 1 = (cos θ, sen θ) e v 2 = ( sen θ, cos θ), e a base canônica B = {e 1 = (1, 0), e 2 = (0, 1)}. Como [v i ] B = P i (i ésima coluna de P), i = 1, 2, temos que B = {v 1, v 2 } é uma base ordenada de R 2 tal que [v] B = P[v] B, v R 2. Logo, [v] B = P 1 [v] B, v R 2. Então, se v = (x, y) = xe 1 + ye 2, temos que ( ) ( x [v] B = = P 1 cos θ [v] y B = senθ ) ( ) sen θ x, cos θ y ou seja, x = cos θ x + sen θ y y = sen θ x + cos θy. Exemplo 4.3 A. Verifiquemos que os vetores v 1 = ( 1, 0, 0), v 2 = (4, 2, 0) e v 3 = (5, 3, 8) formam uma base de R 3. Para isso, basta mostrar que a matriz A = cuja j ésima coluna é A j = [v j ] B, onde B = {e 1, e 2, e 3 } é a base canônica de R 3, é invertível. De fato, vamos efetuar operações elementares na matriz A, e na matriz identidade, para tentar transformá-la numa matriz reduzida por linhas à forma em escada / / /8 J. Delgado - K. Frensel 53 Instituto de Matemática - UFF

56 Coordenadas / / / /8 0 1/2 3/ /8 Como a matriz A é equivalente por linhas à matriz identidade, temos que A é invertível e /8 A 1 = 0 1/2 3/ /8 B. Determinemos, agora, as coordenadas x 1, x 2, x 3 do vetor v = (x 1, x 2, x 3 ) em relação à base B = {v 1, v 2, v 3 }. Como [v] B = A[v] B, temos /8 [v] B = A 1 [v] B = 0 1/2 3/ /8 ou seja, x 1 = x x x 3 x 2 = 1 2 x x 3 x 3 = 1 8 x 3. x 1 x 2 x 3, Em particular, v = (1, 2, 16) = 25v 1 + 5v 2 + 2v 3. J. Delgado - K. Frensel 54 Instituto de Matemática - UFF

57 Equivalência por Linhas resumo 5. Equivalência por Linhas resumo Definição 5.1 Seja A uma matriz m n sobre o corpo K. O espaço-linha de A é o subespaço de K n gerado pelos vetores-linhas de A, e o posto-linha de A é a dimensão do espaço-linha de A. Seja A uma matriz como na definição e seja P uma matriz k m sobre K. Então, o produto B = PA é uma matriz k n cujas linhas B 1,..., B k são combinações lineares dos vetores-linhas de A: B i = P i1 α P im α m. Logo, o espaço-linha de B é um subespaço do espaço-linha de A. Se a matriz P é uma matriz invertível (nesse caso m = k), ou seja, B e A são linha-equivalentes, então o espaço-linha de A coincide com o espaço-linha de B. Teorema 5.1 Seja R uma matriz não-nula m n reduzida por linhas à forma em escada. Então os vetores-linhas não-nulos de R formam uma base do espaço-linha de R. Prova. Como os vetores-linhas não-nulos de R, ρ i = (R i1,..., R in ), i = 1,..., r, geram o espaço-linha de R, basta mostrar que eles são LI. Sejam k 1 <... < k r tais que: 1. R ij = 0, se j < k i ; 2. R ikj = δ ij. Seja β = (b 1,..., b n ) um vetor do espaço-linha de R. Então, β = c 1 ρ c r ρ r. Como b kj = r c i R ikj = i=1 r c i δ ij = c j, temos que β = b k1 ρ b kr ρ r. i=1 Em particular, se c 1 ρ c r ρ r = 0, então c j é a b kj coordenada do vetor nulo. Logo, c j = 0, para todo j = 1,... r. Assim, ρ 1,..., ρ k são LI J. Delgado - K. Frensel 55 Instituto de Matemática - UFF

58 Equivalência por Linhas resumo Teorema 5.2 Sejam m e n inteiros positivos e K um corpo. Seja W um subespaço de K n com dim W m. Então existe exatamente uma matriz m n sobre K, reduzida por linhas à forma em escada, cujo espaço-linha é W. Prova. Existência. Como dim W m, podemos tomar m vetores α 1,..., α m em W, que geram W. Seja A a matriz m n que tem esses vetores como vetores-linhas. Seja R uma matriz reduzida por linhas à forma em escada equivalente por linhas à matriz A. Então, o espaço-linha de R é W. Unicidade. Seja R uma matriz m n arbitrária reduzida por linhas à forma em escada cujo espaço-linha é W. Sejam ρ 1,..., ρ r os vetores-linhas nãonulos de R e suponhamos que o primeiro elemento não-nulo de ρ i ocorra na coluna k i, i = 1,..., r. Na demonstração do teorema anterior, vimos que se β = (b 1,..., b n ) W, então β = r i=1 b k i ρ i. Assim, todo vetor β W está determinado quando as suas coordenadas b kj, j = 1,..., r, são conhecidas. Então, ρ i é o único vetor em W cuja k i ésima coordenada é 1 e cuja k j ésima coordenada é nula para j i. Suponhamos que β 0. Como β = {1,..., r} tal que β = b ki ρ i, temos que existe s i=1 r b ki ρ i, com b ks 0. i=s Como R ij = 0 se i > s e j k s, temos que (0,..., 0, b ks,..., b n ), b ks 0 Provamos, assim, que r e k 1 <... < k r são determinados apenas pelos vetores de W, pois {k 1,..., k n } é o conjunto dos inteiros positivos t, J. Delgado - K. Frensel 56 Instituto de Matemática - UFF

59 Equivalência por Linhas resumo 1 t n, tais que existe algum β 0 em W, cuja primeira coordenada não-nula ocorre na coluna t. Além disso, para cada j = 1,..., r, existe apenas um vetor em W com primeira coordenada não-nula igual a 1 na coluna k j e k i ésima coluna nula se i {1,..., r}, i j. Logo, os vetores não-nulos ρ 1,..., ρ r de R são determinados de modo único. Corolário 5.1 Cada matriz m n A é equivalente por linhas a exatamente uma matriz reduzida por linhas à forma em escada. Prova. Sejam R e R matrizes reduzidas por linhas à forma em escada que sejam equivalentes por linhas à matriz A. Então, R e R são equivalentes por linhas e têm, portanto, o mesmo espaço-linha. Logo, R = R. Corolário 5.2 Sejam A e B matrizes m n sobre o corpo K. Então, A e B são equivalentes por linha se, e somente se, possuem o mesmo espaço-linha. Prova. Já sabemos que se A e B são equivalentes por linhas, então, possuem o mesmo espaço-linha. Suponhamos que A e B possuem o mesmo espaço-linha. Seja R a matriz reduzida por linhas à forma em escada que é equivalente por linhas a A, e seja R a matriz reduzida por linhas à forma em escada que é equivalente por linhas a B. Como o espaço-linha de A é igual ao espaço-linha de R e o espaço-linha de B é igual ao espaço-linha de R e o espaço-linha de A é igual ao espaço-linha de B, temos que o espaço-linha de R é igual ao espaço-linha de R. Logo, R = R e A é equivalente por linhas a B. Exemplo 5.1 Seja W o subespaço de R 4 gerado pelos vetores: α 1 = (1, 2, 2, 1) α 2 = (0, 2, 0, 1) α 3 = ( 2, 0, 4, 3). J. Delgado - K. Frensel 57 Instituto de Matemática - UFF

60 Equivalência por Linhas resumo a. Demonstrar que {α 1, α 2, α 3 } é uma base de W. Seja A a matriz com vetores-linha α 1, α 2, α 3. Então, A = R = I = Q = onde R é a matriz reduzida por linhas à forma em escada equivalente por linhas a A e Q é a matriz invertível tal que R = QA. Como o espaço-linha de A é igual ao espaço-linha de R e o posto de R é 3, temos que o posto de A é 3 e, portanto, {α 1, α 2, α 3 } é uma base de W. b. Seja β = (b 1, b 2, b 3, b 4 ) um vetor de W. Determine as coordenadas de β em relação à base ordenada {α 1, α 2, α 3 }. Seja, {ρ 1, ρ 2, ρ 3 } a base de W formada pelos vetores-linha de R. É fácil ver que o espaço gerado por ρ 1, ρ 2 e ρ 3 é formado pelos vetores β para os quais b 3 = 2b 1. Para um tal β, temos: β = b 1 ρ 1 + b 2 ρ 2 + b 4 ρ 4 = (b 1, b 2, b 4 ) R = (b 1, b 2, b 4 ) QA = x 1 α 1 + x 2 α 2 + x 3 α 3, onde (x 1, x 2, x 3 ) = (b 1, b 2, b 4 )Q, ou seja, x 1 = b b b 4 x 2 = b b b 4 (1) x 3 = 1 6 b b 4. c. Sejam α 1 = (1, 0, 2, 0) α 2 = (0, 2, 0, 1) α 3 = (0, 0, 0, 3). Mostrar que α 1, α 2, α 3 formam uma base de W. J. Delgado - K. Frensel 58 Instituto de Matemática - UFF

61 Equivalência por Linhas resumo Como os vetores α 1, α 2, α 3 são todos da forma (y 1, y 2, y 3, y 4 ), com y 3 = 2y 1, temos que eles pertencem a W. É fácil verificar que esses vetores são LI e, portanto, formam uma base de W. d. Determinar a matriz P de mudança da base B = {α 1, α 2, α 3 } para a base B = {α 1, α 2, α 3 }. Usando (1), temos que x 1 = (0) (0) = 1 x 2 = (0) 2 (0) = 1 3 x 3 = 1 6 (0) (0) = 0, são as coordenadas de α 1 = (b 1, b 2, b 3, b 4 ) = (1, 0, 2, 0) na base B, ou seja, α 1 = 1α 1 1α 2. Analogamente, obtemos α 2 = α 2 e α 3 = 2α 1 2α 2 + α 3. Logo, como P j = [α j ] B é a j ésima coluna da matriz de mudança de base P, temos que P = Vamos agora resolver o mesmo exemplo usando a matriz B com vetores coluna α 1, α 2 e α 3 : B = Para isto, determinemos Y = (y 1, y 2, y 3, y 4 ) de modo que o sistema tenha solução. BX = Y Como y y y y y 2 2y y 3 2y y y 4 y 1 J. Delgado - K. Frensel 59 Instituto de Matemática - UFF

62 Equivalência por Linhas resumo y y 2 2y y 4 y y /6(y 2 2y 4 ) y 4 y y 3 2y y 3 2y y 1 1/3y 2 + 2/3y y 1 + 5/6y 2 2/3y /6(2y 4 y 2 ) y 3 2y 1 Logo, a condição para que o sistema BX = Y admita solução é y 3 = 2y 1. Então, β = (b 1, b 2, b 3, b 4 ) W se, e somente se, b 3 = 2b 1. Seja R = a matriz reduzida por linhas à forma em escada equivalente por linhas a B e seja a matriz invertível tal que R = PB. 1 1/3 0 2/3 P = 1 5/6 0 2/3 0 1/6 0 2/ Sejam β = (b 1, b 2, b 3, b 4 ) W e x 1, x 2, x 3 as coordenadas de β na base {α 1, α 2, α 3 }, isto é, β = x 1 α 1 + x 2 α 2 + x 3 α 3. ( x1 ) b 1 Logo, BX = Y, onde X = x 2 e Y = b 2 x b. 3 3 b 4 Como RX = PBX = PY, temos que 4 4, x 1 = b b b 4 x 2 = b b b 4 x 3 = 1 6 b b 4. J. Delgado - K. Frensel 59 Instituto de Matemática - UFF

63 Equivalência por Linhas resumo J. Delgado - K. Frensel 60 Instituto de Matemática - UFF

64 Transformações Lineares 1. Transformação Linear - noções básicas Definição 1.1 Sejam V e W espaços vetoriais sobre o corpo K. Uma transformação linear de V em W é uma função T : V W tal que: T(v + w) = T(v) + T(w), v, w V, T(λ v) = λ T(v), v V, λ K. Observação 1.1 a. T(λ 1 v λ n v n ) = λ 1 T(v 1 ) λ n T(v n ), v 1,..., v n V e λ 1,..., λ n K. b. T(0) = 0 (com efeito, T(0) = T(0 + 0) = T(0) + T(0) = T(0) = 0). Exemplo 1.1 Seja A uma matriz m n sobre o corpo K. Então, T : K n 1 K m 1 X AX são transformações lineares e T : K m K n X XA = (A t X t ) t, Notação... A matriz transposta da matriz A, designada A t, é a matriz cujas linhas são as respectivas colunas de A. Observação 1.2 Toda transformação linear T : K n 1 K m 1 é da forma acima. De fato, sejam {e 1,..., e n } a base canônica de K n 1, {e 1,..., e m } a base canônica de K m 1 e A ij K, i = 1,... m, j = 1,... n, tais que 61

65 Transformação Linear - noções básicas T(e j ) = m A ij e i. i=1 Então, ( x1 ) T(X) = T. = T(x 1 e x n e n ) x n ( m m ) = x j T(e j ) = x j A ij e i = A ij x j e i j=1 j=1 i=1 i=1 j=1 = AX. Verifique... Que o conjunto C([a, b]; R) das funções contínuas do intervalo [a, b] em R é um subespaço do espaço vetorial real F([a, b], R) que consiste de todas as funções do intervalo [a, b] sobre R. Exemplo 1.2 Seja V = C([a, b]; R) o espaço vetorial real das funções contínuas de [a, b] em R. Então, a transformação T : V V definida por: T : V V f T(f) = T f onde T f : [a, b] R x T f (x) = x a f(s) ds, é linear. Exemplo 1.3 Seja V o espaço vetorial dos polinômios com coeficientes no corpo K. Então, a transformação derivação T : V V definida por f Df: (Df)(x) = c c 2 x n c n x n 1, onde f(x) = c 0 + c 1 x +... c n x n, é linear. Teorema 1.1 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja {v 1,..., v n } uma base de V. Seja W um espaço vetorial sobre K e sejam w 1,..., w n vetores em W. Então, existe uma única transformação linear L : V W, tal que L(v i ) = w i, para todo i = 1,..., n. Prova. Unicidade. Sejam L, T : V W transformações lineares tais que L(v i ) = T(v i ) = w i, para todo i = 1,..., n. Seja v V um vetor arbitrário. Como {v 1,..., v n } é uma base de V, existem escalares únicos λ 1,..., λ n K, tais que v = λ 1 v 1,..., λ n v n. J. Delgado - K. Frensel 62 Instituto de Matemática - UFF

66 Transformação Linear - noções básicas Logo, usando a linearidade de T e L, obtemos ( ) T(v) = T λ i v i = n i=1 λ it(v i ) = ( ) n i=1 λ il(v i ) = L λ i v i = L(v). Existência. i=1 Seja v = x 1 v x n v n V um vetor arbitrário. Definimos a transformação L : V W por Afirmação: L é linear. L(v) = x 1 w x n w n. Sejam v = x 1 v x n v n e w = y 1 v y n v n vetores de V e λ K. Então, λv + w = (λx 1 + y 1 )v (λx n + y n )v n V e L(λv + w) = (λx 1 + y 1 )w (λx n + y n )w n ou seja, L é linear. i=1 = λx 1 w 1 + y 1 w λx n w n + y n w n = λ(x 1 w x n w n ) + (y 1 w y n w n ) = λl(v) + L(w). Além disso, L(v i ) = w i pela própria definição de L. Definição 1.2 Seja L : V W uma transformação linear. L(V) = {w W v V ; L(v) = w} é chamado imagem de L. L 1 (0) = {v V L(v) = 0} é chamado núcleo de L. Observação 1.3 L(V) é um subespaço de W. Sejam λ K e w 1, w 2 L(V) W. Então, existem v 1, v 2 V tais que L(v 1 ) = w 1 e L(v 2 ) = w 2. Logo, L(λv 1 + v 2 ) = λl(v 1 ) + L(v 2 ) = λw 1 + w 2, ou seja, λw 1 + w 2 L(V). L 1 (0) é um subespaço de V. J. Delgado - K. Frensel 63 Instituto de Matemática - UFF

67 Transformação Linear - noções básicas Sejam λ K e v 1, v 2 L 1 (0). Então, L(v 1 ) = L(v 2 ) = 0 e L(λv 1 + v 2 ) = λl(v 1 ) + L(v 2 ) = 0, ou seja, λv 1 + v 2 L 1 (0). Lembre que... Em geral, uma função é dita injetiva se transforma elementos distintos em elementos distintos. Os termos injetora, injetiva e monomorfismo são sinônimos. Proposição 1.1 Uma transformação linear L : V W é injetora se, e somente se, L 1 (0) = {0}. Prova. (= ) Suponhamos L injetora. Seja v V. Então, v L 1 (0) se, e somente se, L(v) = 0 = L(0) se, e somente se, v = 0. Logo, L 1 (0) = {0}. ( =) Suponhamos que L 1 (0) = {0}. Se L(v) = L(w), temos L(v w) = L(v) L(w) = 0, ou seja, v w L 1 (0) = {0}. Logo, v w = 0, ou seja, v = w. Definição 1.3 Seja L : V W uma transformação linear. Se V tem dimensão finita, dim L(V) é o posto de L, e dim L 1 {0} é a nulidade de L. Teorema 1.2 Seja L : V W uma transformação linear. Se V é um espaço vetorial de dimensão finita, então L(V) é de dimensão finita e dim V = dim(l 1 (0)) + dim(l(v)). Prova. Caso I. L 1 (0) = {0}. Seja {v 1,..., v n } base de V. Vamos mostrar que {L(v 1 ),..., L(v n )} é uma base de L(V). 1. {L(v 1 ),..., L(v n )} é LI. Com efeito, temos J. Delgado - K. Frensel 64 Instituto de Matemática - UFF

68 Transformação Linear - noções básicas λ 1 L(v 1 ) λ n L(v n ) = 0 = L(λ 1 v λ n v n ) = 0 = λ 1 v λ n v n = 0 = λ 1 =... = λ n = {L(v 1 ),..., L(v n )} gera L(V). Sejam v L(V) e u = λ 1 v λ n v n V tal que L(u) = v. Então, v = L(u) = L(λ 1 v λ n v n ) = λ 1 L(v 1 ) λ n L(v n ). Caso II. L 1 (0) {0}. Seja {v 1,..., v n } uma base de V e seja w L(V). Então existe v = λ 1 v λ n v n V tal que L(v) = w, ou seja w = λ 1 L(v 1 ) λ n L(v n ). Logo, {L(v 1 ),..., L(v n )} gera o espaço L(V), que tem, portanto, dimensão finita. Sejam {u 1,..., u k } base de L 1 (0) e {w 1 = L(v 1 ),..., w m = L(v m )} base de L(V). Afirmação. {u 1,..., u k, v 1,..., v m } é uma base de V. 1. Vejamos primeiro que o conjunto é LI. Sejam λ 1,..., λ k, µ 1,..., µ m K tais que λ 1 u λ k u k + µ 1 v µ m v m = 0. Então, L(λ 1 u λ k u k + µ 1 v µ m v m ) = 0 = λ 1 L(u 1 ) λ k L(u k ) + µ 1 L(v 1 ) µ m L(v m ) = 0 = λ λ k 0 + µ 1 w µ m w m = 0 = µ 1 w µ m w m = 0 = µ 1 =... = µ m = 0 = λ 1 u λ k u k = 0 = λ 1 =... = λ k = Vejamos agora que o conjunto gera V. Seja v V. Como L(v) L(V), existem µ 1,..., µ m K tais que L(v) = µ 1 w µ m w m. Logo, J. Delgado - K. Frensel 65 Instituto de Matemática - UFF

69 Transformação Linear - noções básicas L ( v ) m µ j v j = L(v) m µ j L(v j ) = L(v) m µ j w j = 0, j=1 j=1 j=1 ou seja, v m µ j v j L 1 (0). Então, existem λ 1,..., λ k K tais que j=1 v m µ j v j = j=1 k λ i u i, i=1 isto é, v = λ 1 u λ k u k + µ 1 v µ m v m. Portanto, {u 1,..., u k, v 1,..., v m } é uma base de V e Como queríamos demonstrar. dim V = k + m = dim L 1 (0) + dim L(V). Teorema 1.3 Seja A uma matriz m n com entradas no corpo K. Então, posto-linha(a) =posto-coluna(a). Prova. Seja a transformação linear Como para todo X = ( x1. x n T : K n 1 K m 1 ) X AX. K n 1, vale AX = x 1 A x n A n, onde A 1,..., A n são as colunas de A, temos que o espaço-coluna de A é a imagem da transformação T. Portanto, posto-coluna(a) =posto(t). Como X T 1 (0) se, e somente se, T(X) = AX = 0, temos que T 1 (0) é o espaço solução S do sistema homogêneo AX = 0. Pelo teorema anterior, temos que dim S + posto-coluna(a) = n. (1) Já provamos também que se r é a dimensão do espaço-linha de A, então n r é a dimensão do espaço solução S. Logo, dim S + posto-linha(a) = n. (2) J. Delgado - K. Frensel 66 Instituto de Matemática - UFF

70 Transformação Linear - noções básicas De (1) e (2), obtemos que posto-linha(a) =posto-coluna(a). Definição 1.4 Sejam V e W espaços vetoriais sobre o corpo K, T e L transformações lineares de V em W e c K. Definimos as transformações L + T e cl de V em W, da seguinte maneira: (L + T)(v) = L(v) + T(v), (cl)(v) = c L(v), v V. Proposição 1.2 As transformações L + T e cl são lineares. Prova. Sejam u, v V e λ K. Então: (L + T)(λu + v) = L(λu + v) + T(λu + v) = λl(u) + L(v) + λt(u) + T(v) = λ(l(u) + T(u)) + L(v) + T(v) = λ(l + T)(u)) + (L + T)(v) e (cl)(λu + v) = c(l(λu + v)) = c(λl(u) + L(v)) = cλl(u) + cl(v) = λ(cl(u)) + cl(v) = λ(cl)(u) + (cl)(v). Como queríamos demonstrar. Definição 1.5 Se V e W são espaços vetoriais, designamos por L(V, W) o conjunto cujos elementos são todas as transformações lineares de V em W: L(V, W) = {L : V W L é transformação linear}. J. Delgado - K. Frensel 67 Instituto de Matemática - UFF

71 Transformação Linear - noções básicas Teorema 1.4 Sejam V e W espaços vetoriais sobre o corpo K. O conjunto L(V, W) com as operações de adição e multiplicação por escalares definidas acima é um espaço vetorial sobre K. Prova. Atividade. Teorema 1.5 Sejam V um espaço vetorial de dimensão n sobre o corpo K e W um espaço vetorial de dimensão m sobre o corpo K. Então, o espaço L(V, W) tem dimensão finita igual a mn. Prova. Sejam B = {v 1,..., v n } e B = {w 1,..., w m } bases ordenadas de V e W, respectivamente. Para cada i = 1,..., m e j = 1,..., n, seja L ij L(V, W) tal que { L ij (v j ) = w i = L ij (v k ) = δ jk w i. L ij (v k ) = 0 se k j, Vamos mostrar que {L ij i = 1,... m e j = 1,..., n} é uma base de L(V, W). Seja L : V W uma transformação linear e sejam A ij K tais que, m L(v j ) = A ij w i, 1 j n i=1 Verifiquemos que L = m A ij L ij. j=1 i=1 Seja U = m A ij L ij. Então, j=1 i=1 m U(v k ) = A ij L ij (v k ) = = j=1 m i=1 i=1 A ij L ij (v k ) j=1 m A ik w i i=1 = L(v k ). J. Delgado - K. Frensel 68 Instituto de Matemática - UFF

72 Transformação Linear - noções básicas Logo, U = L e, portanto, {L ij i = 1,..., m e j = 1,..., n} gera L(V, W). Vejamos agora que {L ij i = 1,..., m e j = 1,..., n} é LI. Se j=1 = m A ij L ij = O, então i=1 j=1 m i=1 m A ij L ij (v k ) = 0 k {1,..., n} i=1 j=1 A ij L ij (v k ) = m i=1 A ikw i = 0 k {1,..., n} = A ik = 0 k {1,..., n} e i {1,..., m}. Ao lado... Estamos designando O a transformação linear nula, ou seja, O : V W é dada por O(v) = 0, v V. Mostrando o desejado. Proposição 1.3 Sejam V, W, Z espaços vetoriais sobre o corpo K, e L : V W, T : W Z transformações lineares. Então, a função composta T L : V Z é linear, onde T L(v) = T(L(v)), v V. Notação... A composta T L de duas transformações lineares costuma ser escrita também usando a notação de justaposição TL. Prova. Sejam v, w V e λ K. Então, (T L)(λv + w) = T(L(λv + w)) = T(λL(v) + L(w)) = λt(l(v)) + T(L(w)) = λ(t L)(v) + (T L)(w). Logo, T L é uma transformação linear. Exemplo 1.4 Sejam A uma matriz m n com entradas no corpo K e B uma matriz p m com entradas em K. Consideremos as transformações lineares T : K n 1 K m 1 e U : K m 1 K p 1, dadas por T(X) = AX e U(Y) = BY. Então, U T : K n 1 K p 1 é dada por (U T)(X) = U(T(X)) = U(AX) = BAX. Logo, U T é a multiplicação à esquerda pela matriz produto BA. J. Delgado - K. Frensel 69 Instituto de Matemática - UFF

73 Transformação Linear - noções básicas Definição 1.6 Se V é um espaço vetorial sobre o corpo K, um operador linear sobre V é uma transformação linear de V em V. Observação 1.4 Se U, T L(V, V) então U T L(V, V). Assim, o espaço possui uma multiplicação definida sobre si por meio da composição. Se T L(V, V), usaremos a notação T 0 = I e T n = T... T (n vezes), para n = 1, 2, 3,.... A operação de composição não é comutativa, isto é, nem sempre L T = T L. Exemplo 1.5 Seja V o espaço dos polinômios com coeficientes em K e sejam D e M os operadores: D : V V p(x) = c 0 + c 1 x c n x n D(p)(x) = c 1 + 2c 2 x nc n x n 1, e M : V V p(x) = c 0 + c 1 x c n x n M(p)(x) = x p(x) = c 0 x + c 1 x c n x n+1. Então, (DM)(p)(x) = D(M(p))(x) = D(q(x)), onde q(x) = c 0 x + c 1 x c n x n+1. Logo, (DM)(p)(x) = c 0 + 2c 1 x (n + 1)c n x n, De modo análogo, obtemos (MD)(p)(x) = M(D(p))(x) = c 1 x + 2c 2 x nc n x n. Logo, DM MD = I O. Proposição 1.4 Sejam V um espaço vetorial sobre o corpo K, U, T 1 e T 2 operadores lineares sobre V e λ K. Então, a. IU = UI = U ; b. U(T 1 + T 2 ) = UT 1 + UT 2 ; (T 1 + T 2 )U = T 1 U + T 2 U ; J. Delgado - K. Frensel 70 Instituto de Matemática - UFF

74 Transformação Linear - noções básicas c. c(ut 1 ) = (cu)t 1 = U(cT 1 ). Prova. Atividade. Seja L : V W uma transformação linear bijetora, isto é, L é injetora e sobrejetora. Então existe L 1 : W V tal que LL 1 = I W e L 1 L = I V. Proposição 1.5 Lembre que... Uma transformação linear L : V W é sobrejetora, ou sobrejetiva, se a sua imagem é todo W, isto é, L(V) = W. Se L : V W é uma transformação linear bijetora, então L 1 é linear. Prova. Sejam w 1, w 2 W e λ K. Sejam v 1 = L 1 (w 1 ) e v 2 = L 1 (w 2 ). Então, L(v 1 ) = w 1, L(v 2 ) = w 2 e L(λv 1 + v 2 ) = λl(v 1 ) + L(v 2 ) = λw 1 + w 2, isto é, L 1 (λw 1 + w 2 ) = λv 1 + v 2 = λl 1 (w 1 ) + L 1 (w 2 ). Observação 1.5 Sejam L : V W e T : W Z transformações lineares invertíveis. Então, T L : V Z é invertível e (T L) 1 = L 1 T 1. Definição 1.7 Dizemos que a transformação linear T : V W é não-singular se T é injetora. Proposição 1.6 A transformação linear T : V W é não-singular se, e somente se, transforma subconjuntos linearmente independentes de V em subconjuntos linearmente independentes de W. Prova. (= ) Seja S um subconjunto LI de V e sejam v 1,..., v n S. Então, os vetores T(v 1 ),..., T(v n ) são LI, pois se temos λ 1 T(v 1 ) λ n T(v n ) = 0, J. Delgado - K. Frensel 71 Instituto de Matemática - UFF

75 Transformação Linear - noções básicas T(λ 1 v λ n v n ) = 0 = λ 1 v λ n v n = 0 (T é não-singular) = λ 1 =... = λ n = 0. ( =) Seja v 0 em V. Como o subconjunto S = {v} é LI, temos que T(S) = {T(v)} é LI. Em particular T(v) 0, isto é, T é não-singular. Observação 1.6 A existência de uma inversa à esquerda (ou à direita) não implica que a transformação seja invertível (veja o seguinte exemplo). Exemplo 1.6 Considere as transformações lineares: T : R 2 R (x, y) x e L : R R 2 x (x, 0). Então, T L(x) = x = I(x) e L T(x, y) = (x, 0). Logo, L é injetora, não é sobrejetora, tem inversa à esquerda e não é invertível. T é sobrejetora, não é injetora, tem inversa à direita e não é invertível. Teorema 1.6 Sejam V e W espaços vetoriais de dimensão finita sobre o corpo K tais que dim V = dim W. Se T : V W é uma transformação linear, as seguintes afirmações são equivalentes: 1. T é invertível; 2. T é injetora; 3. T é sobrejetora; 4. Se {v 1,..., v n } é uma base qualquer de V, então {T(v 1 ),..., T(v n )} é uma base de W. 5. Existe uma base {v 1,..., v n } de V tal que {T(v 1 ),..., T(v n )} é uma base de W. J. Delgado - K. Frensel 72 Instituto de Matemática - UFF

76 Transformação Linear - noções básicas Prova. 1= 2: Segue da definição. 2= 3: Seja {v 1,..., v n } uma base de V. Como {v 1,..., v n } é LI e T é injetora, temos que {T(v 1 ),..., T(v n )} é LI. Como dim V = dim W = n, tal conjunto é uma base de W. Dado w W arbitrário e λ 1,..., λ n K tais que w = λ 1 T(v 1 ) λ n T(v n ). Então, w = T(λ 1 v λ n v n ), ou seja, T é sobrejetora. 3= 4: Seja {v 1,..., v n } uma base de V. Como T(V) = W, para todo w W existe v V tal que T(v) = w. Sejam λ 1,..., λ n K tais que v = λ 1 v λ n v n. Então, w = T(v) = λ 1 T(v 1 ) λ n T(v n ). Logo, {T(v 1 ),..., T(v n )} gera o espaço W. Como W tem dimensão n, {T(v 1 ),..., T(v n )} é uma base. 4= 5: É óbvio. 5= 1: Seja {v 1,..., v n } uma base de V tal que {T(v 1 ),..., T(v n )} é uma base de W. Seja w W. Então, existem λ 1,..., λ n K tais que w = λ 1 T(v 1 ) λ n T(v n ) = T(λ 1 v λ n v n ), ou seja, existe v = λ 1 v λ n v n, tal que T(v) = w. Logo, T é sobrejetora. Seja agora v = λ 1 v λ n v n, tal que T(v) = 0. Então, λ 1 T(v 1 ) λ n T(v n ) = 0 = λ 1 =... = λ n = 0 = v = 0. Ou seja, T é injetora. Como T é injetora e sobrejetora, T é invertível. Definição 1.8 Se V e W são espaços vetoriais sobre o corpo K, uma transformação linear bijetora (i.e. injetora e sobrejetora) T : V W é denominada um isomorfismo de V em W. Se existe um isomorfismo de V em W dizemos que V é isomorfo a W. J. Delgado - K. Frensel 73 Instituto de Matemática - UFF

77 Transformação Linear - noções básicas Observação 1.7 O isomorfismo é uma relação de equivalência no conjunto dos espaços vetoriais. De fato, V é isomorfo a V, pois a transformação identidade I : V V, v v é bijetora e linear. Se T : V W é um isomorfismo, então T 1 : W V é um isomorfismo. Ou seja, se V é isomorfo a W, então W é isomorfo a V. Nota... Em virtude da observação ao lado, se V é isomorfo a W costuma-se dizer que V e W são isomorfos. Se T : V W e L : W Z são isomorfismos, então, L T : V Z é um isomorfismo. Ou seja, se V é isomorfo a W e W é isomorfo a Z, então V é isomorfo a Z. Teorema 1.7 Todo espaço vetorial V de dimensão n sobre o corpo K é isomorfo a K n. Prova. Seja B = {v 1,..., v n } uma base de V e seja B = {e 1,..., e n } base canônica de K n. Seja T : V K n tal que L(v i ) = e i, i = 1,..., n. Então, T(x 1 v x n v n ) = (x 1,..., x n ). Como T transforma a base B na base B de K n e dim V = n = dim K n, temos que T é um isomorfismo. Observação 1.8 Espaços vetoriais de dimensão finita são isomorfos se, e somente se, tem a mesma dimensão. Definição 1.9 Seja V um espaço vetorial de dimensão n sobre o corpo K e seja W um espaço vetorial de dimensão m sobre K. Sejam B = {v 1,..., v n } uma base de V e B = {w 1,..., w m } uma base de W. Seja L : V W uma transformação linear e sejam A ij K tais que m L(v j ) = A ij w i, j {1,..., n}. i=1 J. Delgado - K. Frensel 74 Instituto de Matemática - UFF

78 Transformação Linear - noções básicas A matriz de L em relação às bases ordenadas B e B é a matriz m n: A 11 A 12 A 1n A [L] B B = (A ij ) 1 i m = 21 A 22 A 2n. i j n Note que... As entradas da j ésima coluna da matriz ao lado são os coeficientes dos vetores w 1,..., w m da base B de W, que figuram na expressão de L(v j ). A m1 A m2 A mn Proposição 1.7 Seja L : V W uma transformação linear como acima. Então, para todo v V, temos Prova. [L(v)] B = [L] B B[v] B. Seja v = λ 1 v λ n v n, isto é, [v] B =.. λ n λ 1 Então, ( ) L(v) = L λ j v j = λ j L(v j ) = λ j m A ij w i = ( m ) A ij λ j w i, j=1 j=1 j=1 i=1 i=1 j=1 ou seja, A ij λ j é a i ésima coordenada de L(v) na base ordenada B. j=1 Logo, [L(v)] B = [L] B B[v] B. Observação 1.9 [T(v j )] B é a j ésima coluna da matriz [L] B B. Casos particulares: [v] B = [I(v)] B = [I] B B[v] B. ou [v] B = [I(v)] B = [I] BB [v] B. Reciprocamente, dada uma matriz A m n, existe uma transformação linear A B B : V W tal que [A B B ] B B = A. De fato, seja v = λ 1 v λ n v n. Definimos A B B : V W da seguinte maneira: J. Delgado - K. Frensel 75 Instituto de Matemática - UFF

79 Transformação Linear - noções básicas A B B (v) = ( m ) A ij λ j w i. i=1 j=1 Proposição 1.8 A aplicação M : L(V, W) K m n que a cada transformação linear L : V W associa a matriz [L] B B é um isomorfismo. Prova. Sejam L : V W, T : V W transformações lineares e λ K. Sejam [L] B B = A = [A 1,..., A n ] e [T] B B = B = [B 1,..., B n ], onde A j = [L(v j )] B e B j = [T(v j )] B são as j ésimas colunas de A e B. Então, [(λl + T)(v j )] B = [λl(v j ) + T(v j )] B = λ[l(v j )] B + [T(v j )] B = λa j + B j, isto é, [λl + T] B B = λa + B. Logo, a aplicação que leva L em [L] B B é linear. Como ([L] B B) B B = L e [A B B ] B B = A, temos que a aplicação linear K m n L(V, W) que leva a matriz A na transformação linear A B B é a inversa da aplicação linear M : L(V, W) K m n que leva L em [L] B B. Logo, M é um isomorfismo. Exemplo 1.7 Sejam A uma matriz m n sobre o corpo K e L : K n 1 K m 1 a transformação linear que leva X em AX. Sejam B = {e 1,..., e n } e B = {e 1,..., e m } as bases canônicas de K n 1 e K m 1, respectivamente. Então, L(e j ) = Ae j = A j é a j ésima coluna da matriz A. Como A j = m A ij e i, temos que A = [L] B B. i=1 J. Delgado - K. Frensel 76 Instituto de Matemática - UFF

80 Transformação Linear - noções básicas Proposição 1.9 Sejam V, W e Z espaços vetoriais sobre o corpo K de dimensões n, m e p, respectivamente. Sejam T : V W e U : W Z transformações lineares. Então, [U T] B B = [U] B B [T] B B, onde B = {v 1,..., v m }, B = {w 1,..., w m } e B = {z 1,..., z p } são bases de V, W e Z respectivamente. Prova. Sejam A = [T] B B, B = [U] B B e C = [UT] B B. Então, ( m ) (U T)(v j ) = U(T(v j )) = U A ij w i = m i=1 A iju(w i ) i=1 ( m p p m ) = A ij B ki z k = B ki A ij z k = i=1 k=1 p (BA) kj z k. k=1 k=1 Logo, C kj = (BA) kj, k = 1,..., p e j = 1,..., n. Ou seja, C = BA. i=1 Proposição 1.10 Sejam V e W espaços vetoriais de dimensão finita. A transformação linear L : V W é um isomorfismo (ou seja, é invertível) se, e somente se, [L] B B é uma matriz invertível, quaisquer que sejam as bases B de V e B de W. Além disso, se [L] B B é invertível, então [L] 1 B B = [L 1 ] BB. Prova. (= ) Seja T : W V tal que T L = I V e L T = I W, isto é, T = L 1. Então, [T] BB [L] B B = [I V ] BB = I e [L] B B[T] BB = [I W ] B B = I, ou seja, [L] B B é invertível e [T] BB = [L 1 ] BB é a sua inversa. ( =) Sejam A = [L] B B e B = A 1. Seja T : W V a transformação linear B BB, ou seja, [T] BB = B. J. Delgado - K. Frensel 77 Instituto de Matemática - UFF

81 Transformação Linear - noções básicas Então, [T L] BB = [T] BB [L] B B = BA = I. Logo, (T L)(v j ) = v j, j = 1,..., n, onde B = {v 1,..., v n }. Ou seja, T L = I V. De modo análogo, temos que [L T] B B = [L] B B[T] BB = AB = I. Logo, (L T)(w i ) = w i, i = 1,..., m, onde B = {w 1,..., w m }. Ou seja, L T = I W. Obtemos, assim, que L é invertível. Proposição 1.11 Sejam B 1 e B 1 bases de V e B 2 e B 2 transformação linear. Então, [L] B 2 B 1 = [I W] B 2 B 2 [L] B2 B 1 [I V ] B1 B 1. Ou seja, o seguinte diagrama é comutativo: [I V ] B1 B 1 V B1 bases de W, e L : V W uma L W B2 [L] B2 B 1 I V I W [I W ] B B 2 2 V B 1 L [L] B 2 B 1 W B 2 Prova. Como [I W ] B 2 B 2 [L] B2 B 1 = [I W L] B 2 B 1 = [L] B 2 B 1, temos [I W ] B 2 B 2 [L] B2 B 1 [I V ] B1 B 1 = [L] B 2 B 1 [I V] B1 B 1 = [L I V] B 2 B 1 = [L] B 2 B 1. Note que... A matriz [I W ] B 2 B 2 é s matrizes de mudança de base da base B 2 para a base B 2 de W. Analogamente, a matriz e [I V ] B1 B 1 muda a base B 1 para a base B 1 de V. Observação 1.10 As matrizes [I W ] B 2 B 2 e [I V ] B1 B 1 são invertíveis. Notação Se L : V V é um operador sobre V e B é uma base de V, escrevemos def [L] B = [L] BB. J. Delgado - K. Frensel 78 Instituto de Matemática - UFF

82 Transformação Linear - noções básicas Em particular: se B e B são bases de V e L : V V é um operador sobre V, então, [L] B = [I] B B[L] B [I] BB. Como, além disso, [I] B B = ([I] BB ) 1, temos que [L] B = P 1 [L] B P, onde P = [I] BB, ou seja, se B = {v 1,..., v n}, então P j = [v j ] B é a j ésima coluna de P. Definição 1.10 Sejam A e B matrizes n n sobre o corpo K. Dizemos que B é semelhante a A sobre K se existe uma matriz n n invertível P com entradas no corpo K, tal que Observação 1.11 B = P 1 A P. Sejam B e B bases de um espaço vetorial V sobre K e L : V V um operador linear. Então [L] B é semelhante a [L] B. Sejam, agora, A e B matrizes semelhantes n n sobre o corpo K. Sejam V um espaço vetorial de dimensão n e B = {v 1,..., v n } uma base de V. Consideremos o operador linear L : V V tal que [L] B = A. Se B = P 1 AP, definimos os vetores v j = P ij v i, j = 1,..., n. i=1 Afirmação: B = {v 1,..., v n} é uma base de V. Note que... A matriz P é a matriz de mudança da base B para a base B. De fato: Seja U : V V o operador linear tal que U(v j ) = v j, j = 1,..., n. Como [U] BB = P e P é invertível, temos que U é invertível. Logo, B é uma base de V. Além disso, [I] BB = P. Logo, [L] B = [I] B B[L] B [I] BB = P 1 [L] B P = P 1 AP = B. Isto é, se A e B são semelhantes, existem bases B e B do espaço J. Delgado - K. Frensel 79 Instituto de Matemática - UFF

83 Transformação Linear - noções básicas V, tais que [L] B = A e [L] B = B. Exemplo 1.8 Seja T o operador linear sobre R 3 definido por T(x 1, x 2, x 3 ) = (3x 1 + x 3, 2x 1 + x 2, x 1 + 2x 2 + 4x 3 ). a. Determinar a matriz de T em relação à base canônica B = {e 1, e 2, e 3 } de R 3. Solução: Como T(e 1 ) = T(1, 0, 0) = (3, 2, 1) T(e 2 ) = T(0, 1, 0) = (0, 1, 2) T(e 3 ) = T(0, 0, 1) = (1, 0, 4), temos que, [T] B = b. Determinar a matriz de T em relação à base ordenada B = {w 1, w 2, w 3 }, onde w 1 = (1, 0, 1), w 2 = ( 1, 2, 1) e w 3 = (2, 1, 1). ( ) Solução: Seja P = [I] BB = Então, [T] B = P 1 [T] B P. Determinemos P J. Delgado - K. Frensel 80 Instituto de Matemática - UFF

84 Transformação Linear - noções básicas / / / /2 0 1/2 1/2 1/2 1 1/ /2 0 1/2 1/2 1/2 1/4 3/4 5/4 1/4 1/4 1/4 1/2 1/2 1/2 Isto é, Logo, 1/4 3/4 5/4 P 1 = 1/4 1/4 1/4 = /2 1/2 1/ [T] B = = = Ou seja, T(w 1 ) = 17 4 w w w 3 T(w 2 ) = 35 4 w w w 3 T(w 3 ) = 22 4 w w 2. J. Delgado - K. Frensel 81 Instituto de Matemática - UFF

85 Transformação Linear - noções básicas c. Verificar que o operador T é invertível e determinar T 1. Solução: Como sabemos que T é invertível se, e somente se, [T] B é uma matriz invertível, vamos verificar que [T] B inversa: [T] B = / / / / / / / / é invertível e determinar sua / / / / / / / /9 9/9 0 1/3 2/3 1/3 4/9 2/9 1/9 8/9 13/9 2/9 1/3 2/3 1/3 Logo, [T 1 ] B = ([T] B ) 1 e T 1 : R 3 R 3 é dada por: = ([T] B ) T 1 (x 1, x 2, x 3 ) = 1 9 (4x 1 + 2x 2 x 3, 8x x 2 2x 3, 3x 1 6x 2 + 3x 3 ). J. Delgado - K. Frensel 82 Instituto de Matemática - UFF

86 Funcionais Lineares 2. Funcionais Lineares Definição 2.1 Seja V um espaço vetorial sobre o corpo K. Um funcional linear sobre V é uma transformação linear f : V K. Exemplo 2.1 Seja f : K n K um funcional linear. Então, ( ) f(x 1,..., x n ) = f x i e i = i=1 x i f(e i ), i=1 onde {e 1,..., e n } é a base canônica de K n. Todo funcional linear sobre K n é da forma: f(x 1,..., x n ) = a 1 x a n x n, onde a i K, i = 1,..., n, e [a 1,..., a n ] é a matriz de f em relação à base canônica de K n e à base {1} de K. Exemplo 2.2 Seja A uma matriz n n sobre o corpo K. O traço de A é o escalar Tr A = A 11 + A A nn. A função traço Tr : K n n K A Tr A, é um funcional linear, pois Tr (λa + B) = (λa + B) ii = λ A ii + i=1 i=1 B ii = λ Tr A + Tr B. i=1 Exemplo 2.3 Seja C([a, b], R) o espaço das funções contínuas definidas no intervalo [a, b] com valores reais. Então, I : C([a, b], R) R f é um funcional linear. b a f(x) dx. J. Delgado - K. Frensel 83 Instituto de Matemática - UFF

87 Funcionais Lineares Definição 2.2 O espaço L(V, K) de todos os funcionais lineares sobre V é chamado de espaço dual de V e se designa por V. Sabemos que se V tem dimensão finita, então V também é, e temos dim V = dim V. Teorema 2.1 Seja V um espaço vetorial sobre K e seja B = {v 1,..., v n } uma base de V. Então, existe uma única base B = {f 1,..., f n } de V tal que f i (v j ) = δ ij, i, j = 1,..., n. Para cada funcional linear f V, temos f = f(v i ) f i, i=1 e para todo v V, temos v = f i (v) v i. i=1 Prova. Dada a base B = {v 1,..., v n }, sejam f i : V K, i = 1,..., n, os funcionais lineares que satisfazem f i (v j ) = δ ij, j = 1,..., n. Ao lado... Estamos designando O o funcional linear zero definido por: O(v) = 0, v V. Para mostrar que B = {f 1,..., f n } é uma base de V, basta mostrar que os funcionais f 1,..., f n são LI. De fato, suponhamos que c i f i = O. i=1 Então, 0 = c i f i (v j ) = c i δ ij = c j, j = 1,..., n. i=1 i=1 Logo, B = {f 1,..., f n } é uma base de V. Seja, agora, f V. Então, existem c 1,..., c n K, tais que f = c i f i. i=1 J. Delgado - K. Frensel 84 Instituto de Matemática - UFF

88 Funcionais Lineares Como f(v j ) = c i f i (v j ) = c j, j = 1,..., n, temos que i=1 f = f(v i ) f i. i=1 Seja v V. Então, existem λ 1,..., λ n K, tais que v = λ i v i. i=1 Como f i (v) = λ i, temos que v = i=1 f i (v)v i. Definição 2.3 A base B = {f 1,..., f n } de V é dita dual da base B = {v 1,..., v n } de V. Exemplo 2.4 Seja V o espaço das funções polinomiais de R em R de grau 2. Sejam t 1, t 2, t 3 três números reais distintos e L 1, L 2, L 3 os funcionais lineares sobre V definidos por L i (p) = p(t i ), p V. Esses funcionais são LI, pois se c 1 L 1 + c 2 L 2 + c 3 L 3 = O, temos que c i L 1 (p) + c 2 L 2 (p) + c 3 L 3 (p) = 0, p V. Fazendo p = 1, p = x e p = x 2, temos que: c 1 +c 2 +c 3 = 0 c 1 t 1 +c 2 t 2 +c 3 t 3 = 0 c 1 t 2 1 +c 2 t 2 2 +c 3 t 2 3 = 0. (1) Como t 1 t 2 t 3 0 t 2 t 1 t 3 t 1 t t 1 t 2 1 t 2 2 t t 2 2 t2 1 t 2 3 t 2 t 1 t2 1 t 0 t 2 + t 2 3 t2 1 1 t 2 t 1 t t 1 (t 3 t 1 ) t t 2 t t 3 t 2 t t t 1 t 2 t 1 t t 1 t 2 t , t 0 t 2 + t 2 3 t2 1 1 t 2 t (t 3 t 1 )(t 3 t 2 ) t 2 t 1 J. Delgado - K. Frensel 85 Instituto de Matemática - UFF

89 Funcionais Lineares ( 1 1 ) 1 temos que a matriz t 1 t 2 t 3 é invertível. t 2 1 t 2 2 t 2 3 Logo, o sistema (1) possui somente a solução trivial c 1 = c 2 = c 3 = 0. Como dim V = dim V = 3 o conjunto LI {L 1, L 2, L 3 } é uma base de V. Qual é a base {p 1, p 2, p 3 } de V cuja base dual é {L 1, L 2, L 3 }? Tal base deve satisfazer L i (p j ) = p j (t i ) = δ ij, i, j = 1,..., n. Essas funções polinomiais são dadas por: Assim, para todo p V, temos que p 1 (x) = (x t 2)(x t 3 ) (t 1 t 2 )(t 1 t 3 ) p 2 (x) = (x t 1)(x t 3 ) (t 2 t 1 )(t 2 t 3 ) p 3 (x) = (x t 1)(x t 2 ) (t 3 t 1 )(t 3 t 2 ). p = L 1 (p) p 1 + L 2 (p) p 2 + L 3 (p) p 3, ou seja, p = p(t 1 ) p 1 + p(t 2 ) p 2 + p(t 3 ) p 3. Portanto, se c 1, c 2, c 3 são números reais arbitrários, existe uma única função polinomial p sobre R, de grau 2, tal que p(t i ) = c i, i = 1, 2, 3. Essa função polinomial é p = c 1 p 1 + c 2 p 2 + c 3 p 3. Seja V um espaço vetorial de dimensão n e seja f : V K um funcional linear não-nulo. Então, o núcleo de f tem dimensão n 1, pois o posto de f é 1. Definição 2.4 Todo subespaço de dimensão n 1 de um espaço vetorial de dimensão n é chamado um hiperplano ou um subespaço de codimensão 1. Observação 2.1 Todo subespaço W de codimensão 1 de um espaço vetorial V de dimensão n é o núcleo de um funcional linear não-nulo. J. Delgado - K. Frensel 86 Instituto de Matemática - UFF

90 Funcionais Lineares De fato, seja {v 1,..., v n 1 } base de W e v n V tal que {v 1,..., v n 1, v n } seja uma base de V. Seja f : V K o funcional linear dado por { 0, se i n f(v i ) = 1, se i = n. Então, f é um funcional linear não-nulo e v = λ 1 v λ n 1 v n 1 + λ n v n pertence ao núcleo de f se, e somente se, f(v) = λ n = 0. Ou seja, v pertence ao núcleo de f se, e só se, v = λ 1 v λ n v n W. Definição 2.5 Seja S V um subconjunto do espaço vetorial V. O anulador de S é o conjunto S 0 de todos os funcionais lineares f V tais que f(v) = 0, v S. Ou seja, S 0 = {f V f(v) = 0, v S}. Observação 2.2 S 0 é um subespaço vetorial de V (verifique!). Se S = {0}, então S 0 = V. Se S = V, então S 0 = {O}, onde O : V K é o funcional linear nulo. Teorema 2.2 Seja V um espaço vetorial de dimensão finita e seja W um subespaço de V. Então, dim W + dim W 0 = dim V. Prova. Seja {v 1,..., v k } uma base de W e sejam v k+1,..., v n vetores em V tais que B = {v 1,..., v k, v k+1,..., v n } seja uma base de V. Seja {f 1,..., f n } a base de V dual da base B. Vamos mostrar que {f k+1,..., f n } é uma base de W 0. Como f j (v) = 0, j k+1, para todo v W, temos que f j W 0, j k+1. J. Delgado - K. Frensel 87 Instituto de Matemática - UFF

91 Funcionais Lineares Sendo que os funcionais lineares f k+1,..., f n são LI, basta mostrar que {f k+1,..., f n } gera W 0. Seja f V. Então, f = f(v i )f i. i=1 Logo, se f W 0, temos que f(v i ) = 0, para i = 1,..., k. Portanto, f = f(v i )f i. Como queríamos demonstrar. i=k+1 Corolário 2.1 Todo subepaço vetorial W de dimensão k de um espaço vetorial V de dimensão n é a interseção de n k hiperplanos de V. Prova. Sejam f k+1,..., f n os funcionais lineares acima. onde N fj = f 1 j (0) é o núcleo de f j. Se v n j=k+1 Então W n j=k+1 N fj, N fj, temos que f j (v) = 0, para todo j = k + 1,..., n, isto é, se v = λ 1 v λ n v n, então λ j = 0, para j = k + 1,..., n. Logo, v = λ 1 v λ k v k W. Assim, W = n j=k+1 N fj = {v V ; f j (v) = 0, j = k + 1,..., n}. Corolário 2.2 Sejam W 1, W 2 subespaços vetoriais de um espaço vetorial V de dimensão finita. Então W 1 = W 2 se, e somente se, W 0 1 = W0 2. Prova. (= ) óbvio. J. Delgado - K. Frensel 88 Instituto de Matemática - UFF

92 Funcionais Lineares ( =)Suponhamos que existe v W 1 tal que v W 2. Seja {v 1,..., v k } uma base de W 2. Como v W 2, temos que {v 1,..., v k, v} é LI. Seja v k+1 = v, e sejam v k+1,..., v n V tais que {v 1,..., v k, v k+1,..., v n } é uma base de V. Seja f : V K um funcional linear, tal que f(v) = f(v k+1 ) = 1 e f(v i ) = 0, para i k + 1. Então, f W2 0 e f W0 1, ou seja, W0 1 W0 2. Pergunta: Toda base de V é a base dual de alguma base de V? Seja v V. Consideremos a função L v : V K definida por L v (f) = f(v), f V. Afirmação. L v é linear. A função L v definida ao lado é chamada a avaliação em v e, segundo a afirmação, resulta ser um funcional linear sobre o espaço dual V. De fato, para quaisquer f, g V e λ K, temos L v (λf + g) = (λf + g)(v) = λf(v) + g(v) = λl v (f) + L v (g). Então, L v (V ). Designaremos (V ) apenas por V. duplo dual ou bidual de V. Esse espaço é chamado o Teorema 2.3 Seja V um espaço vetorial de dimensão finita sobre o corpo K. Então, L : V V v L(v) = L v, é um isomorfismo linear de V em V. Prova. L é linear. Com efeito, dados v, w V, λ K e f V arbitrários. Temos que L(λv + w)(f) = L λv+w (f) = f(λv + w) = λf(v) + f(w) = λl v (f) + L w (f) = λl(v)(f) + L(w)(f) = (λl(v) + L(w))(f). Portanto, L(λv + w) = λl(v) + L(w), isto é, L é linear. J. Delgado - K. Frensel 89 Instituto de Matemática - UFF

93 Funcionais Lineares L é injetora. Seja v V {0}. Vamos mostrar que L(v) = L v O, ou seja, que existe f V, tal que L v (f) = f(v) 0. Como v 0, existem v 2,..., v n V, onde n = dim V, tais que {v = v 1, v 2,..., v n } é uma base de V. Seja f : V K o funcional linear definido por : { 1 se i = 1 f(v i ) = 0 se i {2,..., n}. Então, f(v) = L v (f) = 1 0. Provamos assim que a aplicação L : V V é linear e injetora. Como V é de dimensão finita, temos dim V = dim V = dim(v ) = dim V. Logo, L é uma transformação linear invertível, ou seja, é um isomorfismo de V em V. Corolário 2.3 Seja V um espaço vetorial de dimensão finita sobre o corpo K. Toda base de V é a base dual de alguma base de V. Prova. Seja B = {f 1,..., f n } uma base de V. e seja B = {L 1,..., L n } a base de V dual da base B, isto é, L i (f j ) = δ ij, i, j = 1,..., n. Pelo teorema anterior, para cada i = 1,..., n, existe v i V, tal que L i = L vi. Como a aplicação v L v é um isomorfismo linear de V em V, temos que B = {v 1,..., v n } é uma base de V. Além disso, temos δ ij = L i (f j ) = L v1 (f j ) = f j (v i ), i, j = 1,..., n, ou seja, B é a base dual da base B. Observação 2.3 Devido ao teorema anterior, geralmente identificamos v com L v e dizemos que V é o espaço dual de V ou que os espaços V e V são duais um do outro de uma maneira natural. J. Delgado - K. Frensel 90 Instituto de Matemática - UFF

94 Funcionais Lineares Seja B V. Então B 0 é, por definição, um subespaço de V formado por todos os funcionais lineares L V é tal que L(f) = 0, f B. Mas como todo L V é da forma L v para algum v V, podemos definir B 0 como sendo o conjunto: B 0 = {v V f(v) = 0, f B}. Assim, B 0 é a interseção de todos os núcleos dos funcionais f B. Já vimos, também, que se W é um subespaço de V, então W = {v V f(v) = 0, f W 0 }. Logo, (W 0 ) 0 = W. Teorema 2.4 Se S é um subconjunto qualquer de um espaço vetorial V de dimensão finita, então (S 0 ) 0 é o subespaço gerado por S. Prova. Seja W o subespaço gerado por S. Então, S 0 = W 0. O duplo anulador de um subconjunto S, designado S 00, é por definição (S 0 ) 0. Análogamente, W 00 = (W 0 ) 0. Logo, (S 0 ) 0 = (W 0 ) 0 = W é o subespaço gerado por S. Outra demonstração: Como dim W + dim W 0 = dim V e dim W 0 + dim(w 0 ) 0 = dim V = dim V, temos que dim(w 0 ) 0 = dim W. Além disso, como W (W 0 ) 0, concluímos que W = (W 0 ) 0. Definição 2.6 Seja V um espaço vetorial. Um subconjunto N de V é um hiperplano de V se: 1. N é um subespaço próprio de V, isto é, N V. 2. Se W é um subespaço de V que contém N, então W = N ou W = V. Em suma: N V é um hiperplano de V se N é um subespaço próprio maximal de V. Teorema 2.5 Se f é um funcional linear não-nulo sobre o espaço vetorial V, então o núcleo de f é um hiperplano de V. J. Delgado - K. Frensel 91 Instituto de Matemática - UFF

95 Funcionais Lineares Reciprocamente, todo hiperplano de V é o núcleo de um funcional linear não nulo sobre V. Prova. Seja f : V K um funcional linear não-nulo sobre V e N f o seu núcleo. Seja v V tal que f(v) 0. Sejam w V e c = f(w) f(v). Então, o vetor u = w cv pertence a N f, pois f(u) = f(w cv) = f(w) cf(v) = 0. Isto é, todo vetor w V pertence ao subespaço gerado por N f e v. Provamos, assim, que se v N f, o espaço gerado por N f e v é o espaço V. Logo, N f é um subespaço próprio maximal. Seja agora N um hiperplano em V e seja v um vetor que não pertence a N. Como N é um hiperplano, o subespaço gerado por N e v é todo o espaço V. Logo, todo vetor w em V se escreve na forma w = u + cv, com c K e u N. O vetor u N e o escalar c K são determinados de modo único por w. De fato, se também tivéssemos w = u + c v, com c K e u N, então, u u = (c c)v. Se c c obteríamos que v N, o que não é possível pela própria escolha de v. Portanto, c = c e u = u. A aplicação f : V K que a cada w = u + cv faz corresponder o escalar c é linear e N f = N (verifique!). Lema 2.1 Se f e g são funcionais lineares sobre um espaço vetorial V, então g é múltiplo de f se, e somente se, N f N g. Prova. (= ) óbvio. ( =)Se f = O, então g = O. Logo, g é múltiplo de f. Se f O, o núcleo de f, N f, é um hiperplano de V. J. Delgado - K. Frensel 92 Instituto de Matemática - UFF

96 Funcionais Lineares Seja v V tal que f(v) 0, e seja c = g(v) f(v). O funcional h = g cf é nulo em N f, pois, como N f N g, tanto f como g são nulos em N f e h(v) = g(v) cf(v) = 0. Logo, h é nulo no espaço gerado por N f e v, que é todo o espaço V. Logo, h = O. Isto é, g = cf, ou seja, g é múltiplo de f. Teorema 2.6 Sejam g, f 1,..., f r funcionais lineares sobre um espaço vetorial V e sejam N, N 1,..., N r seus respectivos núcleos. Então g é uma combinação linear de f 1,..., f r se, e somente se, N 1... N r N. Prova. Se g = c 1 f c r f r e f i (v) = 0 para cada i = 1,..., r, então, g(v) = 0. Portanto, N 1... N r N. Vamos provar a recíproca usando indução sobre o número r. (1) A propriedade vale para r = 1 em virtude do lema anterior. (2) Suponhamos o resultado válido para r = k 1. Sejam g, f 1,..., f k funcionais lineares tais que N 1... N k N g. Sejam g, f 1,..., f k 1 as restrições de g, f 1,..., f k 1 ao subespaço N k. Se v N k e f i (v) = 0, i = 1,..., k 1, então v N 1... N k 1 N k N g. Logo, g(v) = 0. Pela hipótese de indução, existem escalares c 1,..., c k 1 tais que, g = c 1 f c k 1f k 1. k 1 Seja h = g c i f i. Então, h é um funcional linear sobre V tal que i=1 h(v) = 0, para todo v N k. Pelo lema anterior, existe c k K, tal que h = c k f k, ou seja, k g = c i f i. i=1 J. Delgado - K. Frensel 93 Instituto de Matemática - UFF

97 Funcionais Lineares Definição 2.7 A transposta de uma transformação linear T : V W é a aplicação T t : W V g T t (g) = g T. Observação 2.4 A transposta T t : W V da transformação linear T : V W é uma transformação linear. De fato, se g 1, g 2 W e λ K, temos T t (λg 1 + g 2 ) = (λg 1 + g 2 ) T = λ(g 1 T) + g 2 T = λt t (g 1 ) + T t (g 2 ). Proposição 2.1 Sejam V e W espaços vetoriais sobre o corpo K e seja T : V W uma transformação linear. O núcleo de T t : W V é o anulador da imagem T(V) de T. Além disso, se V e W têm dimensão finita, então: 1. posto (T t ) = posto (T); 2. A imagem de T t é o anulador do núcleo de T: T t (W ) = (N T ) 0. Prova. Se g W pertence ao núcleo de T t, então T t (g) = g T = O, ou seja, g(t(v)) = 0, v V. Logo, N T t = (T(V)) 0. Suponhamos agora, que V e W têm dimensão finita, sendo dim V = n e dim W = m. Seja r = posto (T) = dim T(V). Então dim T(V) 0 = m r. Pela primeira afirmação do teorema, temos que a nulidade de T t é m r. Então, posto (T t ) = m (m r) = r, ou seja, posto (T t ) = posto (T). Seja agora N = N T o núcleo de T e seja f = T t (g) = g T um funcional na imagem de T t. Se v N, temos que f(v) = (g T)(v) = g(t(v)) = g(0) = 0, ou seja, J. Delgado - K. Frensel 94 Instituto de Matemática - UFF

98 Funcionais Lineares f = T t (g) N 0. Como T t (W ) N 0 e dim N 0 = n dim N = posto (T) = posto (T t ), obtemos que T t (W ) = N 0. Definição 2.8 Se A é uma matriz m n com entradas no corpo K, a transposta de A é a matriz n m A t, definida por A t ij = A ji. Proposição 2.2 Sejam V e W espaços vetoriais de dimensão finita sobre o corpo K. Seja B uma base de V com base dual B, e seja Ω uma base de W com base dual Ω. Então, [T t ] B Ω = ([T] ΩB) t. Lembre que, se T : V B W Ω = T t : W Ω V B Prova. Sejam a matriz m n A = [T] ΩB e a matriz n m B = [T t ] B Ω. Sejam B = {v 1,..., v n }, Ω = {w 1,..., w m }, B = {f 1,..., f n }, Ω = {g 1,..., g m }. Por definição, temos T(v j ) = T t (g j ) = m A ij w i, j = 1,... n i=1 B ij f i, j = 1,... m. i=1 Por outro lado, ( m ) T t (g j )(v i ) = g j (T(v i )) = g j A ki w k = m A ki g j (w k ) = k=1 k=1 k=1 m A ki δ jk = A ji. Sabemos que para todo funcional f V, J. Delgado - K. Frensel 95 Instituto de Matemática - UFF

99 Funcionais Lineares f = f(v i )f i. i=1 Logo, T t (g j ) = T t g j (v i )f i = i=1 A ji f i i=1 ou seja, B ij = A ji. Teorema 2.7 Seja A uma matriz m n sobre o corpo K. Então, o posto-linha de A é igual ao posto-coluna de A. Prova. Seja T : K n 1 K m 1 a transformação linear dada por T(X) = AX. Sejam B e Ω as bases canônicas de K n 1 Então, A = [T] BΩ. e K m 1, respectivamente. O posto-coluna de A é o posto da transformação T, pois a imagem de T consiste de todas as m úplas que são combinações lineares dos vetorescolunas de A. Em relação às bases duais Ω e B, a aplicação transposta T t é representada pela matriz A t. Como os vetores-colunas de A t são os vetores-linhas de A, temos que o posto-coluna de A t é igual ao posto-linha de A. Além disso, como a transformação linear L : (K n 1 ) K n 1 que leva f em [f] B é um isomorfismo e L(T t (W )) = L ({x 1 T t (g 1 ) x m T t (g m ) x 1,..., x m K}) = {x 1 β x m β m x 1,..., x m K} é o subespaço gerado pelos vetores-colunas β j, j = 1,..., m, da matriz A t, temos que posto (T t ) = dim T t (W ) = posto-coluna (A t ) = posto-linha (A). Mas, pelo teorema anterior, posto (T) = posto (T t ). Logo, posto-coluna (A) = posto (T) = posto (T t ) = posto-linha (A). J. Delgado - K. Frensel 95 Instituto de Matemática - UFF

100 Funcionais Lineares J. Delgado - K. Frensel 96 Instituto de Matemática - UFF

101 Polinômios 1. Álgebras - generalidades Definição 1.1 Uma álgebra linear sobre o corpo K é um espaço vetorial A sobre K com uma operação adicional, chamada multiplicação de vetores, que a cada par de vetores α, β A associa um vetor de A, designado α β ou αβ, satisfazendo as seguintes propriedades: 1. associatividade: α (β γ) = (α β) γ. 2. distributividade em relação à adição: α (β + γ) = α β + α γ, (α + β) γ) = α γ + β γ. 3. Para cada c K, c (α β) = (c α) β = α (c β). Além disso, dizemos que A é uma álgebra com elemento unidade se existir um vetor 1 A tal que 1 α = α 1 = α, α A. A é uma álgebra comutativa se α β = β α, α, β A Exemplo 1.1 a. Um corpo K é uma álgebra linear comutativa com elemento unidade. b. O conjunto K n n das matrizes n n sobre o corpo K é uma álgebra linear com elemento unidade (a matriz identidade) e que é não-comutativa se n 2. 97

102 Álgebras - generalidades c. O conjunto L(V, V) dos operadores lineares sobre o espaço vetorial V com a composição de operadores como sendo o produto, é uma álgebra linear com elemento unidade que é não-comutativa se dim V 2. d. Seja K um corpo e F(N, K) o espaço vetorial de todas as funções de N em K. Denotamos esse espaço vetorial por K e seus vetores f F(N, K) são escritos como seqüências infinitas f = (f 0, f 1,..., f n,...), onde f i = f(i), para todo i N. Se f = (f 0, f 1,..., f n,...) e g = (g 0, g 1,..., g n,...) são vetores de K e λ K, já sabemos que λf + g = (λf 0 + g 0, λf 1 + g 1,..., λf n + g n,...). Vamos agora definir um produto de vetores em K. Dados f = (f 0, f 1,..., f n,...), g = (g 0, g 1,..., g n,...) K, definimos o vetor produto f g por: (f g) n = f i g n i, n N. i=0 Assim, f g = (f 0 g 0, f 0 g 1 + f 1 g 0, f 0 g 2 + f 1 g 1 + f 2 g 0,...). Como (f g) n = f i g n i = g i f n i = (g f) n, n N, i=0 i=0 temos que a multiplicação em K é comutativa. A multiplicação é, também, distributiva. De fato, se h = (h 0, h 1,..., h n,...) K, então (f (g + h)) n = = f i (g + h) n i = f i (g n i + h n i ) i=0 f i g n i + i=0 i=0 i=0 f i h n i ou seja, f (g + h) = f g + f h. = (f g) n + (f h) n, n N, De modo análogo, podemos provar que (f + g) h = f h + g h. J. Delgado - K. Frensel 98 Instituto de Matemática - UFF

103 Álgebras - generalidades A multiplicação satisfaz a propriedade: c(f g) = (cf) g = f (cg), c K, f, g K. De fato: (c(f g)) n = c(f g) n = c e (c(f g)) n = c(f g) n = c f i g n i = i=0 f i g n i = i=0 (cf i )g n i = ((cf) g) n i=0 f i (cg n i ) = (f (cg)) n, i=0 para todo n N, ou seja c(f g) = (cf) g = f (cg). A multiplicação é associativa. De fato: ((f g) h) n = (f g) i h n i = ( i ) f j g i j h n i. i=0 i=0 j=0 Como (ver diagrama ao lado) { (i, j) i {0,..., n} e j {0,..., i} } = { (i, j) j {0,..., n} e i {j,..., n} }, temos que ((f g) h) n = ( ) f j g i j h n i = ( f j i=j g i j h n i ). j=0 i=j j=0 Fazendo k = i j, temos que k varia de 0 a n j quando i varia de j a n, e n i = n (k + j) = (n j) k. Logo, para todo n N, temos ((f g) h) n = = ( ) n j f j g i j h n i = f j g k h (n j) k j=0 i=j j=0 k=0 f j (g h) n j = (f (g h)) n. j=0 Ou seja, (f g) h = f (g h). O vetor 1 = (1, 0, 0,...) é o elemento unidade da multiplicação. De fato, (1 f) n = (1) i (f) n i = 1 f n f n f n = f n, n N, i=0 J. Delgado - K. Frensel 99 Instituto de Matemática - UFF

104 Álgebras - generalidades ou seja, 1 f = f 1 = f. Portanto, K com as operações definidas acima é uma álgebra linear comutativa com elemento unidade sobre o corpo K. Notação: Seja x = (0, 1, 0,...) K. O produto de x por si mesmo n vezes será indicado por x n e convencionamos que x 0 = 1 = (1, 0, 0,...). Então, observe que x 2 = (0, 0, 1, 0, 0,...), x 3 = (0, 0, 0, 1, 0,...), e, em geral, para todo n N, temos 1 se k = n (x n ) k = 0 se k n, k N. Ou seja, (xn ) k = δ nk, k N. De fato, (x x) n = 1, se n = 2 (x) i (x) n i = (x) 1 (x) n 1 = 0, se n 2, i=0 ou seja, x 2 = (0, 0, 1, 0, 0,...). Suponhamos, por indução, que (x k ) n = 0, se n k e (x k ) k = 1. Então, (x k+1 ) n = (x k x) n = 0, se n < k ; (x k ) i (x) n i = (x k ) k (x) n k = x n k, se n k. i=0 Mas, como (x) n k = 1 se, e só se, n = k + 1 e (x) n k = 0 se n = k e n k + 2, temos que 0, se n k (x k+1 ) n = 1, se n = k + 1. Observação 1.1 Como o conjunto {1, x, x 2, x 3,...} é LI, K não tem dimensão finita. Definição 1.2 Seja K[x] o subespaço de K gerado pelos vetores 1, x, x 2,..., x n,.... Os vetores de K[x] são denominados polinômios em K (ou, com coeficientes em K). J. Delgado - K. Frensel 100 Instituto de Matemática - UFF

105 Álgebras - generalidades Se f = (f 0, f 1,..., f n,...) K[x] é um polinômio não-nulo, existe n 0 tal que f n 0 e f k = 0, k > n. Esse inteiro n, que é único para cada f K[x], é denominado o grau de f. Então, se f é um polinômio não-nulo de grau n, f = (f 0, f 1,..., f n, 0, 0,...) = f 0 x 0 + f 1 x + f 2 x f n x n = f f 1 x + f 2 x f n x n. Os escalares f 0, f 1,..., f n são denominados os coeficientes de f. Os polinômios da forma cx 0, ou seja c1, são chamados polinômios constantes. Freqüentemente, escreveremos apenas c em vez de cx 0 e/ou c1. Um polinômio não-nulo f de grau n, tal que f n = 1 é dito um polinômio unitário. Observação 1.2 Ao polinômio nulo não será atribuído grau algum. Teorema 1.1 O conjunto dos polinômios sobre um corpo K é uma álgebra linear comutativa com elemento unidade sobre K. Lema 1.1 Sejam f, g polinômios não-nulos sobre K. Então, a. f g é um polinômio não-nulo e grau(f g) = grau(f) + grau(g). b. f g é um polinômio unitário se f e g são polinômios unitários. c. f g é um polinômio constante se, e somente se, f e g são constantes. d. Se f + g 0, então grau(f + g) max{grau(f), grau(g)}. Prova. Suponhamos que grau(f) = m e grau(g) = n e seja k N. Então, (f g) m+n+k = m+n+k i=0 f i g m+n+k i. Para que f i g m+n+k i 0 é necessário que i m e m + n + k i n. Logo, é necessário que m + k i m, o que implica que k = 0 e i = m. J. Delgado - K. Frensel 101 Instituto de Matemática - UFF

106 Álgebras - generalidades Assim, e (f g) m+n = f m g n (f g) m+n+k = 0, se k > 0. Logo, f g é um polinômio de grau m + n. Além disto, se f m = g n = 1, (f g) m+n = 1, ou seja, se f e g são unitários, então, também, f g é unitário. Do anterior, temos que grau(f) = grau(g) = 0 grau(f) + grau(g) = 0 grau(f g) = 0, ou seja, f e g são polinômios constantes se, e somente se, f g é um polinômio constante. Suponhamos agora que f + g 0 e seja k = max{grau(f), grau(g)}. Então, (f + g) l = f l + g l = 0, l > k. Logo, grau(f + g) k. Corolário 1.1 Sejam f, g, h K[x]. Se f 0 e f g = f h, então g = h. Prova. Como f g = f h, temos f (g h) = 0, e como f 0, segue de a. do lema anterior, que g h = 0. Ou seja g = h. Suponhamos que f = m f i x i e g = i=0 g j x j. j=0 Então, pela definição da multiplicação de polinômios, temos que: ( m+n s ) f g = f r g s r x s. s=0 r=0 No caso particular em que f = c x m e g = d x n, com c, d K, temos f g = cd x m+n. (1) Dessa relação e das propriedades distributivas de K[x], segue que m f g = f i g j x i x j = f i g j x i+j. i=0 j=0 i,j J. Delgado - K. Frensel 102 Instituto de Matemática - UFF

107 Álgebras - generalidades Definição 1.3 Seja A uma álgebra linear com elemento unidade sobre o corpo K. Indicaremos o elemento unidade de A por 1 e faremos a convenção α 0 = 1, para todo α A. Então, a cada polinômio f = f i x i sobre K e a cada α A, associamos o elemento f(α) A, denominado a avaliação de f em α, segundo a regra: Exemplo 1.2 f(α) = f i α i. i=0 Seja K = C e seja f = x 2 + x + 2 C[x]. Então, Se A = C e α = 2 A, f(α) = = 8. ( ) 1 1 Se A = C 2 2 e α =, temos 2 1 ( ) ( ) ( ) ( ) f(α) = = i=0 ( ) se A = L(C 2, C 2 ) e α = T : C 2 C 2 é o operador linear T(z 1, z 2 ) = (2z 1 + 3z 2, 4z 2 ), então, f(α) = T 2 + T + 2I A é o operador linear f(t)(z 1, z 2 ) = T(T(z 1, z 2 )) + T(z 1, z 2 ) + 2I(z 1, z 2 ) Teorema 1.2 ( ) 3 1 = 2 3 = T(2z 1 + 3z 2, 4z 2 ) + (2z 1 + 3z 2, 4z 2 ) + (2z 1, 2z 2 ) = (2(2z 1 + 3z 2 ) + 3(4z 2 ), 4(4z 2 )) + (4z 1 + 3z 2, 6z 2 ) = (4z z 2, 16z 2 ) + (4z 1 + 3z 2, 6z 2 ) = (8z z 2, 22z 2 ). ( ) Seja A uma álgebra linear com elemento unidade sobre K, e sejam α A, c K, f e g polinômios sobre K. Então, a. (cf + g)(α) = cf(α) + g(α), b. (f g)(α) = f(α)g(α). J. Delgado - K. Frensel 103 Instituto de Matemática - UFF

108 Interpolação de Lagrange Prova. Suponhamos que f = f i x i e g = i=0 m g j x j. j=0 Suponhamos, também, que n m. Então, cf + g = (cf i + g i )x i, onde g j = 0 se j > m. i=0 Logo, (cf + g)(α) = (cf i + g i )α i = c f i α i + = c i=0 f i α i + i=0 i=0 = cf(α) + g(α). m g i α i i=0 g i α i i=0 Como f g = i,j f i g j x i+j (ver pag. 100), por (1) temos que f g(α) = f i g j α i+j. Logo i,j f g(α) = ( ) ( m ) f i α i g j α j = f(α) g(α). i=0 j=0 2. Interpolação de Lagrange Seja V o subespaço de K[x] gerado pelos polinômios 1, x, x 2,..., x n, ou seja, V é o subespaço de K[x] formado por todos os polinômios de grau n, junto com o polinômio nulo. Então, dim V = n + 1. Sejam t 0, t 1,..., t n K, n + 1 escalares distintos, e L i : V K as aplicações definidas por L i (f) = f(t i ), i = 0, 1,..., n. Pelo item a. do teorema anterior, temos que cada L i é um funcional linear, ou seja, L i V. Vamos mostrar que {L 0, L 1,..., L n } é uma base do espaço vetorial V dual de V. J. Delgado - K. Frensel 104 Instituto de Matemática - UFF

109 Interpolação de Lagrange Para isso, basta mostrar que existe uma base {p 0, p 1,..., p n } de V tal que {L 0, L 1,..., L n } seja a sua base dual, ou seja, L i (p j ) = δ ij = P j (t i ), para i, j = 0, 1,..., n. Consideremos os polinômios n p j = i = 1 i j x t i t j t i, j = 0, 1,..., n. Então, já que cada p j V é um polinômio de grau n, e p j (t k ) = δ jk, pelo item b. do teorema anterior. 0, 1,... n. Afirmação: Os polinômios p 0, p 1,..., p n são LI. De fato, se c j p j = 0, temos que j=0 c j p j (t i ) = 0, para todo i = Como p j (t i ) = δ ji, temos que c i = 0, para todo i = 0, 1,... n. Sendo dim V = n + 1, temos que {p 0, p 1,..., p n } é uma base de V dual da base {L 0, L 1,..., L n }. Então, se f V, temos a chamada fórmula de interpolação de Lagrange: j=0 f = f(t i ) p i = i=0 f(t i ) i=0 n k = 1 k i x t k t i t k Tomando f = x j, obtemos, x j = t j i p i. i=0 Então, a matriz de mudança de base da base {1, x, x 2,..., x n } para a base {p 0, p 1,..., p n }, é 1 t 0 t 2 0 t n 0 1 t 1 t 2 1 t n t n t 2 n t n n conhecida como a matriz de Vandermonde. Essa matriz é, portanto, invertível. J. Delgado - K. Frensel 105 Instituto de Matemática - UFF

110 Interpolação de Lagrange Seja, agora f um polinômio sobre K, e seja f : K K a função polinomial que leva t em f(t). Observação 2.1 Pode acontecer que f = g para dois polinômios f e g tais que f g. De fato, seja K = Z 2 e sejam f = x e g = x polinômios em Z 2 [x]. Como f(0) = g(0) = 1 e f(1) = g(1) = 0, temos que f = g, mas f g. Veremos que isso não ocorre quando K é um corpo com um número infinito de elementos. Para descrever de maneira precisa a relação entre os polinômios e as funções polinomiais, devemos definir o produto de duas funções polinomiais. Definição 2.1 Sejam f e g polinômios sobre K. O produto das funções polinomiais f e g, associadas a f e g, respectivamente, é a função polinomial f g : K K dada por: ( f g)(t) = f(t) g(t), t K. Pela parte b. do teorema 1.2, temos que (f g)(t) = f(t) g(t). Logo, Assim, ( f g)(t) = (f g)(t) = f(t)g(t) = f(t) g(t), t K. f g = f g. Com a multiplicação definida acima, o espaço vetorial das funções polinomiais sobre K é uma álgebra linear comutativa com elemento unidade. De fato, f ( g h) = f( g h) = f (g h) = (f g) h = ( f g) h = ( f g) h. Definição 2.2 Duas álgebras lineares A e à sobre o corpo K são ditas isomorfas se existe uma aplicação α α de A em Ã, tal que: J. Delgado - K. Frensel 106 Instituto de Matemática - UFF

111 Interpolação de Lagrange (cα + β) = c α + β, (α β) = α β, α, β A, c K. Exemplo 2.1 Seja V um espaço vetorial de dimensão n sobre o corpo K e seja B uma base ordenada de V. Sejam T, L L(V, V) operadores lineares sobre V e c K. Como [ct + L] B = c[t] B + [L] B e [T L] B = [T] B [L] B, temos que a aplicação L(V, V) K n n T [T] B é um isomorfismo da álgebra dos operadores lineares sobre V na álgebra das matrizes n n com entradas em K. c i x i um polinômio de grau n com coefici- Seja U L(V, V) e seja f = entes em K. Então, i=0 f(u) = c i U i, i=0 e como T [T] B é uma aplicação linear, temos [f(u)] B = c i [U i ] B. i=0 Além disso, como [T L] B = [T] B [L] B para quaisquer L, T L(V, V), temos que [f(u)] B = c i [U] i B, i=0 ou seja, [f(u)] B = f ([U] B ). Teorema 2.1 Seja K um corpo com um número infinito de elementos. Então, a aplicação f f é um isomorfismo da álgebra dos polinômios sobre K na álgebra das funções polinomiais sobre K. J. Delgado - K. Frensel 107 Instituto de Matemática - UFF

112 Ideais de Polinômios Prova. Como já sabemos que a aplicação é sobrejetora, e que (cf + g) = c f + g (f g) = f g, basta mostrar que a aplicação é injetora. Para tanto é suficiente, pela linearidade, demonstrar que f = O implica f = 0. Seja f um polinômio de grau n tal que f = O, e sejam t 0, t 1,..., t n elementos distintos de K. Pela fórmula de interpolação de Lagrange, temos que f = f(t i )p i. i=0 Como f = O, temos f(t i ) = 0, para todo i = 0, 1,..., n. Logo, f = Ideais de Polinômios Lema 3.1 Sejam f e d polinômios não-nulos sobre o corpo K tais que grau(d) grau(f). Então existe um polinômio g sobre K, tal que f gd = 0 ou grau(f gd) < grau(f). Prova. Suponhamos que f = e d = m a i x i = a m x m + i=0 m 1 i=0 a i x i, a m 0 n 1 b j x j = b n x n + b j x i,, b n 0. j=0 j=0 Tome g = a m b n x m n, que faz sentido, pois m n. Então, f gd = f a m b n x m n d = 0 ou grau(f gd) < grau(f). J. Delgado - K. Frensel 108 Instituto de Matemática - UFF

113 Ideais de Polinômios Teorema 3.1 Algoritmo de Euclides Sejam f e d polinômios sobre um corpo K, sendo d um polinômio nãonulo. Então existem polinômios q e r tais que: (1) f = qd + r, (2) r = 0 ou grau(r) < grau(d). Os polinômios q e r que satisfazem (1) e (2) são únicos. Prova. Existência: Se f = 0 ou grau(f) < grau(d), basta tomar q = 0 e r = f. Suponhamos, então, que f 0 e grau(f) grau(d). Então, pelo lema anterior, existe um polinômio g K[x] tal que f dg = 0 ou grau(f dg) < grau(f). Se f dg 0 e grau(f dg) grau(d), existe h K[x] tal que f dg dh = 0 ou grau(f d(g + h)) < grau(f dg) < grau(f). Após um número finito de passos, no máximo grau(f) grau(d) + 1 no caso em que d não é um polinômio constante, chegamos a um polinômio q K[x] e a um polinômio r K[x], tais que f dq = r, com r = 0 ou grau(r) < grau(d). No caso em que d é um polinômio constante, basta tomar q = 1 d f e r = 0. Unicidade: Suponhamos que existem outros polinômios q 1, r 1 K[x] tais que f = q 1 d + r 1, onde r 1 = 0 ou grau(r 1 ) < grau(d). Como f = qd + r = q 1 d + r 1, temos que d(q q 1 ) = r 1 r. Se q q 1 0 então, d(q q 1 ) 0 e grau(d(q q 1 )) = grau(d) + grau(q q 1 ) grau(d). Mas, como grau(d(q q 1 )) = grau(r 1 r) < grau(d), chegamos a uma contradição (grau(d) < grau(d)). Logo, q q 1 = 0 e r 1 r = 0, ou seja, q 1 = q e r 1 = r. Definição 3.1 Seja d um polinômio não-nulo sobre K e f K[x]. Se existe q K[x] tal que f = qd, dizemos que d divide f, que f é divisível por d, ou que f J. Delgado - K. Frensel 109 Instituto de Matemática - UFF

114 Ideais de Polinômios é múltiplo de d, e denominamos q o quociente de f por d. Escrevemos, também, q = f d. Proposição 3.1 Seja f K[x] e seja c K. Então, f é divisível por x c se, e somente se, f(c) = 0. Prova. Pelo teorema anterior, existe q K[x] e um polinômio constante r, tais que f = (x c)q + r. Logo, f(c) = 0 se, e somente se, r = 0. Definição 3.2 Um escalar c K é uma raiz ou um zero de um polinômio f K[x], se f(c) = 0. Corolário 3.1 Um polinômio f não-nulo de grau n sobre um corpo K tem no máximo n raízes em K. Prova. O resultado é óbvio quando f tem grau 0 ou 1. Suponhamos que grau(f) > 1. Vamos proceder por indução sobre o grau n de f. Suponhamos que o resultado vale para polinômios de grau n 1. Seja c K uma raiz de f. Então, existe q K[x] de grau n 1 tal que f = (x c)q. Como, por hipótese de indução, q possui no máximo n 1 raízes, temos que f possui no máximo n raízes. A derivada do polinômio f = c 0 + c 1 x + c 2 x c n x n é o polinômio Df = f = c 1 + 2c 2 x nc n x n 1. A derivação é linear, isto é, D é um operador linear sobre K[x]. Existem também as derivadas formais de ordem dois D 2 f = f, de ordem três D 3 f = f etc. J. Delgado - K. Frensel 110 Instituto de Matemática - UFF

115 Ideais de Polinômios Teorema 3.2 Se f é um polinômio sobre K de grau n, então D f = k f(c) (x c) k, k! k=0 Fórmula de Taylor onde c é um escalar em K. Prova. Pela fórmula do binômio de Newton, temos que m ( ) m x m = (c + (x c)) m = c m k (x c) k, k onde ( ) m = k m! k! (m k)! k=0 m(m 1)(m 2)... (m k + 1) = k m D k x m (c) (x c) k, k! x m = k=0 que é a fórmula de Taylor para f = x m. Se f = a m x m, temos que D k f(c) = m=0 a m D k (x m )(c), já que a derivada de ordem k é linear. Logo, k=0 D k f(c) (x c) k = k! = = k=0 m=0 m=0 a m. Então, m=0 D a k (x m )(c) m (x c) k k! D k (x m )(c) (x c) k k! k=0 a m x m = f m=0 Observação 3.1 Os polinômios 1, (x c),..., (x c) n são LI. De fato: Procedemos com a demonstração usando indução sobre n. 1. {1} é LI, já que Suponhamos que {1, (x c),..., (x c) n 1 } é LI e que J. Delgado - K. Frensel 111 Instituto de Matemática - UFF

116 Ideais de Polinômios a n (x c) n + a n 1 (x c) n a 1 (x c) + a 0 = 0. Logo, a n (x c) n = (a n 1 (x c) n a 1 (x c) + a 0 ). Então, a n = 0, pois se a n 0, teríamos que a n (x c) n seria um polinômio de grau n, enquanto a n 1 (x c) n a 0 é um polinômio de grau n 1. Como a n = 0, temos a n 1 (x c) n a 1 (x c) + a 0 = 0, Logo, a n 1 =... = a 1 = a 0 = 0. A fórmula de Taylor nos fornece, então, o único modo de escrever um polinômio f como combinação linear dos polinômios (x c) k, 0 k n. Definição 3.3 Se c for uma raiz do polinômio f, a multiplicidade de c como raiz de f é o maior inteiro positivo r tal que (x c) r divide f. Teorema 3.3 Seja f um polinômio sobre K de grau n. Então o escalar c K é uma raiz de f de multiplicidade f se, e só se, (D k f)(c) = 0, 0 k r 1; (D r f)(c) 0. Prova. Suponhamos que f tem multiplicidade r. Então existe g K[x] tal que f = (x c) r g, com g(c) 0, pois se g(c) = 0, f seria divisível por (x c) r+1. Pela fórmula de Taylor aplicada a g, temos que g = n r k=0 D k g(c) k! (x c) k. Logo, f = n r k=0 D k g(c) k! (x c) r+k. Como existe apenas uma maneira de escrever f como combinação linear dos polinômios (x c) k, 0 k n, temos que J. Delgado - K. Frensel 112 Instituto de Matemática - UFF

117 D m f(c) m! = Ideais de Polinômios 0, se 0 m r 1 D m r g(c), se r m n (m r)! Logo, D m f(c) = 0 se 0 m r 1 e D r f(c) = r! g(c) 0. Suponhamos agora que D k f(c) = 0, 0 k r 1 e D r f(c) 0. Então, pela fórmula de Taylor, f = (x c) r k=r D k f(c) k! (x c) k r, ou seja, existe g = k=r D k f(c) k! (x c) k r K[x], tal que f = (x c) r g. Observe que g(c) = Dr f(c) r 0. Suponhamos que r não é o maior inteiro positivo tal que (x c) r divide f. Então, existe h K[x], tal que f = (x c) r+1 h. Sendo f = (x c) r g = (x c) r+1 h, temos que (x c) r (g (x c)h) = 0. Mas, como x c 0, temos que g (x c)h = 0, ou seja, g = (x c)h. Assim, g(c) = 0, o que é uma contradição. Definição 3.4 Seja K um corpo. Um ideal em K[x] é um subespaço I de K[x] tal que fg I para todo f K[x] e todo g I. Exemplo 3.1 Seja d K[x]. Então I = d K[x], o conjunto de todos os múltiplos de d é um ideal. De fato, I é não vazio, pois contém d = d 1. Se f, g K[x] e c K, então c(d f) + d g = d (cf + g) I. Logo, I é um subespaço de K[x]. Se h K[x] e d f I, então (d f) h = d (f h) I. Logo I é um ideal. O ideal I = d K[x] é chamado o ideal principal gerado por d. Exemplo 3.2 Sejam d 1,..., d n K[x]. Então a soma I dos subespaços d i K[x], J. Delgado - K. Frensel 113 Instituto de Matemática - UFF

118 Ideais de Polinômios i = 1,..., n, é um subespaço e, também, um ideal. De fato, se p I, existem f 1,..., f n K[x] tais que p = d 1 f d n f n. Se g K[x], temos que p g = (d 1 f d n f n ) g = d 1 (f 1 g) d n (f n g), ou seja, p g I. Dizemos que I = d 1 K[x] d n K[x] é o ideal gerado pelos polinômios d 1,..., d n. Exemplo 3.3 Seja K um subcorpo dos números complexos e consideremos o ideal I = (x + 2)K[x] + (x 2 + 8x + 16)K[x], Então, I = K[x]. De fato, como (x 2 + 8x + 16) x(x + 2) = 6x + 16 I, temos que (6x + 16) 6 (x + 2) = 4 I. Assim, o polinômio constante 1 pertence a I, bem como todos os seus múltiplos. Teorema 3.4 Seja I um ideal não-nulo de K[x]. Então existe um único polinômio unitário d K[x] tal que I = d K[x]. Prova. Existência. Como I é não-vazio, existe em I um polinômio d de grau mínimo e unitário. Vamos mostrar que I = d K[x]. Seja f I. Então existem q, r K[x] tais que f = q d + r, onde r = 0 ou grau(r) < grau(d). Como d I, temos que d q I e, portanto, r = f q d I. Sendo d um polinômio em I de grau mínimo, não podemos ter grau(r) < grau(d). Logo, r = 0 e f = d q. Assim, I = d K[x]. Unicidade. Sejam d, d 1 K[x] polinômios unitários tais que I = d K[x] = d 1 K[x]. Então, existem q, q 1 K[x] tais que d = d 1 q 1 e d 1 = d q. Logo, d = d q q 1 e, portanto, grau(d) = grau(d) + grau(q) + grau(q 1 ). J. Delgado - K. Frensel 114 Instituto de Matemática - UFF

119 Ideais de Polinômios Assim, grau(q) = grau(q 1 ) = 0. Ou seja, q e q 1 são polinômios constantes. Como d e d 1 são unitários, q = q 1 = 1, isto é, d = d 1. Corolário 3.2 Sejam p 1,..., p n K[x] polinômios não todos nulos. Então, existe um único polinômio unitário d tal que: (a) d pertence ao ideal gerado por p 1,..., p n ; (b) d divide p i, i = 1,..., n. Além disso, todo polinômio d que satisfaz (a) e (b), satisfaz também: (c) d é divisível por todo polinômio que divide cada um dos polinômios p 1,..., p n. Prova. Seja d K[x] o polinômio unitário tal que d K[x] = p 1 K[x]+...+p n K[x]. Então, d pertence ao ideal gerado por p 1,..., p n e cada p i, i = 1,..., n, pertence ao ideal d K[x]. Logo, d divide cada um dos polinômios p i. Suponhamos agora que f seja um polinômio que divide cada um dos polinômios p 1,..., p n. Então, existem polinômios h 1,..., h n, tais que p i = h i f, i = 1,..., n. Além disso, como d p 1 K[x] p n K[x], existem polinômios q 1,..., q n, tais que d = p 1 q p n q n. Logo, d = f (h 1 q p n q n ), ou seja, d é divisível por f. Seja d um polinômio unitário que satisfaz (a) e (b). Por (a), d d K[x] = p 1 K[x] + + p n K[x], ou seja, existe q K[x], tal que d = d q. Como d satisfaz (b) e d satisfaz (c), d é divisível por d, ou seja, existe h K[x] tal que d = d h. Logo, d = d q h e, portanto, q = h = 1. Assim, d = d. J. Delgado - K. Frensel 115 Instituto de Matemática - UFF

120 Ideais de Polinômios Definição 3.5 Sejam p 1,..., p n polinômios em K[x] não todos nulos. Então, o único polinômio unitário d K[x] tal que d K[x] = p 1 K[x] p n K[x], é chamado o máximo divisor comum (m.d.c.) de p 1,..., p n, e é indicado por (p 1,..., p n ). Se (p 1,..., p n ) = 1, ou seja, p 1 K[x] p n K[x] = 1 K[x] = K[x], dizemos que p 1,..., p n são primos entre si ou relativamente primos. Exemplo 3.4 No exemplo anterior, vimos que K[x] = (x + 2) K[x] + (x 2 + 8x + 16) K[x]. Logo, (x + 2, x 2 + 8x + 16) = 1. Exemplo 3.5 Verifiquemos que ((x 2) 2 (x + i), (x 2) (x 2 + 1)) = (x 2) (x + i), onde K é o corpo dos números complexos. De fato, o ideal ((x 2) 2 (x + i)) K[x] + ((x 2) (x 2 + 1)) K[x] contém (x 2) 2 (x + i) (x 2) (x 2 + 1) = (x + 2) (x + i) (i 2). Logo, contém o polinômio (x 2) (x + i), que é unitário e divide (x 2) 2 (x + i) e (x 2) (x 2 + 1). Como o polinômio (x 2) (x + i) satisfaz (a) e (b) do corolário anterior, temos que (x 2)(x + i) = ((x 2) 2 (x + i), (x 2)(x 2 + 1)). J. Delgado - K. Frensel 116 Instituto de Matemática - UFF

121 Decomposição de um polinômio em fatores primos 4. Decomposição de um polinômio em fatores primos Definição 4.1 Dizemos que um polinômio f K[x] é redutível sobre K[x] se existem polinômios g, h K[x], de grau 1, tais que f = g h. Caso contrário, dizemos que o polinômio f é irredutível. Se f K[x] é irredutível e nãoconstante, f é dito um polinômio primo sobre K. Exemplo 4.1 O polinômio x é redutível sobre o corpo C dos números complexos, pois x = (x + i)(x i). Por outro lado, x 2 +1 é irredutível sobre o corpo R dos números reais, pois se x = (ax + b) (a x + b ), com a, b, a, b R, então aa = 1, ab + a b = 0 e bb = 1. Logo, 0 = a 1 b + 1 a b = a2 + b 2, ou seja, a 2 + b 2 = 0. Como a, b R, ab temos que a = b = 0, o que é uma contradição, já que aa = 1 e bb = 1. Teorema 4.1 Sejam f, g e p polinômios sobre o corpo K. Se p é um polinômio primo que divide o produto fg, então p divide f ou p divide g. Prova. Podemos supor, sem perda de generalidade, que p é unitário. Como p é primo, os únicos divisores unitários de p são 1 e p. Seja d o m.d.c de p e f. Então, d = 1 ou d = p. Se d = p, então p divide f. Se d = 1, isto é, p e f são primos entre si, existem polinômios h, l K[x], tais que 1 = h f + l p. J. Delgado - K. Frensel 117 Instituto de Matemática - UFF

122 Decomposição de um polinômio em fatores primos Multiplicando essa igualdade por g, obtemos que g = h f g + l p g. Como p divide f g, temos que p divide h f g. Além disso, p divide l p g. Logo, p divide g. Corolário 4.1 Se p é um polinômio primo que divide o produto f 1... f n, então p divide um dos polinômios f 1,..., f n. Prova. Faremos a demonstração por indução sobre n. Pelo teorema anterior, o resultado é válido para n = 2. Suponhamos que o resultado seja válido para n = k e que p divide f 1... f k+1. Como p divide f 1... f k f k+1 temos, pelo teorema anterior, que p divide f k+1 ou p divide f 1... f k. Isto é, p divide f k+1 ou, pela hipótese de indução, p divide f j, para algum j = 1,..., k. Assim, em qualquer caso, f divide algum f j, j = 1,..., k + 1. Teorema 4.2 Todo polinômio f K[x] unitário e não-constante pode ser decomposto como um produto de polinômios primos em K[x] de uma única maneira, a menos da ordem dos fatores. Prova. Provaremos o resultado por indução sobre o grau de f. Se grau(f) = 1, então f é irredutível e, portanto, primo. Suponhamos que o teorema seja válido para polinômios de grau < n e que grau f = n + 1. Se f é primo, então nada temos a provar. Se f não é primo, isto é, f é redutível, existem polinômios g, h K[x] não-constantes e unitários, tais que f = g h. Como grau(g) < n e grau(h) < n, temos, por hipótese de indução, que g e h podem ser decompostos como produtos de polinômios primos unitários J. Delgado - K. Frensel 118 Instituto de Matemática - UFF

123 Decomposição de um polinômio em fatores primos em K[x]. Logo, f também pode ser decomposto como um produto de polinômios primos. Suponhamos agora, que f = p 1... p m = q 1... q n, onde p 1,..., p m, q 1,..., q n K[x] são polinômios primos unitários. Se m = 1 ou n = 1, então m = n = 1. Suponhamos então que m > 1 e n > 1. Como p 1 divide q 1... q n, temos que p 1 divide algum q j, j = 1,..., n. Sendo p 1 e q j primos unitários, temos que p 1 = q j. Reordenando os polinômios q i, caso seja necessário, podemos supor que p 1 = q 1. Logo, p 1 p 2... p m = p 1 q 2... q n, e, portanto, p 2... p m = q 2... q n. O teorema se segue agora pela hipótese de indução, pois esse polinômio tem grau menor que grau(f). Observação 4.1 Na decomposição de um polinômio unitário não-constante em produto de fatores primos unitários, alguns fatores podem repetir-se. Assim, se p 1,..., p r são os fatores primos unitários distintos que ocorrem na decomposição de um polinômio unitário não-constante f, então f = p n p nr r, sendo o expoente n i o número de vezes que o fator primo p i ocorre nessa decomposição. Essa decomposição de f em produto de potências de fatores primos é única, a menos da ordem dos fatores, e se denomina a decomposição primária de f. Assim, todo divisor unitário de f é da forma onde 0 ν i n i, i = 1,..., r. p ν pνr r, Em particular, o m.d.c de uma coleção finita de polinômios não-constantes e unitários f 1,..., f n é J. Delgado - K. Frensel 119 Instituto de Matemática - UFF

124 Decomposição de um polinômio em fatores primos p s p s k k, onde p 1,..., p k são os polinômios primos que aparecem nas decomposições de todos os polinômios f 1,..., f n e, para cada i = 1,..., k, o expoente s i é o menor dos expoentes com que o polinômio p i aparece nas decomposições dos polinômios f 1,..., f n. Se os polinômios f 1,..., f n não possuem fatores primos em comum, eles são primos entre si. Exemplo 4.2 Sejam a, b, c K escalares distintos. Então, x a, x b e x c são polinômios primos unitários distintos em K[x]. Logo, ((x b) n (x c) s, (x a) m (x c) s+1 ) = (x c) s, e ((x b) n (x c) s, (x a) m (x c) s, (x b) n (x a) m ) = 1. Teorema 4.3 Seja f um polinômio unitário não-constante sobre o corpo K e seja f = p n p n k k, a decomposição de f em (produto de potências de) fatores primos. Para cada j, 1 j k, seja f j = f p n j j = i j p n i i, Então, f i,..., f k são primos entre si. Teorema 4.4 Seja f um polinômio sobre o corpo K com derivada f. Então, f é um produto de polinômios primos distintos se, e somente se, f e f são primos entre si. Prova. ( =) Suponhamos que na decomposição de f em fatores primos algum polinômio primo p esteja repetido, ou seja, f = p 2 h, para algum h K[x]. J. Delgado - K. Frensel 120 Instituto de Matemática - UFF

125 Decomposição de um polinômio em fatores primos Então, f = 2p p h + p 2 h. Logo, p também divide f, não sendo, portanto, f e f primos entre si. (= ) Suponhamos que f = p 1... p k, onde p 1,..., p k são polinômios primos unitários e distintos. Seja f j = f p j = i j p i. Então, f = p 1 f p k f k. Seja p um polinômio primo que divide f e f. Então, p = p i para algum i = 1,..., k. Como p i divide f j, para j i, e p i divide f, temos que p = p i divide p i f i. Então, p divide p i ou p divide f i. Como p = p i não aparece na decomposição j i p j, temos que p i não divide f i. Também p i não divide p i, pois grau(p i) > grau(p i ). Com isso verificamos que nenhum polinômio primo divide f e f simultaneamente. Ou seja f e f são primos entre si. Definição 4.2 O corpo K é dito algebricamente fechado se todo polinômio primo sobre K tem grau 1, isto é, se todo polinômio primo unitário sobre K é da forma x c. Maneiras equivalentes para definir um corpo algebricamente fechado: Um corpo K é algebricamente fechado se todo polinômio unitário nãoconstante f K[x] se expressa na forma: f = (x c 1 ) ν 1... (x ck ) ν k, onde c 1,..., c k K são escalares distintos e ν 1,..., ν k são inteiros positivos. Um corpo K é algebricamente fechado se todo polinômio não-constante f K[x] possui uma raiz em K. Ou seja, existe c K tal que f(c) = 0. Os escalares c 1,..., c k são as raízes de f e os inteiros ν 1,..., ν k são as respectivas multiplicidades dessas raízes. J. Delgado - K. Frensel 121 Instituto de Matemática - UFF

126 Determinantes Exemplo 4.3 O corpo C dos números complexos é algebricamente fechado (Teorema fundamental da Álgebra). Exemplo 4.4 Se f é um polinômio unitário com coeficientes reais e c é uma raiz complexa de f, então c é também uma raiz de f. Portanto, o conjunto das raízes de f é da forma: {t 1,..., t s, c 1,..., c r, c 1,..., c r }, onde t 1,..., t s R e c 1,..., c r C. Logo, f se decompõe em C[x] sob a forma: f = (x t 1 )... (x t s ) (x c 1 ) (x c 1 )... (x c r ) (x c r ), ou seja, f se decompões em R[x] sob a forma: f = (x t 1 )... (x t s ) p 1... p r, onde p i = (x c i ) (x c i ) = x 2 (c i + c i ) x + c i 2 é um polinômio primo de grau 2 em R[x], i = 1,..., r. Assim, todo polinômio primo em R[x] tem grau 1 ou grau Determinantes Definição 5.1 Um anel é um conjunto F, munido de duas operações: e (x, y) x + y (adição) (x, y) x y = xy (multiplicação), que satisfazem as seguintes propriedades: Lembre que um conjunto G é um grupo em relação a uma operação : G G G se a operação é associativa, possui elemento neutro e todo elemento de G possui inverso em relação à operação. Além disso, quando a operação é comutativa, o grupo é dito comutativo ou Abeliano. 1. F é um grupo comutativo em relação à adição; 2. A multiplicação é associativa: (xy)z = x(yz), x, y, z F ; 3. A multiplicação é distributiva em relação à adição: x(y + z) = xy + xz x, y, z F. (x + y)z = xz + yz, J. Delgado - K. Frensel 122 Instituto de Matemática - UFF

127 Determinantes Se xy = yx para todos x, y F, dizemos que o anel F é comutativo. Se existe um elemento 1 F tal que 1x = x1 = x x F, dizemos que F é um anel com elemento unidade (o elemento 1). Observação 5.1 Um corpo é um anel comutativo com elemento unidade diferente de zero que satisfaz a propriedade adicional de que a cada x não-nulo corresponde um elemento x 1 tal que x 1 x = 1. Exemplo 5.1 O conjunto dos números inteiros, com as operações usuais de adição e multiplicação, é um anel comutativo com elemento unidade, mas não é um corpo. Exemplo 5.2 O conjunto dos polinômios sobre um corpo, com a adição e multiplicação que definimos para polinômios, é um anel comutativo com elemento unidade. Exemplo 5.3 Se F é um anel comutativo com elemento unidade, então o conjunto das matrizes m n com entradas em F, que denotamos F m n, com as operações (A + B) ij = A ij + B ij (CD) ij = C ik D kj. é um anel comutativo com elemento unidade. Definição 5.2 Seja F um anel comutativo com elemento unidade. Uma função D : F n n F é n linear se para cada i = 1,..., n, D é uma função linear da i ésima linha, quando as outras n 1 linhas são mantidas fixas. Se D : F n n F é uma função e se α 1,..., α n são as linhas da matriz A, escrevemos D(A) = D(α 1,..., α n ). Dizer que D é n linear significa que, para todo i = 1,..., n, k=1 J. Delgado - K. Frensel 123 Instituto de Matemática - UFF

128 Determinantes D(α 1,..., α i 1, cα i + α i, α i+1,..., α n ) = c D(α 1,..., α i 1, α i, α i+1,..., α n ) + D(α 1,..., α i 1, α i, α i+1,..., α n ), Ao lado, A(i, j) designa a entrada Exemplo 5.4 Sejam k 1,..., k n inteiros positivos, 1 k i n, e seja a F. Para cada matriz A n n sobre F, definimos A ij da matriz A. D(A) = aa(1, k 1 )... A(n, k n ) Então, a função D é n linear. De fato, considerando D como uma função da i ésima linha de A, com as outras linhas fixas, podemos escrever D(α i ) = A(i, k i )b, onde b é um elemento fixo de F. Seja α i = (A i1,..., A in ). Então, D(cα i + α i ) = (ca(i, k i) + A (i, k i ))b = cd(α i ) + D(α i ). Logo, D é uma função n linear. Caso particular: o produto dos elementos da diagonal D(A) = A A nn é uma função n linear sobre F n n. Exemplo 5.5 Seja D uma função bilinear (2 linear) sobre as matrizes 2 2 com entradas em F. Fazendo e 1 = (1, 0) e e 2 = (0, 1), temos D(A) = D(A 11 e 1 + A 12 e 2, A 21 e 1 + A 22 e 2 ) = A 11 D(e 1, A 21 e 1 + A 22 e 2 ) + A 12 D(e 2, A 21 e 1 + A 22 e 2 ) = A 11 A 21 D(e 1, e 1 ) + A 11 A 22 D(e 1, e 2 ) +A 12 A 21 D(e 2, e 1 ) + A 12 A 22 D(e 2, e 2 ). Lema 5.1 Uma combinação linear de funções n lineares sobre F n n é n linear. Prova. Basta mostrar que uma combinação linear de duas funções n lineares é n linear. J. Delgado - K. Frensel 124 Instituto de Matemática - UFF

129 Determinantes Sejam D e E funções n lineares, e sejam a, b F. A combinação linear ad + be é definida por (ad + be)(a) = ad(a) + be(a). Então, fixando todas as linhas exceto a linha i, temos (ad + be)(cα i + α i ) = ad(cα i + α i ) + be(cα i + α i ) = acd(α i ) + ad(α i ) + bce(α i) + be(α i ) = c(ad + be)(α i ) + (ad + be)(α i ). Como queríamos demonstrar. Exemplo 5.6 Seja F um anel comutativo com elemento unidade e seja D a função definida sobre as matrizes 2 2 com entradas em F por D(A) = A 11 A 22 A 12 A 21. Como D = D 1 + D 2, onde D 1 (A) = A 11 A 22 e D 2 (A) = A 12 A 21, temos, pelo lema anterior, que D é uma função bilinear. Vejamos algumas propriedades dessa função: Se I é a matriz identidade 2 2, então D(I) = 1, isto é, D(e 1, e 2 ) = 1. Se as duas linhas de A são iguais, então D(A) = A 11 A 22 A 12 A 21 = A 11 A 12 A 12 A 11 = 0. Se A é a matriz obtida de uma matriz A F 2 2 permutando suas linhas, então D(A ) = A 11 A 22 A 12 A 21 = A 21 A 12 A 22 A 11 = D(A). Definição 5.3 Uma função n linear D é dita alternada, se as seguintes condições são satisfeitas: (a) D(A) = 0 sempre que duas linhas de A são iguais. (b) Se A é a matriz obtida permutando duas linhas de A, então D(A ) = D(A). J. Delgado - K. Frensel 125 Instituto de Matemática - UFF

130 Determinantes Observação 5.2 Demonstraremos abaixo que toda função n linear que satisfaz (a) também satisfaz (b). Por outro lado, se D satisfaz a condição (b) e A é uma matriz com duas linhas iguais, então D(A) = D(A), ou seja, D(A) + D(A) = 0. Podemos, então, concluir que D satisfaz a condição (a) se, por exemplo, F é um corpo onde , mas em geral (a) não é uma conseqüência de (b). Definição 5.4 Seja F um anel comutativo com elemento unidade e seja n um inteiro positivo. Suponhamos que D seja uma função de F n n em F. Dizemos que D é uma função determinante se D é n linear, alternada e D(I) = 1. A existência e a unicidade da função determinante é evidente para matrizes 1 1, A = [a], sobre F. Basta tomar D(A) = a. Pelo exemplo 5.5, sabemos que toda função bilinear sobre as matrizes 2 2 sobre F é da forma D(A) = A 11 A 21 D(e 1, e 1 ) + A 11 A 22 D(e 1, e 2 ) + A 12 A 21 D(e 2, e 1 ) + A 12 A 22 D(e 2, e 2 ). Se D é alternada, temos que D(e 1, e 1 ) = D(e 2, e 2 ) = 0 e D(e 2, e 1 ) = D(e 1, e 2 ). Logo, D(A) = (A 11 A 22 A 12 A 21 )D(e 1, e 2 ). Se, além disso, D(I) = D(e 1, e 2 ) = 1, temos que D(A) = A 11 A 22 A 12 A 21, é a única função determinante das matrizes 2 2 com entradas no anel F. Antes de provarmos a existência e a unicidade da função determinante das matrizes n n com entradas no anel F, precisamos provar alguns resultados preliminares. Lema 5.2 Seja D uma função n linear sobre as matrizes n n com entradas no anel F. Suponhamos que D(A) = 0 sempre que duas linhas adjacentes na matriz A sejam iguais. Então D é alternada. Prova. J. Delgado - K. Frensel 126 Instituto de Matemática - UFF

131 Determinantes Primeiro vamos provar que D(A ) = D(A) sendo A obtida transpondose duas linhas adjacentes da matriz A. Sejam α 1,..., α n as linhas de A e suponhamos que A = (α 1,..., α i 1, α i+1, α i, α i+2,..., α n ), isto é, A é obtida transpondo-se as linhas α i e α i+1 da matriz A. Então, D(α 1,..., α i 1, α i + α i+1, α i + α i+1, α i+2,..., α n ) = D(α 1,..., α i 1, α i, α i, α i+2,..., α n ) +D(α 1,..., α i 1, α i, α i+1, α i+2,..., α n ) +D(α 1,..., α i 1, α i+1, α i, α i+2,..., α n ) = D(α 1,..., α i 1, α i+1, α i+1, α i+2,..., α n ). Por hipótese, D(α 1,..., α i 1, α i, α i, α i+2,..., α n ) = 0 D(α 1,..., α i 1, α i+1, α i+1, α i+2,..., α n ) = 0 D(α 1,..., α i 1, α i + α i+1, α i + α i+1, α i+2,..., α n ) = 0. Logo, D(α 1,..., α i 1, α i+1, α i, α i+2,..., α n ) = D(α 1,..., α i 1, α i, α i+1, α i+2,..., α n ), ou seja, D(A ) = D(A). Seja agora B a matriz obtida transpondo-se as linhas i e j da matriz A, sendo i < j. Podemos obter B a partir de A por uma sucessão de transposições de pares de linhas adjacentes. Primeiro transpomos as linhas i e i + 1 e continuamos até que as linhas estejam na ordem α 1,..., α i 1, α i+1,..., α j, α i, α j+1,..., α n. Para isso, foram necessárias k = j i transposições de linhas adjacentes. Agora, temos que deslocar α j para a i ésima posição, realizando j 1 i = k 1 transposições de linhas adjacentes. Dessa forma, obtemos B a partir de A por meio de k + k 1 = 2k 1 transposições de linhas adjacentes. Assim, D(B) = ( 1) 2k 1 D(A) = D(A). J. Delgado - K. Frensel 127 Instituto de Matemática - UFF

132 Determinantes Seja agora A uma matriz com duas linhas iguais, digamos α i = α j, com i < j. Se j = i + 1, D(A) = 0, pois A tem duas linhas adjacentes iguais. Se j > i + 1, a matriz B, obtida transpondo as linhas j e i + 1 da matriz A, tem duas linhas adjacentes iguais e, portanto, D(B) = 0. Mas, como, D(A) = D(B), temos que D(A) = 0. Definição 5.5 Se n > 1 e A é uma matriz n n com entradas no anel F, indicamos por A(i j) a matriz (n 1) (n 1) obtida de A, retirando-se a sua i ésima linha e a sua j ésima coluna. Se D é uma função (n 1) linear e A é uma matriz n n, escrevemos D ij = D( A(i j) ). Teorema 5.1 Seja n > 1 e seja D uma função (n 1) linear alternada sobre as matrizes (n 1) (n 1) com entradas no anel F. Para cada j, 1 j n, a função E j definida por E j (A) = ( 1) i+j A ij D ij (A) é uma função n linear alternada sobre as n n matrizes A. Se D é uma função determinante, então cada E j também o é. i=1 Prova. Como D é (n 1)-linear e D ij (A) independe da i ésima linha, temos que D ij é uma função linear de todas as linhas, exceto a i ésima. Mas, como a função A A ij é linear com respeito apenas à i ésima linha de A, temos que A ij D ij é uma função n linear de A. Logo, E j é n linear, pois uma combinação linear de funções n lineares é n linear. Para mostrar que E j é alternada, basta mostrar, pelo lema anterior, que E j (A) = 0 sempre que A tiver duas linhas adjacentes iguais. J. Delgado - K. Frensel 128 Instituto de Matemática - UFF

133 Determinantes Suponhamos que α k = α k+1. Se i k e i k + 1, a matriz A(i j) tem duas linhas iguais e, portanto, D ij (A) = 0. Logo, E j (A) = ( 1) k+j A kj D kj (A) + ( 1) k+1+j A (k+1)j D (k+1)j (A). Como α k = α k+1, temos que A kj = A (k+1)j e A(k j) = A(k + 1 j). Então, E j (A) = 0. Suponhamos, agora, que D seja uma função determinante, ou seja D(I n 1 ) = 1, onde estamos designando I n 1 a matriz identidade (n 1) (n 1). Se I n é a matriz identidade n n, temos que I n (j j) = I n 1, 1 j n, e I n ij = 0, se i j. Logo, E j (I n ) = D( I n (j j) ) = D(I n 1 ) = 1, ou seja, E j é uma função determinante. Corolário 5.1 Seja F um anel comutativo com elemento unidade e seja n um inteiro positivo. Então existe uma função determinante sobre F n n. Prova. Já provamos a existência da função determinante para n = 1 e n = 2. O corolário segue por indução, pois o teorema anterior nos diz como construir uma função determinante sobre matrizes n n, a partir de uma função determinante sobre matrizes (n 1) (n 1). O nosso objetivo agora é mostrar a unicidade da função determinante. Suponhamos que D seja uma função n linear alternada sobre as matrizes n n sobre F. Seja A uma matriz n n com entradas em F que tem por linhas α 1,..., α n, e sejam e 1,..., e n as linhas da matriz identidade n n. Como α i = A(i, j)e j, 1 i n, j=1 J. Delgado - K. Frensel 129 Instituto de Matemática - UFF

134 Determinantes temos que ( ) D(A) = D A(1, j)e j, α 2,..., α n = j=1 A(1, j)d(e j, α 2,..., α n ). j=1 Se, agora, substituirmos α 2 por A(2, k)e k, temos que k=1 D(e j, α 2,..., α n ) = A(2, k)d(e j, e k,..., α n ) k=1 Assim, D(A) = k,j A(1, j)a(2, k)d(e j, e k, α 3,..., α n ). Ou seja, se substituirmos cada linha α i por A(i, k)e k, i = 1,..., n, obteremos que D(A) = A(1, k 1 )A(2, k 2 )... A(n, k n )D(e k1, e k2,..., e kn ). k 1,...,k n=1 Como D é alternada, D(e k1, e k2,..., e kn ) = 0 sempre que dois dos índices k i são iguais. k=1 Definição 5.6 Uma seqüência (k 1,..., k n ) de inteiros positivos menores ou iguais a n, com a propriedade de não existirem dois k i iguais, é denominada uma permutação de grau n. Uma permutação de grau n pode ser definida como uma função bijetora σ do conjunto {1, 2,..., n} em si mesmo. Tal função σ corresponde à n upla (σ 1, σ 2,..., σ n ) e é simplesmente uma regra para ordenar 1, 2,..., n de outra maneira. Assim, D(A) = σ A(1, σ 1 )... A(n, σ n )D(e σ1,..., e σn ), onde a soma é estendida a todas as permutações σ distintas de grau n. J. Delgado - K. Frensel 130 Instituto de Matemática - UFF

135 Determinantes Como a seqüência (σ 1,..., σ n ) pode ser obtida da seqüência (1,..., n) após um número finito m, 0 m n, de transposições de pares de elementos, e D é alternada, temos que D(e σ1,..., e σn ) = ( 1) m D(e 1,..., e n ). Em particular, se D é uma função determinante, D(e σ1,..., e σm ) = ( 1) m, onde m depende somente de σ e não de D. Com isto, podemos provar um fato básico sobre permutações. Proposição 5.1 O número de transposições de pares de elementos usadas para passar da seqüência (1, 2,..., n) para a seqüência (σ 1,..., σ n ) é sempre par ou sempre ímpar. Prova. Seja D uma função determinante sobre as matrizes n n sobre F, cuja existência já foi provada. Seja σ uma permutação de grau n e suponhamos que passamos de (1, 2,..., n) a (σ 1,..., σ n ) por meio de m transposições de pares (i, j), i j. Então, D(e σ1,..., e σn ) = ( 1) m. Se D(e σ1,..., e σn ) = 1, m tem que ser par, e se D(e σ1,..., e σn ) = 1, m tem que ser ímpar. Definição 5.7 Se o número de transposições de pares usadas para passar da seqüência (1,..., n) à seqüência (σ 1,..., σ n ) é sempre par (ímpar) dizemos que a permutação é par (ímpar). Define-se, também, o sinal de uma permutação por 1, se σ é par sinal σ = 1, se σ é ímpar. Teorema 5.2 Seja F um anel comutativo com elemento unidade e seja n um inteiro positivo. Então existe exatamente uma função determinante sobre o conjunto J. Delgado - K. Frensel 131 Instituto de Matemática - UFF

136 Determinantes das matrizes n n com entradas em F, que designamos det e é dada por det(a) = σ (sinal σ)a(1, σ 1 )... A(n, σ n ), sendo a soma estendida a todas as permutações distintas σ de grau n. Se D é uma função n linear alternada arbitrária sobre F n n, então D(A) = det(a) D(I) para toda matriz A F n n. Prova. Já verificamos que se D é uma função n linear alternada sobre F n n, então D(A) = A(1, σ 1 )... A(n, σ n ) D(e σ1,..., e σn ), σ sendo a soma estendida a todas as permutações distintas σ de grau n. Logo, como D(e σ1,..., e σn ) = sinal σ, temos D(A) = σ (sinal σ)a(1, σ 1 )... A(n, σ n ) D(I), (I) Provamos, assim, que D(A) = σ (sinal σ)a(1, σ 1 )... A(n, σ n ) é a única função determinante sobre F n n, que denotaremos por det(a). Se D é uma função n linear alternada sobre F n n, então, por (I), D(A) = det(a) D(I). Observação 5.3 Existem exatamente n! = n permutações de grau n, pois se σ é uma tal permutação, existem n escolhas possíveis para σ 1 ; n 1 possibilidades para σ 2 ; n 2 possibilidades para σ 3, e assim por diante. A fórmula det(a) = σ (sinal σ)a(1, σ 1 )... A(n, σ n ) fornece det(a) como uma soma de n! termos, um para cada permutação J. Delgado - K. Frensel 132 Instituto de Matemática - UFF

137 Determinantes σ de grau n. Um termo genérico é um produto A(1, σ 1 )... A(n, σ n ) de n entradas da matriz A, uma entrada de cada linha e uma de cada coluna, acompanhado de um sinal + ou, conforme a permutação σ seja par ou ímpar. Teorema 5.3 Seja F um anel comutativo com elemento unidade e sejam A e B matrizes n n com entradas em F. Então, det(ab) = det(a) det(b). Prova. Definimos a função D(A) = det(ab). Indicando por α 1,..., α n as linhas de A, temos que D(α 1,..., α n ) = det(α 1 B,..., α n B). Como (cα i + α i )B = c(α ib) + (α i B) e a função det é n linear, concluímos que D é n linear. Se α i = α j, então α i B = α j B, e já que det é alternada, temos ou seja, D é alternada. D(α 1,..., α n ) = 0, Sendo D uma função n linear alternada, do teorema anterior segue que D(A) = det(a) D(I). Mas D(I) = det(ib) = det(b). Portanto, Como queríamos demonstrar. det(ab) = D(A) = det(a) det(b). Observação Como as permutações são funções bijetoras do conjunto {1,..., n} sobre si mesmo, podemos definir o produto das permutações σ e τ como sendo a função composta σ τ(i) = σ(τ(i)), i = 1,..., n. Se E indica a permutação idêntica (ou identidade), E(i) = i, então cada σ possui uma inversa σ 1 tal que σ σ 1 = σ 1 σ = E. Então, o conjunto das permutações de grau n, com o produto dado pela composição, é um grupo, denominado grupo simétrico de grau n. J. Delgado - K. Frensel 133 Instituto de Matemática - UFF

138 Propriedades dos Determinantes 2. Sejam σ e τ permutações de grau n, e sejam e 1,..., e n as linhas da matriz identidade n n. Seja A a matriz de linhas e τ1,..., e τn e seja B a matriz de linhas e σ1,..., e σn. A i ésima linha da matriz A tem exatamente um elemento não-nulo, a saber o 1 na coluna τ i. Assim, a i ésima linha da matriz AB é e τi B = e σ(τi ), pois e τi B é a τ i ésima linha da matriz B. Logo, AB = (e στ1,..., e στn ). Como det(a) = sinal τ, det(b) = sinal σ e det(ab) = sinal (στ), temos, pelo teorema anterior, que sinal (σ τ) = (sinal τ) (sinal σ). Então, σ τ é uma permutação par se σ e τ são ambas pares ou ambas ímpares, enquanto σ τ é ímpar se uma das permutações é par e a outra é ímpar. 6. Propriedades dos Determinantes (1) det(a t ) = det(a) De fato, sendo det(a t ) = σ (sinal σ)a t (1, σ 1 )... A t (n, σ n ) = σ (sinal σ)a(σ 1, 1)... A(σ n, n), e A(σ i, i) = A(j, σ 1 j), para σ(i) = σ i = j, temos det(a t ) = σ (sinal σ)a(1, σ 1 (1))... A(n, σ 1 (n)). Além disso, como σ σ 1 é a permutação idêntica, temos que (sinal σ)(sinal σ 1 ) = 1, ou seja, sinal σ 1 = sinal σ. Logo, det(a t ) = σ (sinal σ 1 )A(1, σ 1 (1))... A(n, σ 1 (n)) = det(a), J. Delgado - K. Frensel 134 Instituto de Matemática - UFF

139 Propriedades dos Determinantes pois quando σ percorre todas as permutações de grau n, σ 1 também o faz. Como consequência da igualdade det(a t ) = det(a), temos que a função det(a) é, também, uma função n linear alternada das colunas da matriz A. (2) Se a matriz B é obtida da matriz A somando-se um múltiplo de uma linha (coluna) a outra linha (coluna), então det(b) = det(a). De fato, sejam α 1,..., α n as linhas de A e seja B a matriz obtida de A somando-se cα j a α i, onde i < j. Como det é uma função linear da i ésima linha, temos det(b) = det(a) + c det(α 1,..., α i 1, α j, α i+1,..., α j,..., α n ) = det(a). (3) Seja ( ) A B O C uma matriz n n na forma de blocos, onde A é uma matriz r r, C é uma matriz s s (com r + s = n), B é uma matriz r s e O indica a matriz nula s r. Então ( ) A B det = det(a) det(c) O C De fato, definamos a função D(A, B, C) = det ( A O ) B. C Se fixarmos A e B, então D é alternada e s linear como uma função das linhas de C. Assim, pelo teorema 5.2, D(A, B, C) = det(c) D(A, B, I), onde I é a matriz identidade s s. Subtraindo das linhas de B múltiplos das linhas de I, obtemos, pela propriedade anterior, que D(A, B, I) = D(A, O, I). Como D(A, O, I) é alternada e r linear como uma função das linhas de A, temos, pelo teorema 5.2, que D(A, O, I) = det(a) D(I, O, I). ( ) I r O Mas D(I, O, I) = det O I s = det(i n ) = 1. J. Delgado - K. Frensel 135 Instituto de Matemática - UFF

140 Propriedades dos Determinantes Logo, D(A, B, C) = det(c) D(A, B, I) = det(c) D(A, O, I) = det(c) det(a) D(I, O, I) = det(a) det(c). Por um raciocínio análogo, ou tomando transpostas, verificamos que ( ) A O det = det(a) det(c). B C Exemplo 6.1 Seja A Q 4 4 a matriz A = Subtraindo das linhas 2, 3 e 4 múltiplos convenientes da primeira linha, obtemos a matriz , que tem, pela propriedade (2), o mesmo determinante que a matriz A. Subtraindo da linha 3, 5 4 da linha 2 e subtraindo da linha 4, 3 4 da linha 2, obtemos a matriz B = , cujo determinante é igual ao da matriz A. Como B é uma matriz em forma de blocos, temos que det(a) = det(b) = det ( ) ( ) det = 4 32 = No teorema 5.1, provamos que se n > 1 e se D é uma função determinante sobre as matrizes (n 1) (n 1), então J. Delgado - K. Frensel 136 Instituto de Matemática - UFF

141 Propriedades dos Determinantes E j (A) = ( 1) i+j A ij D ij (A) i=1 é uma função determinante sobre as matrizes n n, para todo j = 1,..., n. Pela unicidade da função determinante, temos, para cada j = 1,..., n, det(a) = ( 1) i+j A ij det( A(i j) ). i=1 O escalar C ij = ( 1) i+j det( A(i j) ) é chamado o cofator i, j da matriz A. A fórmula acima para det(a) é denominada o desenvolvimento de det(a) pelos cofatores da j ésima coluna, ou o desenvolvimento pelos menores da j ésima coluna. Assim, a fórmula acima nos diz que, para cada j = 1,..., n, det(a) = A ij C ij, (I) i=1 onde o cofator C ij é ( 1) i+j vezes o determinante da matriz (n 1) (n 1) obtida de A retirando-se a i ésima linha e a j ésima coluna de A. Se j k, então, A ik C ij = 0. (II) i=1 De fato, seja B a matriz obtida de A substituindo a sua j ésima coluna pela k ésima coluna. Como B tem duas colunas iguais e B(i j) = A(i j), temos que 0 = det(b) = = = ( 1) i+j B ij det( B(i j) ) i=1 ( 1) i+j A ik det( A(i j) ) i=1 A ik C ij. i=1 Então, por (I) e (II), temos que A ik C ij = δ jk det(a). i=1 (III) J. Delgado - K. Frensel 137 Instituto de Matemática - UFF

142 Propriedades dos Determinantes A matriz transposta da matriz de cofatores de A é chamada a matriz adjunta de A e se designa por Adj A, ou seja, (Adj A) ij = C ji = ( 1) i+j det( A(j i) ). Por (III), temos que (Adj A) ji A ik = δ jk det(a), i=1 ou seja, (Adj A) A = det(a) I. (IV) Vamos provar, agora, que A (Adj A) = det(a) I. Como A t (i j) = A(j i) t, temos ( 1) i+j det( A t (i j) ) = ( 1) i+j det( A(j i) ), isto é, o cofator i, j da matriz A t é o cofator j, i da matriz A. Logo, Adj (A t ) = (Adj A) t. Assim, por (IV), temos que Adj (A t ) A t = det(a t ) I = det(a) I, e transpondo, ou seja, A (Adj (A t )) t = det(a) I, A (Adj A) = det(a) I, pois (Adj (A t )) t = Adj A. Resumindo, temos A (Adj A) = (Adj A) A = det(a) I Da mesma forma que para matrizes sobre um corpo, definimos as matrizes invertíveis com entradas num anel comutativo com elemento unidade. Definição 6.1 Seja F um anel comutativo com elemento unidade, uma matriz A F n n é dita invertível sobre F se existe uma matriz B F n n, dita inversa de A, tal que A B = B A = I. J. Delgado - K. Frensel 138 Instituto de Matemática - UFF

143 Propriedades dos Determinantes Observação 6.1 Se a matriz A F n n possui uma matriz inversa, então ela é única e se designa A 1. De fato, se B A = A C = I, então C = I C = (B A) C = B (A C) = B I = B. Como A (Adj A) = (Adj A) A = det(a) I, temos que se det(a) é invertível em F, então A é uma matriz invertível sobre F e A 1 = (det(a)) 1 Adj A. Reciprocamente, se A é invertível sobre F, det(a) é um elemento invertível do anel F, pois se B A = I, temos: 1 = det(i) = det(b) det(a). Teorema 6.1 Seja F um anel comutativo com elemento unidade e seja A F n n. Então A é invertível sobre F se, e somente se, det(a) F é um elemento invertível. Nesse caso, temos A 1 = (det(a)) 1 Adj A Em particular, uma matriz n n com entradas num corpo é invertível se, e somente se, seu determinante é diferente de zero. Exemplo 6.2 Seja F o anel dos inteiros e seja A = Então, det(a) = 2 e Adj A = ( ) ( ) Assim, como det(a) ±1, A não é invertível sobre o anel dos inteiros, mas é invertível como uma matriz sobre o corpo dos números racionais, sendo, nesse caso, A 1 = 1 2 Adj A = 1 2 ( ) 4 2 = 3 1 ( 2 1 3/2 1/2 ). J. Delgado - K. Frensel 139 Instituto de Matemática - UFF

144 Propriedades dos Determinantes Observação 6.2 Se F é um anel comutativo com elemento unidade e A F n n possui uma inversa à esquerda ou à direita, então é invertível. De fato, suponhamos que A possui uma inversa B à direita. Como AB = I, temos que det(a) det(b) = 1, ou seja, det(a) possui um elemento inverso em F. Logo, pelo teorema acima, A é invertível e B = A 1 = (det(a)) 1 Adj A. Observação 6.3 Se K é um corpo, os únicos elementos do anel de polinômios K[x] que são invertíveis são os polinômios constantes não-nulos. De fato, se f, g K[x] e fg = 1, temos que grau(f) + grau(g) = 0. Assim, grau(f) = grau(g) = 0, ou seja f e g são polinômios constantes não-nulos. Portanto, uma matriz n n com entradas em K[x] é invertível sobre K[x] se, e somente se, seu determinante é um polinômio constante não-nulo. Exemplo 6.3 Consideremos as matrizes A, B (R[x]) 2 2 dadas por: ( ) ( ) x 2 + x x + 1 x 2 x x + 2 A = e B =. x 1 1 x 2 2x 3 x Então, det(a) = (x 2 + x) 1 (x + 1) (x 1) = x + 1, det(b) = (x 2 x) x (x + 2)(x 2 2x 3) = 6. Assim, A não é invertível sobre R[x] e B é invertível sobre R[x]. Mais ainda, como ( ) 1 x 1 Adj A = x + 1 x 2 + x ( ) x x 2 e Adj B =, x 2 + 2x 3 x 2 1 temos que (Adj A)A = (x + 1)I e (Adj B)B = 6I, ou seja, ( ) B 1 = 1 x x 2. 6 x 2 + 2x 3 x 2 1 J. Delgado - K. Frensel 140 Instituto de Matemática - UFF

145 Propriedades dos Determinantes Observação 6.4 Matrizes semelhantes tem o mesmo determinante. Isto é, se P é invertível e B = P 1 AP, então detb = det(p 1 AP) = det(p 1 ) det(a) det(p) = det(a), pois, como P 1 P = I, det(p) det(p 1 ) = det(i) = 1. Definição 6.2 Seja T um operador linear sobre um espaço vetorial V de dimensão finita. Definimos o determinante de T como sendo o determinante de [T] B, onde B é uma base ordenada de V. O determinante de T está bem definido, pois se B é outra base ordenada de V, então [T] B e [T] B são semelhantes, e possuem, portanto, o mesmo determinante. Observação 6.5 Seja K um corpo e seja A K n n. Consideremos o sistema de equações lineares AX = Y para uma n upla Y = (y 1,..., y n ) dada. Regr de si Então, ou seja, (Adj A)AX = (Adj A)Y, det(a) X = (Adj A)Y. Assim, se X = (x 1,..., x n ), temos det(a) x j = (Adj A) ji y i = ( 1) i+j y i det( A(i j) ) = det(b j ), i=1 i=1 onde B j é a matriz n n obtida substituindo a j ésima coluna de A por Y. Se det(a) 0, temos que o sistema AX = Y possui uma única solução para X, dada por: x j = det(b j) det(a), j = 1,..., n Ou ainda X = 1 det(a) (det(b 1),..., det(b n )) J. Delgado - K. Frensel 138 Instituto de Matemática - UFF

146 Formas Canônicas - Preliminares 1. Formas Canônicas Elementares Definição 1.1 Seja V um espaço vetorial sobre o corpo K e seja T um operador linear sobre V. Um autovalor de T é um escalar λ K tal que existe um vetor v V não-nulo tal que T(v) = λv. As terminologias valor característico, valor próprio raiz característica e autovalor são equivalentes. Se λ é um autovalor de T, então todo vetor w V tal que T(w) = λw é chamado um autovetor de T associado ao autovalor λ. a coleção de todos os autovetores associados a um autovalor λ de T é denominado o autoespaço de T associado a λ. As terminologias vetor característico, vetor próprio e autovetor são equivalentes. Também, as terminologias espaço característico e autoespaço são equivalentes. O autoespaço de T associado a um autovalor λ é de fato um subespaço de V, pois {v V Tv = λv} = {v V (T λ I)v = 0} = núcleo (T λi). Assim, λ K é um autovalor de T se, e somente se, T λi não é injetora, ou seja, o subespaço {v V (T λ I)v = 0} não é o subespaço nulo. Lema 1.1 Seja L um operador linear sobre um espaço vetorial V de dimensão finita. Então, L é invertível se, e somente se, det(l) 0. Prova. 139

147 Formas Canônicas Elementares Seja B uma base ordenada do espaço vetorial V. Como L é invertível se, e somente se, [L] B é invertível, temos que L é invertível se, e somente se, det([l] B ) 0, ou seja, se, e só se, det(l) 0. Teorema 1.1 Seja T um operador linear sobre um espaço vetorial V de dimensão finita e seja λ um escalar. Então, as seguintes afirmações são equivalentes. (a) λ é um autovalor de T. (b) T λi não é invertível. (c) det(t λi) = 0. Prova. Basta observar que sendo T λi um operador sobre um espaço vetorial de dimensão finita, temos que T λi não é injetiva se, e só se, T λi não é invertível. Definição 1.2 Seja K um corpo e seja A K n n. Um autovalor de A em K é um escalar λ K tal que a matriz A λi não é invertível. Então, λ é um autovalor de A se, e só se, det(a λi) = det(λi A) = 0. Definição 1.3 O polinômio p c (x) = det(xi A), onde xi A é uma matriz com entradas em K[x], é denominado o polinômio característico da matriz A. Observação 1.1 Os autovalores de A em K são as raízes do polinômio característico da matriz A. Observação 1.2 O polinômio característico p c de uma matriz n n é um polinômio unitário de grau n. De fato, pela fórmula do determinante de uma matriz em função de suas entradas J. Delgado - K. Frensel 140 Instituto de Matemática - UFF

148 Formas Canônicas Elementares det(b) = σ (sinal σ)b(1, σ 1 )... B(n, σ n ), temos que det(xi A) = (x A 11 )... (x A nn ) + σ id(sinal σ)q σ (x), onde q σ (x) são polinômios de grau n 1. Lema 1.2 Matrizes semelhantes têm o mesmo polinômio característico. Prova. Se B = P 1 AP, então det(xi B) = det(xi P 1 AP) = det(p 1 (xi A)P) = det(p 1 ) det(xi A) det(p) = det(xi A), pois det(p 1 ) det(p) = det(p 1 P) = det(i) = 1. Definição 1.4 Seja T um operador linear sobre um espaço vetorial V de dimensão finita e seja B um a base ordenada de V. O polinômio característico do operador T é, por definição, o polinômio característico da matriz [T] B. Observe que, em virtude do lema, o polinômio característico de um operador depende apenas do operador e não da matriz representante de T utilizada para determiná-lo. Isto é, qualquer que seja a base B, o polinômio característico de T é det(xi [T] B ). Observação 1.3 Os autovalores do operador T são as raízes do polinômio característico de T. De fato, λ é autovalor de T se, e só se, T λi não é invertível. Ou seja, se, e só se, [T λi] B = [T] B λi não é invertível. Logo, λ é autovalor de T se, e somente se, p C (λ) = det(λi [T] B ) = 0. Observação 1.4 Como o polinômio característico tem grau n, T possui no máximo n autovalores diferentes. Mas, T pode não ter nenhum autovalor. J. Delgado - K. Frensel 141 Instituto de Matemática - UFF

149 Formas Canônicas Elementares Exemplo 1.1 Seja T o operador linear sobre R 2 que é representado, em relação à base canônica, pela matriz ( ) 0 1 A =. 1 0 O polinômio característico de T (ou de A) é ( ) x 1 p C (x) = det(xi A) = det = x x Como esse polinômio não possui raízes reais, T não possui autovalores. Mas se U é o operador linear sobre C 2 que é representado pela matriz A em relação à base canônica, então U possui dois autovalores: i e i. Assim, ao discutirmos os autovalores de uma matriz A, precisamos tomar o cuidado de estipular o corpo envolvido. Exemplo 1.2 Seja A a matriz 3 3 real A = O polinômio característico de A é x det(xi A) = det 2 x 2 1 = x 3 5x 2 + 8x 4 = (x 1)(x 2) x Logo, 1 e 2 são os autovalores de A. Seja T o operador linear sobre R 3 representado por A em relação à base canônica. Determinemos os autovetores de T associados aos autovalores 1 e 2. Como A 1 I = A I = 2 1 1, tem posto dois, temos que o núcleo de T I tem dimensão 1, ou seja, o J. Delgado - K. Frensel 142 Instituto de Matemática - UFF

150 Formas Canônicas Elementares espaço dos autovetores associados ao autovalor 1 tem dimensão 1. Sendo (T I)(1, 0, 2) = (0, 0, 0), temos que v 1 = (1, 0, 2) gera o núcleo de T I. Logo, {v R 3 Tv = v} = {k v 1 k R}. Consideremos agora a matriz A 2I = Como o posto de A 2I tem dimensão dois, o espaço dos autovetores de T associados ao autovalor 2 tem dimensão 1. Sendo (T 2I)(1, 1, 2) = (0, 0, 0), temos que {v Tv = 2v} = {kv 2 k R}, onde v 2 = (1, 1, 2). Definição 1.5 Seja T um operador linear sobre o espaço V de dimensão finita. Dizemos que T é diagonalizável se existe uma base de V formada por autovetores de T. Ou seja, T é diagonalizável se seus autovetores geram o espaço V. Se B = {α 1,..., α n } é uma base de autovetores de V e T(α i ) = c i α i, i = 1,... n, então c c [T] B = , 0 0 c n é uma matriz diagonal. Exemplo 1.3 O operador linear T sobre R 2 do exemplo 1.1 não é diagonalizável, pois T não possui autovalores em R. Exemplo 1.4 O operador linear T sobre R 3 do exemplo 1.2 apesar de possuir dois au- J. Delgado - K. Frensel 143 Instituto de Matemática - UFF

151 Formas Canônicas Elementares tovalores 1 e 2 no corpo R, não é diagonalizável, pois os espaços dos autovetores associados a esses autovalores têm dimensão 1. Portanto, não há possibilidade de formar uma base de R 3 constituída de autovetores de T. Suponhamos que o operador T : V V seja diagonalizável e que c 1,..., c k são os autovalores distintos de T. Seja B uma base ordenada de V formada por autovetores de T. Então [T] B é uma matriz diagonal, cujos elementos da diagonal são os escalares c i, cada um repetido um determinado número de vezes. Se c i está repetido d i vezes, podemos, reordenando a base B, caso necessário, fazer com que a matriz do operador tenha a forma em blocos: c 1 I 1 O O O c [T] B = 2 I 2 O......, O O c k I k onde I j é a matriz unidade d j d j. Nesse caso, o polinômio característico de T é o produto de fatores lineares: p c (x) = (x c 1 ) d 1... (x ck ) d k. Portanto, se o corpo K não for algebricamente fechado, estaremos observando uma propriedade especial de T, ao dizermos que seu polinômio característico tem uma tal fatoração. Também podemos observar que a multiplicidade d i do autovalor c i como raiz do polinômio característico é igual à dimensão do espaço de autovetores associado ao autovalor c i. De fato, como [T c i I] B é uma matriz diagonal com d i zeros na diagonal, temos que a dimensão do núcleo de T c i I é igual a d i. A relação entre a dimensão do autoespaço e a multiplicidade do autovalor como uma raiz do polinômio característico nos fornecerá uma maneira simples de verificar se um operador dado é ou não diagonalizável. Lema 1.3 Suponhamos que Tα = cα. Se f é um polinômio arbitrário, então f(t)(α) = f(c)α. J. Delgado - K. Frensel 144 Instituto de Matemática - UFF

152 Formas Canônicas Elementares Prova. Seja f = a n x n a 1 x + a 0. Então, f(t)(α) = (a n T n a 1 T + a 0 I)(α) = a n T n (α) a 1 T(α) + a 0 I(α) = a n c n α a 1 cα + a 0 α = (a n c n a 1 c + a 0 )α = f(c) α. Lema 1.4 Seja T um operador linear sobre um espaço vetorial V de dimensão finita. Sejam c 1,..., c k os autovalores distintos de T e seja W i, i = 1,..., k, o espaço dos autovetores associado ao autovalor c i. Se W = W W k e B i é uma base ordenada de W i, então B = B 1... B k é uma base ordenada de W. Em particular, dim W = dim W dim W k. Prova. Seja v v k = 0, onde v i W i, i = 1,..., k, e seja f um polinômio arbitrário. Como T(v i ) = c i v i, temos, pelo lema anterior, que 0 = f(t)(0) = f(t)v f(t)v k = f(c 1 )v f(c k )v k. Sejam f 1,..., f k polinômios tais que 1, i = j ; f i (c j ) = δ ij = 0, i j. Então, 0 = f i (T)(0) = k f i (c j )v j = j=1 k δ ij v j = v i. j=1 Como W = W W k é o espaço gerado por todos os autovetores de T, temos que B = B 1... B k gera W, onde B i é uma base de W i, i = 1,..., k. Seja B i = {v i 1,..., vi n i }, i = i,..., k, e seja a 1 1 v a1 n 1 v 1 n 1 + a 2 1 v a2 n 2 v 2 n a k 1 vk ak n k v k n k = 0, uma combinação linear nula dos vetores de B. J. Delgado - K. Frensel 145 Instituto de Matemática - UFF

153 Formas Canônicas Elementares Fazendo v i = a i 1 vi ai n i v i n i W i, temos que v v k = 0. Pelo provado acima, v i = 0 para cada i = 1,..., k. Logo, a i 1 vi ai n i v i n i = 0 para todo i = 1,..., k. Como {v i 1,..., vi n i } = B i é um conjunto LI, temos que a i 1 =... = ai n i = 0 para todo i = 1,..., k. Provando, assim, que B é um conjunto LI de vetores de V. Como B é LI e gera W, temos que B = B 1... B k é uma base de W e, portanto, dim W = dim W dim W k. Teorema 1.2 Seja T um operador linear sobre um espaço vetorial V de dimensão finita. Sejam c 1,..., c k os autovalores distintos de T e seja W i o núcleo de T c i I. As seguintes afirmações são equivalentes: (a) T é diagonalizável. (b) O polinômio característico de T é p c = (x c 1 ) d 1... (x ck ) d k, onde d k = dim W k. (c) dim V = dim W dim W k. Prova. Já provamos (a)= (b). (b)= (c) Suponhamos que p C = (x c 1 ) d 1... (x ck ) d k. Então, grau(p C ) = dim V = d d k = dim W dim W k. Pelo lema anterior, dim(w W k ) = dim V. Logo, V = W W k. (c)= (a) Suponhamos, agora, que dim V = dim W dim W k. Como dim W = dim W dim W k, onde W = W W k, temos que dim W = dim V. Então, V = W, ou seja, os autovetores de T geram V. O análogo do teorema acima para matrizes pode ser formulado da seguinte maneira: J. Delgado - K. Frensel 146 Instituto de Matemática - UFF

154 Formas Canônicas Elementares Teorema 1.3 Seja A uma matriz n n com entradas no corpo K e sejam c 1,..., c k os autovalores distintos de A em K. Para cada i, seja W i o espaço dos vetores colunas em K n 1 tais que (A c i I)X = 0, e seja B i uma base ordenada de W i. Os vetores das bases B 1,..., B k podem ser reunidos para formar as colunas P 1,..., P l de uma matriz P. Então, a matriz A é semelhante sobre K a uma matriz diagonal se, e só se, l = n, ou seja, se, e só se, P é uma matriz quadrada. Nesse caso, P é invertível e P 1 AP é diagonal. Exemplo 1.5 Seja T o operador linear sobre R 3 representado em relação à base canônica pela matriz A = Vamos calcular o polinômio característico de A por meio de operações elementares sobre linhas e colunas da matriz xi A (R[x]) 3 3 : x x det(xi A) = det 1 x 4 2 = det 1 x x x + 2 x + 4 x x = (x 2) det = (x 2) det x x + 2 = (x 2) det ( x x + 2 = (x 2)(x 2 3x + 2) = (x 2) 2 (x 1). ) = (x 2) ((x 5)(x + 2) + 12). Então, 1 e 2 são os autovalores de T, e A I = e A 2I = J. Delgado - K. Frensel 147 Instituto de Matemática - UFF

155 Formas Canônicas Elementares Como A I não é invertível e posto (A I) 2, pois (4, 6, 6) e ( 1, 3, 2) são LI, temos que posto (A I) = 2. Além disso, é claro que posto (A 2I) = 1. Sejam W 1 e W 2 os espaços dos autovetores associados aos autovalores 1 e 2, respectivamente. Como dim W 1 = 3 2 = 1 e dim W 2 = 3 1 = 2, temos, pelo teorema anterior, que T é diagonalizável, pois dim W 1 + dim W 2 = = dim R 3. É fácil ver que o núcleo de T I é gerado pelo vetor α 1 = (3, 1, 3), e assim, {α 1 } é uma base de W 1. O núcleo de T 2I, isto é, o espaço W 2, é formado pelos vetores (x 1, x 2, x 3 ) tais que x 1 = 2x 2 + 2x 3. Logo, por exemplo, os vetores α 2 = (2, 1, 0), e α 3 = (2, 0, 1), formam uma base de W 2. Então, B = {α 1, α 2, α 3 } é uma base de R 3 e [T] B é a matriz diagonal D = Assim, D = P 1 AP, onde P = , é a matriz de mudança de base da base B para a base canônica. J. Delgado - K. Frensel 148 Instituto de Matemática - UFF

156 Polinômios Anuladores 2. Polinômios Anuladores Seja V um espaço vetorial sobre o corpo K e seja T : V V um operador sobre V. Então, o conjunto I = {p K[x] p(t) = O}, é um ideal da álgebra K[x] dos polinômios com coeficientes em K. De fato, sejam p, q K[x] e seja λ K. Como (λp + q)(t) = λp(t) + q(t), e (p q)(t) = p(t) q(t), temos que λp + q I se p, q I e p q I se p I. O ideal I pode ser o ideal nulo, isto é, o ideal formado apenas pelo polinômio nulo. Mas veremos agora que isto não ocorre quando o espaço vetorial V é de dimensão finita. De fato, se dim V = n, temos que dim L(V, V) = n 2. Logo, os n operadores I, T,..., T n2, são LD. Isto é, existem escalares c 0, c 1,..., c n 2 em K não todos nulos tais que c 0 I + c 1 T c n 2T n2 = O. Então, o polinômio p = c 0 + c 1 x c n 2x n2 é um polinômio não-nulo de grau n 2 que pertence ao ideal I. Como I é um ideal não-nulo, existe um único polinômio unitário p K[x] tal que I = p K[x]. Ou seja, se f K[x], temos: f(t) = O se, e somente se, existe q K[x] tal que f = p q. Definição 2.1 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja T : V V um operador linear. O polinômio minimal de T, designado p m, é o único gerador unitário do ideal dos polinômios com coeficientes em K que anulam T. J. Delgado - K. Frensel 149 Instituto de Matemática - UFF

157 Polinômios Anuladores Observação 2.1 Nenhum polinômio sobre K que anule T tem grau menor que o de p m. Definição 2.2 Se A é uma matriz n n com entradas no corpo K, definimos o polinômio minimal de A como sendo o único gerador unitário do ideal formado pelos polinômios de K[x] que anulam A. Observação 2.2 Se o operador T é representado, em relação a alguma base ordenada B de V, pela matriz A = [T] B, então T e A têm o mesmo polinômio minimal. De fato, se f K[x], temos que f(t) = O [f(t)] B = 0 f([t] B ) = O f(a) = O. Observação 2.3 Seja F um subcorpo do corpo K e suponhamos que A seja uma matriz n n com entradas no corpo F. Então, o polinômio minimal de A, quando considerada como uma matriz de F n n, é igual ao polinômio minimal de A, quando considerada como uma matriz de K n n. Seja p m F[x] o polinômio minimal de A, considerada como uma matriz de F n n. Como p m K[x] e p m (A) = O, temos que o polinômio minimal p m K[x] de A considerada como uma matriz de K n n, tem grau grau(p m ). Seja p m = x k + a k 1 x k a 1 x + a 0. Então, A k + a k 1 A k a 1 A + a 0 I = O. Ou seja, o vetor (a k 1,..., a 0 ) K k é solução de um sistema de n 2 equações lineares de k incógnitas da forma BX = Y, onde B F n2 k e Y F n2 1. Então, pelo que foi provado anteriormente, o sistema BX = Y possui uma solução (b k 1,..., b 0 ) F k. Ou seja, o polinômio q = x k + b k 1 x k b 1 x + b 0 F[x] anula a matriz A. Logo, grau(q) = grau(p m ) grau(p m ). Então, grau(p m ) = grau(p m ). J. Delgado - K. Frensel 150 Instituto de Matemática - UFF

158 Polinômios Anuladores Além disso, como p m K[x] é o gerador unitário do ideal de K[x] dos polinômios que anulam A, p m K[x], p m (A) = O e p m é unitário, temos que p m = p m. Teorema 2.1 Seja T um operador linear sobre um espaço vetorial V de dimensão n (ou, seja A uma matriz n n). Os polinômios característico e minimal de T (respectivamente, de A) possuem as mesmas raízes, a menos de multiplicidade. Prova. Seja p m o polinômio minimal de T e seja c K tal que p m (c) = 0. Então, existe q K[x] tal que p m = (x c)q. Como grau(q) < grau(p m ), temos, pela definição de polinômio minimal, que q(t) O. Existe, portanto, v V tal que q(t)(v) 0. Seja w = q(t)(v). Então, 0 = p m (T)(v) = (T ci)q(t)(v) = (T ci)(w). Ou seja, c é autovalor de T. Suponhamos, agora, que c é um autovalor de T e que T(v) = cv, v V {0}. Então, pelo lema 1.3, p m (T)(v) = p m (c)v. Como p m (T) = O e v 0, temos que p m (c) = 0. Observação 2.4 Seja T um operador linear diagonalizável e sejam c 1,..., c k os autovalores distintos de T. Então p = (x c 1 )... (x c k ) é o polinômio minimal de T. De fato, se v é um autovetor de T, então, algum dos operadores T c 1 I,..., T c k I leva v em 0. Portanto, p(t) = (T c 1 I)... (T c k I)(v) = 0, para todo autovetor v. Como V possui uma base formada por autovetores, temos que p(t) = O. J. Delgado - K. Frensel 151 Instituto de Matemática - UFF

159 Polinômios Anuladores Além disso, pelo teorema anterior, c 1,..., c k são as raízes do polinômio minimal. Logo, p = (x c 1 )... (x c k ) é o polinômio minimal do operador diagonalizável T. Provamos, assim, que se T é um operador linear diagonalizável, o polinômio minimal de T é um produto de fatores lineares distintos. Como veremos mais tarde, essa propriedade caracteriza os operadores diagonalizáveis. Exemplo 2.1 Seja T o operador linear sobre R 3 representado em relação à base canônica, pela matriz A = No exemplo 1.5 vimos que o operador T é diagonalizável e que o seu polinômio característico é (x 2) 2 (x 1). Logo, pela observação anterior, p m = (x 2)(x 1) é o polinômio minimal de T. Exemplo 2.2 Seja T o operador linear sobre R 3 representado, em relação à base canônica, pela matriz A = Vimos, no exemplo 1.2, que o operador T não é diagonalizável e que (x 1)(x 2) 2 é o seu polinômio característico. Sabemos, pelo teorema anterior, que 1 e 2 são as raízes do polinômio minimal p m de T. Então, p = (x 1) k (x 2) l, para alguns k 1 e l 1. Como (A I)(A 2I) = = (I) não é a matriz nula, temos que (x 1)(x 2) não é o polinômio minimal de T. Assim, obtemos que o grau do polinômio minimal de T é, pelo menos, três J. Delgado - K. Frensel 152 Instituto de Matemática - UFF

160 Polinômios Anuladores e, então, os possíveis candidatos a serem o polinômio minimal de T são (x 1) 2 (x 2) e (x 1)(x 2) 2. Por (I), temos (A I)(A 2I) 2 = = Logo, o polinômio minimal de T é o seu polinômio característico. Exemplo 2.3 Seja T o operador linear sobre R 2 representado, em relação à base canônica, pela matriz A = ( ) Como vimos no exemplo 1.1, o polinômio característico de T é x 2 + 1, que não possui raízes reais. Considerando A como uma matriz 2 2 complexa, temos que (x+i)(x i) é o seu polinômio característico, com raízes i e i. Logo, i e i são, também, raízes do polinômio minimal de A, considerada tanto como uma matriz real quanto como uma matriz complexa. Sendo A 2 + I = ( ) ( ) ( ) ( ) = ( ) 1 0 = 0 1 ( ) 0 0, 0 0 temos que x é o polinômio minimal de A, considerada como uma matriz real. Portanto, x é o polinômio minimal do operador T. Teorema 2.2 Seja V um espaço vetorial de dimensão finita n sobre o corpo K e seja T um operador linear sobre V. Teorema de Cayley-Hamilton Se p c K[x] é o polinômio característico de T, então p c (T) = O. Em outras palavras, o polinômio minimal divide o polinômio característico de T. Prova. J. Delgado - K. Frensel 153 Instituto de Matemática - UFF

161 Polinômios Anuladores Seja L = {q(t) q K[x]}. Pelo visto nas seções anteriores, L é uma álgebra linear comutativa com elemento unidade sobre o corpo K. Em particular, L é um anel comutativo com elemento unidade. Seja B = {v 1,..., v n } uma base de V e seja A a matriz que representa T em relação à base B. Então, T(v i ) = A ji v j, 1 i n. Essas equações podem ser escritas como (δ ij T A ji I) v j = 0, 1 i n. j=1 j=1 Seja B a matriz n n sobre L com entradas B ij = δ ij T A ji I. Quando n = 2, temos B = ( T A 11 I A 12 I ) A 21 I, T A 22 I e onde det(b) = (T A 11 I)(T A 22 I) A 12 A 21 I = T 2 (A 11 + A 22 )T + (A 11 A 22 A 12 A 21 )I = p c (T), p c = x 2 (Tr A)x + det(a) é o polinômio característico de T. Para n > 2, temos também que det(b) = p c (T), pois o polinômio característico de T, p c, é o determinante da matriz xi A, cujas entradas são os polinômios (xi A) ij = δ ij x A ij. Como det(xi A) = det ((xi A) t ), temos, também, que p c é o determinante da matriz xi A t, cujas entradas são os polinômios (xi A t ) ij = δ ij x A ji. J. Delgado - K. Frensel 154 Instituto de Matemática - UFF

162 Polinômios Anuladores Pela definição de B, temos que B ij v j = 0, 1 i n. (I) j=1 Seja B = Adj B. Então, por (I), temos que B ki B ij v j = 0, 1 i, k n. j=1 Somando em relação a i, temos B ki B ij v j = 0 = i=1 j=1 ( ) B ki B ij v j = 0. (II) j=1 i=1 Como BB = det(b) I, temos que B ki B ij = δ kj det(b). i=1 Logo, por (II), temos δ kj det(b)v j = 0 = det(b)v k = 0, 1 k n. j=1 Assim, provamos que p c (T) = det(b) = 0, ou seja, que o polinômio característico de T anula T. Observação 2.5 Como o polinômio minimal p m divide o polinômio característico p c e os dois polinômios possuem as mesmas raízes, temos que, se p c se fatora como p c = (x c 1 ) d 1... (x ck ) d k, onde c 1,..., c k são as raízes distintas e d j 1 para todo j, então p m = (x c 1 ) r 1... (x ck ) r k, com 1 r j d j, para todo j = 1,..., k. J. Delgado - K. Frensel 155 Instituto de Matemática - UFF

163 Subespaços Invariantes 3. Subespaços Invariantes Definição 3.1 Seja V um espaço vetorial sobre o corpo K e T um operador linear sobre V. Dizemos que um subespaço W de V é invariante por T, se para todo vetor v W, o vetor T(v) pertence, também, a W. Ou seja, W é um subespaço invariante por T se T(W) W. Exemplo 3.1 Seja T : V V um operador linear. Então, os seguintes subespaços de V são invariantes por T: W = V; W = {0}; W = T(V) = Im(T) (a imagem de T); W = T 1 (0) = Ker(T) (o núcleo de T). Exemplo 3.2 Seja K um corpo e seja D o operador derivação sobre o espaço K[x] dos polinômios com coeficientes em K. Seja n um inteiro positivo e seja W o subespaço de K[x] formado pelos polinômios de grau n. Então W é invariante por D. Exemplo 3.3 Sejam T, U : V V operadores lineares sobre V que comutam, isto é T U = U T. Então, W = U(V), a imagem de U, e N = U 1 (0), o núcleo de U, são subespaços invariantes por T. De fato, se v W, existe w V tal que U(w) = v. Logo, T(v) = T(U(w)) = U(T(w)) W. Analogamente, se v N, U(v) = 0. Logo, U(T(v)) = T(U(v)) = T(0) = 0, ou seja, T(v) N. J. Delgado - K. Frensel 156 Instituto de Matemática - UFF

164 Subespaços Invariantes Um tipo particular de operador que comuta com T é um operador U = g(t), onde g é um polinômio. Por exemplo, U = T ci, onde c é um autovalor de T. Nesse caso, o núcleo de U, que é o espaço dos autovetores associados ao autovalor c, é invariante por T Exemplo 3.4 Seja T o operador linear sobre R 2 que é representado em relação à base canônica pela matriz ( ) 0 1 A =. 1 0 Então, os únicos subespaços de R 2 que são invariantes por T são R 2 e o subespaço nulo. De fato, qualquer outro subespaço invariante W teria dimensão 1, ou seja, W seria gerado por um vetor v não-nulo. Sendo W invariante por T, teríamos T(v) = λv, ou seja T teria um autovalor em R, o que é um absurdo, pois já verificamos, no exemplo 1.1, que T não possui autovalores reais. Observação 3.1 Quando o subespaço W é invariante por T, T induz um operador linear T W sobre o espaço W, definido por T W (v) = T(v), para todo v W. Suponhamos que V tem dimensão finita e que B = {v 1,..., v n } é uma base ordenada de V tal que B = {v 1,..., v r } seja uma base ordenada de W, sendo r = dim W. Seja A = [T] B. Então, T(v j ) = A ij v i, 1 j n. i=1 Como W é invariante por T, temos que A ij = 0, para todos 1 j r e i r + 1. Assim, A = ( B O ) C, D onde B = [T W ] B, é uma matriz r r, C é uma matriz r (n r) e D é uma J. Delgado - K. Frensel 157 Instituto de Matemática - UFF

165 Subespaços Invariantes matriz (n r) (n r). Lema 3.1 Seja W um subespaço invariante por T. Então, o polinômio característico do operador T W divide o polinômio característico de T, e o polinômio minimal de T W divide o polinômio minimal de T. Prova. Seja A = ( ) B C O D, onde A = [T] B e B = [T W ] B. Por causa da forma em blocos da matriz A, temos det(xi A) = det(xi B) det(xi D). Ou seja, o polinômio característico det(xi B) de T W divide o polinômio característico det(xi A) de T. Como a k ésima potência da matriz A tem a forma em blocos ( ) A k B k C k =, O D k onde C k é uma matriz r (n r), temos que qualquer polinômio que anula A, também anula B. Assim, o polinômio minimal de B divide o polinômio minimal de A. Observação 3.2 Seja T um operador linear sobre um espaço vetorial V de dimensão finita n. Sejam c 1,..., c k os autovalores distintos de T e seja W i, i = 1,..., k o espaço dos autovetores associados ao autovalor c i. Seja W = W W k o subespaço gerado por todos os autovetores de T. Se B i, i = 1,..., k é uma base ordenada de W i, já sabemos, pelo lema 1.4, que B = B 1... B k é uma base ordenada de W e que dim W = dim W dim W k. Então, se B = {v 1,..., v r }, onde r = dim W, temos que T(v i ) = t i v i, i = 1,..., r, onde (t 1,..., t r ) = (c 1,..., c 1,..., c k,..., c k ) com cada c i repetido dim W i vezes. J. Delgado - K. Frensel 158 Instituto de Matemática - UFF

166 Subespaços Invariantes O subespaço W é invariante por T, pois todo v W pode ser escrito na forma logo, T(v) = λ 1 t 1 v λ r t r v r. v = λ 1 v λ r v r, Sejam v r+1,..., v n vetores de V tais que B = {v 1,..., v r, v r+1,..., v n } seja uma base de V. A matriz de T em relação à base B é da forma em blocos ( ) [T W ] B C [T] B =, O D onde t t [T W ] B = t r é uma matriz r r diagonal. Assim, g = (x c 1 ) l 1... (x ck ) l k, com li = dim W i, é o polinômio característico de T W. Como g divide o polinômio característico p c de T, temos que a multiplicidade de c i como raiz de p c é no mínimo dim W i. Definição 3.2 Seja V um espaço vetorial sobre o corpo K. Seja W um subespaço de V invariante pelo operador T : V V e seja v um vetor do espaço V. O T condutor de v em W é o conjunto S T (v; W) formado de todos os polinômios g K[x] tais que g(t)(v) W. Em particular, se W = {0}, o T condutor de v é denominado o T anulador de v. Observação 3.3 Como o operador T permanecerá fixo durante a maioria das discussões, abandonaremos o índice T e escreveremos S(v; W) em vez de S T (v; W), e J. Delgado - K. Frensel 159 Instituto de Matemática - UFF

167 Subespaços Invariantes tal conjunto será denominado apenas condutor de v em W. Lema 3.2 Se W é um subespaço invariante por T, então W é invariante por qualquer polinômio em T. Assim, para todo v V, o condutor S(v; W) é um ideal na álgebra dos polinômios K[x]. Prova. Se w W, então T(w) W. Como T n (w) = T(T n 1 (w)), podemos provar, por indução, que T n (w) W, para todo n N. Assim, a 0 w + a 1 T(w) a n T n (w) W quaisquer que sejam os escalares a 0, a 1,..., a n K, ou seja p(t)(w) W para todo p K[x]. O condutor S(v; W) é um subespaço de K[x], pois se p(t)(v) W e g(t)(w) W, então (cp + g)(t)(v) = cp(t)(v) + g(t)(v) W. Como W é invariante por T, temos que se g é um polinômio em S(v; W), isto é, se g(t)(v) W e se f K[x] é um polinômio arbitrário, então (fg)(t)(v) = (f(t) g(t))(v) = f(t)(g(t)(v)) W, pois W é invariante por qualquer polinômio em T. Observação 3.4 O único gerador unitário do ideal S(v; W) é também denominado T condutor de v em W (ou T anulador de v, no caso em que W = {0}). O T condutor de v em W é o polinômio unitário g de menor grau tal que g(t)(v) W. Observe que o polinômio minimal pertence ao ideal S(v; W). Logo, todo T condutor (ou T anulador) divide o polinômio minimal. Definição 3.3 Um operador linear T sobre um espaço vetorial de dimensão finita é triangulável se existe uma base ordenada B de V tal que a matriz [T] B triangular. é J. Delgado - K. Frensel 160 Instituto de Matemática - UFF

168 Subespaços Invariantes Lema 3.3 Seja V um espaço vetorial de dimensão finita sobre o corpo K. Seja T um operador linear sobre V tal que o polinômio minimal de T seja um produto de fatores lineares p m = (x c 1 ) r 1... (x ck ) r k, ci K. Seja W um subespaço próprio de V (i.e. W V) invariante por T. Então existe um vetor v em V tal que: (a) v W ; (b) (T ci)(v) W, para algum autovalor c do operador T. Prova. Seja w um vetor arbitrário de V que não pertence a W e seja g o T condutor de w em W. Como w não está em W, o polinômio g não é constante e divide o polinômio minimal p m. Então, g = (x c 1 ) s 1... (x ck ) s k, onde pelo menos um dos inteiros s 1,..., s k é positivo. Seja j tal que s j > 0. Então (x c j ) divide g: g = (x c j ) h. Pela definição de g, o vetor v = h(t)(w) não pertence a W, pois grau(h) < grau(g). Mas, (T c j I)(v) = (T c j I)(h(T)(w)) = ((T c j I) h(t))(w) = g(t)(w) pertence a W. Teorema 3.1 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja T um operador linear sobre V. Então T é triangulável se, e somente se, o polinômio minimal de T é um produto de polinômios lineares sobre K. Prova. Suponhamos que o polinômio minimal de T é um produto de fatores lineares: p m = (x c 1 ) r 1... (x ck ) r k. J. Delgado - K. Frensel 161 Instituto de Matemática - UFF

169 Subespaços Invariantes Aplicaremos o lema anterior, para obter uma base B = {v 1,..., v n } de V tal que T(v j ) = a 1j v a jj v j, 1 j n, ou seja T(v j ) pertence ao subespaço gerado por v 1,..., v j. Assim, a 11 a 12 a 13 a 1n 0 a 22 a 23 a 2n [T] B = 0 0 a 33 a 3n ann é uma matriz triangular superior. Começamos aplicando o lema anterior ao subespaço W 1 = {0}. Então, existe v 1 0 e a 11 K tal que (T a 11 I)(v 1 ) W 1, ou seja, T(v 1 ) = a 11 v 1. Seja W 2 o subespaço gerado por v 1. Esse subespaço é invariante por T, pois T(v 1 ) = a 11 v 1 W 2. Pelo lema anterior, existe v 2 W 1 e a 22 K, tais que (T a 22 I)(v 2 ) W 2, ou seja, existe a 12 K, tal que T(v 2 ) = a 12 v 1 + a 22 v 2. Seja, agora, W 3 o subespaço gerado por v 1 e v 2 que é invariante por T, pois T(v 1 ) = a 11 v 1 W 3 e T(v 2 ) = a 12 v 1 + a 22 v 2 W 3. Pelo lema anterior, existe v 3 W 1 e a 33 K, tais que (T a 33 I)(v 3 ) W 3, ou seja, existem a 13, a 23 K tais que T(v 3 ) = a 13 v 1 + a 23 v 2 + a 33 v 3. Prosseguindo desta maneira, obtemos vetores v 1,..., v n em V tais que T(v j ) = a 1j v a jj v j, j = 1,..., n. Observe, também, que {v 1,..., v n } é um conjunto LI, e portanto, uma base de V, pois, em cada passo j, o vetor v j não pertence ao espaço gerado por v 1,..., v j 1. Suponhamos, agora, que T é triangulável, ou seja, que existe uma base B de V tal que J. Delgado - K. Frensel 162 Instituto de Matemática - UFF

170 Subespaços Invariantes a 11 a 12 a 1n 0 a [T] B = a 2n a n n Então, xi [T] B é também uma matriz triangular, cujo determinante, o polinômio característico p c, é o produto das entradas da diagonal, ou seja, p c = (x a 11 )(x a 22 )... (x a nn ). Os elementos da diagonal a 11,..., a nn são os autovalores c i e aparecem repetidos d i vezes, ou seja p c = (x c 1 ) d 1... (x ck ) d k. Como o polinômio minimal p m divide p c, temos que p m é da forma p m = (x c 1 ) r 1... (x ck ) r k, onde 1 r j d j para todo j = 1,..., k. Corolário 3.1 Seja K um corpo algebricamente fechado. Então, toda matriz n n sobre K é semelhante sobre K a uma matriz triangular. Prova. Seja T o operador sobre K n representado em relação à base canônica B por uma matriz A. Como o corpo K é algebricamente fechado, o polinômio minimal de T é um produto de polinômios lineares sobre K. Então, pelo teorema anterior, existe uma base B de K n tal que [T] B é triangular. Como A = [T]B e [T] B são semelhantes, temos que A é semelhante a uma matriz triangular. Teorema 3.2 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja T um operador linear sobre V. Então, T é diagonalizável se, e somente se, o polinômio minimal de T tem a forma p m = (x c 1 )... (x c k ), onde c 1,..., c k são elementos distintos de K. J. Delgado - K. Frensel 163 Instituto de Matemática - UFF

171 Subespaços Invariantes Prova. Já provamos que se T é diagonalizável então o polinômio minimal de T é um produto de fatores lineares distintos. Para demonstrar a recíproca, suponhamos que o subespaço W de V, formado por todos os autovetores de T, seja próprio, isto é, W V. Pelo lema anterior, existe um vetor v W e um autovalor c j de T tais que o vetor w = (T c j I)(v) W. Como w W, existem autovetores w 1,..., w k tais que w = w w k, onde T(w i ) = c i w i, 1 i k. Portanto, h(t)(w) = h(c 1 )w h(c k )w k W, para todo polinômio h K[x]. Sendo p m = (x c j )q e (q q(c j ))(c j ) = 0, existe um polinômio h K[x] tal que q q(c j ) = (x c j )h. Temos (q(t) q(c j )I)(v) = q(t)(v) q(c j )(v) = h(t)(t c j I)(v) = h(t)(w) W. Como 0 = p m (T)(v) = (T c j I)q(T)(v), temos que q(t)(v) é um autovetor de T e, portanto, q(t)(v) W. Assim, q(c j )(v) = q(t)(v) h(t)(w) W. Como v W, temos que q(c j ) = 0, que é uma contradição, pois, por hipótese, todas as raízes de p m têm multiplicidade igual a 1. Observação 3.5 Seja T um operador linear sobre um espaço vetorial V de dimensão finita. Se seu polinômio característico p c = (x c 1 ) d 1... (x ck ) d k, pode ser decomposto como um produto de polinômios lineares, temos J. Delgado - K. Frensel 164 Instituto de Matemática - UFF

172 Subespaços Invariantes dois métodos para determinar se T é ou não diagonalizável. Um método consiste em verificar se existem, para cada i, d i autovetores independentes associados ao autovalor c i. O outro método consiste em verificar se (T c 1 I) (T c k I) é ou não o operador nulo. Observação 3.6 Seja A uma matriz triangular a 11 a 12 a 13 a 1n 0 a 22 a 23 a 2n A = 0 0 a 33 a 3n a nn Então, o polinômio característico de A é dado por: x a 11 a 12 a 13 a 1n 0 x a 22 a 23 a 2n p c = det(xi A) = det 0 0 x a 33 a 3n x a nn ou seja, p c = (x a 11 )... (x a nn ). Como, j Ae j = a kj e k, k=1 temos que p c (A)(e j ) = (A a 11 I)(A a 22 I)... (A a nn I)(e j ) = 0, para todo j = 1,... n. De fato, como (A a 11 I)(e 1 ) = 0, temos que p c (A)(e 1 ) = 0, pois as matrizes (A a ii I), i = 1,..., n, comutam entre si. Supondo que (A a 11 I)(A a 22 I)... (A a jj I)(e i ) = 0 para todo i = 1,..., j, temos que (A a 11 I)(A a 22 I)... (A a jj I)(A a (j+1)(j+1) I)(e i ) = 0, para todo i = 1,..., j + 1. De fato: J. Delgado - K. Frensel 165 Instituto de Matemática - UFF

173 Subespaços Invariantes (A a 11 I)... (A a jj I)(A a (j+1)(j+1) I)(e i ) = (A a (j+1)(j+1) I) ( (A a 11 I)... (A a jj I)(e i ) ) = (A a (j+1)(j+1) I)(0) = 0, para todo i = 1,..., j. (A a 11 I)... (A a jj I)(A a (j+1)(j+1) I)(e j+1 ) = 0 j pois (A a (j+1)(j+1) I)(e j+1 ) = a k(j+1) e k e k=1 (A a 11 I)... (A a jj I)(e k ) = 0, para todo k = 1,..., j. Provamos, assim, que p c (A)(e j ) = (A a 11 I)... (A a nn I)(e j ) = 0, para todo j = 1,..., n, ou seja, p c (A) = O. Observação 3.7 Como todo operador linear T sobre um espaço vetorial V de dimensão finita sobre um corpo K algebricamente fechado possui uma base B tal que [T] B é triangular, temos que p c (T) = O, onde p c é o polinômio característico de T. Assim, obtemos uma outra demonstração do Teorema de Cayley-Hamilton para operadores sobre um espaço vetorial sobre um corpo algebricamente fechado. Mas, como todo corpo K é um subcorpo de um corpo algebricamente fechado K, temos que se A é uma matriz n n sobre K, então A é semelhante em K a uma matriz triangular A. Além disso, já provamos que matrizes semelhantes possuem o mesmo polinômio característico e que uma matriz triangular anula o seu polinômio característico. Logo, como A = B 1 A B, para alguma matriz B invertível, e f(a) = f(a ) para todo polinômio f, temos que p c (A) = p c (A ) = O, onde p c é o polinômio característico de A. Provamos, assim, que se A é uma matriz n n sobre um corpo arbitrário, então p c (A) = O, onde p c é o polinômio característico de A. Ou seja, se T é um operador linear sobre um espaço vetorial V de dimensão finita sobre um corpo K arbitrário, então p c (T) = O, onde p c é o polinômio característico de T. J. Delgado - K. Frensel 166 Instituto de Matemática - UFF

174 Triangulação Simultânea e Diagonalização Simultânea Acabamos de apresentar, portanto, uma outra demonstração do Teorema de Cayley-Hamilton, mas, para isso, usamos o fato que todo corpo é um subcorpo de um corpo algebricamente fechado. 4. Triangulação Simultânea e Diagonalização Simultânea Seja V um espaço vetorial de dimensão finita e seja F uma família de operadores lineares sobre V. Um subespaço S é invariante por F se W é invariante por cada operador em F. Lema 4.1 Seja F uma família comutativa de operadores lineares trianguláveis. Seja W um subespaço próprio de V, invariante por F. Então existe um vetor v V tal que: (a) v W; (b) para cada T em F, o vetor T(v) está no subespaço gerado por v e W. Prova. Seja {T 1,..., T r } um subconjunto linearmente independente maximal de F, isto é, uma base do subespaço gerado por F. Se v é um vetor que satisfaz (b) para cada T i, i = 1,..., r, então (b) é verdadeiro para todo operador que seja uma combinação linear de T 1,..., T r. Pelo lema 3.3, existe v 1 W e existe c 1 K, tal que (T c 1 I)(v 1 ) W, pois, como T 1 é triangulável, seu polinômio minimal é um produto de polinômios lineares. Seja V 1 = {v V (T 1 c 1 I)(v) W}. Como W V 1 e v 1 V 1, v 1 W, temos que W é um subespaço próprio de V 1. Além disso, V 1 é invariante por F. De fato, se T F e v V 1, então (T 1 c 1 I)(T(v)) = T(T 1 c 1 I)(v) W, pois (T 1 c 1 I)(v) W e W é invariante por T. Logo, T(v) V 1, para todo v V 1 e para todo T F. J. Delgado - K. Frensel 167 Instituto de Matemática - UFF

175 Triangulação Simultânea e Diagonalização Simultânea Seja U 2 o operador linear sobre V 1 obtido pela restrição de T 2 ao subespaço V 1. Como o polinômio minimal de T 2 é um produto de fatores lineares e o polinômio minimal de U 2 divide o polinômio minimal de T 2, temos que o polinômio minimal de U 2 é também um produto de fatores lineares. Aplicando o lema 3.3 ao operador U 2 e ao subespaço próprio W de V 1 invariante por U 2, obtemos um vetor v 2 V 1, tal que v 2 W, e um escalar c 2 K, tal que (U 2 c 2 I)(v 2 ) = (T 2 c 2 I)(v 2 ) W. Logo, v 2 W, (T 1 c 1 I)(v 2 ) W e (T 2 c 2 I)(v 2 ) W, ou seja, v 2 W, mas T 1 (v 2 ) e T 2 (v 2 ) pertencem ao subespaço gerado por v 2 e W. Seja V 2 = {v V 1 (T 2 c 2 I)(v) W}. Como W V 2 e v 2 V 2, v 2 W, temos que W é um subespaço próprio de V 2. Se T F e v V 2, temos que (T 2 c 2 )(T(v)) = T(T 2 c 2 I)(v) W, pois (T 2 c 2 I)(v) W e W é invariante por T. Logo, T(v) V 2 para todo v V 2 e para todo T F. Seja U 3 a restrição de T 3 ao subespaço V 2. Como T 3 é triangulável, seu polinômio minimal é um produto de fatores lineares. Assim, o polinômio minimal de U 3, que divide o polinômio minimal de T 3 é, também, um produto de fatores lineares. Aplicando o lema 3.3 ao operador U 3 e ao subespaço W de V 2 invariante por U 3, obtemos um vetor v 3 V 2, tal que v 3 W, e um escalar c 3 K, tal que (U 3 c 3 I)(v 3 ) = (T 3 c 3 I)(v 3 ) W. Logo, v 3 W, (T 1 c 1 I)(v 3 ) W, pois v 3 V 2 V 1, (T 2 c 2 I)(v 3 ) W, pois v 3 V 2,e (T 3 c 3 I)(v 3 ) W. Prosseguindo desta maneira, chegaremos a um vetor v = v r W tal que (T j c j I)(v) W, para todo j = 1,..., r. Ou seja, v W e T j (v) pertence ao subespaço gerado por v e W, para todo j = 1,..., r. Teorema 4.1 Seja V um espaço vetorial de dimensão finita sobre o corpo K. Seja F uma família comutativa de operadores lineares trianguláveis sobre V. Então, existe uma base ordenada B de V tal que [T] B é uma matriz triangular superior para todo operador T F. J. Delgado - K. Frensel 168 Instituto de Matemática - UFF

176 Triangulação Simultânea e Diagonalização Simultânea Prova. Devido ao lema anterior, a demonstração deste teorema é igual à demonstração do teorema 3.1, colocando F no lugar de T. Corolário 4.1 Seja F uma família comutatica de matrizes n n sobre um corpo K algebricamente fechado. Então, existe uma matriz P invertível, com entradas em K, tal que P 1 AP é triangular superior para toda matriz A F. Observação 4.1 A condição da família F ser comutatica é apenas suficiente, mas não necessária para a existência de uma base B tal que [T] B é triangular superior para todo T F, pois dois operadores trianguláveis, ou duas matrizes triangulares superiores, nem sempre comutam. Teorema 4.2 Seja F uma família comutativa de operadores lineares diagonalizáveis sobre o espaço vetorial V de dimensão finita. Então existe uma base ordenada B de V tal que [T] B é diagonal para todo operador T F. Prova. Provaremos o teorema por indução sobre a dimensão de V. Se dim V = 1, nada há por demonstrar. Suponhamos que o teorema seja válido para espaços vetoriais de dimensão menor que n e suponhamos que dim V = n. Seja T F um operador que não seja múltiplo do operador identidade. Sejam c 1,..., c k os autovalores distintos de T, e seja W i, i = 1,..., k, o núcleo de (T c i I). Para todo operador U que comuta com T, W i é invariante por U, pois TU(v) = UT(v) = U(c i v) = c i U(v), para todo v W i. Seja F i a família de operadores lineares sobre W i, obtida pela restrição dos operadores em F ao subespaço invariante W i. Cada operador em F i é diagonalizável, pois seu polinômio minimal divide o polinômio minimal do operador correspondente em F, sendo, portanto, J. Delgado - K. Frensel 169 Instituto de Matemática - UFF

177 Decomposição em Soma Direta um produto de fatores lineares distintos. Como dim W i < dim V, os operadores em F i podem ser diagonalizados simultaneamente, ou seja, W i possui uma base B i formada por vetores que são autovetores de todos os operadores de F i. Como T é diagonalizável, temos que B = B 1... B k é uma base de V formada por autovetores de todos os operadores de F, ou seja, [L] B é diagonal para todo operador L F Observação 4.2 No teorema anterior, a comutatividade da família F é uma condição não só sufiente mas também necessária para a diagonalização simultânea dos operadores em F, pois duas matrizes diagonais sempre comutam. 5. Decomposição em Soma Direta Definição 5.1 Seja V um espaço vetorial. Os subespaços W 1,..., W k de V são chamados independentes, se v v k = 0, com v i W i, implica que v i = 0, para todo i = 1,..., k. Se W = W W k, então todo vetor v W pode ser expresso como v = v v k, v i W i. Se, além disso, W 1,..., W k são independentes, todo vetor v W pode ser expresso de modo único como uma tal soma. De fato, se v se escreve, também, como v = w w k, w i W i, temos que v v = (v 1 w 1 ) (v k w k ) = 0, com v i w i W i, i = 1,..., k. Logo, v i = w i para todo i = 1,..., k, pois W 1,..., W k são independentes. Definição 5.2 Sejam W 1,..., W k subespaços de um espaço vetorial V. J. Delgado - K. Frensel 170 Instituto de Matemática - UFF

178 Decomposição em Soma Direta Dizemos que o subespaço W é a soma direta de W 1,..., W k e escrevemos W = W 1... W k se as seguintes condições são satisfeitas W = W W k ; W 1,..., W k são independentes. Teorema 5.1 Seja V um espaço vetorial de dimensão finita e sejam W 1,..., W k subespaços de V. Se W = W W k, as seguintes afirmações são equivalentes: (a) W = W 1 W 2... W k ; (b) W j ( W W j 1 ) = {0}, 2 j n; (c) Se B i é uma base ordenada de W i, 1 i k, então B = B 1... B k é uma base de W. (d) dim W = k dim W i. i=1 Prova. (a)= (b) Se v W j ( W W j 1 ), existem vetores v 1,..., v j 1, v i W i, i = 1..., j 1, tais que v = v v j 1. Como W 1,..., W k são independentes e v v j 1 + ( v) = 0, temos que v 1 = v 2 =... = v j 1 = v = 0. (b)= (c) Como W = W W k e B i é uma base de W i, i = 1,..., k, temos que B = B 1... B k gera o subespaço W. Também, toda combinação linear nula de vetores de B tem a forma v v k = 0, onde cada v i é uma combinação linear de vetores da base B i, i = 1,..., k. Seja j o maior inteiro dentre 1, 2,..., k, tal que v j 0. Então 0 = v v j, com v j 0. Logo, v j = v 1... v j 1 é um vetor não nulo em W j ( W W j 1 ), J. Delgado - K. Frensel 171 Instituto de Matemática - UFF

179 Decomposição em Soma Direta o que contradiz (b). Assim, v i = 0 para todo i = 1,..., k. Como cada v i é uma combinação linear de vetores da base B i, temos que essa combinação linear só pode ser a trivial. Logo, B é uma base de W. (c)= (d) é óbvio. Ao lado estamos designando #B i o número de elementos do conjunto B i, isto é, a cardinalidade do conjunto B i. (d)= (a) Seja B i uma base de W i, i = 1,..., k. Como B = B 1... B k k k gera o subespaço W = W W k e dim W = dim W i = #B i, i=1 i=1 temos que B = B 1... B k é uma base de W. Então, se v v k = 0, com v i W i, temos que existem escalares λ j i K, j = 1,..., k, i = 1,..., dim W i = n i, tais que λ 1 1 v1 1 + λ1 2 v λ1 n 1 v 1 n λ k 1 vk λk n k v k n k = 0, onde B i = {v i 1,..., n i vi n i } e v i = λ i jv i j. j=1 Como B = B 1... B k é uma base de W, temos que λ j i = 0, para todo j = 1,..., k e todo i = 1,..., n j, ou seja v j = 0, para todo j = 1,..., k. Logo, W 1,..., W i são independentes, ou seja, W = W 1... W k. Exemplo 5.1 Seja n um inteiro positivo e seja K n n o espaço vetorial das matrizes n n sobre um subcorpo K do corpo dos números complexos. Seja W 1 o subespaço das matrizes simétricas, isto é, as matrizes A tais que A t = A. A identidade ao lado diz que toda matriz se expressa de forma única como a soma de uma matriz simétrica com uma matriz antisimétrica. Seja W 2 o subespaço das matrizes antisimétricas, isto é, matrizes A tais que A t = A. Então, K n n = W 1 W 2 De fato, se A K n n, temos A = A 1 + A 2, onde A 1 = 1 2 (A + At ) W 1 e A 2 = 1 2 (A At ) W 2. Se A = B 1 + B 2, onde B 1 W 1 e B 2 W 2, temos que J. Delgado - K. Frensel 172 Instituto de Matemática - UFF

180 Decomposição em Soma Direta A t = B t 1 + Bt 2 = B 1 B 2. Logo, A + A t = 2B 1, ou seja B 1 = 1 2 (A + At ) = A 1, e B 2 = A B 1 = A 1 2 (A + At ) = 1 2 (A At ) = A 2, provando, assim, a unicidade da decomposição. Observação 5.1 Seja T um operador linear sobre um espaço vetorial V de dimensão finita. Sejam c 1,..., c k os autovalores distintos de T e seja W i, i = 1,..., k, o espaço dos autovetores associado ao autovalor c i. Já provamos que W 1,..., W k são LI. Logo, W = W 1... W k. Como consequência desse fato e do teorema 1.2, obtemos o seguinte resultado: O operador T : V V é diagonalizável V = W 1... W k Corolário 5.1 Seja V um espaço vetorial de dimensão finita e sejam W 1,..., W k subespaços de V. Então: (a) V = W 1... W k V = W W k e W j (W W j 1 ) = {0}, j = 2,..., k. (b) V = W i... W k V = W W k e dim(v) = k dim(w i ). i=1 (c) V = W i... W k dim(v) = {0}, j = 2,..., k. k dim(w i ) e W j (W W j 1 ) = i=1 Prova. k Pelo lema anterior, só falta provar que se dim(v) = dim(w i ) e W j (W W j 1 ) = {0}, 2 j k, então V = W 1... W k. De fato, ao demonstrarmos que (b)= (c) no teorema 5.1, provamos que se W j (W W j 1 ) = {0}, 2 j k, então B 1... B k é um conjunto i=1 J. Delgado - K. Frensel 173 Instituto de Matemática - UFF

181 Decomposição em Soma Direta de vetores LI, onde B i é uma base de W i. Tal conjunto é uma base de V, k pois possui dim(w i ) = dim(v) vetores. i=1 Logo, V = W W k e, portanto, V = W 1... W k. Proposição 5.1 Sejam V e W espaços vetoriais sobre o corpo K. V W = {(v, w) v V e w W} com as operações Então, o conjunto (v, w) + (v, w ) = (v + v, w + w ) λ(v, w) = (λv, λw) é um espaço vetorial. Prova. Exercício. Proposição 5.2 Se dim V = n e dim W = m, então dim(v W) = m + n. Prova. Sejam {v 1,..., v n } uma base de V e {w 1,..., w m } uma base de W. Então, o conjunto B = {(v 1, 0),..., (v n, 0), (0, w 1 ),..., (0, w m )}, é uma base de V W. De fato, se (v, w) V W, existem escalares λ 1,..., λ n, δ 1,..., δ m K tais que v = λ 1 v λ n v n e w = δ 1 w δ m w m. Logo, (v, w) = λ 1 (v 1, 0) λ n (v n, 0) + δ 1 (0, w 1 ) δ m (0, w m ), ou seja, o conjunto B gera o espaço V W. Além disso, B é um conjunto LI, pois se λ 1 (v 1, 0) λ n (v n, 0) + δ 1 (0, w 1 ) δ m (0, w m ) = (0, 0), temos que (λ 1 v λ n v n, δ 1 w δ m w m ) = (0, 0). J. Delgado - K. Frensel 174 Instituto de Matemática - UFF

182 Decomposição em Soma Direta Então, λ 1 v λ n v n = δ 1 w δ m w m = 0, o que implica λ 1 =... = λ n = δ 1 =... = δ m = 0. Proposição 5.3 Sejam W 1 e W 2 subespaços de um espaço vetorial de dimensão finita. Seja B : W 1 W 2 V definida por B(v, w) = v + w. Então B é linear, e B é um isomorfismo se, e só se, V = W 1 W 2. Prova. Sejam (v 1, w 1 ), (v 2, w 2 ) W 1 W 2 e λ K. Então, ou seja B é linear. B(λ(v 1, w 1 ) + (v 2, w 2 )) = B(λv 1 + v 2, λw 1 + w 2 ) = λv 1 + v 2 + λw 1 + w 2 = λ(v 1 + w 1 ) + (v 2 + w 2 ) = λb(v 1, w 1 ) + B(v 2, w 2 ), Provaremos, agora, que B é um isomorfismo se, e só se, V = W 1 W 2. (= ) Temos que dim(v) = dim(w 1 W 2 ) = dim(w 1 ) + dim(w 2 ). Além disso, se v W 1 W 2, então, (v, v) W 1 W 2 e B(v, v) = 0. Como B é injetora, temos que v = 0. Logo, W 1 W 2 = {0}. Então, pelo item (c) do corolário 5.1, concluímos V = W 1 W 2. ( =) Se V = W 1 W 2, temos que B é sobrejetora, pois B(W 1 W 2 ) = W 1 + W 2 = V. Além disso, como dim(v) = dim(w 1 ) + dim(w 2 ) = dim(w 1 W 2 ), temos que B é um isomorfismo. Definição 5.3 Seja V um espaço vetorial. Dizemos que um operador linear E sobre V é uma projeção se E 2 = E. Seja E : V V uma projeção, e sejam E(V) a imagem de E e Ker(E) o núcleo de E. Valem as seguintes afirmativas: (1) v E(V) E(v) = v. De fato, se E(v) = v então, claramente, v E(V). Verifiquemos a suficiência da condição. J. Delgado - K. Frensel 175 Instituto de Matemática - UFF

183 Decomposição em Soma Direta Seja w E(V). Então existe v V tal que E(v) = w. Logo, E(w) = E(E(v)) = E(v) = w. (2) V = E(V) Ker(E). Com efeito, seja v V, então v = E(v) + v E(v). Como E(v) E(V) e E(v E(v)) = E(v) E 2 (v) = 0, ou seja v E(v) Ker(E), temos que V = E(V) + Ker(E). Além disso, se v E(V) Ker(E), então E(v) = v e E(v) = 0, isto é, v = 0. Logo, E(V) Ker(E) = {0} e, portanto, V = E(V) Ker(E). Observação 5.2 Seja V = W 1 W 2 e seja E : V V definida por E(v) = v 2, onde v = v 1 + v 2 com v 1 W 1 e v 2 W 2. Então E é um operador linear e é uma projeção, chamada a projeção sobre W 2 segundo W 1. De fato, se v = v 1 + v 2 e w = w 1 + w 2, onde v 1, w 1 W 1 e v 2, w 2 W 2, então E(λv + w) = E((λv 1 + w 1 ) + (λv 2 + w 2 )) = λv 2 + w 2 = λe(v) + E(w). Além disso, E(E(v)) = E(E(v 1 + v 2 )) = E(v 2 ) = v 2 = E(v), ou seja E 2 = E e E(V) = W 2. Observação 5.3 Toda projeção E : V V é diagonalizável. De fato, como V = E(V) + Ker(E), temos que B = {v 1,..., v r, v r+1,..., v n } é uma base de V, onde {v 1,..., v r } é uma base de E(V) e {v r+1,..., v n } é uma base de Ker(E). Logo, [E] B = ( I r r O ) O, O pois E(v i ) = v i, para i = 1,..., r, e E(v j ) = 0, para j = r + 1,..., n. Observação 5.4 Suponhamos que V = W 1... W k. Para cada j = 1,..., k, podemos definir a aplicação E j : V V por E j (v) = v j, onde v = v v k, v i W i, i = 1..., k. J. Delgado - K. Frensel 176 Instituto de Matemática - UFF

184 Decomposição em Soma Direta É facil verificar que cada E j é linear, que E j (V) = W j e que E 2 j = E j. O núcleo de E j é W W j 1 + W j W k, pois a afirmação de que E j (v) = 0 significa que v é uma soma de vetores dos espaços W 1,..., W j 1, W j+1,..., W k. Como E j (v) = v j, j = 1,..., k, onde v = v v k, temos que v = E 1 (v) E k (v), para todo vetor v V. Logo, I = E E k. Note também que se i j, então E i E j = O (operador nulo), pois a imagem W j de E j está contida no núcleo de E i. Teorema 5.2 Se V = W 1... W k, então existem k operadores E 1,..., E k sobre V tais que: (a) E 2 j = E j (E j é uma projeção), para j = 1,..., k. (b) E i E j = O, para i j. (c) I = E E k. (d) E j (V) = W j, j = 1,..., k. Reciprocamente, se E 1,..., E k são k operadores lineares sobre V que satisfazem as condições (a), (b) e (c), então V = W 1... W k, onde W j = E j (V), para j = 1,..., k. Prova. Precisamos provar apenas a recíproca. Sejam E 1..., E k operadores lineares sobre V que satisfazem as condições (a), (b) e (c), e seja W j = E j (V), j = 1,..., k. Então, V = W W k, pois, por (c), temos que v = E 1 (v) E k (v), para todo v V. Essa expressão é única, pois se v = v v k, com v i W i = E i (V), v i = E i (w i ), temos, por (a) e (b), que k k E j (v) = E j (v i ) = E j E i (w i ) = E 2 j (w j ) = E j (w j ) = v j. i=1 i=1 Logo, V = W 1... W k. J. Delgado - K. Frensel 177 Instituto de Matemática - UFF

185 Somas Diretas Invariantes 6. Somas Diretas Invariantes Seja V = W 1... W k, onde cada subespaço W i é invariante por um operador linear T dado. Seja T i = T Wi, i = 1,..., k. Então, se v = v v k, com v i W i, i = 1,..., k, T(v) = T 1 (v 1 ) T k (v k ). Dizemos, nesse caso, que T é a soma direta dos operadores T 1,..., T k. Seja B = B 1... B k uma base ordenada de V, onde B i é uma base ordenada de W i, i = 1..., k. Então, se A i = [T i ] Bi, temos que A 1 O O O A [T] B = 2 O......, O O A k em que A i é uma matriz d i d i, d i = dim(w i ), e os símbolos O são blocos retangulares de vários tamanhos com entradas nulas. Teorema 6.1 Seja T um operador linear sobre o espaço V e sejam W i e E i, i = 1..., k, como no Teorema 5.2. Então, cada W i é invariante por T se, e somente se, T comuta com cada uma das projeções E i, i = 1,..., k. Prova. ( =) Suponhamos que T comuta com cada E i. Seja v W i. Então, E i (v) = v e T(v) = T(E i (v)) = E i (T(v)). Ou seja, T(v) W i. Logo, cada W i é invariante por T. (= ) Suponhamos, agora, que cada W i é invariante por T. Seja v V. Então, v = E 1 (v) E k (v) = T(v) = T(E 1 (v)) T(E k (v)). Como E i (v) W i e esse subespaço é invariante por T, devemos ter T(E i (v)) = E i (w i ), para algum w i W i. Assim, 0, se j i ; E j (T(E i (v))) = E j (E i (w i )) = E j (w j ), se j = i. J. Delgado - K. Frensel 178 Instituto de Matemática - UFF

186 Somas Diretas Invariantes Logo, E j T(v) = E j (T(E 1 (v))) E j (T(E k (v))) = E j (w j ) = T(E j (v)). Como isso vale para todo v V, temos que E j T = TE j, j = 1,..., k. Teorema 6.2 Seja T um operador linear sobre um espaço V de dimensão finita. Se T é diagonalizável e c 1,..., c k são os autovalores distintos de T, então existem operadores lineares E 1,..., E k sobre V tais que: (a) T = c 1 E c k E k. (b) I = E E k. (c) E i E j = O, se i j. (d) E 2 j = E j (i.e. E j é uma projeção). (e) A imagem de E j é o autoespaço de T associado a c j. Reciprocamente, se existem k escalares distintos c 1,... c k e k operadores lineares não-nulos E 1,..., E k satisfazendo as condições (a), (b) e (c), então T é diagonalizável, c 1,..., c k são os autovalores distintos de T e as condições (d) e (e) são, também, satisfeitas. Prova. Suponha que T seja diagonalizável, com autovalores distintos c 1,..., c k. Seja W i o autoespaço associado ao autovalor c i. Então, pelo Teorema 5.2, (b), (c), (d) e (e) são satisfeitas. Basta, então, verificar que (a) é satisfeita. Seja v V. Então, e v = E 1 (v) E k (v). T(v) = T(E 1 (v)) T(E k (v)) = c 1 E 1 (v) c k E k (v), ou seja, T = c 1 E c k E k. Suponhamos, agora, que sejam dados um operador linear T, escalares distintos c 1,..., c k e operadores não-nulos E 1,..., E k satisfazendo (a), (b) e (c). Como E i E j = O, para i j, temos, multiplicando ambos os membros J. Delgado - K. Frensel 179 Instituto de Matemática - UFF

187 Somas Diretas Invariantes de I = E E k por E i, que E i = E 2 i. E, multiplicando a identidade T = c 1 E c k E k por E i, resulta que TE i = c i E 2 i = c ie i, o que mostra que todo vetor na imagem de E i está no núcleo de T c i I. Como E i O, existe um vetor não-nulo no núcleo de T c i I, ou seja c i é um autovalor de T. Além disso, os escalares c i, i = 1,..., k são os únicos autovalores de T. De fato, se c é um escalar arbitrário, temos T ci = (c 1 c)e (c k c)e k. Logo, se (T ci)(v) = 0, devemos ter (c i c)e i (v) = 0, i = 1,..., k, pois V = E 1 (V)... E k (V), já que E i E j = O, i j, E 2 j = E j e I = E E k. Se v não é o vetor nulo, existe i tal que E i (v) 0, de modo que c i c = 0 para tal i. O operador T é diagonalizável, pois todo vetor não-nulo na imagem de E i é um autovetor e todo vetor v se escreve na forma v = E 1 (v) E k (v), ou seja, os autovetores de T geram V. Resta provar que E i (V) = Ker(T c i I). Se v Ker(T c i I), isto é, se T(v) = c i v, então k (c j c i )E j (v) = 0. j=1 Logo, (c j c i )E j (v) = 0 para todo j = 1,..., k. Assim, E j (v) = 0 para j i, ou seja, v = E i (v), mostrando que Ker(T c i I) E i (V). Como já provamos que E i (V) Ker(T c i I), temos que Ker(T c i I) = E i (V), para todo i = 1,..., k. Observação 6.1 Se g = a 0 + a 1 x a n x n é um polinômio em K[x], então g(t) = g(c 1 )E g(c k )E k, ou seja, g(t) = a n k c n i E i a 0 i=1 k E i. i=1 J. Delgado - K. Frensel 180 Instituto de Matemática - UFF

188 Somas Diretas Invariantes De fato, basta provar que para todo inteiro positivo m. T m = k c m i E i, i=1 Faremos a demonstração desse fato usando indução sobre m. Se m = 1, temos que T = k c i E i. i=1 Suponhamos o resultado válido para o inteiro m: T m = k c m i E i. i=1 Então, T m+1 = ( k ) ( k ) T m T = c m i E i c j E j i=1 j=1 = k k k c m i c j E i E j = c m+1 i E i, i=1 j=1 i=1 pois E i E j = O, se i j, e E 2 i = E i, para todo i = 1,..., k. Observação 6.2 Se p j c 1,..., c k, i.e. são os polinômios de Lagrange correspondentes aos escalares p j = i j x c i c j c i, temos que p j (T) = k p j (c i )E i = E i, i=1 pois p j (c i ) = δ ij. Logo, as projeções E i são polinômios em T. Observação 6.3 Daremos agora uma outra demonstração do seguinte resultado: T é diagonalizável se, e somente se, o seu polinômio minimal tem a forma p m = (x c 1 )... (x c k ), onde c 1,..., c k K são escalares distintos. J. Delgado - K. Frensel 181 Instituto de Matemática - UFF

189 Somas Diretas Invariantes Se T é diagonalizável, T = c 1 E c k E k, então, g(t) = g(c 1 )E g(c k )E k, para todo polinômio g K[x]. Logo, g(t) = O se, e somente se, g(c i ) = 0, para todo i = 1..., k. Assim, p m = (x c 1 )... (x c k ), é o polinômio minimal de T. Suponhamos agora que T seja um operador linear sobre V com polinômio minimal p m = (x c 1 )... (x c k ), onde c 1,..., c k K são escalares distintos. Sejam p j = i j x c i c j c i, os polinômios de Lagrange correspondentes aos escalares c 1,..., c k. Então, p j (c i ) = δ ij e g = g(c 1 )p g(c k )p k, para todo polinômio g de grau k 1. Tomando os polinômios g = 1 e g = x, obtemos que 1 = p p k (I) x = c 1 p c k p k. Observe que a segunda igualdade só é válida se k > 1. Mas, se k = 1, T é um múltiplo do operador identidade, sendo, portanto, diagonalizável. Seja E j = p j (T). De (I), temos que I = p 1 (T) p k (T) = E E k, e T = c 1 p 1 (T) c k p k (T) = c 1 E c k E k. Observe que, se i j, então p i p j é divisível pelo polinômio minimal p m, pois p i p j contém x c l como fator, para todo l = 1,..., k. Assim, E i E j = p i (T)p j (T) = p i p j (T) = O, se i j. J. Delgado - K. Frensel 182 Instituto de Matemática - UFF

190 O Teorema da Decomposição Primária Além disso, E i O, i = 1..., k, pois E i = p i (T) e p i é um polinômio de grau menor que o polinômio minimal p m. Como T = c 1 E c k E k, I = E E k, E i E j = O, i j, E i O, i = 1,..., k, e c 1,..., c k são distintos, temos, pelo Teorema 6.2, que T é diagonalizável. 7. O Teorema da Decomposição Primária Ao estudar um operador T usando seus autovalores, iremos nos confrontar com dois problemas. Primeiro, T poderá não ter nenhum valor característico, que é uma deficiência do corpo dos escalares, a saber, o corpo não é algebricamente fechado. Segundo, mesmo que o polinômio característico se decomponha num produto de polinômios de grau 1, podem não existir autovetores suficientes para gerar o espaço V, que é, evidentemente, uma deficiência do operador T. Por exemplo, seja T o operador sobre K 3 representado, em relação à base canônica, pela matriz A = O polinômio característico de T é (x 2) 2 (x + 1). Como A 2I = e A + I = , temos que (A 2I)(A + I) = O Logo, p m = (x 2) 2 (x + 1) é o polinômio minimal de T. Como posto (A 2I) = posto (A + I) = 2, temos que dim(ker(t 2I)) = dim(ker(t + I)) = 1, ou seja, J. Delgado - K. Frensel 183 Instituto de Matemática - UFF

191 O Teorema da Decomposição Primária Ker(T 2I) Ker(T I) K 3. Mas, Ker((T 2I) 2 ) Ker(T + I) = K 3, pois e 3 Ker(T + I) e e 1, e 2 Ker((T 2I) 2 ), uma vez que (A 2I) 2 = = Mostraremos, no caso geral, que se p m = (x c 1 ) r 1... (x ck ) r k é o polinômio minimal de T, onde c 1,..., c k são escalares distintos, então V = Ker((T c 1 ) r 1 )... Ker((T ck ) r k ). Teorema da Decomposição Primária Teorema 7.1 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja T um operador linear sobre V. Seja p m = p r p r k k o polinômio minimal de T, onde os p i K[x] são polinômios primos unitários distintos e os r i são inteiros positivos. Seja W i = Ker(p r i i (T)), i = 1,..., k. Então, (a) V = W 1... W k. (b) T(W i ) W i, i = 1,..., k. (c) Se T i = T Wi, então o polinômio minimal de T i é p r i i. Prova. Para cada i, seja f i = p p r i i = j i p r j j, Como p 1,..., p k são polinômios primos distintos, os polinômios f 1,..., f k são primos entre si. Assim, existem polinômios g 1,..., g k tais que k f i g i = 1. i=1 Note, também, que se i j, então f i f j é divisível pelo polinômio p m, pois J. Delgado - K. Frensel 184 Instituto de Matemática - UFF

192 O Teorema da Decomposição Primária f i f j contém p rn n como fator, n = 1,..., k. Seja h i = f i g i e seja E i = h i (T) = f i (T)g i (T). Como h h k = 1 e p m divide f i f j, para i j, temos que E i E k = I, E i E j = O, se i j. Assim, E 1,..., E k são projeções que correspondem a alguma decomposição do espaço V em soma direta. Vamos mostrar que E i (V) = W i, i = 1,..., k. Seja v E i (V), então E i (v) = v e p r i i (T)(v) = pr i i (T)f i(t)g i (T)(v) = p m (T)g i (T)(v) = 0. Ou seja, E i (V) W i, i = 1,..., k. Seja, agora, v W i = Ker(p r i i (T)). Se j i, f j g j é divisível por p r i i e, então, f j (T)g j (T)(v) = 0, ou seja, E j (v) = 0, se j i. Logo, v = E i (v), isto é, v E i (V). Pelo Teorema 5.2, temos que V = W 1... W k. É obvio que cada W i é invariante por T, pois se v W i = Ker(p r i i (T)), então p r i i (T(v)) = T(pr i i (T)(v)) = 0. Se T i = T Wi, então p r i i (T i) = O, pois, por definição, p r i i (T) se anula no subespaço W i. Logo, o polinômio minimal de T i divide p r i i. Seja g um polinômio arbitrário tal que g(t i ) = O. Então, g(t)f i (T) = 0, pois g(t)(v) = 0, para todo v W i e f i (T)(v) = 0, para todo v W j, j i. Assim, o polinômio minimal p m de T divide gf i, ou seja, p m = p r i i f i divide gf i. Logo, p r i i divide g, pois f i não possui em sua decomposição o fator primo p i. Portanto, o polinômio minimal de T i é p r i i. Corolário 7.1 Se E i,..., E k são as projeções associadas à decomposição primária de T, então cada E i é um polinômio em T e, consequentemente, se um opera- J. Delgado - K. Frensel 185 Instituto de Matemática - UFF

193 O Teorema da Decomposição Primária dor U comuta com T, então comuta com cada um dos E i, ou seja, cada subespaço W i é invariante por U. Observação 7.1 Seja T um opeardor linear sobre V com polinômio minimal p m = (x c 1 ) r 1... (x ck ) r k, ou seja, os polinômios primos p i são da forma x c i. Seja W i = Ker((T c i I) r i ) = Ei (V), i = 1,..., k, e seja o operador D = c 1 E c k E k. Então, pelo Teorema 6.2, D é um operador diagonalizável, que denominamos a parte diagonalizável de T, sendo c 1,..., c k os autovalores distintos de D e W i = Ker((T c i I) r i ) o autoespaço de D associado ao autovalor c i. Consideremos o operador N = T D. Como T = TE TE k D = c 1 E c k E k, temos que N = (T c 1 I)E (T c k I)E k. Logo, e, de modo geral, N 2 = (T c 1 I) 2 E (T c k I) 2 E k, N r = (T c 1 I) r E (T c k I) r E k. Quando r r i, para todo i, temos que N r c i I) r E i = O, já que E i (V) = Ker((T c i I) r i ). = O, pois o operador (T Definição 7.1 Seja N um operador linear sobre o espaço vetorial V de dimensão finita sobre o corpo K. Dizemos que N é nilpotente se existe um inteiro positivo k tal que N k = O. O menor inteiro positivo r tal que N r = O é denominado a ordem de N ou o índice de nilpotência de N. Teorema 7.2 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja T um operador linear sobre V. J. Delgado - K. Frensel 186 Instituto de Matemática - UFF

194 O Teorema da Decomposição Primária Suponhamos que o polinômio minimal de T se decomponha em K como um produto de fatores lineares. Então, existe um operador diagonalizável D sobre V e um operador nilpotente N sobre V tais que (a) T = D + N. (b) DN = ND. O operador diagonalizável D e o operador nilpotente N são determinados de modo único por (a) e (b), e cada um deles é um polinômio em T. Prova. Já provamos que podemos escrever T = D+N, onde D = c 1 E c k E k é diagonalizável e N = T D é nilpotente. Como cada E i é um polinômio em T, temos que D e N são polinômios em T e, portanto, comutam entre si. Suponhamos, agora, que T = D + N, onde D é diagonalizável, N é nilpotente e D N = N D. Como D e N comutam entre si e T = D + N, temos que D e N comutam com T. Sendo D e N polinômios em T, temos que D e N comutam com D e N. Logo, os quatro operadores D, N, D e N comutam entre si. Temos D + N = T = D + N = D D = N N. Como D e D são operadores diagonalizáveis que comutam, eles são simultaneamente diagonalizáveis e, portanto, D D é diagonalizável. Como N e N são operadores nilpotentes que comutam, N N é nilpotente. De fato, como NN = N N, temos que r ( ) r (N N) r = (N ) r j ( N) j, j j=0 o que pode ser provado usando um argumento indutivo sobre r junto com a fórmula do binômio de Newton. Seja r = max{r 1, r 2 }, onde (N ) r 1 = O e N r 2 = O. Então, 2r ( ) 2r (N N) 2r = (N ) 2r j ( N) j = O, j j=0 J. Delgado - K. Frensel 187 Instituto de Matemática - UFF

195 O Teorema da Decomposição Primária pois se j r, ( N) j = O, e se j < r, temos 2r j > r, logo (N ) 2r j = O. Como D D = N N, temos que D D é um operador diagonalizável e nilpotente. Então, D D = O, ou seja D = D, e, portanto, N = N (ver observação abaixo). Observação 7.2 De fato, podemos provar que o único operador L que é simultaneamente diagonalizável e nilpotente é o operador nulo de, pelo menos, duas maneiras: Suponha que L r = O e que λ é um autovalor de L. Então, existe v 0 tal que L(v) = λv. Logo, L r (v) = λ r v = 0. Como v 0, devemos ter λ = 0. Assim, o espaço V é gerado pelos autovetores associados ao autovalor 0, ou seja, L = O. Sendo L nilpotente, seu polinômio minimal é da forma x s, para algum s 1. Mas como L é também diagonalizável, seu polinômio minimal é um produto de fatores lineares distintos. Logo, x é o polinômio minimal de L, ou seja L = O. Corolário 7.2 Seja V um espaço vetorial de dimensão finita sobre um corpo algebricamente fechado K. Então, todo operador linear T sobre V se escreve como uma soma de um operador diagonalizável D com um operador nilpotente N, que comutam. Esses operadores D e B são únicos e são polinômios em T. Lema 7.1 Se N é um operador nilpotente, então I + N é um isomorfismo. Observe a analogía entre o operador inverso de I + N ao lado e a série de potências (1 x) 1 = x j. j=0 Prova. r Seja L = ( 1) j N j, onde N r+1 = O e N r O. Então, j=0 (I + N)L = L(I + N) = Logo, I + N é invertível e r r ( 1) j N j + ( 1) j N j+1 = I. j=0 j=0 J. Delgado - K. Frensel 188 Instituto de Matemática - UFF

196 O Teorema da Decomposição Primária (I + N) 1 = r ( 1) j N j. j=0 Observação 7.3 Se N é nilpotente e µ 0, então µi + N é um isomorfismo. De fato, como µi + N = µ (I + 1µ ) N e 1 N é nilpotente, temos, pelo lema µ anterior, que I + 1 µ N é um isomorfismo. Logo, µi + N = µ(i + 1 µ N). Lema 7.2 Seja V um espaço vetorial de dimensão finita sobre o corpo K e seja N um operador nilpotente sobre V. Suponha que o polinômio característico de N se escreve como um produto de fatores lineares em K[x]. Então, x n é o polinômio característico de N, onde n = dim(v). Prova. De fato, se p c = (x c 1 ) d 1... (x ck ) d k é o polinômio característico de N, c 1,..., c k são os valores característicos distintos de N. Mas como N é nilpotente, 0 (o zero) é o único valor característico de N. Logo, p c = x n. Observação 7.4 Se V é um espaço vetorial de dimensão n sobre o corpo K e N é um operador nilpotente sobre V, então p c = x n de N. é o polinômio característico Com efeito, seja K um corpo algebricamente fechado do qual K é um subcorpo. Seja B uma base ordenada de V e A = [N] B. Considerando A como uma matriz sobre K, temos, pelo lema anterior, que x n é o seu polinômio característico. Mas, como o polinômio característico de N é det(xi N) = det(xi A), e esse determinante independe se estamos considerando A como uma matriz com entradas em K ou em K, temos que x n é o polinômio característico de N J. Delgado - K. Frensel 189 Instituto de Matemática - UFF

197 O Teorema da Decomposição Primária Teorema 7.3 Seja T um operador linear sobre o espaço vetorial V de dimensão finita, cujo polinômio característico é p c = (x c 1 ) d 1... (x ck ) d k, e cujo polinômio minimal é p m = (x c 1 ) r 1... (x ck ) r k. Seja W i = Ker(T c i I) r i. Então, (a) W i = {v V n N ; (T c i I) n (v) = 0} ; (b) dim(w i ) = d i, i = 1,..., k ; (c) (T c i I) Wi é nilpotende de ordem r i, ou seja, ((T c i I) Wi ) r i O e ((T c i I) Wi ) r i 1 O. Prova. Vamos mostrar primeiro que W i = W i, onde W i = {v V n N ; (T c i I) n (v) = 0}. Seja v W i = Ker(T c i I) r i. Então, (T ci I) r i (v) = 0. Logo, v W i, isto é, W i W i. Seja v W i. Então, existe n N, tal que (T c i I) n (v) = 0. Como V = W 1... W k, existem vetores v j W j, j = 1,..., k, tais que v = v v k. Logo, k 0 = (T c i I) n (v) = (T j c i I) n (v j ) = j=1 k ((c j c i )I + (T j c j I)) n (v j ). j=1 Como (T j c i I) n (v j ) W j, e os subespaços W 1,..., W k são LI, temos que ((c j c i )I + (T j c j I)) n (v j ) = 0, j = 1,..., k. Pelo lema anterior, (c j c i )I + (T j c j I) é um isomorfismo para j i, pois c j c i 0 e T j c j I é nilpotente. Logo, ((c j c i )I + (T j c j I)) n é um isomorfismo, se j i. Como ((c j c i )I + (T j c j I)) n (v j ) = 0, temos que v j = 0 para j i. Assim, J. Delgado - K. Frensel 190 Instituto de Matemática - UFF

198 O Teorema da Decomposição Primária v = v i W i, ou seja, W i W i. Vamos mostrar, agora, que dim(w i ) = dim(w i ) = d i, onde d i é a multiplicidade de c i como raiz do polinômio característico p c de T. Como p c = (x c 1 ) d 1... (x ck ) d k é o polinômio característico de T, temos p c = det(xi (T c i I)) = det((x + c i )I T) = (x + c i c i ) d i (x + c i c j ) d j j i = x d i (x (c j c i )) d j, j i é o polinômio característico de T c i I que, como vemos na última expressão, é um produto de fatores lineares. Como o polinômio característico de N i = T i c i I divide o polinômio característico de T c i I, temos que o polinômio característico de N i é um produto de fatores lineares. Seja n i = dim(w i ). Como N i = T i c i I é nilpotente, temos, pelo lema 7.2, que x n i é o seu polinômio característico. Logo, o polinômio característico de T i = N i + c i I é det(xi T i ) = det(xi (N i + c i I)) = det((x c i )I N i ) = (x c i ) n i. Mas, como (x c i ) n i divide pc, temos que n i d i. Logo, n i = d i, pois ou seja, dim(w i ) = d i. n n k = d d k, Já sabemos que (T i c i I) r i = O, pois Ti = T Wi e W i = Ker(T c i I) r i. Suponhamos, por absurdo, que (T i c i I) ν i = O, para algum νi < r i. Pelo Teorema da Decomposição Primária, temos que (x c i ) r i é o polinômio minimal de T i. Logo, x r i é o polinômio minimal de Ni = T i c i I. Como N ν i i = O, temos que x r i divide x ν i, o que é uma contradição, pois ν i < r i. Então, (T c i I) r i = O e (Ti c i I) r i 1 O, ou seja, T i c i I é um operador nilpotente de ordem r i. J. Delgado - K. Frensel 192 Instituto de Matemática - UFF

199 Forma Canônica Racional 1. Subespaços cíclicos e anuladores Definição 1.1 Seja V um espaço vetorial de dimensão finita sobre o corpo K, e seja v V. O subespaço T cíclico gerado por v é o subespaço Z(v, T) = {g(t)(v) g K[x]}. Se Z(v, T) = V, dizemos que v é um vetor cíclico de T. Observação 1.1 Seja W o menor subespaço de V que contém v e é invariante por T, ou seja, W é a interseção de todos os subespaços de V que contém v e são invariantes por T. Então, W = Z(v, T). De fato, se g(t)(v) Z(v, T), g K[x], temos g(t)(v) W, pois W é invariante por T e contém v. Logo, Z(v, T) W. Mas, como Z(v, T) é um subespaço invariante por T que contém v, temos que W Z(v, T). Z(v, T) é o subespaço gerado pelos vetores T k (v), k 0. Então, v é um vetor cíclico de T se, e somente se, {T k (v) k 0} gera o espaço V. Z(v, T) é unidimensional se, e somente se, v é um autovetor de T. Se T = I é o operador identidade, todo vetor não nulo gera um subespaço cíclico unidimensional. Logo, se dim(v) > 1, I não possui um vetor cíclico. Seja T um operador nilpotente sobre um espaço vetorial de dimensão 193

200 Subespaços cíclicos e anuladores n sobre o corpo K, tal que T n = O e T n 1 O. Seja v V tal que T n 1 (v) 0. Então, {v, T(v),..., T n 1 (v)}, é uma base de V, ou seja, v é um vetor cíclico de N. De fato, se a 0 v + a 1 T(v) a n 1 T n 1 (v) = 0 = a 0 T n 1 (v) + a 1 T n (v) a n 1 T 2n 2 (v) = 0 = a 0 T n 1 (v) = 0 = a 0 = 0. Ou seja, a 1 T(v) a n 1 T n 1 (v) = 0. Logo, a 1 T n 1 (v) a n 1 T 2n 3 (v) = 0 = a 1 T n 1 (v) = 0 = a 1 = 0. Prosseguindo dessa maneira, obtemos que a 0 = a 1 =... = a n 1 = 0, isto é, {v, T(v),..., T n 1 (v)} é LI, e, portanto, uma base de V. Exemplo 1.1 Seja T o operador linear sobre R 2 representado, com respeito à base canônica, pela matriz ( ) 0 0 A =. 1 0 Como A O, A 2 = O e A(e 1 ) = e 2 0, temos que {e 1, A(e 1 ) = e 2 } é uma base de R 2, ou seja, e 1 é um vetor cíclico de T. Definição 1.2 Seja V um espaço vetorial sobre o corpo K. Definimos o T anulador de um vetor v V como sendo o ideal em K[x] dado por M(v, T) = {g K[x] g(t)(v) = 0}. O único polinômio unitário p v que gera esse ideal é também denominado o T anulador de v. Observação 1.2 Seja p m o polinômio minimal de T. Como p m (T) = O, temos p m (T)(v) = 0. Logo, p m M(v, T) e p v divide p m. J. Delgado - K. Frensel 194 Instituto de Matemática - UFF

201 Subespaços cíclicos e anuladores Observação 1.3 O grau de p v é zero se, e somente se, v = 0. Teorema 1.1 Seja v um vetor não nulo e seja p v o T anulador do vetor v V. Então: (a) grau(p v ) = dim(z(v, T)). (b) Se grau(p v ) = k, então B v Z(v, T). = {v, T(v),..., T k 1 (v)} é uma base de (c) Se T v = T Z(v,T), então p v é o polinômio minimal de T v. (d) A matriz de T v em relação à base B v é a a 1 [T v ] Bv = a , a k 1 A matriz ao lado é a matriz associada ao polinômio unitário p v. onde p v = a 0 + a 1 x a k 1 x k 1 + x k. Prova. Seja g K[x]. Então, existem q, r K[x] tais que g = p v q + r, onde r 0 ou grau(r) < grau(p v ) = k. Como p v (T)q(T)(v) = 0, temos que g(t)(v) = r(t)(v). Sendo r 0 ou grau(r) < k, temos que g(t)(v) é uma combinação linear de v, T(v),..., T k 1 (v). Como g(t)(v) é um vetor arbitrário de Z(v, T), obtemos que {v, T(v),..., T k 1 (v)} gera o subespaço Z(v, T). Além disso, {v, T(v),..., T k 1 (v)} é LI, pois, caso contrário, existiria um polinômio não-nulo de grau menor que k que anularia v, o que é um absurdo, pois grau(p v ) = k. Seja T v = T Z(v,T) e p o polinômio minimal de T v. Como p v (T)(v) = 0, temos que p v (T)(T j (v)) = T j (p v (T)(v)) = 0, j N. Logo, p v (T v ) = O. Então, p divide p v. (I) Por outro lado, como p(t v ) = O, temos que 0 = p(t v )(v) = p(t)(v), ou J. Delgado - K. Frensel 195 Instituto de Matemática - UFF

202 Subespaços cíclicos e anuladores seja, p M(v, T). Logo, p v divide p. (II) De (I) e (II), temos que p = p v, pois ambos são polinômios unitários. Se p v = a 0 + a 1 x a k 1 x k 1 + x k, temos que T k (v) = a 0 v a 1 T(v)... a k 1 T k 1 (v). Fazendo v i = T i 1 (v), i = 1,..., k e B v = {v 1,..., v k } é uma base de Z(v, T) tal que T(v i ) = T(T i 1 (v)) = T i (v) = v i+1, se i = 1,..., k 1, e T(v k ) = T(T k 1 (v)) = T k (v) = a 0 v 1 a 1 v 2... a k 1 v k. Logo, a a a [T v ] B2 = a a k 1 Observação 1.4 Se T é um operador linear sobre o espaço V que possui um vetor cíclico v, então seu polinômio minimal é igual ao seu polinômio característico. De fato, pelo Teorema acima, V = Z(v, T) e p v é o polinômio minimal p m de T. Como grau(p v ) = dim(z(v, T)) = dim(v) = grau(p c ), sendo p c o polinômio característico de T, e como p m divide p c, temos que p m = p c = p v. Provaremos depois que para todo operador T existe um vetor v V cujo T anulador é o polinômio minimal de T. Com esse resultado, podemos provar que se o polinômio minimal é igual ao polinômio característico de T, então T possui um vetor cíclico. De fato, seja v V tal que p v = p m, sendo p m o polinômio minimal de T. Como p m = p c, sendo p c o polinômio característico de T, temos que dim(z(v, T)) = grau(p v ) = grau(p c ) = dim(v), ou seja, Z(v, T) = V. J. Delgado - K. Frensel 196 Instituto de Matemática - UFF

203 Decomposição Cíclica e a Forma Racional Corolário 1.1 Se T é um operador linear sobre o espaço V de dimensão finita, então T possui um vetor cíclico se, e só se, existe uma base ordenada B de V tal que [T] B é a matriz associada a um polinômio unitário p. Nesse caso, p = p m = p c, onde p m é o polinômio minimal e p c é o polinômio característico de T. Prova. A implicação (= ) já foi provada. ( =) Como [T] B grau(p) = n. é uma matriz n n, onde n = dim(v), temos que Se B = {v 1,..., v n }, temos que v 2 = T(v 1 ), v 3 = T(v 2 ),..., v i = T(v i 1 ),..., v n = T(v n 1 ). Assim, v i = T i 1 (v 1 ), para todo i = 1,..., n, pois v 1 = T 1 1 (v 1 ), e se v j 1 = T j 2 (v 1 ), então v j = T(v j 1 ) = T(T j 2 (v 1 )) = T j 1 (v 1 ). Logo, {v 1, T(v 1 ),..., T n 1 (v 1 )} gera o espaço V e, portanto, v 1 é um vetor cíclico de T. 2. Decomposição Cíclica e a Forma Racional Seja T um operador sobre um espaço V e seja W um subespaço de V invariante por T. Suponha que existe um subespaço W de V invariante por T tal que V = W W. Seja v V. Então, existe w W e w W, tais que v = w + w. Se g K[x], g(t)(v) = g(t)(w) + g(t)(w ). Como g(t)(w) W e g(t)(w ) W, temos que g(t)(v) W se, e somente se, g(t)(w ) = 0, isto é, se, e somente se, g(t)(v) = g(t)(w). Ou seja, se g(t)(v) W, então existe w W tal que g(t)(v) = g(t)(w). Definição 2.1 Sejam T um operador linear sobre o espaço V e W um subespaço de V. J. Delgado - K. Frensel 197 Instituto de Matemática - UFF

204 Decomposição Cíclica e a Forma Racional Dizemos que W é T admissível se: (a) W é invariante por T. (b) Se f(t)(v) W, então existe w W tal que f(t)(v) = f(t)(w). Observação 2.1 Pelo provado acima, temos que se W é invariante e tem um subespaço suplementar invariante, então W é T admissível. Uma das consequências do teorema que provaremos a seguir é a recíproca dessa afirmação, ou seja, se W é T admissível, então, W possui um subespaço suplementar invariante. Teorema 2.1 Sejam T um operador sobre um espaço vetorial V de dimensão finita e W 0 um subespaço próprio T admissível de V. Existem vetores não-nulos v 1,..., v r V com respectivos T anuladores p 1,..., p r tais que (i) V = W 0 Z(v 1, T)... Z(v r, T), (ii) p k divide p k 1, k = 2,..., r. Além disso, o inteiro r e os anuladores p 1,..., p r são determinados de modo único por (i) e (ii) e pelo fato de que nenhum w k é nulo. Prova. Vamos fazer a demonstração em quatro partes. Parte I. Existem vetores não-nulos w 1,..., w r V tais que (a) V = W 0 + Z(w 1, T) Z(w r, T), (b) se 1 k r e W k = W 0 + Z(w 1, T) Z(w k, T), o condutor p k = s(w k, W k 1 ) tem grau máximo entre todos os T condutores no espaço W k 1, isto é, para cada k grau(p k ) = max v V grau(s(v, W k 1)). Se W é um subespaço próprio T invariante, então 0 < max v V grau(s(v, W)) dim(v). De fato, se v W, grau(s(v, W)) 1. E como o polinômio minimal p m de T pertence a S(v, W), para todo v V, pois p m (T)(v) = 0, temos que J. Delgado - K. Frensel 198 Instituto de Matemática - UFF

205 Decomposição Cíclica e a Forma Racional s(v, W) divide p m. Logo, grau(s(v, W)) grau(p m ) dim(v) = n. Seja w V tal que grau(s(w, W)) = max v V grau(s(v, W)). O subespaço W +Z(w, T) é, então, T invariante e possui dimensão maior que dim W, pois w W. Apliquemos esse processo a W = W 0 para obter w 1. Então, e W 0 + Z(w 1, T) é T invariante. grau(s(w 1, W 0 )) = max v V grau(s(v, W 0)), dim(w 0 + Z(w 1, T)) > dim(v), Se W 1 = W 0 + Z(w 1, T) é próprio, existe w 2 V tal que grau(s(w 2, W 1 )) = max v V grau(s(v, W 1)), dim(w 0 + Z(w 1, T) + Z(w 2, T)) > dim(w 1 ) > dim(w), e W 0 + Z(w 1, T) + Z(w 2, T) é T invariante. Prosseguindo desta maneira, devemos obter V = W r em, no máximo, dim(v) = n passagens. Parte II. Fixemos k {1,..., r}. Seja w V e seja f = s(w, W k 1 ). Se k 1 f(t)(w) = w 0 + g i (T)(w i ), com w 0 W 0, i=1 então f divide g i, i = 1,..., k 1, e w 0 = f(t)(u 0 ), para algum u 0 W 0. Se k = 1, f(t)(w) = w 0 W 0. Como W 0 é T admissível, existe u 0 W 0, tal que f(t)(w) = f(t)(u 0 ). Suponhamos k > 1 e apliquemos o algoritmo da divisão: g i = f h i + r i, com r i 0 ou grau(r i ) < grau(f i ). Queremos mostrar que r i 0, i = 1,..., k 1. k 1 Seja u = w h i (T)(w i ). Então u w W k 1. i=1 J. Delgado - K. Frensel 199 Instituto de Matemática - UFF

206 Decomposição Cíclica e a Forma Racional Afirmação: f = s(u, W k 1 ). De fato, q s(u, W k 1 ) q(t)(u) W k 1 q s(w, W k 1 ). q(t)(w) W k 1 Além disso, k 1 f(t)(u) = f(t)(w) (f h i )(T)(w i ) i=1 k 1 k 1 = w 0 + g i (T)(w i ) (f h i )(T)(w i ) i=1 k 1 = w 0 + r i (T)(w i ). i=1 Suponhamos que existe r i, i = 1,..., k 1, diferente de zero. i=1 Seja j = max{i r i 0}. Então, f(t)(u) = w 0 + j r i (T)(w i ), i=1 com r j 0 e grau(r j ) < grau(f). Seja p = s(u, W j 1 ). Como W j 1 W k 1, o condutor f = s(u, W k 1 ) divide p, ou seja, p = f g, para algum g K[x]. Então, j 1 p(t)(u) = g(t) f(t)(u) = g(t)(w 0 ) + g(t) r j (T)(w j ) + (g r i )(T)(w i ). j 1 Como p(t)(u) W j 1 e g(t)(w 0 ) + (g r i )(T)(w i ) W j 1, temos que g(t) r j (T)(w j ) W j 1. Logo, grau(g r j ) grau(s(w j, W j 1 )) = grau(p j ) grau(s(u, W j 1 )) = grau(p) = grau(f g). Então, grau(r j ) grau(f), que é uma contradição. Como r i = 0, i = 1,..., k 1, temos que f divide g i, i = 1,..., k 1, e f(t)(u) = w 0 W 0. Sendo W 0 T admissível, existe u 0 W 0, tal que f(t)(u) = f(t)(u 0 ) = w 0. i=1 i=1 J. Delgado - K. Frensel 200 Instituto de Matemática - UFF

207 Decomposição Cíclica e a Forma Racional Essa parte II nos diz, em particular, que W 1,..., W r são subespaços T admissíveis. De fato, seja w V e seja f = s(w, W j 1 ), j = 1,..., r. Então, pela parte II, temos j 1 f(t)(w) = f(t)(u 0 ) + f(t) h i (T)(w i ), i=1 onde u 0 W 0. Suponhamos que q(t)(w) W j 1, com q K[x]. Então, f divide q, ou seja, q = f h, h K[x]. Logo, ( ) j 1 q(t)(w) = h(t) f(t)(w) = h(t) f(t) u 0 + h i (T)(w i ) ( ) i=1 j 1 = q(t) u 0 + h i (T)(w i ), i=1 j 1 onde u 0 + h i (T)(w i ) W j 1. i=1 Parte III. Existem vetores não-nulos v 1,..., v r em V que satisfazem as condições (a) e (b) do teorema. Aplicando o resultado da parte II ao vetor w = w k, k = 1,..., r, e ao T condutor f = p k = s(w k, W k 1 ), temos que k 1 p k (T)(w k ) = p k (T)(u 0 ) + p k (T) h i (T)(w i ), i=1 onde u 0 W 0. Seja k 1 v k = w k u 0 h i (T)(w i ). i=1 Como w k v k W k 1, temos que s(v k, W k 1 ) = s(w k, W k 1 ) = p k. Além disso, como p k (T)(v k ) = 0, temos que W k 1 Z(v k, T) = {0}. De fato, seja w W k 1 Z(v k, T). Então, existe g K[x] tal que w = g(t)(v k ). Como g(t)(v k ) W k 1, temos que p k divide g, ou seja, existe h K[x] tal que g = h p k. J. Delgado - K. Frensel 201 Instituto de Matemática - UFF

208 Decomposição Cíclica e a Forma Racional Logo, w = g(t)(v k ) = h(t) p k (T)(v k ) = 0. Afirmação: p k = s(v k, W k 1 ) é o T anulador de v k. Se q(t)(v k ) = 0, então q(t)(v k ) W k 1. Logo, p k divide o T anulador de v k. Como p k (T)(v k ) = 0, o T anulador de v k divide p k. Então, p k é o T anulador de α k. Afirmação: p k = s(v k, W k 1 ) é o T anulador de v k. Se q(t)(v k ) = 0, então q(t)(v k ) W k 1. Logo, p k divide o T anulador de v k. Como p k (T)(v k ) = 0, o T anulador de v k divide p k. Então, p k é o T Anulador de v k. Afirmação: W 1 = W 0 Z(v 1, T). Como já provamos que W 0 Z(v 1, T) = {0}, basta provar que W 1 = W 0 + Z(w 1, T) = W 0 + Z(v 1, T). Sendo v 1 = w 1 u 0 W 0 + Z(w 1, T), temos que Z(v 1, T) W 0 + Z(w 1, T). Logo, W 0 + Z(v 1, T) W 1. De modo análogo, como w 1 = u 0 + v 1 W 0 + Z(v 1, T), temos que Z(w 1, T) W 0 + Z(v 1, T). Logo, W 0 + Z(w 1, T) W 0 + Z(v 1, T), ou seja, W 1 W 0 + Z(v 1, T). Afirmação: Suponha que W j = W 0 Z(v 1, T)... Z(v j, T). Vamos mostrar que W j+1 = W 0 Z(v 1, T)... Z(v j, T) Z(v j+1, T). Como W j+1 = W j + Z(w j+1, T) e W j Z(v j+1, T) = {0} basta provar que W j+1 = W j + Z(v j+1, T). Sendo v j+1 = w j+1 u j, onde u j = u 0 + Z(v j+1, T) W j + Z(w j+1, T). Logo, W j + Z(v j+1, T) W j + Z(w j+1, T). De modo análogo, como w j+1 = v j+1 + u j, temos que Z(w j+1, T) W j + Z(v j+1, T). j h i (T)(w i ) W j, temos que i=1 Logo, W j + Z(w j+1, T) W j + Z(v j+1, T). Vamos, agora, provar a parte (b) do Teorema. J. Delgado - K. Frensel 202 Instituto de Matemática - UFF

209 Decomposição Cíclica e a Forma Racional Fazendo w = v 2 e f = s(v 2, W 1 ) = p 2 na parte II da demonstração, temos que p 2 divide p 1. De fato, como p 2 (T)(v 2 ) = 0, p 1 (T)(v 1 ) = 0 e v 1 = w 1 u 0, u 0 W 0, temos p 2 (T)(v 2 ) = p 1 (T)(v 1 ) = p 1 (T)( u 0 ) + p 1 (T)(w 1 ), onde p 1 (T)( u 0 ) W 0. Logo, pela parte II, p 2 divide p 1. Vamos provar que p 3 divide p 2, fazendo w = v 3 e f = s(v 3, W 2 ) = p 3. De fato, como p 3 (T)(v 3 ) = p 2 (T)(v 2 ) = p 1 (T)(v 1 ) = 0, v 1 = u 0 + w 1 e v 2 = u 0 + w 2 h(t)(w 1 ), onde u 0, u 0 W 0, temos que p 3 (T)(v 3 ) = p 1 (T)(v 1 ) + p 2 (T)(v 2 ) = p 1 (T)( u 0 ) + p 1 (T)(w 1 ) + p 2 (T)( u 0 ) + p 2 (T)(w 2 ) p 2 (T)h(T)(w 1 ) = (p 1 (T)( u 0 ) + p 2 (T)( u 0 )) + (p 1 p 2 h)(t)(w 1 ) + p 2 (T)(w 2 ). Como p 1 (T)( u 0 ) + p 2 (T)( u 0 ) W 0, temos, pela parte II, que p 3 p 2. Prosseguindo desta maneira, podemos provar que p j p j 1, isto é, p j divide p j 1, j = 1,..., r. Então p r p r 1... p 2 p 1. Parte IV. Unicidade. O número r e os polinômios p 1,..., p r são determinados de modo único pelas condições do Teorema. Suponhamos que, além dos vetores não-nulos v 1,..., v r, existem outros vetores não-nulos u 1,..., u s com respectivos T anuladores g 1,..., g s, tais que V = W 0 Z(u 1, T)... Z(u s, T) g k gk 1, k = 1,..., s. Mostraremos que r = s e p i = g i para todo i. Seja S(V, W 0 ) = {g K[x] g(t)(v) W 0 }. É fácil ver que S(V, W 0 ) é um ideal não-nulo, pois W 0 é T invariante e o polinômio minimal pertence a S(V, W 0 ). Seja g o gerador unitário de S(V, W 0 ). Vamos mostrar que g 1 = g. Seja v V. Então, existe w 0 W e existem f 1,..., f s K[x], tais que v = w 0 + f 1 (T)(u 1 ) f s (T)(u s ). J. Delgado - K. Frensel 203 Instituto de Matemática - UFF

210 Decomposição Cíclica e a Forma Racional Portanto, g 1 (T)(v) = g 1 (T)(w 0 ) + g 1 (T)f 1 (T)(u 1 ) g 1 (T)f s (T)(u s ). Como g i divide g 1, i = 1,..., s, temos que g 1 (T)f k (T)(u k ) = 0, k = 1,..., s. Logo, g 1 (T)(v) = g 1 (T)(w 0 ) W 0. Ou seja, g 1 S(V, W 0 ). Então, g divide g 1. Afirmação: g 1 = s(u 1, W 0 ). Seja f = s(u 1, W 0 ). Como g 1 S(u 1, W 0 ), temos que f divide g 1. Por outro lado, f(t)(u 1 ) W 0 Z(u 1, T) = {0}. Logo, f(t)(u 1 ) = 0. Então, g 1 divide f. Assim, g 1 = f = s(u 1, W 0 ). Como S(V, W 0 ) S(u 1, W 0 ), temos que g 1 divide g. Logo, g = g 1. Pelos mesmos argumentos, podemos provar que g = p 1. Assim, p 1 = g 1. Observação 2.2 Quando W 0 = {0}, temos que o gerador unitário g do ideal S(V, {0}) é o polinômio minimal de T. Logo, acabamos de provar que: se T é um operador linear sobre um espaço vetorial de dimensão finita V, existe v V tal que o T anulador de v é o polinômio minimal de T. Antes de continuar com a demonstração do Teorema 2.1, provaremos os seguintes resultados: (1) f(t)(z(v, T)) = Z(f(T)(v), T). Se w Z(v, T), existe g K[x] tal que w = g(t)(v). Logo, f(t)(w) = f(t)g(t)(v) = g(t)f(t)(v), ou seja, f(t)(w) Z(f(T)(v), T). Se w Z(f(T)(v), T), existe g K[x] tal que w = g(t)f(t)(v) = f(t)g(t)(v). Logo, como g(t)(v) Z(v, T), temos que w f(t)(z(v, T)). (2) Se V = V 1... V k, onde cada V i é T invariante, então f(t)(v) = f(t)(v 1 )... f(t)(v k ). Seja v f(t)(v). Então, existe w V tal que v = f(t)(w). Sejam w i V i, i = 1,..., k, tais que w = w w k. Então, v = f(t)(w) = f(t)(w 1 )+...+f(t)(w k ). Como f(t)(w i ) f(t)(v i ), i = 1,..., k, temos que f(t)(v) f(t)(v 1 ) f(t)(v k ). J. Delgado - K. Frensel 204 Instituto de Matemática - UFF

211 Decomposição Cíclica e a Forma Racional Seja, agora, v f(t)(v 1 ) f(t)(v k ). Então, existem v i V i, i = 1,..., k, tais que v = f(t)(v 1 ) f(t)(v k ) = f(t)(v v k ). Ou seja, v f(t)(v). Logo, f(t)(v) = f(t)(v 1 ) f(t)(v k ). Vamos, agora, provar que: (f(t)(v 1 ) f(t)(v j 1 )) f(t)(v j ) = {0}, j = 2,..., k. Seja v (f(t)(v 1 ) f(t)(v j 1 )) f(t)(v j ). Então, existem v i, i = 1,..., j, tais que v = f(t)(v 1 ) f(t)(v j 1 ) = f(t)(v j ), ou seja, v = f(t)(v v j 1 ) = f(t)(v j ). Mas, como cada V i é T invariante, temos que f(t)(v v j 1 ) V V j 1, e f(t)(v j ) V j. Logo, v = 0, pois (V V j 1 ) V j = {0}. (3) Se v e w têm o mesmo T anulador, então f(t)(v) e f(t)(w) têm o mesmo T anulador e, portanto, dim(z(f(t)(v), T)) = dim(z(f(t)(w), T)). Seja g K[x] um polinômio pertencente ao T anulador de f(t)(v). Então, g(t)f(t)(v) = 0, ou seja gf pertence ao T anulador de v. Logo, p v divide gf, ou seja, existe h K[x], tal que gf = p v h. Mas, como p v = p w, temos que gf = p w h = hp w. Assim, g(t)f(t)(w) = h(t)p w (T)(w) = 0, ou seja, g pertence ao T anulador de f(t)(w). De modo análogo, podemos provar que se g K[x] pertence ao T anulador de w, então g pertence ao T anulador de v. Podemos, finalmente, concluir a demonstração do Teorema 2.1. Mostraremos que r = s e p i = g i, i = 2,..., r. Seja r 2, dim(w 0 ) + dim(z(v 1, T)) < dim(v). Como p 1 = g 1, dim(z(v 1, T)) = grau(p 1 ) = grau(g 1 ) = dim(z(v 1, T)). J. Delgado - K. Frensel 205 Instituto de Matemática - UFF

212 Decomposição Cíclica e a Forma Racional Logo, dim(w 0 ) + dim(z(v 1, T)) < dim(v). Então, s 2. Mostraremos, agora, que p 2 = g 2. De (2), provado acima, temos que p 2 (T)(V) = p 2 (T)(W 0 ) p 2 (T)(Z(v 1, T)) p 2 (T)(Z(v 2, T))... p r (T)(Z(v r, T)). Logo, por (1), pois p 2 (T)(V) = p 2 (T)(W 0 ) Z(p 2 (T)(v 1 ), T), p 2 (T)(Z(v i, T)) = Z(p 2 (T)(v i ), T) = {0}, já que p i divide p 2, i 2 (= p 2 (T)(v i ) = 0, i 2). Também, por (2) e (1), p 2 (T)(V) = p 2 (T)(W 0 ) Z(p 2 (T)(u 1 ), T)... Z(p 2 (T)(u j ), T). Como v 1 e u 1 têm o mesmo T anulador, temos, por (3), que p 2 (T)(v 1 ) e p 2 (T)(u 1 ) tem o mesmo T anulador e dim(z(p 2 (T)(v 1 ), T)) = dim(z(p 2 (T)(u 1 ), T)). Logo, Z(p 2 (T)(u i ), T) = {0}, se i 2, ou seja, p 2 (T)(u i ) = 0, se i 2. Em particular, p 2 (T)(u 2 ) = 0. Logo, g 2 divide p 2. Se invertermos o argumento, podemos mostrar que p 2 divide g 2. Logo, g 2 = p 2. Prosseguindo desta maneira, chegaremos que r = s e p i = g i, i = 1,..., r. Corolário 2.1 Se T é um operador linear sobre um espaço vetorial V de dimensão finita, então, todo subespaço T admissível possui um subespaço suplementar que também é T invariante. Prova. Seja W 0 um subespaço T admissível de V. Se W 0 = V, o seu suplementar é {0}. Se W 0 é próprio, seja W 0 = Z(v 1, T)... Z(v r, T), dado pelo Teorema anterior. Então W 0 é T invariante e V = W 0 W 0. J. Delgado - K. Frensel 206 Instituto de Matemática - UFF

213 Decomposição Cíclica e a Forma Racional Corolário 2.2 Seja T um operador linear sobre um espaço vetorial V de dimensão finita. Então: (a) Existe um vetor v V tal que o T anulador de v é o polinômio minimal de T. (b) T possui um vetor cíclico se, e somente se, os polinômios característicos e minimal de T são iguais. Prova. (a) Fazendo W 0 = {0} no Teorema anterior, temos que V = Z(v 1, T)... Z(v r, T), onde p r p r 1... p 2 p 1. Seja p m o polinômio minimal de T. Como p m (T)(v) = 0, v V, temos que p i p m, i = 1,..., r. Em particular, p 1 p m. Seja, agora, v V. Então, existem w i Z(v i, T), i = 1,..., r, tais que v = w w r. Logo, p 1 (T)(v) = p 1 (T)(w 1 ) p 1 (T)(w r ) = 0, pois p i p 1 e p i (T)(v i ) = 0, i = 1,..., r. Assim, p m p 1. Portanto, p m = p 1. (b) Se T possui um vetor cíclico v, então V = Z(v, T). Logo, por (a), p m = p v, onde p m é o polinômio minimal de T. Mas, como grau(p v ) = dim(z(v, T)) = dim(v), temos que p m é o polinômio característico p c de T. Se p m = p c, temos que grau(p m ) = grau(p c ) = dim(v). Logo, grau(p 1 ) = grau(p m ) = dim(v). Assim r = 1 na decomposição cíclica, ou seja, V = Z(v 1, T). Então v 1 é um vetor cíclico de T. J. Delgado - K. Frensel 207 Instituto de Matemática - UFF

214 Decomposição Cíclica e a Forma Racional Teorema Generalizado de Cayley- Hamilton Teorema 2.2 Seja T um operador linear sobre um espaço vetorial de dimensão finita. Sejam p m e p c os polinômios minimal e característico de T, respectivamente. Então: (a) p m divide p c. (b) p m e p c possuem os mesmos fatores primos a menos de multiplicidades. (c) Se p m = f r f r k k, é a decomposição de p m em fatores primos, então p c = f d fd k k, onde d i é a nulidade de f i (T) r i dividida pelo grau de fi, ou seja, d i = dim(ker(f i(t) r i)) grau(f i ). Prova. Seja V = Z(v 1, T)... Z(v r, T) a decomposição cíclica do operador T, e seja p i o T anulador de v i, i = 1,..., r. Seja T i = T Z(vi,T). Como v i é um vetor cíclico de T i, temos, pelo Corolário anterior, que p i é o polinômio minimal e o polinômio característico de T i. Logo, como cada Z(v i, T) é T invariante, temos p c = p 1... p r. Temos, também, que p m primo de p m é um fator primo de p c. = p 1. Logo, p m divide p c, ou seja, todo fator Se f é um fator primo de p c, então f divide p m = p 1... p r. Logo, existe i tal que f divide p i. Como p i divide p 1, i = 1,..., r, temos que p i divide p 1 = p m. Então, f divide p m. Pelo Teorema da Decomposição Primária, V = V 1... V k, onde p m = f r f r k k é a decomposição de p m em fatores primos e V i = Ker(p r i i ), i = 1,..., k. Como o polinômio minimal de T i = T Vi é f r i i, aplicando (b) ao operador T i, temos que f d i i, d i r i, é o polinômio característico de T i. Logo, d i grau(f i ) = dim(v i ), ou seja, J. Delgado - K. Frensel 208 Instituto de Matemática - UFF

215 Decomposição Cíclica e a Forma Racional d i = dim(ker(fr i i (T))). grau(f i ) Como cada V i é T invariante, temos que p c = f d fd k k. Observação 2.3 Se o polinômio minimal de T p m = (x c 1 ) r 1... (x ck ) r k, é um produto de potências de fatores lineares distintos, então p c = (x c 1 ) d 1... (x ck ) d k, onde d i = dim(ker(t c i I) r i ), i = 1,..., k. Corolário 2.3 Se T é um operador linear nilpotente sobre um espaço vetorial V de dimensão n, então x n é o seu polinômio característico. Prova. Seja k um inteiro positivo tal que T k = O. Então, p m divide x k. Logo, x é o único fator primo de p m e de p c. Como p c tem grau n, temos que p c = x n. Observação 2.4 Seja T um operador linear sobre um espaço vetorial de dimensão finita n. Sejam v 1,..., v r vetores não-nulos de V tais que (1) V = Z(v 1, T)... Z(v r, T); (2) p i+1 divide p i, i = 1,..., r 1. onde p i é o T anulador de v i, i = 1,..., r. Como T i = T Z(vi,T) possui o vetor cíclico v i, temos que p i é o polinômio minimal de T i e, também, o polinômio característico de T i. Seja B i = {v i, T(v i ),..., T ki 1 (v i )} uma base de Z(v i, T), onde k i = dim(z(v i, T)) = grau(p i ), i = 1,..., r. Então, [T i ] Bi é a matriz associada ao polinômio unitário não-constante p i, i = 1,..., r. Se B é a base ordenada de V obtida pela reunião das B i ordenadas da forma B 1, B 2,..., B r, temos que J. Delgado - K. Frensel 209 Instituto de Matemática - UFF

216 Decomposição Cíclica e a Forma Racional A 1 O O O A [T] B = 2 O......, O O A r onde A i é a matriz k i k i associada ao polinômio unitário p i. Note que: O polinômio característico de T é p 1 p 2... p r. Definição 2.2 Dizemos que a matriz n n A está na forma racional se A 1 O O O A A = 2 O......, O O A r onde cada A i é a matriz associada a um polinômio unitário não-constante p i, tais que p i+1 divide p i, i = 1,..., r 1. Teorema 2.3 Seja B uma matriz n n com entradas no corpo K. Então, B é semelhante sobre K a uma única matriz na forma racional. Prova. Seja T o operador linear sobre K n que é representado por B em relação à base canônica. Pela observação anterior, existe uma base de K n em relação à qual T é representado por uma matriz A na forma racional. Então, B é semelhante à matriz A, que está na forma racional. Suponhamos que B seja semelhante sobre K a uma outra matriz C na forma racional. Então, existe uma matriz P invertível tal que C = P 1 BP. Os vetores colunas de P formam uma base B de K n tal que C 1 O O O C [T] B = C = 2 O......, O O C s onde cada C i é uma matriz r i r i associada a um polinômio unitário nãoconstante g i = x r i + c i ri 1 xri c i 0, de modo que g i+1 divide g i, i = 1,..., s 1. Assim, existem vetores w 1,..., w s pertencentes à base B tais que: J. Delgado - K. Frensel 210 Instituto de Matemática - UFF

217 Decomposição Cíclica e a Forma Racional B = {w 1, T(w 1 ),..., T r1 1 (w 1 ), w 2, T(w 2 ),..., T r2 1 (w 2 ),..., w s, T(w s ),..., T rs 1 (w s )} ; T r i (wi ) = c i 0 w i c i 1 T(w i)... c i r i 1 T ri 1 (w i ). Logo, B i = {w i, T(w i ),..., T ri 1 (w i )} é uma base de Z(w i, T) e g i é o T anulador de w i, pois g i (T)(w i ) = 0 e grau(g i ) = dim(z(w i, T)) = r i. Assim, K n = Z(w 1, T)... Z(w s, T) e g i+1 divide g i, i = 1,..., s 1. Pela unicidade da decomposição cíclica, s = r e g i = p i, i = 1,..., r. Portanto, C = A. Observação 2.5 A forma racional de um operador T sobre um espaço vetorial V de dimensão finita é a matriz [T] B, onde B é uma base de V tal que [T] B está na forma racional. Exemplo 2.1 Seja T um operador linear sobre um espaço vetorial V de dimensão dois. Se o polinômio minimal de T tem grau 1, p m = x c, então T = ci. Sejam v 1, v 2 V vetores LI. Então ( ) c 0 V = Z(v 1, T) Z(v 2, T), p 1 = p 2 = x c e [T] B =, 0 c onde B = {v 1, v 2 }. Se o polinômio minimal p m = x 2 + ax + b tem grau dois, então p c = p m. Logo, T possui um vetor cíclico v 1 e uma base {v 1, T(v 1 )} tal que V = Z(v 1, T) e ( ) 0 b [T] B =. 1 a Para matrizes, essa análise diz que toda matriz 2 2 sobre o corpo K é semelhante sobre K a exatamente uma matriz dos tipos: ( ) ( ) c 0 0 b ou. 0 c 1 a J. Delgado - K. Frensel 211 Instituto de Matemática - UFF

218 Decomposição Cíclica e a Forma Racional Exemplo 2.2 Seja T o operador linear sobre R 3 que é representado, em relação à base canônica pela matriz A = Vimos, no exemplo 2.1, que p m = (x 1)(x 2) 2 é o polinômio característico de T e p m = (x 1)(x 2) = x 2 3x + 2 é o polinômio minimal de T. Como, na decomposição cíclica, o T anulador do primeiro vetor v 1 é o polinômio minimal, temos que dim(z(v 1, T)) = 2. Portanto, na decomposição, aparece apenas mais um vetor v 2, sendo dim(z(v 2, T)) = 1, ou seja, v 2 é um vetor característico de T. O T anulador de v 2 é p 2 = x 2, pois p c = p 1 p 2. Então, existe uma base ordenada B de V tal que [T] B = Como dim(z(v, T)) é igual a 1 ou a 2, se v 0, pois R 3 tem dimensão 3 e T não possui vetor cíclico, já que p m p c, temos que e 1 = (1, 0, 0) gera um subespaço T cíclico de dimensão 2, pois T(e 1 ) = (5, 1, 3) não é múltiplo de e 1. Podemos, então, fazer v 1 = e 1. O subespaço Z(e 1, T) consiste dos vetores ae 1 + bt(e 1 ) = (a + 5b, b, 3b), a, b R, ou seja, consiste de todos os vetores (x 1, x 2, x 3 ) tais que x 3 = 3x 2. Devemos achar agora um vetor v 2 0, tal que T(v 2 ) = 2v 2 e v 2 Z(v 1, T). Se v = (x 1, x 2, x 3 ), pode-se verificar facilmente que T(v) = 2v se, e somente se, x 1 = 2x 2 + 2x 3. Assim, v 2 = (2, 1, 0) satisfaz T(v 2 ) = 2v 2 e v 2 Z(v 1, T). Podemos, então, tomar B = {e 1, T(e 1 ), v 2 } = {(1, 0, 0), (5, 1, 3), (2, 1, 0)}. J. Delgado - K. Frensel 212 Instituto de Matemática - UFF

219 Decomposição Cíclica e a Forma Racional Observação 2.6 Seja T um operador linear diagonalizável sobre um espaço vetorial V de dimensão finita. Sejam c 1,..., c k os valores característicos distintos de T e seja W i o espaço dos vetores característicos associados ao valor característico c i. Então, e onde d i = dim(w i ). V = W 1... W k, p c = (x c 1 ) d 1... (x ck ) d k, Vamos, agora, determinar a decomposição cíclica de T a partir de uma base que diagonaliza a matriz de T. Seja v V. Então existem v i W i, i = 1,..., k, tais que v = v v k. Como T(v i ) = c i v i, temos que f(t)(v) = f(c 1 )(v 1 ) f(c k )(v k ) para todo polinômio f K[x]. Sabemos que dados escalares arbitrários t 1,..., t k, existe um polinômio f tal que f(c i ) = t i, i = 1,..., k. Logo, Z(v, T) é o subespaço gerado pelos vetores v 1,..., v k. Temos, por (I), que f(t)(v) = 0 se, e somente se, f(c i )(v i ) = 0, i = 1,..., k. todo i tal que v i 0. Portanto, f(t)(v) = 0 se, e somente se f(c i ) = 0, para Assim, o T anulador de v é o produto (x c i ). i ; v i 0 Seja B i = {v i 1,..., vi d i } base de W i e seja r = max 1 i k d i. (I) Definimos v 1,..., v r por v j = i ; d i j v i j, 1 j r. Logo, o subespaço Z(v j, T) é gerado pelos vetores v i j tais que d i j, e o T anulador de v j é p j = p vj = (x c i ), i ; d i j J. Delgado - K. Frensel 213 Instituto de Matemática - UFF

220 Decomposição Cíclica e a Forma Racional sendo p v1 = n (x c i ) = p m. i=1 Logo, V = Z(v 1, T)... Z(v r, T), pois cada v i j, i = 1,..., k, j = 1..., d i, pertence a um e somente um dos subespaços Z(v 1, T),..., Z(v r, T), e B = B 1... B r é uma base de V. Além disso, p j+1 divide p j para todo j = 1,..., r 1, pois se x c i é fator de p j+1, então x c i é um fator de p j, já que d i j + 1 implica que d i j. J. Delgado - K. Frensel 215 Instituto de Matemática - UFF

221 Decomposição Cíclica e a Forma Racional J. Delgado - K. Frensel 216 Instituto de Matemática - UFF

222 Forma Canônica de Jordan 1. Forma Canônica Racional dos Operadores Nilpotentes Seja N um operador linear nilpotente de ordem k sobre um espaço vetorial V de dimensão n, ou seja, N k = O e N k 1 O, onde k n. Pelo Teorema da Decomposição Cíclica, existe um número inteiro positivo r e r vetores não-nulos v 1,..., v r em V com N anuladores p 1,..., p r tais que V = Z(v 1, N)... Z(v r, N), e p i+1 divide p i, i = 1,..., r 1. Como N é nilpotente de ordem k, temos que p m = x k é o polinômio minimal de N. Assim, p 1 = x k e p i = x k i, onde k 1 = k k 2... k r. A matriz associada ao polinômio x k i é a matriz ki k i A i = , que é denominada matriz nilpotente elementar de ordem k i, cujo polinômio minimal, que é igual ao seu polinômio característico, é x k i. Então, pelo Teorema da Decomposição Cíclica, existe uma base ordenada B, tal que 217

223 Forma Canônica Racional dos Operadores Nilpotentes A 1 O O O A [N] B = 2 O......, O O A r onde cada A i é uma matriz nilpotente elementar de ordem k i, k 1 = k, k k r = n e k 1 k 2... k r. Esses inteiros positivos r e k 1,..., k r, determinam a forma racional do operador N. Observação 1.1 O número r de blocos é igual à dimensão do núcleo de N, ou melhor, {N k1 1 (v 1 ),..., N kr 1 (v r )} é uma base de Ker(N). De fato, seja v Ker(N). Como V = Z(v 1, N)... Z(v r, N), existem polinômios f i K[x], tais que: v = f 1 (N)(v 1 ) f r (N)(v r ), sendo grau(f i ) k i 1. Como N(v) = 0, temos que 0 = N(v) = N f 1 (N)(v 1 ) N f r (N)(v r ) = (xf 1 )(N)(v 1 ) (xf r )(N)(v r ). Logo, (xf i )(N)(v i ) = 0, i = 1,..., r. Como x k i é o N anulador de vi, temos que x k i divide x fi. Sendo grau(f i ) k i 1, temos que grau(f i ) = k i 1 e f i = c i x ki 1, para algum c i K. Assim, v = c 1 N k1 1 (v 1 ) c r N kr 1 (v r ). Observe que cada N ki 1 (v i ) Ker(N), pois N(N ki 1 )(v i ) = N k i (vi ) = 0, já que x k i é o N anulador de vi. Então, {N k1 1 (v 1 ),..., N kr 1 (v r )} é uma base do núcleo de N, pois os vetores N ki 1 (v i ), i = 1,..., r, são LI e geram Ker(N). A matriz A 1 O... O O A A = 2... O......, O O... A r dada acima, é chamada forma canônica do operador nilpotente N. J. Delgado - K. Frensel 218 Instituto de Matemática - UFF

224 Cálculo da Forma Canônica dos Operadores Nilpotentes 2. Cálculo da Forma Canônica dos Operadores Nilpotentes Teorema 2.1 Seja N um operador linear nilpotente de ordem n sobre um espaço vetorial V de dimensão finita. Seja ν k o número de blocos k k na forma canônica de N e δ k = dim(ker(n k )), k = 1,... n. Então: (1) δ m = kν k + m ν j, m = 1,..., n. 1 k<m m j n (2) Temos ν 1 = 2δ 1 δ 2 ; ν k = δ k 1 + 2δ k δ k+1, 1 < k < n ν n = δ n 1 + δ n. Fazendo δ 0 = 0 e δ n+1 = δ n, podemos escrever as três relações acima na forma geral ν k = δ k 1 + 2δ k δ k+1 Prova. Seja δ 1 = dim(ker(n)). Como δ 1 é igual ao número de blocos, temos que δ 1 = ν ν n, provando (1) no caso m = 1. Seja δ 2 = dim(ker(n 2 )). Como Ker(N) Ker(N 2 ), temos que cada bloco 1 1 contribui com uma dimensão ao Ker(N 2 ). Se k 2, cada bloco k k contribui com duas dimensões ao Ker(N 2 ). De fato, se {w, N(w),..., N k 1 (w)} é a parte da base B de V que dá origem a um bloco de ordem k k, temos, fazendo w j = N j 1 (w), j = 1,..., k, que N 2 (w j ) = N 2 (N j 1 )(w) = N j+1 (w) = 0, se, e somente se, j + 1 k, ou seja j = k 1 ou j = k. Logo, δ 2 = ν 1 + 2ν 2 + 2ν ν n, provando (1) no caso m = 2. J. Delgado - K. Frensel 219 Instituto de Matemática - UFF

225 Cálculo da Forma Canônica dos Operadores Nilpotentes Caso geral. Seja δ k = dim(ker(n k )). Cada bloco j j, com j k 1, contribui com j dimensões ao Ker(N k ), pois Ker(N j ) Ker(N k ) e x j é o polinômio unitário associado a um bloco j j. Se j k, cada bloco j j contribui com k dimensões ao Ker(N k ). De fato, se {w, N(w),..., N j 1 (w)} é a parte da base B de V que dá origem a um bloco de ordem k k, temos, fazendo w i = N i 1 (w), i = 1,..., j, que N k (w i ) = N k (N i 1 )(w) = N k+i 1 (w) = 0. se, e só se, k + i 1 j, ou seja i j k + 1. Então, N k (w i ) = 0 para k valores de i. Provamos, assim, que Como e temos que Logo, j (k 1), j (k 2),..., j (k k) δ k = 1ν 1 + 2ν (k 1)ν k 1 + k(ν k ν n ). δ k 1 = ν 1 + 2ν (k 1)ν k 1 + (k 1)(ν k ν n ), δ k = ν 1 + 2ν (k 1)ν k 1 + kν k + k(ν k ν n ), δ k δ k 1 = ν k ν n. 2δ 1 δ 2 = δ 1 (δ 2 δ 1 ) = ν ν n (ν ν n ) = ν 1 δ k 1 + 2δ k δ k+1 = (δ k δ k 1 ) (δ k+1 δ k ) δ n 1 + δ n = ν n. = ν k ν n (ν k ν n ) = ν k, se 1 < k < n Exemplo 2.1 Seja T o operador linear sobre R 3 que é representado em relação à base canônica pela matriz A = J. Delgado - K. Frensel 220 Instituto de Matemática - UFF

226 Cálculo da Forma Canônica dos Operadores Nilpotentes Como e A 2 = = , A 3 = = , temos que T é um operador nilpotente de ordem 3, com polinômio minimal x 3. Assim, a forma canônica de T possui somente um bloco de ordem 3 3: B = Ou seja, a matriz A é semelhante à matriz B. Exemplo 2.2 Seja T o operador linear sobre R 4 representado em relação à base canônica pela matriz A = Como δ 1 = dim(ker(t)) = 2, temos que a matriz de T na forma canônica tem 2 blocos. Surgem, então, duas possibilidades: um bloco 3 3 e um bloco 1 1; dois blocos 2 2. Mas, como A 2 = O, temos que p m = x 2 é o polinômio minimal de T, ou seja, T é nilpotente de ordem 2. Logo, a matriz B na forma canônica de T tem dois blocos 2 2, ou seja, B = , sendo A semelhante a B. J. Delgado - K. Frensel 221 Instituto de Matemática - UFF

227 Cálculo da Forma Canônica dos Operadores Nilpotentes Exemplo 2.3 Seja T o operador linear sobre R 5 que é representado em relação à base canônica pela matriz A = Como A 2 = 0, temos que p m = x 2 é o polinômio minimal de T e, portanto, T é nilpotente de ordem 2. Além disso, δ 1 = dim(ker(n)) = 3, ou seja, a matriz de T na forma canônica tem 3 blocos, sendo o primeiro deles uma matriz 2 2. Logo, a matriz B, forma canônica de A, tem dois blocos 2 2 e um bloco 1 1, ou seja, B = , sendo A semelhante a B Exemplo 2.4 Determine todas as formas canônicas possíveis de uma matriz A, cujo polinômio minimal é p m = x 3 e cujo posto é 6. Determine, também, para cada caso possível, a dimensão de Ker(A 2 ). Como posto (A) = 6, temos que δ 1 = dim(ker(a)) = 4, ou seja, a forma canônica de A tem 4 blocos. Além disso, δ 3 = dim(ker(a 3 )) = 10, pois x 3 é o polinômio minimal de A. Sendo ν 1 = 2δ 1 δ 2 = 8 δ 2 0 ν 2 = δ 1 + 2δ 2 δ 3 = 2δ ν 3 = δ 2 + δ 3 = δ temos que 7 δ 2 8. J. Delgado - K. Frensel 222 Instituto de Matemática - UFF

228 Cálculo da Forma Canônica dos Operadores Nilpotentes Se δ 2 = Ker(N 2 ) = 7, ν 1 = 1, ν 2 = 0 e ν 3 = 3, ou seja, a matriz na forma canônica tem 3 blocos 3 3 e um bloco 1 1, sendo, portanto, Se δ 2 = Ker(A 2 ) = 8, então ν 1 = 0, ν 2 = 2 e ν 3 = 2, ou seja, a matriz na forma canônica tem dois blocos 3 3 e dois blocos 2 2, sendo, portanto, Vamos, agora, mostrar um método para determinar uma base B de V de modo que [N] B está na forma canônica. Suponhamos que N seja um operador nilpotente de ordem k, ou seja, N k = O e N k 1 O. Afirmação: N k 1 (V) N k 2 (V)... N(V) N 0 (V) = V. De fato, temos que, para j k 1, N k j (V) N k j 1 (V). Resta mostrar que N k j (V) N k j 1 (V). Seja J. Delgado - K. Frensel 223 Instituto de Matemática - UFF

229 Cálculo da Forma Canônica dos Operadores Nilpotentes N : N k j 1 (V) N k j (N) N k j 1 (V). Se N k j (V) = N(N k j 1 (V)) = N k j 1 (V), teríamos que N N k j 1 (V) seria sobrejetora e, portanto, injetora, que é uma contradição, conforme provaremos abaixo. Seja w V tal que N k 1 (w) 0. Como N k 1 (w) = N k j 1 (N j (w)) N k j 1 (V) e N(N k 1 (w)) = 0, temos que N N k j 1 (V) não é injetora. Seja {u 1,..., u νk } uma base de N k 1 (V). Então, existem w 1 1,..., w1 ν k V tais que N k 1 (w 1 i ) = u i, i = 1,..., ν k. Além disso, {w 1 1, N(w1 1 ),..., Nk 1 (w 1 1 )} {w1 2, N(w1 2 ),..., Nk 1 (w 1 2 )}... é um conjunto LI, pois se {w 1 ν k, N(w 1 ν k ),..., N k 1 (w 1 ν k )}, ν k ν k ν k w = a 1 i w 1 i + a 2 i N(w 1 i ) a k i N k 1 (w 1 i ) = 0, i=1 i=1 i=1 temos que N k 1 (w) = 0, ou seja, νk i=1 a1 i Nk 1 (w 1 i ) = 0, pois ( νk ) N k 1 a j+1 i N j (w 1 i ) i=1 ν k = i=1 a j+1 i N k+j 1 (w 1 i ) = 0, já que k + j 1 k, para j 1. Logo, a 1 i = 0, i = 1,..., ν k, pois {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )} é um conjunto LI. Aplicando N k 2 ao vetor ν k ν k a 2 i N(w 1 i ) a k i N k 1 (w 1 i ) = 0, i=1 i=1 obtemos que a 2 1 =... = a2 ν k = 0. J. Delgado - K. Frensel 224 Instituto de Matemática - UFF

230 Cálculo da Forma Canônica dos Operadores Nilpotentes Prosseguindo dessa maneira, chegaremos que a j i = 0, i = 1,..., ν k, j = 1,..., k. Os vetores do conjunto {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )} {N k 2 (w 1 1 ),..., Nk 2 (w 1 ν k )} são LI e pertencem ao subespaço N k 2 (V). Se esses vetores não geram N k 2 (V), existem vetores u 1,..., u νk 1 tais que N k 2 (u 1 ),..., N k 2 (u νk 1 ) completam a base acima. Afirmação: Podemos substituir cada u i por um vetor w 2 i que os vetores N k 2 (w 2 1 ),..., Nk 2 (w 2 ν k 1 ) de modo completem a base acima e, além disso, N k 1 (w 2 i ) = 0, i = 1,..., ν k 1. De fato, como N(N k 2 (u i )) = N k 1 (u i ) N k 1 (V), existem escalares λ i 1,..., λi ν k, tais que N(N k 2 (u i )) = N k 1 (u i ) = λ i 1 Nk 1 (w 1 1 ) λi ν k N k 1 (w 1 ν k ). Então Fazendo N(N k 2 (u i λ i 1 w λi ν k w 1 ν k )) = 0. w 2 i = u i λ i 1 w λi ν k w 1 ν k, temos que N k 1 (w 2 i ) = 0 e N k 2 (w 2 i ) = Nk 2 (u i ) λ i 1 Nk 2 (w 1 1 )... λi ν k N k 2 (w 1 ν k ). Logo, o subespaço gerado por {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )} {N k 2 (w 1 1 ),..., Nk 2 (w 1 ν k )} {N k 2 (w 2 1 ),..., Nk 2 (w 2 ν k 1 )} é igual ao subespaço N k 2 (V), gerado por {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )} {N k 2 (w 1 1 ),..., Nk 2 (w 1 ν k )} {N k 2 (u 1 ),..., N k 2 (u νk 1 )}. Além disso, J. Delgado - K. Frensel 225 Instituto de Matemática - UFF

231 Cálculo da Forma Canônica dos Operadores Nilpotentes {N k 1 (w 1 1 ),..., w1 1 }... {Nk 1 (w 1 ν k ),..., w 1 ν k } {N k 2 (w 2 1 ),..., w2 1 }... {Nk 2 (w 2 ν k 1 ),..., w 2 ν k 1 } é um conjunto LI, pois uma combinação linear desses vetores se escreve na forma N k 1 (v 0 ) + N k 2 (v 1 ) v k 1 + N k 2 (w 0 ) +N k 3 (w 1 ) w k 2 = 0, (I) onde e v i = a i 1 w ai ν k w 1 ν k, i = 0, 1,..., k 1, w j = b j 1 w bj ν k 1 w 2 ν k 1, j = 0, 1,..., k 2. Aplicando N k 1 à expressão (I), obtemos que N k 1 (v k 1 ) = 0, pois N k 1 (w j ) = 0, j = 0, 1,..., k 2, e N k 1 (N k (i+1) (v i )) = N 2k i 2 (v i ) = 0, i = 0, 1,..., k 2, já que k 1 + k (i + 1) = k + k 2 i k. e Como 0 = N k 1 (v k 1 ) = a k 1 1 N k 1 (w 1 1 ) ak 1 ν k N k 2 (w 1 ν k ) {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )}, é LI, temos que a k 1 i = 0, i = 0, 1,..., k 1, ou seja, v k 1 = 0. Assim, N k 1 (v 0 ) N(v k 2 ) + N k 2 (w 0 ) w k 2 = 0. (II) ou seja, Aplicando N k 2 à expressão (II), obtemos que N k 1 (v k 2 ) + N k 2 (w k 2 ) = 0, 0 = a k 2 1 N k 1 (w 1 1 ) ak 2 N k 1 (w 1 ν k ) + b k 2 1 N k 2 (w 2 1 ) Como b k 2 ν k 1 N k 2 (w 2 ν k 1 ). {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k ), N k 2 (w 2 1 ),..., Nk 2 (w 2 ν k 1 )} é um conjunto LI, temos que ν k J. Delgado - K. Frensel 226 Instituto de Matemática - UFF

232 Cálculo da Forma Canônica dos Operadores Nilpotentes a k 2 1 =... = a k 2 ν k = b k 2 1 =... = b k 2 ν k 1 = 0. Então, v k 2 = w k 2 = 0. Prosseguindo dessa maneira, chegamos que N k 1 (v 0 ) + N k 2 (w 0 ) = 0. Logo, a 0 1 =... = a0 ν k = b 0 1 =... = b0 ν k 1 = 0, pois {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )} {N k 2 (w 2 1 ),..., Nk 2 (w 2 ν k 1 )}, é um conjunto LI. Os vetores do conjunto {N k 1 (w 1 1 ),..., Nk 1 (w 1 ν k )} {N k 2 (w 1 1 ),..., Nk 2 (w 1 ν k )} {N k 3 (w 1 1 ),..., Nk 3 (w 1 ν k )} {N k 2 (w 2 1 ),..., Nk 2 (w 2 ν k 1 )} {N k 3 (w 2 1 ),..., Nk 3 (w 2 ν k 1 )} são LI e pertencem ao subespaço N k 3 (V). Se esses vetores não geram N k 3 (V), existem vetores w 3 1,..., w3 ν k 2 tais que os vetores N k 3 (w 3 1 ),..., Nk 3 (w 3 ν k 2 ) completam a base acima. Podemos supor, também, como fizemos anteriormente, que N(N k 3 (w 3 i )) = Nk 2 (w 3 i ) = 0, i = 1,..., ν k 2. Continuando dessa maneira até chegarmos a V = N 0 (V) N(V), obteremos a base procurada. J. Delgado - K. Frensel 227 Instituto de Matemática - UFF

233 V = N 0 (V) w 1 1,..., w1 νk, w2 1,..., w2 νk 1, w3 1,, w3 νk 2,..., wk 1 1,..., w k 1 ν2, [wk 1,..., wk ν1 ] N N N(V) N(w 1 1 ),..., N(w1 ), νk N(w2 1 ),..., N(w2 ), νk 1 N(w3 1 ),..., N(w3 ),..., [N(wk 1 νk 2 1 ),..., N(w k 1 )] ν2 N N N k 3 (V) N k 3 (w 1 1 ),..., Nk 3 (w 1 νk ), Nk 3 (w 2 1 ),..., Nk 3 (w 2 νk 1 ), [Nk 3 (w 3 1 ),..., Nk 3 (w 3 νk 2 )] N N N k 2 (V) N k 2 (w 1 1 ),..., Nk 2 (w 1 νk ), [Nk 2 (w 2 1 ),..., Nk 2 (w 2 νk 1 )] N N 0 0 N k 1 (V) N k 1 (w 1 1 ),..., Nk 1 (w 1 νk ), 0 0 Note que: Os vetores w 1 1,..., w1 determinam os ν νk k subespaços cíclicos Z(w 1 1, N),..., Z(w1, N) de dimensão k e, portanto, os blocos k k da νk forma canônica de Jordan de N. De modo geral, os vetores w j 1,..., wj ν k (j 1), j = 1,..., k, determinam os νk (j 1) subespaços cíclicos Z(w j 1, N),..., Z(wj ν k (j 1), N) de dimensão k (j 1) e, portanto, os blocos (k (j 1)) (k (j 1)) da forma canônica de Jordan de N.

234 Cálculo da Forma Canônica dos Operadores Nilpotentes Exemplo 2.5 Considere o operador N linear sobre R 5 que é representado em relação à base canônica pela matriz A = Como A 2 = O, temos que N é um operador nilpotente de ordem 2. Sendo N(e 1 ) = e 2, N(e 2 ) = 0, N(e 3 ) = 2e 5, N(e 4 ) = 3e 5 e N(e 5 ) = 0, o espaço N(R 5 ) é gerado por e 2 e e 5 e o conjunto {e 1, N(e 1 ), e 3, N(e 3 )} é LI. Como dim(n 0 (R 5 )) = 5, devemos determinar um vetor w 3 R 5 que complete esse conjunto LI a uma base de R 5 e tal que N(w 3 ) = 0. Sendo Ker(N) = {(x, y, z, w, t) x = 0, e 2z + 3w = 0}, temos que, para w 3 = (0, 0, 3, 2, 0), N(w 3 ) = 0 e B = {w 1, N(w 1 ), w 2, N(w 2 ), w 3 } é uma base de R 5, onde w 1 = e 1 e w 2 = e 3. Logo, R 5 = Z(w 1, N) Z(w 2, N) Z(w 3, N), é uma decomposição cíclica de N, onde p 1 = p 2 = p m = x 2 e p 3 = x são os N anuladores de w 1, w 2 e w 3, respectivamente. Temos, também, que [N] B = , 0 é a matriz do operador N na forma canônica racional. Exemplo 2.6 Seja N o operador linear sobre R 5 que é representado em relação à base canônica pela matriz A = J. Delgado - K. Frensel 229 Instituto de Matemática - UFF

235 Cálculo da Forma Canônica dos Operadores Nilpotentes Como A 2 = , A3 = e A 4 = O, temos que N é um operador nilpotente de ordem 4. Como {2e 3 = N 3 (e 1 )} é uma base de N 3 (R 5 ), temos que {N 3 (e 1 ), N 2 (e 1 ) = 2e 4 } é um conjunto LI contido em N 2 (R 5 ). Sendo dim(n 2 (R 5 )) = 2, {N 3 (e 1 ), N 2 (e 1 )} é uma base de N 2 (R 5 ). Temos, também, que o conjunto LI {N 3 (e 1 ), N 2 (e 1 ), N(e 1 ) = e 2 } é uma base de N(R 5 ), pois dim(n(r 5 )) = 3. Como {N 3 (e 1 ), N 2 (e 1 ), N(e 1 ), e 1 } é LI e dim(r 5 ) = 5, devemos determinar w 2 R 5 que completa a base e satisfaz N(w 2 ) = 0. Sendo Ker(N) = {(x, y, z, w, t) x = y = w = 0}, temos que para w 2 = e 5, N(w 2 ) = 0 e B = {e 1, N(e 1 ), N 2 (e 1 ), N 3 (e 1 ), w 2 } é uma base de R 5. Assim, R 5 = Z(w 1, N) Z(w 2, N), onde w 1 = e 1, é uma decomposição cíclica de N. Além disso, p 1 = p m = x 4 e p 2 = x são os N anuladores de w 1 e w 2, respectivamente. A matriz de N em relação à base B [N] B = , 0 é a matriz do operador N na forma canônica racional. Exemplo 2.7 Seja V = P 6 (R) = {f R[x] grau(f) 6} e seja N = D 2 o operador linear sobre P 6 (R) dado pela derivação de ordem 2. Temos que N(V) = P 4 (R) (polinômios reais de grau 4); N 2 (V) = D 4 (P 6 (R)) = P 2 (R) (polinômios reais de grau 2); N 3 (V) = D 6 (P 6 (R)) = {f R[x] grau(f) = 0 ou f O} e N 4 (V) = D 8 (P 6 (R)) = {O}. J. Delgado - K. Frensel 230 Instituto de Matemática - UFF

236 Cálculo da Forma Canônica dos Operadores Nilpotentes Logo, N é um operador nilpotente de ordem 4 e {N 3 (x 6 ) = D 6 (x 6 ) = 6!} é uma base de N 3 (V). Assim, {N 3 (x 6 ), N 2 (x 6 ) = D 4 (x 6 ) = 360x 2 } é um conjunto LI de vetores de N 2 (V). Como N 2 (V) = P 2 (R) tem dimensão 3, devemos achar um polinômio w 2 de modo que N(N 2 (w 2 )) = D 6 (w 2 ) = 0 e {N 3 (x 6 ), N 2 (x 6 ), N 2 (w 2 )} seja uma base de N 2 (V). Podemos tomar w 2 = x 5. Nesse caso, N 2 (x 5 ) = D 4 (x 5 ) = 120x. Temos que {N 3 (x 6 ), N 2 (x 6 ), N(x 6 ), N 2 (x 5 ), N(x 5 ) = D 2 (x 5 ) = 20x 3 } é um conjunto LI de vetores de N(V) = P 4 (R). Como dim(n(v)) = 5, temos que é uma base de N(V). {N 3 (x 6 ), N 2 (x 6 ), N(x 6 ), N 2 (x 5 ), N(x 5 )}, Como B = {x 6, N(x 6 ), N 2 (x 6 ), N 3 (x 6 ), x 5, N(x 5 ), N 2 (x 5 )} é um conjunto LI de vetores de N 0 (V) e dim(v) = 7, temos que esse conjunto é uma base de V. Logo, P 6 (R) = Z(w 1, N) Z(w 2, N), w 1 = x 6 e w 2 = x 5, é uma decomposição cíclica de N = D 2, onde p 1 = p m = x 4 e p 2 = x 3 são os N anuladores de w 1 e w 2, respectivamente. Além disso, [N] B = , é a matriz de N na forma canônica racional. Exemplo 2.8 Determine os blocos da forma canônica racional de um operador nilpotente N de ordem 5 sobre o espaço vetorial V, sabendo que dim(n 4 (V)) = 3, dim(n 2 (V)) = 11, dim(n(v)) = 16 e dim(v) = 23. Como dim(n 4 (V)) = 3, existem vetores w 1 1, w1 2 e w1 3 tais que B 1 = {N 4 (w 1 1 ), N4 (w 1 2 ), N4 (w 1 3 )} J. Delgado - K. Frensel 231 Instituto de Matemática - UFF

237 Cálculo da Forma Canônica dos Operadores Nilpotentes seja uma base de N 4 (V). Com isso, já sabemos que a matriz de N na forma canônica racional tem 3 blocos 5 5. Como B 2 = {N 4 (w 1 1 ), N3 (w 1 1 ), N4 (w 1 2 ), N3 (w 1 2 ), N4 (w 1 3 ), N3 (w 1 3 )} é um conjunto de vetores LI de N 3 (V) e dim(n 3 (V)) = 6, temos que esse conjunto é uma base de N 3 (V). Como B 3 = {N 4 (w 1 1 ), N3 (w 1 1 ), N2 (w 1 1 ), N4 (w 1 2 ), N3 (w 1 2 ), N2 (w 1 2 ), N 4 (w 1 3 ), N3 (w 1 3 ), N2 (w 1 3 )} é um conjunto de vetores LI de N 2 (V) e dim(n 2 (V)) = 11, existem dois vetores w 3 1 e w3 2 tais que N(N 2 (w 3 1 )) = N3 (w 3 1 ) = 0, N(N2 (w 3 2 )) = N3 (w 3 2 ) = 0 e B 3 {N 2 (w 3 1 ), N2 (w 3 2 )} é uma base de N2 (V). Com isso, temos que a matriz de N na forma canônica racional tem dois blocos 3 3. Como B 4 = {N 4 (w 1 1 ), N3 (w 1 1 ), N2 (w 1 1 ), N(w1 1 ), N4 (w 1 2 ), N3 (w 1 2 ), N2 (w 1 2 ), N(w1 2 ), N 4 (w 1 3 ), N3 (w 1 3 ), N2 (w 1 3 ), N(w1 3 ), N2 (w 3 1 ), N(w3 1 ), N2 (w 3 2 ), N(w3 2 )} é um conjunto LI de vetores de N(V) e dim(n(v)) = 16, temos que B 4 é uma base de N(V). Como B 5 = B 4 {w 1 1, w1 2, w1 3, w3 1, w3 2 } é um conjunto LI de vetores de N 0 (V) = V e dim(v) = 23, temos que existem dois vetores w 5 1 e w5 2 tais que N(w5 1 ) = N(w5 2 ) = 0 e B 5 {w 5 1, w5 2 } é uma base de V. Logo, a matriz de N na forma canônica racional tem 2 blocos 1 1. Outra maneira de resolver: Seja δ k = dim(ker(n k )) e seja ν k o número de blocos k k na forma canônica racional de N. J. Delgado - K. Frensel 232 Instituto de Matemática - UFF

238 Forma Canônica de Jordan Como dim(v) = 23, dim(n(v)) = 16, dim(n 2 (V)) = 11, dim(n 3 (V)) = 6, dim(n 4 (V)) = 3 e dim(n 5 (V)) = 0, temos que δ 1 = = 7, δ 2 = = 12, δ 3 = 23 6 = 17, δ 4 = 23 3 = 20, e δ 5 = 23 0 = 23 (δ 6 = 23). Então, ν 1 = 2δ 1 δ 2 = = 2, ν 2 = δ 1 + 2δ 2 δ 3 = = 0, ν 3 = δ 2 + 2δ 3 δ 4 = = 2, ν 4 = δ 3 + 2δ 4 δ 5 = = 0, ν 5 = δ 4 + 2δ 5 δ 6 = = 3. Assim, a forma canônica de N tem dois blocos 1 1, dois blocos 3 3 e três blocos Forma Canônica de Jordan Seja T um operador linear sobre um espaço vetorial V de dimensão finita n. Suponhamos que o polinômio característico de T se decomponha como um produto de fatores primos lineares p c = (x c 1 ) d 1... (x ck ) d k, onde c 1,..., c k são os autovalores distintos de T e d i 1, i = 1,..., k. Então, o polinômio minimal de T é p m = (x c 1 ) r 1... (x ck ) r k, onde 1 r i d i, i = 1,..., k. Se W i = Ker(T c i I) r i, o Teorema da Decomposição Primária nos diz que: V = W 1... W k, dim(w i ) = d i, (x c i ) r i é o polinômio minimal de T i = T Wi. Seja N i = T i c i I. Então, como já provamos anteriormente, N i é nilpotente e x r i é o seu polinômio minimal. J. Delgado - K. Frensel 233 Instituto de Matemática - UFF

239 Forma Canônica de Jordan Seja B i uma base de W i tal que [N i ] Bi está na forma canônica racional. Como T i = c i I + N i, [T i ] Bi = c i I + [N i ] Bi, onde I é a matriz identidade d i d i. Seja V i = Ker(T c i I) o autoespaço de T associado ao autovalor c i. Como dim(ker(n i )) = dim(ker(t i c i I)) = dim(ker(t c i I)), pois Ker(T c i I) W i, temos que se dim(ker(t c i )) = n i, onde n i d i, a matriz na forma racional de N i tem n i, a matriz na forma racional de T i tem n i blocos da forma c i c i c i , c i c i sendo que o primeiro bloco é uma matriz r i r i. Ou seja, [T i ] Bi = J i 1 J i 2,... J 1 n i d i d i onde cada J i j é da forma c i c i c J i j = i ci c i Definição 3.1 Uma matriz elementar de Jordan com autovalor c é uma matriz da forma c c c 0 0 J = c c J. Delgado - K. Frensel 234 Instituto de Matemática - UFF

240 Forma Canônica de Jordan Seja B = B 1 B 2... B k. Então, A 1 A [T] B = 2... A k, onde cada A i é uma matriz d i d i da forma A i = [T i ] Bi = J i 1 J i 2 n n... J i n i d i d i sendo cada J i j uma matriz elementar de Jordan com autovalor c i. Além disto, dentro de cada A i, as dimensões das matrizes J i j diminuem a medida que j aumenta., Dizemos que uma matriz que satisfaz as condições acima está sob a forma canônica de Jordan. Acabamos de mostrar que se T é um operador cujo polinômio característico se decompõe em um produto de fatores lineares sobre o corpo dos escalares, então existe uma base ordenada de V em relação à qual T é representado por uma matriz que está sob a forma canônica de Jordan. Unicidade: Se duas matrizes semelhantes estão sob a forma canônica de Jordan, então elas podem diferir apenas quanto à ordem dos autovalores. Seja B uma base de V tal que [T] B = à também esteja na forma canônica de Jordan. Seja à 1 à 2 [T] B = à =..,. à s n n onde cada matriz à i é da forma à i = J i 1 J i 2... J i s i l i l i, J. Delgado - K. Frensel 235 Instituto de Matemática - UFF

241 Forma Canônica de Jordan sendo cada J i j uma matriz elementar de Jordan com autovalor λ i, (λ i λ j, para i j). Como à é uma matriz triangular inferior, seu polinômio característico é da forma p c = (x λ 1 ) l 1... (x λs ) ls. Sendo A e à semelhantes, o polinômio característico de A p c = (x c 1 ) d 1... (x ck ) ls, é, também, o polinômio característico de Ã. Logo, s = k, {c 1,..., c k } = {λ 1,..., λ k } e, se c i = λ j, então d i = l j. Seja {c σ1,..., c σk } uma reordenação dos escalares {c 1,..., c k } tal que λ i = c σi, i = 1,..., k. Vamos mostrar que à i = A σi, i = 1,..., k. Seja B = {v 1 1,..., v1 l 1, v 2 1,..., v2 l 2,..., v k 1,..., vk l k } e seja W i o subespaço gerado por B i = {vi 1,..., vi l i }, i = 1,..., k. Então, cada subespaço W i é T invariante devido à forma da matriz à = [T] B ; [T W i ] B i V = W 1... W k. Afirmação: W i = Ker(T λ i I) n, i = 1,..., k. = à i e De fato, à 1 λ i I [T λ i I] B = à λ i I =... à i λ i I..., à k λ i I onde à i λ i I é uma matriz nilpotente de ordem menor ou igual a l i = d σi, e à j λ i I é invertível se j i, pois à j λ i I = (λ j λ i )I + N j, sendo N j nilpotente e λ j λ i. Logo, (à 1 λ i I) n... Na matriz ao lado, note que (à i λ i I) n O. [(T λ i I) n ] B = (à λ i I) n = (à i λ i I) n... (à k λ i I) n. J. Delgado - K. Frensel 236 Instituto de Matemática - UFF

242 Forma Canônica de Jordan Provamos, assim, que todo vetor da base B i pertence ao núcleo de (T λ i I) n, ou seja, W i Ker((T λ i I) n ) e que dim(ker((t λ i I) n )) = l i. Mas como dim( W i ) = l i, temos que W i = Ker((T λ i I) n ). Fazendo o mesmo com os subespaços T invariantes W i obtidos da base B, vemos que W j = Ker((T c j I) n ), j = 1,..., k. Como λ i = c σi, temos que W i = Ker((T λ i I) n ) = Ker((T c σi I) n ) = W σi. e Logo, [(T c σi I) W i ] Bσi = A σi c σi I, [(T c σi I) W i ] B i = à i c σi I = à i λ i I, estão na forma canônica racional. Pela unicidade, temos à i = A σi. Observação 3.1 (1) Seja K um corpo algebricamente fechado e T um operador linear sobre um espaço vetorial V de dimensão finita sobre K. Então existe uma base B tal que [T] B está na forma canônica de Jordan. (2) O operador T é diagonalizável se, e somente se, n i = d i, ou seja, dim(ker(t c i I)) é a multiplicidade de c i como raiz de p c, para todo i = 1,..., k. (3) Se o operador T é nilpotente, a forma canônica de Jordan de T é igual a sua forma racional. Exemplo 3.1 Seja T um operador linear sobre C 2. Então o polinômio característico de T pode ser (x c 1 )(x c 2 ), com c 1 c 2, ou (x c) 2. No primeiro caso, T é diagonalizável e é representado em relação a alguma base ordenada B por [T] B = ( ) c c 2 No segundo caso, o polinômio minimal de T pode ser x c ou (x c) 2. Se p m = x c, temos que T = ci e [T] B = ( ) c 0, 0 c J. Delgado - K. Frensel 237 Instituto de Matemática - UFF

243 Forma Canônica de Jordan para qualquer base B de C 2. Se p m = (x c) 2, existe uma base B de C 2 tal que ( ) c 0 [T] B =. 1 c Assim, toda matriz 2 2 sobre o corpo C é semelhante a uma matriz de um dos dois tipos ( ) ( ) c 0 c 1 0 e, 1 c 0 c 2 podendo ser c 1 c 2 ou c 1 = c 2. Exemplo 3.2 Seja A a matriz 3 3 com entradas em C dada por A = a 2 0. b c 1 O polinômio característico de A é (x 2) 2 (x + 1). Se o polinômio minimal de A é (x 2) 2 (x + 1), então A é semelhante à matriz à = na forma canônica de Jordan , Se p m = (x 2)(x 1), A é diagonalizável e, portanto, semelhante à matriz à = Como (A 2I)(A + I) = a 0 0, ac 0 0 temos que A é semelhante a uma matriz diagonal se, e somente se, a = 0. J. Delgado - K. Frensel 238 Instituto de Matemática - UFF

244 Forma Canônica de Jordan Exemplo 3.3 Seja A a matriz 4 4 dada por à = a 2 O polinômio característico de A é (x 2) 4 e seu polinômio minimal é (x 2) 2 pois A é formada por dois blocos 2 2. O primeiro bloco da matriz na forma canônica semelhante a A tem tamanho 2 2, e o número de blocos é dim(ker(a 2I)). Como A 2I = , 0 0 a 0 2, se a 0, temos que dim(ker(a 2I)) = 3, se a = 0. Logo, A é semelhante a à = , se a 0, e é semelhante a à = , se a = Observe que essas matrizes possuem polinômios característicos e minimais iguais, mas não são semelhantes, pois possuem formas canônicas de Jordan diferentes. Exemplo 3.4 Seja A a matriz 3 3 dada por A = J. Delgado - K. Frensel 239 Instituto de Matemática - UFF

245 Forma Canônica de Jordan Então, p c = det(xi A) = det x x x 1 = (x 2)((x + 2)(x 1) + 1) + (x 1) 1 = (x 2)(x 2 + x 1 + 1) = (x 2)x(x + 1). Logo, p m = p c e A é diagonalizável, ou seja, A é semelhante à matriz à = Exemplo 3.5 Seja A a matriz 4 4 dada por A = Como p c = (x 1)(x 2)(x 3) 2 e dim(ker(a 3I)) = 1, pois A 3I = , temos que p m = p c = (x 1)(x 2)(x 3) 2. Logo, a matriz na forma canônica de Jordan semelhante a A é à = Exemplo 3.6 Determine todas as matrizes na forma canônica de Jordan com polinômio característico e polinômio minimal p c = (x 2) 3 (x 3) 4 (x 1), J. Delgado - K. Frensel 240 Instituto de Matemática - UFF

246 Forma Canônica de Jordan p m = (x 2) 2 (x 3) 2 (x 1). Determine, também, em cada caso possível, as dimensões dos autoespaços E 1, E 2 e E 3 associados aos autovalores 1, 2 e 3, respectivamente. Podemos ver facilmente que dim(e 1 ) = 1 e dim(e 2 ) = 2. Como o primeiro bloco associado ao autovalor 3 é 2 2 e 3 tem multiplicidade 4 como raiz do polinômio característico, podemos ter dim(e 3 ) = 2 ou dim(e 3 ) = 3. Caso 1. Se dim(e 3 ) = 2, a matriz na forma canônica de Jordan é Nas matrizes ao lado, os espaços vazios indicam zeros. Caso 2. Se dim(e 3 ) = 3, a matriz na forma canônica de Jordan é Exemplo 3.7 Seja A a matriz 3 3 A = Então, J. Delgado - K. Frensel 241 Instituto de Matemática - UFF

247 Forma Canônica de Jordan Real x p c = det(xi A) = det 1 x x 4 = (x 2)((x + 2)(x 4) + 1) + ( (x 4) + 3) 3(1 + 3(x + 2)) = (x 2)(x 2 2x 7) + ( x + 7) 3(3x + 7) = (x 2)(x 2 2x 7) + ( 10x 14) = x 3 2x 2 7x 2x 2 + 4x x 14 = x 3 4x 2 13x = x(x 2 4x 13). Como p c tem três raízes reais distintas, p m = p c e A é diagonalizável. Como p m = p c, a matriz na forma canônica racional que é semelhante a A é Forma Canônica de Jordan Real Seja V um espaço vetorial sobre o corpo R dos números reais. O complexificado de V é o espaço vetorial sobre o corpo C dos números complexos V = {(u, v) u, v V}, com as operações de adição e multiplicação por escalares definidas por: (u, v) + (u, v ) = (u + u, v + v ) (a + ib) (u, v) = (au bv, bu + av). O conjunto V com essas operações é de fato um espaço vetorial sobre C. provaremos apenas que ((a + ib)(c + id))(u, v) = (a + ib)((c + id)(u, v)), ficando a verificação das outras propriedades como exercício: J. Delgado - K. Frensel 242 Instituto de Matemática - UFF

248 Forma Canônica de Jordan Real ((a + ib)(c + id))(u, v) = ((ac bd) + i(bc + ad))(u, v) = ((ac bd)u (bc + ad)v, (bc + ad)u + (ac bd)v) = (a(cu dv) b(du + cv), b(cu dv) + a(du + cv)) = (a + ib)(cu dv, du + cv) = (a + ib)((c + id)(u, v)). Observação 4.1 (1) Em particular, (u, v) = (u, 0) + i(v, 0). (2) Se a R, a(u, v) = (a u, a v). Afirmação: dim C ( V) = dim R (V). Seja B = {w 1,..., w n } uma base de V. Vamos provar que B = {(w 1, 0),..., (w n, 0)} é uma base de V. Seja (u, v) V. Então, existem escalares a i R e b i R, tais que u = a 1 w a n w n e v = b 1 w b n w n. Assim, (a 1 + ib 1 )(w 1, 0) (a n + ib n )(w n, 0) = (a 1 w 1, b 1 w 1 ) (a n w n, b n w n ) = (a 1 w a n w n, b 1 w b n w n ) = (u, v). Se (u, v) = (0, 0), ou seja, se (a 1 + ib 1 )(w 1, 0) (a n + ib n )(w n, 0) = (0, 0), temos que a 1 w a n w n = 0 = b 1 w b n w n. Logo, a 1 =... = a n = 0 = b 1 =... = b n. Ou seja, os vetores (w 1, 0),..., (w n, 0) são LI e geram o espaço vetorial V. Seja T um operador linear sobre o espaço vetorial V sobre R. Definimos a aplicação T : V V (u, v) T(u, v) = (T(u), T(v)). J. Delgado - K. Frensel 243 Instituto de Matemática - UFF

249 Forma Canônica de Jordan Real Afirmação: T é linear sobre C. De fato, T((a + ib)(u, v) + (u, v )) = T((au bv, bu + av) + (u, v )) = T(au bv + u, bu + av + v ) = (T(au bv + u ), T(bu + av + v )) = (at(u) bt(v) + T(u ), bt(u) + at(v) + T(v )) = (at(u) bt(v), bt(u) + at(v)) + (T(u ), T(v )) = (a + ib)(t(u), T(v)) + (T(u ), T(v )) = (a + ib) T(u, v) + T(u, v ) Afirmação: p c = p c, onde p c é o polinômio característico de T e p c é o polinômio característico de T. Seja B = {w 1,..., w n } uma base de V e seja B = {(w 1, 0),..., (w n, 0)} base de V. Sendo T(w j ) = a ij w i, j = 1,..., n, temos que i=1 T(w j, 0) = (T(w j ), 0) = Ou seja, [ T] bb = [T] B. Logo, ( ) a ij w i, 0 = i=1 i=1 a ij (w i, 0). p c = det(xi [ T] bb ) = det(xi [T] B ) = p c. Afirmação: p m = p m, onde p m é o polinômio minimal de T e p m é o polinômio minimal de T. Seja f R[x], então, f( T) = f(t). De fato, se f = a k x k +...+a 1 x+a 0 ; a 0,..., a k R, temos que f( T)(u, v) = (a k ( T) k a 1 T + a0 I)(u, v) = a k ( T) k (u, v) a 1 T(u, v) + a0 I(u, v) = a k (T k (u), T k (v)) a 1 (T(u), T(v)) + a 0 (u, v) = (a k T k (u), a k T k (v)) (a 1 T(u), a 1 T(v)) + (a 0 u, a 0 v) = (a k T k (u) a 1 T(u) + a 0 u, a k T k (v) a 1 T(v) + a 0 v) = (f(t)(u), f(t)(v)) = f(t)(u, v). J. Delgado - K. Frensel 244 Instituto de Matemática - UFF

250 Forma Canônica de Jordan Real Então, se f(t) = O, temos que f(t) = O, ou seja, f( T) = O. Logo, p m divide p m em C[x]. Seja, agora, g = (a k +ib k )x k +...+(a 1 +ib 1 )x+a 0 +ib 0 um polinômio com coeficientes complexos. Então, g = f 1 + if 2, onde f 1 = a k x k a 1 x + a 0 e f 2 = b k x k b 1 x + b 0 são polinômios com coeficientes reais. Suponha que g( T) = O. Então, g( T)(u, v) = (a k + ib k )( T) k (u, v) (a 1 + ib 1 ) T(u, v) + (a 0 + ib 0 )(u, v) = (a k + ib k )(T k (u), T k (v)) (a 1 + ib 1 )(T(u), T(v)) + (a 0 + ib 0 )(u, v) = (a k T k (u) b k T k (v), b k T k (u) + a k T k (v)) (a 1 T(u) b 1 T(v), b 1 T(u) +a 1 T(v)) + (a 0 u b 0 v, b 0 u + a 0 v) = ((a k T k (u) a 1 T(u) + a 0 u) (b k T k (v) b 1 T(v) + b 0 v), (b k T k (u) b 1 T(u) + b 0 u) + (a k T k (v) a 1 T(v) + a 0 v)). Ou seja, g( T)(u, v) = (f 1 (T)(u) f 2 (T)(v), f 2 (T)(u) + f 1 (T)(v)). Como g( T)(u, v) = 0, temos que f 1 (T)u f 2 (T)(v) = 0 e f 2 (T)(u) + f 1 (T)(v) = 0, para todo par u, v V. Fazendo v = 0, obtemos que f 1 (T)(u) = f 2 (T)(u) = 0, para todo u V. Então, g( T) = O se, e somente se f 1 (T) = f 2 (T) = O. Seja p m = p 1 + ip 2, onde p 1, p 2 R[x]. Como p m ( T) = O, temos que p 1 (T) = p 2 (T) = O. Logo, p m divide os polinômios p 1 e p 2, ou seja, p m divide p m em C[x]. Sendo p m e p m polinômios unitários, obtemos que p m = p m. Mostrando assim a afirmação. Seja σ : V V a aplicação definida por σ(u, v) = (u, v). Então σ é um isomorfismo linear sobre R (quando os espaços são considerados reais), σ(µ(u, v)) = µσ(u, v) e σ 2 = id (aplicação identidade). De fato: J. Delgado - K. Frensel 245 Instituto de Matemática - UFF

251 Forma Canônica de Jordan Real σ((u, v) + (u, v )) = σ(u + u, v + v ) = (u + u, (v + v )) = (u, v) + (u, v ) = σ(u, v) + σ(u, v ) ; σ((a + ib)(u, v)) = σ(au bv, bu + av) = (au bv, bu av) = (a ib)(u, v) = (a ib)σ(u, v) = (a + ib)σ(u, v) ; σ 2 (u, v) = σ(u, v) = (u, v) = id(u, v). Observação 4.2 Se W é um subconjunto de V, usaremos a notação:w = σ(w). Seja T : V V um operador linear sobre um espaço vetorial real V de dimensão finita e seja T : V V o operador linear sobre V definido acima. Como p c R[x], temos que se µ = a + ib é uma raiz complexa de p c, então µ = a ib também o é. Sendo p c = p c, temos que µ e µ são autovalores de T. Sejam Ŵ µ = {(u, v) V T(u, v) = µ(u, v)}, e Ŵ µ = {(u, v) V T(u, v) = µ(u, v)}. Afirmação: σ(ŵµ) = Ŵµ. Seja (u, v) Ŵµ. Então, T(u, v) = µ(u, v). Logo, σ( T(u, v)) = µσ(u, v). Como σ( T(u, v)) = σ(t(u), T(v)) = (T(u), T(v)) = T(u, v) = T(σ(u, v)) ou seja, T σ = σ T, temos que T(σ(u, v)) = µσ(u, v). Logo, σ(ŵµ) Ŵµ. De modo análogo, temos que σ(ŵµ) Ŵµ. Então, σ 2 (Ŵµ) σ(ŵµ), ou seja, Ŵµ σ(ŵµ). Logo, σ(ŵµ) = Ŵµ. J. Delgado - K. Frensel 246 Instituto de Matemática - UFF

252 Forma Canônica de Jordan Real Afirmação: Se {(u 1, v 1 ),..., (u k, v k )} é base de um subespaço W de V, então {(u 1, v 1 ),..., (u k, v k )} é base do subespaço W de V. Antes temos que provar que se W é um subespaço de V, então W = σ(w) é um subespaço de V. Se (u, v), (u, v ) W = σ(w), então (u, v), (u, v ) W. Logo, (a ib)(u, v) + (u, v ) W. Então, σ((a + ib)(u, v) + (u, v )) = (a ib)(u, v) + (u, v ) W, ou seja, (a + ib)(u, v) + (u, v ) W. Agora provemos a afirmação. Seja σ(u, v) = (u, v) W. Como (u, v) W, existem a j + ib j C, j = 1,..., k, tais que (u, v) = (a 1 + ib 1 )(u 1, v 1 ) (a k + ib k )(u k, v k ). Logo, (u, v) = σ(u, v) = (a 1 ib 1 )(u 1, v 1 ) (a k ib k )(u k, v k ), ou seja, {(u 1, v 1 ),..., (u k, v k )} gera W. Seja (a 1 ib 1 )(u 1, v 1 ) (a k ib k )(u k, v k ) = 0. Então, σ((a 1 ib 1 )(u 1, v 1 ) (a k ib k )(u k, v k )) = 0, ou seja, (a 1 + ib 1 )(u 1, v 1 ) (a k + ib k )(u k, v k ) = 0. Como {(u 1, v 1 ),..., (u k, v k )} é LI, temos que a j +ib j = 0, j = 1,..., k. Logo, a j ib j = 0, j = 1,..., k, provando que {(u 1, v 1 ),..., (u k, v k )} é LI, e portanto uma base, como afirmado. Seja T : V V um operador sobre um espaço vetorial V de dimensão finita sobre R e seja T : V V o seu complexificado. Seja p c = p d pd k k (x λ 1) q 1... (x λl ) q l, o polinômio característico de T, onde λ 1,..., λ l R e p j = (x µ j )(x µ j ), µ j = a j + ib j, b j > 0, j = 1,..., k, e o polinômio minimal de T. p m = p r p r k k (x λ 1 ) s 1... (x λl ) s l, J. Delgado - K. Frensel 247 Instituto de Matemática - UFF

253 Forma Canônica de Jordan Real Como T e T tem o mesmo polinômio característico e o mesmo polinômio minimal temos que, em C, p c = (x µ 1 ) d 1 (x µ1 ) d 1... (x µk ) d k (x µk ) d k (x λ1 ) q 1... (x λl ) q l, p m = (x µ 1 ) r 1 (x µ1 ) r 1... (x µk ) r k (x µk ) r k (x λ1 ) s 1... (x λl ) s l, ou seja, as multiplicidades de µ j e µ j em p c e p m são iguais, j = 1,..., k. Afirmação: Ker( T λ i I) s é o complexificado de Ker(T λ i I). De fato, como ( T λ i I)(u, v) = T(u, v) λ i (u, v) = (T(u), T(v)) (λ i u, λ i v) = ((T λ i I)(u), (T λ i I)(v)), podemos provar, por indução sobre s, que ( T λ i I) s (u, v) = ((T λ i I) s (u), (T λ i I) s (v)), ou seja, ((T λ i I) s ) ^ = ( T λ i I) s. Logo, (u, v) Ker( T λ i I) s se, e somente se, u, v Ker(T λ i I), ou seja, (Ker(T λ i I) s ) ^ = {(u, v) u, v Ker(T λ i I) s } = Ker( T λ i I) s. Então, dim(ker(t λ i I) s ) = dim(ker( T λ i I) s ), para todo s N. Em particular, se W i = Ker( T λ i I) s i e Wi = Ker(T λ i I) s i, temos que W i = Ŵi e dim( W i ) = dim(w i ). Seja B i uma base de W i tal que [ T fwi ] fbi está na forma canônica de Jordan. Então, [ T fwi ] fbi possui dim(ker( T λ i I)) = dim(ker(t λ i I)) blocos elementares de Jordan associados ao autovalor λ i, sendo as quantidades dos blocos de cada ordem dadas em termos das dimensões dim(ker( T λ i I) s ) = dim(ker(t λ i I) s ), 1 s s i. Assim, a matriz na forma canônica de Jordan de T Wi é igual à matriz na forma canônica de Jordan de T fwi. Além disso, se B i = {v 1,..., v qi } é uma base de W i tal que [T Wi ] Bi está na forma canônica de Jordan, então B i = {(v 1, 0),..., (v qi, 0)} é uma base de W i tal que [ T fwi ] fbi = [T Wi ] Bi está na forma canônica de Jordan. J. Delgado - K. Frensel 248 Instituto de Matemática - UFF

254 Forma Canônica de Jordan Real Afirmação: Ker( T µi) s = σ(ker( T µi) s ), para µ = a + ib, b > 0. De fato, ( T µi) s = p µ ( T), onde p µ = (x µ) s é um polinômio cujos coeficientes são polinômios em µ com coeficientes inteiros, pois: com p µ = x s + p s 1 (µ)x s p 1 (µ)x + p 0 (µ), p s j (µ) = ( 1) j ( s j ) µ j = ( 1) j s! j! (s j)! µj. pois Logo, ( T µi) s = ( T) s +p s 1 (µ) ( T) s p 1 (µ) T +p 0 (µ) = p µ ( T), p µ = x s + p s 1 (µ)x s p 1 (µ)x + p 0 (µ) = x s + p s 1 (µ)x s p 1 (µ)x + p 0 (µ), já que os coeficientes de p j são inteiros. Então, se p µ = g µ + ih µ, g µ, h µ R[x], temos que ( T µi) s = p µ ( T) = g µ ( T) + ih µ ( T), e ( T µi) s = p µ ( T) = g µ ( T) ih µ ( T). Assim, como g µ e h µ têm coeficientes reais, p µ ( T)(u, v) = ĝµ(t)(u, v) + iĥµ(t)(u, v) = (g µ (T)(u), g µ (T)(v)) + i(h µ (T)(u), h µ (T)(v)) = (g µ (T)(u), g µ (T)(v)) + ( h µ (T)(v), h µ (T)(u)) = (g µ (T)(u) h µ (T)(v), g µ (T)(v) + h µ (T)(u)). Por outro lado, ( T µi) s (u, v) = g µ ( T)(u, v) ih µ ( T)(u, v) = (g µ (T)(u), g µ (T)(v)) i(h µ (T)(u), h µ (T)(v)) = (g µ (T)(u), g µ (T)(v)) + ( h µ (T)(v), h µ (T)(u)) = (g µ (T)(u) h µ (T)(v), g µ (T)(v) h µ (T)(u)), ou seja, ( T µi) s (σ(u, v)) = σ(( T µi) s (u, v)). Logo, se (u, v) Ker( T µi) s então σ(u, v) Ker( T µi) s. Assim, σ(ker( T µi) s ) Ker( T µi) s. De modo análogo, temos que J. Delgado - K. Frensel 249 Instituto de Matemática - UFF

255 Forma Canônica de Jordan Real Logo, σ(ker( T µi) s ) Ker( T µi) s. Ker( T µi) s = σ 2 (Ker( T µi) s ) σ(ker( T µi) s ). e Portanto, Ker( T µi) s = σ(ker( T µi) s ) dim(ker( T µi) s ) = dim(ker( T µi) s ), para todo s N. Se µ j, µ j, j = 1,..., k, são as raízes complexas de p c, temos que dim(ker( T µ j I) s ) = dim(ker( T µ j I) s ), para todo s N. Logo, A µj = A µj, onde A µj é a matriz na forma canônica de T Vj, A µj é a matriz na forma canônica de T Vj, V j = Ker( T µ j I) r j e Vj = Ker( T µ j I) r j. Afirmação: Se B j é uma base de V j tal que [ T Vj ] Bj = A µj, então B j = σ(b j ) é base de V j e [ T Vj ] Bj = A µj. Seja B j = B 1 j... Bl j, l = dim(ker( T µ j I)), onde Bj i = {(v 1, w 1 ),..., (v k, w k )} é um conjunto LI de vetores de V que dá origem a um bloco de ordem k de A µj. Então, (T(v p ), T(w p )) = T(v p, w p ) = µ j (v p, w p ) + (v p+1, w p+1 ), 1 p k 1, e (T(v k ), T(w k )) = T(v k, w k ) = µ j (v k, w k ). Como Tσ = σ T, temos que T(v p, w p ) = (T(v p ), T(w p )) = σ(t(v p ), T(w p )) = σ( T(v p, w p )) = σ(µ j (v p, w p ) + (v p+1, w p+1 )) = µ j (v p, w p ) + (v p+1, w p+1 ), e T(v k, w k ) = (T(v k ), T(w k )) = σ(t(v k ), T(w k )) = σ( T(v k, w k )) = σ(µ j (v k, w k )) = µ j (v k, w k ). J. Delgado - K. Frensel 250 Instituto de Matemática - UFF

256 Forma Canônica de Jordan Real Observação 4.3 Sejam B j = {(v 1, w 1 ),..., (v dj, w dj )} e B j = {(v 1, w 1 ),..., (v dj, w dj )} bases de V j = Ker( T µ j I) r j e Vj = Ker( T µ j I) r j, respectivamente, onde d j = dim(ker( T µ j I) r j ) = dim(ker( T µj I) r j ), tais que [ T Vj ] Bj = A µj e [ T Vj ] Bj = A µj estão na forma canônica. Como V j e V j são subespaços LI, pois estão associados a autovalores µ j e µ j, distintos, temos que {(v 1, w 1 ),..., (v dj, w dj ), (v 1, w 1 ),..., (v dj, w dj )} é uma base de V j V j. Afirmação: Seja p j = (x µ j )(x µ j ) R[x], j = 1,..., k. Então, V j V j = (Ker(p j (T)) r j ) ^ e {v 1 + w 1, v 1 w 1,..., v dj + w dj, v dj w dj } é uma base de Ker(p j (T) r j ). Pelo Teorema Generalizado de Cayley-Hamilton, temos que dim(ker(p j (T) r j )) = dj grau(p j ) = 2d j. Sejam p µj = (x µ j ) r j e pµj = (x µ j ) r j. Como p µj = g µj +ih µj e p µj = g µj ih µj, onde g µj, h µj R[x], temos: p r j j = p µj p µj = (g µj + ih µj )(g µj ih µj ) = g 2 µ j + h 2 µ j. Sendo ( T µ j I) r j = pµj ( T) = (g µj + ih µj )( T), temos que (u, v) V j = Ker( T µ j I) r j = Ker(gµj + ih µj )( T) se, e somente se, (0, 0) = (g µj + ih µj )( T)(u, v) = (g µj ( T) + ih µj ( T))(u, v) = g µj ( T)(u, v) + ih µj ( T)(u, v) = (g µj (T)(u), g µj (T)(v)) + i(h µj (T)(u), h µj (T)(v)) = (g µj (T)(u), g µj (T)(v)) + ( h µj (T)(v), h µj (T)(u)) = (g µj (T)(u) h µj (T)(v), g µj (T)(v) + h µj (T)(u)), ou seja g µj (T)(u) = h µj (T)(v) e g µj (T)(v) = h µj (T)(u). Logo, J. Delgado - K. Frensel 251 Instituto de Matemática - UFF

257 Forma Canônica de Jordan Real e p r j j (T)(u) = g2 µ j (T)(u) + h 2 µ j (u) = g µj (T)h µj (T)(v) h µj (T)g µj (T)(v) = 0, p r j j (T)(v) = g2 µ j (T)(v) + h 2 µ j (v) = g µj (T)h µj (T)(u) + h µj (T)g µj (T)(u) = 0. Como (Ker(p j (T) r j )) ^ = {(u, v) pj (T) r j (u) = pj (T) r j (v) = 0} = {(u, v) g 2 µ j (T)(u) + h 2 µ j (T)(u) = g 2 µ j (T)(v) + h 2 µ j (T)(v) = 0}, temos que V j (Ker(p j (T) r j )) ^. Sendo ( T µ j I) r j = p µj ( T) = (g µj ih µj )( T), podemos provar, de modo análogo, que se (u, v) V j = Ker( T µ j I) r j = Ker(pµj ( T)) = Ker((g µj ih µj )( T)), então (u, v) (Ker(p j (T) r j )) ^. Logo, V j V j (Ker(p j (T) r j )) ^. Como dim(v j V j ) = 2d j = dim(ker(p j (T) r j )) ^, temos que V j V j = (Ker(p j (T) r j )) ^. Vamos, agora, provar que {v 1 + w 1, v 1 w 1,..., v dj + w dj, v dj w dj } é uma base de Ker(p j (T) r j ). De fato, como (v i, w i ) V j e (v i, w i ) V j, i = 1,..., d j, temos que: (v i, w i ) + i(v i, w i ) = (v i + w i, v i + w i ) V j V j = (Ker(p j (T) r j ) ^ ) ; (v i, w i ) i(v i, w i ) = (v i w i, (v i w i )) V j V j = (Ker(p j (T) r j ) ^ ). Logo, v i + w i, v i w i Ker(p j (T) r j ), i = 1,..., dj. Os vetores (v 1 + w 1, v 1 + w 1 ),..., (v dj + w dj, v dj + w dj ),..., (v 1 w 1, (v 1 w 1 )),..., (v dj w dj, (v dj w dj )) formam uma base de V j V j = (Ker(p j (T) r j )) ^. são LI. Como dim(ker(p j (T)) r ) ^ = 2d j, basta mostrar que esses vetores J. Delgado - K. Frensel 252 Instituto de Matemática - UFF

258 Forma Canônica de Jordan Real Sejam λ 1,..., λ dj, δ 1,..., δ dj C, tais que λ 1 (v 1 + w 1, v 1 + w 1 ) λ dj (v dj + w dj, v dj + w dj ) +δ 1 (v 1 w 1, (v 1 w 1 )) δ dj (v dj w dj, (v dj w dj )) = (0, 0). e Como (v i + w i, v i + w i ) = (v i, w i ) + i(v i, w i ) (v i w i, (v i w i )) = (v i, w i ) i(v i, w i ), para i = 1,..., d j, temos que (λ 1 + δ 1 )(v 1, w 1 ) (λ dj + δ dj )(v dj, w dj ) +(λ 1 δ 1 )(v 1, w 1 ) (λ dj δ dj )(v dj, w dj ) = (0, 0). Logo, λ i + δ i = λ i δ i = 0, i = 1,..., d j, pois (v 1, w 1 ),..., (v dj, w dj ), (v 1, w 1 ),..., (v dj, w dj )} é uma base de V j V j. Então, λ i = δ i = 0, i = 1,..., d j. Seja (a 1 + ib 1 )(v 1 + w 1, v 1 + w 1 ) (a dj + ib dj )(v dj + w dj, v dj + w dj ) +(c 1 + ie 1 )(v 1 w 1, (v 1 w 1 )) (c dj + ie dj )(v dj w dj, (v dj w dj )) (I) uma combinação linear dos vetores da base {(v 1 + w 1, v 1 + w 1 ),..., (v dj + w dj, v dj + w dj ), (v 1 w 1, (v 1 w 1 )),..., (v dj w dj, (v dj w dj ))} de (Ker(p j (T) r j )) ^, onde ai, b i, c i, e i R, i = 1,..., d j. Como para todo i = 1,..., d j : (a i + ib i )(v i + w i, v i + w i ) = ((a i b i )(v i + w i ), (a i b i )(v i + w i )) e (c i + ie i )(v i w i, (v i w i )) = ((c i + e i )(v i w i ), (e i c i )(v i w i )), temos que a combinação linear (I) pode ser reescrita na forma: ((a 1 b 1 )(v 1 + w 1 ), (a 1 + b 1 )(v 1 + w 1 )) ((a dj b dj )(v dj + w dj ), (a dj + b dj )(v dj + w dj )) +((c 1 + e 1 )(v 1 w 1 ), (e 1 c 1 )(v 1 w 1 )) ((c dj + e dj )(v dj w dj ), (e dj c dj )(v dj w dj )). J. Delgado - K. Frensel 253 Instituto de Matemática - UFF

259 Forma Canônica de Jordan Real Logo, todo vetor pertencente a Ker(p j (T) r j ) pode ser escrito como uma combinação linear dos vetores do conjunto {v 1 + w 1,..., v dj + w dj, v 1 w 1,..., v dj w dj }. Como dim(ker(p j (T) r j )) = 2dj, temos que esse conjunto é uma base de Ker(p j (T) r j ). Como queríamos provar. Seja µ j = a j + ib j, b j > 0, j = 1,..., k um autovalor complexo de T. Seja B j = {(v 1, w 1 ),..., (v dj, w dj )} uma base de V j = Ker( T µ j I) r j ) tal que A µj = [ T Vj ] Bj está na forma canônica de Jordan. Então, B j = {(v 1, w 1 ),..., (v dj, w dj )} é uma base de V j = Ker(( T µ j I) r j ) tal que A µj = [ T Vj ] Bj está na forma canônica de Jordan e A µj = A µj. Seja B j = {v 1 + w 1, v 1 w 1,..., v dj + w dj, v dj w dj } a base de Ker(p j (T) r j ) obtida a partir das bases Bj e B j. Como (T(v i ), T(w i )) = T(v i, w i ) = (a j + ib j )(v i, w i ) + (v i+1, w i+1 ), ou (T(v i ), T(w i )) = T(v i, w i ) = (a j + ib j )(v i, w i ), temos que T(v i ) = a j v i b j w i + v i+1 T(v i ) = a j v i b j w i ou T(w i ) = b j v i + a j w i + w i+1 T(w i ) = b j v i + a j w i. Logo, T(v i + w i ) = a j (v i + w i ) + b j (v i w i ) + (v i+1 + w i+1 ) T(v i w i ) = b j (v i + w i ) + a j (v i w i ) + (v i+1 w i+1 ), ou T(v i + w i ) = a j (v i + w i ) + b j (v i w i ) T(v i w i ) = b j (v i + w i ) + a j (v i w i ). Então, se {(v i1, w i1 ),..., (v ik, w ik )} determinam um bloco elementar de Jordan de A µj de ordem k, {(v i1 + w i1 ), (v i1 w i1 ),..., (v ik + w ik ), (v k1 w ik )}, determinam um bloco de ordem 2k na forma: J. Delgado - K. Frensel 254 Instituto de Matemática - UFF

260 a j b j b j a j Forma Canônica de Jordan Real 1 0 a j b j 0 1 b j a j 1 0 a j b j 0 1 b j a j a j b j 0 1 b j a j Sejam U i = Ker(p i (T) r i ), i = 1,..., k e Wi = Ker((T λ i I) s i ), i = 1,..., l. Sejam B i a base de U i construída acima e B i+k uma base de W i tal que [T Wi ] g Bi+k está na forma canônica de Jordan. Como V = U 1... U k W 1... W l, temos que B = B 1... B k B k+1... B k+l é uma base de V tal que A 1... [T] eb = A k B 1... B l n n onde: (I) A j = R j 1... ; R j n j 2dj 2dj a j b j b j a j 1 0 a j b j R j i = 0 1 b j a j a j b j 0 1 b j a j 2k i 2k i, i = 1,..., n j ; J. Delgado - K. Frensel 255 Instituto de Matemática - UFF

261 Forma Canônica de Jordan Real 2n j = dim(ker(p j (T))) = 2 dim(ker( T µ j I)) ; k i k i+1, i = 1,..., n j 1 ; 2k 1 = 2r j, ou seja, k 1 = r j ; ν k (µ j ) = δ k 1 (µ j )+2δ k (µ j ) δ k+1 (µ j ), sendo ν k (µ j ) o número de blocos de tamanho 2k 2k associado ao autovalor µ j = a j + ib j, b j > 0, e 2δ k (µ j ) = dim(ker(p j (T) k )) = 2 dim(ker( T µ j I) k ). (II) B i = λ i J i 1 1 λ i J i j = 1... J i m i qi qi ;, j = 1,..., m i ; 1 λ i f j f j q i = multiplicidade de λ i como raiz do polinômio característico de T; m i = dim(ker(t λ i I)) ; f j f j+1, j = 1,..., m i 1 ; f 1 = s 1 (multiplicidade de λ i como raiz do polinômio minimal de T); ν k (λ i ) = δ k 1 (λ i )+2δ k (λ i )+δ k+1 (λ i ), sendo ν k (λ i ) o número de blocos de tamanho k k associado ao autovalor λ i e δ k (λ i ) = dim(ker(t λ i I) k ). A matriz A 1... [T] eb = A k B 1... B l n n é a forma canônica de Jordan real do operador T. J. Delgado - K. Frensel 256 Instituto de Matemática - UFF

262 Forma Canônica de Jordan Real Observação 4.4 Se as raízes do polinômio característico de um operador T sobre um espaço vetorial real são todas reais, a forma canônica de Jordan real de T é igual à sua forma canônica de Jordan. Em particular, se T é nilpotente, sua forma canônica de Jordan real é igual à sua forma canônica de Jordan, que, por sua vez, é igual à sua forma racional. Unicidade: Seja B uma base de V tal que [T] eb está na forma canônica de Jordan real. Então, [T] eb e [T] eb podem diferir apenas pela ordem em que aparecem os blocos associados a uma raiz do polinômio característico de T. De fato, seja B uma base de V tal que C 1... C [T] eb = s D 1... D q, n n onde: C i = C i 1... C i p i ei ei ; α i β i β i α i 1 0 α i β i C i j = 0 1 β i α i α i β i 0 1 β i α i h i j hi j+1, j = 1,..., p i 1 ; D i = D i 1... D i t i ui ui ; 2h i j 2hi j ; J. Delgado - K. Frensel 257 Instituto de Matemática - UFF

263 Forma Canônica de Jordan Real δ i 1 δ i D i j = ; 1 δ i l i j li j l i j li j+1, j = 1,..., t i 1. Como [T] eb está na forma de blocos, temos que p c = det(xi [T] eb ) = ((x c 1 ) 2 + d 2 1 )e 1... ((x cs ) 2 + d 2 s) es (x δ 1 ) u 1... (x δq ) uq, ou seja, α 1 + iβ 1, α 1 iβ 1,..., α s + iβ s, α s iβ s são as raízes complexas distintas de p c e δ 1,..., δ q são as raízes reais distintas de p c. Logo: k = s ; l = q ; {α 1 + iβ 1,..., α s + iβ s } = {a 1 + ib 1,..., a k + ib k } e {δ 1,..., δ q } = {λ 1,..., λ q }. Além disso, e i = d j, se α i + iβ i = a j + ib j e u i = q j, se δ i = λ j. Seja B = {ṽ 1, w 1,..., ṽ m, w m, ũ 1,..., ũ p }, onde m = d d k e p = q q l. Vamos provar que B = {(ṽ 1, w 1 ), (ṽ 1, w 1 ),..., (ṽ m, w m ), (ṽ m, w m ), (ũ 1, 0),..., (ũ p, 0)} é uma base de V. Como dim( V) = dim(v) = 2m + p, basta provar que B é LI. De fato, seja (λ iδ1 1 )(ṽ 1, w 1 ) + (λ iδ2 1 )(ṽ 1, w 1 ) (λ 1 m + iδ 1 m)(ṽ m, w m ) +(λ 2 m + iδ 2 m)(ṽ m, w m ) + λ 3 1 (ũ 1, 0) λ 3 p(ũ p, 0) = (0, 0), onde λ 1 i, λ2 j, λ3 k, δ1 i, δ2 i R, i, j = 1,..., m, k = 1,..., p. Então, (λ 1 1ṽ1 δ 1 1 w 1, δ 1 1ṽ1 + λ 1 1 w 1) + (λ 2 1ṽ1 + δ 2 1 w 1, δ 2 1ṽ1 λ 2 1 w 1) (λ 1 mṽm δ 1 m w m, δ 1 mṽm + λ 1 m w m) + (λ 2 mṽm + δ 2 m w m, δ 2 mṽm λ 2 m w m) +(λ 3 1ũ1, 0) (λ 3 pũp, 0) = (0, 0) = (λ λ2 1 )ṽ 1 + ( δ δ2 1 ) w (λ 1 m + λ 2 m)ṽ m + ( δ 1 m + δ 2 m) w m +λ 3 1ũ λ 3 pũp = 0 J. Delgado - K. Frensel 258 Instituto de Matemática - UFF

264 Forma Canônica de Jordan Real e (δ δ2 1 )ṽ 1 + (λ 1 1 λ2 1 ) w (δ 1 m + δ 2 m)ṽ m + (λ 1 m λ 2 m) w m = 0. Como {ṽ 1, w 1,..., ṽ m, w m, ũ 1,..., ũ p } é uma base de V, temos que λ 1 j + λ2 j = λ1 j λ2 j = 0, δ 1 j + δ2 j = δ1 j + δ2 j = 0, j = 1,..., m, e λ 3 i = 0, i = 1,..., p. Logo, λ 1 j = λ2 j = δ1 j = δ2 j = 0, j = 1,..., m, e λ3 i = 0, i = 1,..., p. Observe, também, que se { T(ṽ i ) = a j ṽ i + b j w i + ṽ i+1 T( w i ) = b j ṽ i + a j w i + w i+1, ou { T(ṽ i ) = a j ṽ i + b j w i T( w i ) = b j ṽ i + a j w i, então: T(ṽ i, w i ) = (T(ṽ i ), T( w i )) = (a j ṽ i + b j w i + ṽ i+1, b j ṽ i + a j w i + w i+1 ) = (a j ib j )(ṽ i, w i ) + (ṽ i+1, w i+1 ) = µ j (ṽ i, w i ) + (ṽ i+1, w i+1 ), e T(ṽ i, w i ) = (T(ṽ i ), T( w i )) = (a j ṽ i + b j w i + ṽ i+1, b j ṽ i a j w i w i+1 ) = (a j + ib j )(ṽ i, w i ) + (ṽ i+1, w i+1 ) = µ j (ṽ i, w i ) + (ṽ i+1, w i+1 ), ou T(ṽ i, w i ) = (T(ṽ i ), T( w i )) = (a j ṽ i + b j w i, b j ṽ i + a j w i ) = (a j ib j )(ṽ i, w i ) = µ j (ṽ i, w i ), e T(ṽ i, w i ) = (T(ṽ i ), T( w i )) = (a j ṽ i + b j w i, b j ṽ i a j w i ) = (a j + ib j )(ṽ i, w i ) = µ j (ṽ i, w i ), J. Delgado - K. Frensel 259 Instituto de Matemática - UFF

265 Forma Canônica de Jordan Real Reordenando a base B de V, obtemos a base B = {(ṽ 1, w 1 ),..., (ṽ m, w m ), (ṽ 1, w 1 ),..., (ṽ m, w m ), (ũ 1, 0),..., (ũ p, 0)} de V tal que [ T] B está na forma canônica de Jordan. Como no caso complexo já provamos a unicidade, obtemos a unicidade no caso real. Exemplo 4.1 Seja T o operador linear sobre R 3 que é representado em relação à base canônica pela matriz A = Logo, x p c = det(xi A) = det 1 x x x 6 = x det x x 14 + det x x x 6 ( ) ( ) ( ) x = x 2 det + x det + det 1 x 6 1 x 6 1 x 6 = x 2 (x(x 6) + 14) + x( 16) + 8 = x 2 (x 2 6x + 14) 16x + 8 = x 4 6x x 2 16x + 8 = (x 2 2x + 2)(x 2) 2 = (x (1 + i))(x (1 i))(x 2) 2. Como A 2I = tem posto igual a 3, temos que dim(ker(a 2I)) = 1, ou seja, a forma canônica de Jordan real de T tem apenas um bloco 2 2 elementar associado ao autovalor 2 e p m = p c. J. Delgado - K. Frensel 260 Instituto de Matemática - UFF

266 Forma Canônica de Jordan Real Sendo que x 2 2x + 2 é um polinômio primo em R[x], temos que existe apenas um bloco 2 2 associado à raiz complexa 1 + i. Ou seja, B = , é a forma canônica de Jordan real do operador T. Para determinar uma base B = {v 1, v 2, v 3, v 4 } de R 4 tal que [T] B = B, devemos determinar primeiro um autovetor associado ao autovalor complexo 1 + i da matriz A. Seja X = (x, y, z, w) tal que ((1 + i)i A)X = 0, isto é, 1 + i x i 0 16 y i 14 z = i w 0 Então, (1 + i)x + 8w = 0 x + (1 + i)y 16w = 0 y + (1 + i)z + 14w = 0 z + ( 5 + i)w = 0. ou seja, w = 1 (1 + i)x, z = ( 5 + i)w e y = (1 + i)( 5 + i)w + 14w = (8 4i)w. 8 Fazendo x = 8, obtemos w = (1 + i), z = 6 + 4i e y = (12 + 4i). Logo, X = (8, 12, 6, 1) + i(0, 4, 4, 1). Como u = (8, 12, 6, 1) é a parte real e v = (0, 4, 4, 1) é a parte imaginaria do autovetor X, os primeiros vetores da base B são v 1 = u + v = (8, 16, 10, 2) e v 2 = u v = (8, 8, 2, 0). Os vetores v 3 e v 4 da base B devem ser tais que v 4 = (A 2I)v 3 e (A 2I) 2 v 3 = 0. Como (A 2I) 2 = = J. Delgado - K. Frensel 261 Instituto de Matemática - UFF

267 Forma Canônica de Jordan Real temos que v 3 = (a, b, c, d) Ker((A 2I) 2 ) se, e somente se, 4a = 8c + 16d e b = 2c 2d. Fazendo c = d = 1, obtemos v 3 = (6, 4, 1, 1) e v 4 = (A 2I)v 3 = ( 20, 30, 20, 5), pois = Exemplo 4.2 Seja T um operador linear sobre um espaço vetorial real V tal que p c = p 3 1 p3 2 (x 4)4 e p m = p 2 1 p3 2 (x 4)3, onde e p 1 = x 2 2x + 5 = (x (1 + 2i))(x (1 2i)), p 2 = x = (x 2i)(x + 2i). Então, a matriz do operador T na forma canônica tem: um bloco 4 4 elementar de Jordan real associado ao autovalor complexo 1 + 2i; um bloco 2 2 elementar de Jordan real associado ao autovalor complexo 1 + 2i; um bloco 6 6 elementar de Jordan real associado ao autovalor complexo 2i; um bloco 3 3 elementar de Jordan associado ao autovalor 4 e um bloco 1 1 elementar de Jordan associado ao autovalor 4. Ou seja, é a forma canônica de Jordan real do operador T J. Delgado - K. Frensel 262 Instituto de Matemática - UFF

268 Forma Canônica de Jordan Real Exemplo 4.3 Seja A uma matiz 7 7 real cujo polinômio minimal é p m = (x 1) 2 (x+1) 2 x. Vamos determinar todas as matrizes à na forma canônica de Jordan real que podem ser semelhantes à matriz A. Seja p c = (x 1) a (x + 1) b x c o polinômio característico de A. Como a + b + c = 7, a 2, b 2 e c 1, temos as seguintes 8 possibilidades: a = 2, b = 2 e c = 3. Nesse caso: a = 2, b = 3, c = à = Nesse caso: à = a = 2, b = 4, c = 1. Nesse caso: à = ou à = J. Delgado - K. Frensel 263 Instituto de Matemática - UFF

269 Operadores Semi-Simples a = 3, b = 2, c = 2. Nesse caso: à = a = 3, b = 3, c = 1. Nesse caso: à = a = 4, b = 2, c = 1. Nesse caso: à = ou à = Operadores Semi-Simples Definição 5.1 Seja V um espaço vetorial de dimensão finita sobre o corpo R dos números reais. Dizemos que um operador linear L : V V é semi-simples se L : V V é um operador linear diagonalizável. J. Delgado - K. Frensel 264 Instituto de Matemática - UFF

270 Operadores Semi-Simples Lema 5.1 Seja V o complexificado do espaço vetorial real V. Seja T : V V um operador linear. Então existe um operador linear L : V V tal que L = T se, e somente se σt = Tσ. Prova. (= ) Suponhamos que T = L. Então, como T(u, v) = (L(u), L(v)), temos que σt(u, v) = σ(l(u), L(v)) = (L(u), L(v)) = (L(u), L( v)) = Tσ(u, v). ( =) Seja π : V V a aplicação definida por π(u, v) = u. Como π((u 1, v 1 ) + (u 2, v 2 )) = π(u 1 + u 2, v 1 + v 2 ) = u 1 + u 2 = π(u 1, v 1 ) + π(u 2, v 2 ), e π(λ(u, v)) = π(λu, λv) = λu, se λ R, temos que π é um operador linear real. Considere a aplicação L : V V dada por L(u) = π T(u, 0). Como, para todo λ R vale que L(λu + w) = (π T)(λu + w, 0) = (π T)(λ(u, 0) + (w, 0)) = π(λt(u, 0) + T(w, 0)) = λπ T(u, 0) + π T(w, 0)) = λl(u) + L(w)), temos que L é um operador linear. Resta mostrar que T(u, v) = (L(u), L(v)) para todo par u, v V. De fato, como L(u) = π(t(u, 0)), temos que T(u, 0) = (L(u), x) para algum x V. Mas, como σt = Tσ, temos que σ T(u, 0) = (L(u), x) = Tσ(u, 0) = T(u, 0) = (L(u), x). Logo, x = 0, ou seja, T(u, 0) = (L(u), 0). Assim, T(u, v) = T((u, 0) + i(v, 0)) = T(u, 0) + it(v, 0) = (L(u), 0) + i(l(v), 0) = (L(u), L(v)) = L(u, v), ou seja, L = T. J. Delgado - K. Frensel 265 Instituto de Matemática - UFF

271 Operadores Semi-Simples Teorema 5.1 Seja V um espaço vetorial real de dimensão finita e seja L L(V, V). Então existe um único operador linear semi-simples S e um único operador linear nilpotente N, tais que: (1) L = S + N ; (2) SN = NS. Além disso, S e N são polinômios em L. Prova. Existência. Seja L : V V o operador linear complexificado do operador L. Como V é um espaço vetorial de dimensão finita sobre o corpo C dos números complexos, existe um único operador linear D 0 : V V e um único operador nilpotente N 0 : V V tais que: L = D0 + N 0 e D 0 N 0 = N 0 D 0, sendo D 0 e N 0 polinômios em L. Sejam D 1 = σd 0 σ 1 e N 1 = σn 0 σ 1. Então D 1 é diagonalizável e N 1 é nilpotente. De fato, se N k 0 = O, temos que N k 1 = (σn 0σ 1 ) k = σn k 0 σ 1 = O, ou seja, N 1 é nilpotente. Se {(u 1, v 1 ),..., (u n, v n )} é uma base de autovetores de D 0, temos D 0 (u i, v i ) = c i (u i, v i ), i = 1,..., n, e, então D 1 (u i, v i ) = σ D 0 σ 1 (u i, v i ) = σ D 0 (u i, v i ) = σ(c i (u i, v i )) = c i (u i, v i ), ou seja, {(u 1, v 1 ),..., (u n, v n )} é uma base de autovetores de D 1. Logo, D 1 é diagonalizável. Além disso, D 1 N 1 = σd 0 σ 1 σn 0 σ 1 = σd 0 N 0 σ 1 = σn 0 D 0 σ 1 = σn 0 σ 1 σd 0 σ 1 = N 1 D 1, J. Delgado - K. Frensel 266 Instituto de Matemática - UFF

272 Operadores Semi-Simples ou seja, D 1 e N 1 comutam. Como σ L = Lσ, temos que L = σ Lσ 1 = σ(d 0 + N 0 )σ 1 = σd 0 σ 1 + σn 0 σ 1 = D 1 + N 1. Então, pela unicidade, D 0 = σd 0 σ 1 e N 0 = σn 0 σ 1, ou seja, σd 0 = D 0 σ e σn 0 = N 0 σ. Pelo lema anterior, existem S : V V e N : V V operadores lineares tais que D 0 = Ŝ e N 0 = N. Logo, S é semi-simples e N é nilpotente, pois se N k 0 = O, temos N k 0 (u, 0) = (Nk (u), 0) = (0, 0), para todo u V, ou seja, N k = O. Temos, também, que SN = NS, pois: (SN NS) (u, v) = ((SN NS)(u), (SN NS)(v)) = (SN(u), SN(v)) (NS(u), NS(v)) = Ŝ N(u, v) NŜ(u, v) = (Ŝ N NŜ)(u, v) = (D 0 N 0 N 0 D 0 )(u, v) = (0, 0). L = S+N, pois, como L = D 0 +N 0 = Ŝ+ N, temos que (L S N) = O. Unicidade. Sejam S 1 : V V um operador semi-simples e N 1 : V V um operador nilpotente tais que: L = S 1 + N 1 e S 1 N 1 = N 1 S 1. Então, L = Ŝ1 + N 1, onde Ŝ1 é diagonalizável e N 1 é nilpotente, e Ŝ 1 N1 = Ŝ 1 N 1 = N 1 S 1 = N 1 Ŝ 1. Pela unicidade da decomposição de L como uma soma de um operador diagonalizável com um operador nilpotente que comutam, temos que Ŝ1 = D 0 e N 1 = N 0. Mas, como D 0 = Ŝ e N 0 = N, temos que Ŝ1 = Ŝ e N 1 = N, ou seja, S 1 = S e N 1 = N. Vamos provar agora que S e N são polinômios em L. J. Delgado - K. Frensel 267 Instituto de Matemática - UFF

273 Operadores Semi-Simples Seja p m = (x µ 1 ) r 1 (x µ1 ) r 1... (x µk ) r k (x µk ) r k (x c1 ) s 1... (x cl ) s l o polinômio minimal de L e L, onde µ i e µ i, i = 1,..., k, são as raízes complexas e c j, j = 1..., l são as raízes reais. Sejam f cj = p m (x c j ) s j, f µ i = p m (x µ i ) r i, e f µ i = p m (x µ i ) r i. Então, f cj R[x] e f µi = f µi, j = 1,..., l e i = 1,..., k. Como f µ1, f µ1,..., f µk, f µk, f c1, f cl são polinômios primos entre si, existem polinômios h µi, h µi, h cj C[x], i = 1,..., k e j = 1,..., l, tais que: h µ1 f µ1 + h µ1 f µ h µk f µk + h µk f µk + h c1 f c h cj f cj = 1. (I) Então: h µ1 f µ1 + h µ1 f µ h µk f µk + h µk f µk + h c1 f c h cj f cj = 1. (II) Logo, por (I) e (II), obtemos que: h µ1 + h µ1 2 f µ1 + (h µ 1 + h µ1 ) 2 + h c 1 + h c1 2 f µ h µ k + h µk 2 f c h c l + h cl 2 f µk + (h µ k + h µk ) 2 f cl = 1, f µk Fazendo h i = h µ i + h µi 2 que C[x], i = 1,..., k e g j = h c j + h cj 2 R[x], temos h 1 f µ1 + h 1 f µ h k f µk + h k f µk + g 1 f c g l f cl = 1. Logo, como foi provado no Teorema 5.1, D 0 = p( L), onde p = µ 1 h 1 f µ1 + µ 1 h 1 f µ µ k h k f µk + µ 1 h k f µk +c 1 g 1 f c c l g l f cl R[x]. Então, como p R[x] e Ŝ = D 0, temos que Ŝ = D 0 = p( L) = p(l), ou seja, S = p(l) e N = L S = L p(l) = q(l), onde q = x p R[x]. J. Delgado - K. Frensel 267 Instituto de Matemática - UFF

274 Operadores Semi-Simples J. Delgado - K. Frensel 268 Instituto de Matemática - UFF

275 Espaços Vetoriais com Produto Interno 1. Produto Interno - Definições básicas Definição 1.1 Seja V um espaço vetorial sobre o corpo K, sendo K = R ou K = C. Um produto interno sobre V é uma aplicação que satisfaz as seguintes condições:, : V V K (u, v) u, v, (a) Para cada v V, a aplicação u u, v é linear, ou seja, λu + w, v = λ u, v + w, v. quaisquer que sejam u, w V e λ K. (b) u, v = v, u, onde a barra indica conjugação complexa. (c) u, u 0 e u, u = 0 se, e só se, u = 0. Observação 1.1 (1) u, λv + w = λv + w, u = λ v, u + w, u = λ v, u + w, u = λ u, v + u, w. (2) No caso K = R, temos que u, λv + w = λ u, v + u, w. (3) No caso K = C, a conjugação complexa em (b) é necessária, pois, sem ela, teríamos que u, u > 0 e iu, iu = u, u > 0, se u >

276 Produto Interno - Definições básicas i=1 Exemplo 1.1 Sejam X = (x 1,..., x n ), Y = (y 1,..., y n ) K n, onde K = R ou K = C. Então, X, Y = x i y i é um produto interno sobre K n, denominado produto interno canônico. Exemplo 1.2 Seja V = K n n, K = R ou K = C, o espaço vetorial das matrizes n n sobre K. Como K n n é isomorfo a K n2 de uma maneira natural, temos: A, B = A ij B ij i,j=1 define um produto interno sobre V. Seja B a conjugada da matriz transposta de B, ou seja, B ij = B ji. Então, A, B = Tr (AB ) = Tr (B A), onde Tr ( ) é o traço da matriz. De fato, Tr (AB ) = (AB ) jj = A jk B kj = A jk B jk. j=1 j=1 k=1 j=1 k=1 Exemplo 1.3 Seja K n 1 o espaço vetorial das matrizes n 1, sendo K = R ou K = C. Sejam X = (x 1,..., x n ) e Y = (y 1,..., y n ) em K n 1. Então, X, Y = x i y i = Y X i=1 é um produto interno sobre R n 1. Generalizando, temos que X, Y Q = Y Q QX = (QY) QX = QX, QY é um produto interno sobre K n 1, onde Q é uma matriz n n invertível sobre K. De fato: J. Delgado - K. Frensel 270 Instituto de Matemática - UFF

277 Produto Interno - Definições básicas λx + Z, Y Q = Q(λX + Z), Y = λqx + QZ, QY = λ QX, QY + QZ, QY = λ X, Y Q + Z, Y Q X, Y Q = QX, QY = QY, QX = Y, X Q X, X Q = QX, QX 0 X, X Q = QX, QX = 0 QX = 0 X = 0 pois Q é invertível. Exemplo 1.4 Seja V = C 0 ([0, 1], C) o espaço vetorial das funções contínuas definidas no intervalo [0, 1] com valores complexos. Então, f, g = é um produto interno sobre V. Observação f(t)g(t) dt Sejam V e W espaços vetoriais sobre K (R ou C) e suponhamos que, seja um produto interno sobre W. Se T : V W é uma transformação linear injetora, então u, v T = T(u), T(v) define um produto interno sobre V. (Verifique como exercício). O produto interno sobre K n 1 definido no exemplo 1.3 é um caso particular dessa observação. De fato, tomando T : K n 1 K n 1, T(X) = QX, temos que T é injetora e que X, Y T = T(X), T(Y) = QX, QY = X, Y Q. Exemplo 1.5 Sejam V um espaço vetorial de dimensão finita sobre K (R ou C) e seja B = {v 1,..., v n } uma base de V. Seja {e 1,..., e n } a base canônica de K n e seja T : V K n a transformação linear de V em K n tal que T(v j ) = e j, j = 1,..., n. Se tomarmos o produto interno canônico sobre K n, temos: u, v T = x j v j, y k v k = x j y j j=1 k=1 T j=1 J. Delgado - K. Frensel 271 Instituto de Matemática - UFF

278 Produto Interno - Definições básicas é um produto interno sobre V, onde u = x j v j e v = j=1 y k v k. k=1 Assim, para toda base B de V existe um produto interno sobre V tal que v i, v j T = δ ij, i, j = 1,..., n. Na verdade, é fácil mostrar que existe exatamente um tal produto interno. Mostraremos depois que todo produto interno sobre V é determinado por alguma base B da maneira acima. Observação 1.3 Seja V um espaço vetorial complexo com um produto interno,. Então, para v, w V, v, w = R v, w + ii v, w, onde R v, w e I v, w são as partes real e imaginária do número complexo v, w. Como, para todo z C, I(z) = R( iz), temos u, v = R v, w + ir( i v, w ), ou seja u, v = R v, w + ir( v, iw ). Assim, o produto interno é completamente determinado por sua parte real. Definição 1.2 Seja, : V V K (K = R ou K = C) um produto interno sobre V. Para v V, v = v, v é chamada a norma de v em relação ao produto interno,. A forma quadrática determinada pelo produto interno, é a função V K v v 2 = v, v Então, v ± w 2 = v ± w, v ± w = v 2 ± 2R v, w + w 2. Assim, no caso real, v + w 2 = v v, w + w 2, e J. Delgado - K. Frensel 272 Instituto de Matemática - UFF

279 Produto Interno - Definições básicas v w 2 = v 2 2 v, w + w 2, implica que: v, w = 1 4 ( v + w 2 v w 2) (I) e No caso complexo, R v, w = 1 4 R v, iw = 1 4 ( v + w 2 v w 2) ( v + iw 2 v iw 2) Logo, como v, w = R v, w + ir v, iw, temos v, w = 1 4 ( v + w 2 v w 2) + i 4 ( v + iw 2 v iw 2) (II) As identidades (I) e (II) são denominadas as identidades de polarização. Sejam V um espaço vetorial de dimensão finita, B = {v 1,..., v n } uma base ordenada de V e, um produto interno sobre V. Mostraremos que o produto interno é completamente determinado pelos números: G jk = v k, v j, k, j = 1,..., n. calculados sobre todos os pares de vetores em B. De fato, se u = x k v k e w = y j v j, então u, v = x k v k, k=1 j=1 y j v j = x k y j v k, v j = y j G jk x k = Y GX, k=1 j=1 j,k=1 j,k=1 onde X = [u] B, Y = [v] B e G é a matriz com entradas G jk = v k, v j. Denominamos G a matriz do produto interno em relação à base B. Como G jk = v k, v j = v j, v k = G kj, temos que G é hermitiana, ou seja, G = G. Além disso, G é invertível, pois, como X GX > 0 para todo X K n 1 {0}, temos que GX 0, para X 0. Uma matriz é chamada hermitiana quando é igual ao conjugado da sua própria transposta. Fazendo X = [v i ] B = e i, e i sendo o i ésimo termo da base canônica de K n 1, temos que J. Delgado - K. Frensel 273 Instituto de Matemática - UFF

280 Produto Interno - Definições básicas G ii = x j G jk x k = X GX > 0, k,j=1 para todo i = 1,..., n, ou seja, todas as entradas da diagonal de G são positivas. Porém, nem toda matriz hermitiana A que possui as entradas da diagonal positivas satisfaz a condição X AX > 0, para todo X 0. Basta tomar, por exemplo, ( ) 1 1 A =. 1 1 Observação 1.4 Seja G uma matriz n n sobre o corpo K (R ou C) tal que G = G e X GX > 0 para todo X K n 1 {0}. Então G é a matriz de algum produto interno em relação à base B. De fato, definindo u, w = Y GX, onde X = [u] B e Y = [w] B, temos que, é um produto interno sobre V e G é a sua matriz em relação à base B, pois: w, u = X GY = (X GY) = Y G X = Y GX = u, w. v j, v k = e k Ge j = G kj, k, j = 1,..., n. λu 1 + u 2, w = Y G[λu 1 + u 2 ] B = Y G(λ[u 1 ] B + [u 2 ] B ) = λy G[u 1 ] B + Y G[u 2 ] B = λ u 1, w + u 2, w. Estabeleceremos agora as propriedades básicas dos conceitos de comprimento e ortogonalidade que são impostas ao espaço pelo produto interno. Proposição 1.1 Seja V um espaço vetorial com produto interno. Então, para quaisquer vetores u, v V e todo escalar λ K (K = R ou K = C), (a) λu = λ u ; (b) u 0 e u = 0 u = 0 ; J. Delgado - K. Frensel 274 Instituto de Matemática - UFF

281 Produto Interno - Definições básicas (c) u, v u v (Desigualdade de Cauchy-Schwarz) ; (d) u, v = u v u e v são LD ; (e) u + v u + v (Desigualdade Triangular) Prova. Como λu 2 = λu, λu = λλ u, u = λ 2 u 2, temos que λu = λ u. O item (b) segue imediatamente das propriedades de um produto interno. Para provarmos o item (c), faremos separadamente o caso real (K = R) e o caso complexo (K = C). Caso real. Como u + λv, u + λv 0, para todo λ R, temos λ 2 v 2 + 2λ u, v + u 2 0 para todo λ R. Logo, o discriminante da equação do segundo grau λ 2 v 2 + 2λ u, v + u 2 = 0 (na variável λ) é menor ou igual do que zero, isto é, = 4 u, v 2 4 u 2 v 2 0. Então, u, v u v. Além disso, u, v = u v se, e somente se, = 0, ou seja, se e somente se, existe um único λ 0 R tal que u + λ 0 v, u + λ 0 v = 0. Como u + λ 0 v, u + λ 0 v = 0 se, e somente se, u + λ 0 v = 0, temos que u, v = u v se, e somente se, u e v são LD. Caso complexo. Como u + λv, u + λv 0 para todo λ C, temos que λ 2 v 2 + λ u, v + λ v, u + u 2 0, para todo λ C. Logo, λ 2 v 2 + 2R (λ v, u ) + u 2 0, para todo λ C, pois λ u, v = λ v, u. Em particular, λ 2 v 2 + 2R (λ v, u ) + u 2 0, para todo λ R. Então, λ 2 v 2 + 2λ R ( v, u ) + u 2 0, para todo λ R. Assim, J. Delgado - K. Frensel 275 Instituto de Matemática - UFF

282 Produto Interno - Definições básicas = 4 (R u, v ) 2 4 u 2 v 2 0, onde é o discriminante da equação (na variável λ) λ 2 v 2 + 2λ R ( v, u ) + u 2 = 0. Logo, R v, u u v. (I) Suponhamos que u, v 0. Seja z = u, v u, v. Então, como ( ) ( ) u, v u, v 2 R zv, u = R (z v, u ) = R v, u = R = u, v, u, v u, v temos, por (I), que pois z = 1. u, v = R zv, u zv u = u v, Se u e v são LD, é fácil verificar que u, v = u v. Se u, v = u v, então R zv, u = zv u. Logo, a equação u + λzv, u + λzv = λ v 2 + 2λR zv, u + u 2 = 0, com λ R, tem discriminante zero. Então, existe λ 0 R tal que u + λ 0 zv, u + λ 0 zv = 0, ou seja, u + λ 0 zv = 0. Portanto, u e v são LD. Vamos, agora, provar a desigualdade triangular. Como u + v 2 = u + v, u + v = u 2 + u, v + v, u + v 2 = u 2 + 2R u, v + v 2, temos, pela desigualdade de Cauchy-Schwarz, que u + v 2 = u 2 + v 2 + 2R u, v u 2 + v u v = ( u + v ) 2, ou seja, u + v u + v, pois R u, v R u, v u, v u v. Além disso, temos que u + v = u + v se, e somente se, R u, v = R u, v = u, v = u v. J. Delgado - K. Frensel 276 Instituto de Matemática - UFF

283 Produto Interno - Definições básicas Logo, existe c C tal que u = cv. Como u, v = R u, v, temos que u, v R +. Sendo, u, v = cv, v = c u, v = c v 2, temos que c > 0, se u, v 0, ou seja, u é um múltiplo positivo de v. Se u, v = 0, temos que u = 0 ou v = 0. Nesse caso, temos, também, que um dos vetores u ou v é múltiplo positivo do outro. Reciprocamente, se u = cv, onde c R, c > 0, então, u + v = cv + v = c + 1 v = (c + 1) v = c v + v Observação 1.5 = cv + v = u + v, Aplicando a desigualdade de Cauchy-Schwarz aos produtos internos dos exemplos 1.1, 1.2 e 1.4, obtemos, respectivamente, que ( ) 2 ( ) 2 x k y k x k 2 y k 2 ; k=1 k=1 k=1 Tr (AB ) (Tr (AA )) 1/2 (Tr (BB )) 1/2 ; 1 ( 1 f(x)g(x) dx 0 0 Definição 1.3 ) 2 ( 1 1/2 f(x) 2 dx g(x) dx) 2. 0 Sejam u e v vetores num espaço vetorial V com produto interno. Dizemos que u e v são ortogonais se u, v = 0. Definição 1.4 seja S um subconjunto de V. Dizemos que S é um conjunto ortogonal se dois vetores distintos quaisquer em S são ortogonais. Se, além disso, todos os vetores em S são unitários, dizemos que S é um conjunto ortonormal. Observação 1.6 O vetor nulo é ortogonal a todo vetor em V e é o único vetor com essa propriedade. J. Delgado - K. Frensel 277 Instituto de Matemática - UFF

284 Produto Interno - Definições básicas Exemplo 1.6 A base canônica de R n ou de C n é um conjunto ortonormal em relação ao produto interno canônico. Exemplo 1.7 Seja V = C n n o espaço vetorial de todas as matrizes complexas e seja E pq a matriz cuja única entrada não-nula é 1 localizada na linha p e na coluna q. Então, o conjunto das matrizes E pq, p, q = 1,..., n, é ortonormal em relação ao produto interno definido no exemplo 1.2. De fato, E pq, E rs = Tr (E pq E sr ) = δ qs Tr (E pr ) = δ qs δ pr. Exemplo 1.8 Seja V = C 0 ([0, 1], C) o espaço vetorial das funções contínuas definidas no intervalo [0, 1] que tomam valores em C, com o produto interno definido no exemplo 1.4. Sejam f n (x) = 2 cos(2πnx) e g n = 2 sen(2πnx), n N. Então, {1, f 1, g 1, f 2, g 2,..., f n, g n,...} é um subconjunto de V que é ortonormal infinito. Temos, também, que o conjunto de todas as funções da forma h n (x) = e 2πinx, n Z, é um subconjunto de V que é ortonormal e infinito. Proposição 1.2 Todo conjunto S ortonormal de vetores não nulos é LI. Prova. Sejam v 1,..., v m vetores distintos em S e seja w = λ 1 v λ m v m. Então, w, v k = m λ j v j, v k = λ k v k, v k. j=1 J. Delgado - K. Frensel 278 Instituto de Matemática - UFF

285 Produto Interno - Definições básicas Como v k, v k 0, temos que λ k = w, v k, k = 1,..., m. v k, v k Assim, λ 1 =... = λ m = 0, se w = 0. Logo, S é um conjunto LI. Observação 1.7 Se w = λ 1 v λ m v m é uma combinação linear de vetores não-nulos ortogonais, então Observação 1.8 w = m k=1 w, v k v k 2 v k. Se {v 1,..., v m } é um conjunto ortogonal de vetores não-nulos em V, então m dim(v). Teorema 1.1 Seja V um espaço vetorial com produto interno e sejam v 1,..., v n vetores LI em V. Então, existem vetores ortogonais w 1,..., w n em V tais que, para cada k = 1,..., n, o conjunto {w 1,..., w k } é uma base do subespaço gerado pelos vetores v 1,..., v k. Processo de ortogonalização de Gram-Schmidt Prova. Tome w 1 = v 1. Suponhamos que w 1,..., w m, 1 m < n, tenham sido escolhidos de modo que, para cada k, {w 1,..., w k }, 1 k m, seja uma base ortonormal do subespaço gerado por v 1,..., v k. Tome w m+1 = v m+1 m k=1 v m+1, w k w k 2 w k. Então, w m+1 0, pois, caso contrário, v m+1 seria combinação linear de w 1,..., w m e, portanto, uma combinação linear de v 1,..., v m. Além disso, se 1 j m, w m+1, w j = v m+1, w j m k=1 w m+1, w k w k 2 w k, w j = w m+1, w j w m+1, w j = 0. J. Delgado - K. Frensel 279 Instituto de Matemática - UFF

286 Produto Interno - Definições básicas Portanto, {w 1,..., w m+1 } é um conjunto ortogonal de m + 1 vetores nãonulos do subespaço gerado pelos vetores v 1,..., v m+1. Como, pela proposição anterior, {w 1,..., w m+1 } é um conjunto LI, temos que {w 1,..., w m+1 } é uma base do subespaço gerado pelos vetores v 1,..., v m+1. Prosseguindo desta maneira, podemos obter n vetores w 1,..., w n ortogonais tais que {w 1,..., w n } é uma base do subespaço gerado pelos vetores {v 1,..., v n }. Corolário 1.1 Todo espaço vetorial V de dimensão finita com produto interno possui uma base ortonormal. Prova. Seja {v 1,..., v n } uma base de V. Pelo processo de ortogonalização de Gram-Schmidt, podemos construir uma base ortogonal {w 1,..., w n }. Então {w 1,..., w n} é uma base ortonormal de V, onde w 1 = w 1 w 1 = v 1 v 1 ; w 2 = w 2 w 2 = v 2 v 2, w 1 w 1 v 2 v 2, w 1 w 1 ; w 3 = w 3 w 3 = v 3 v 3, w 1 w 1 v 3, w 2 w 2 v 3 v 3, w 1 w 1 v 3, w 2 w 2 ; w j = w n = w j w j = w n w n = j 1 v j vj, w i w i i=1 j 1 v j i=1 i=1 n 1 ; vj, w i w i n 1 v n vn, w i w i v n i=1. vn, w i w i J. Delgado - K. Frensel 280 Instituto de Matemática - UFF

287 Produto Interno - Definições básicas Observação 1.9 Seja V um espaço vetorial com produto interno e seja G a matriz do produto interno em relação a uma base ortonormal B = {v 1,..., v n }. Então, G é a matriz identidade e u, w = Y X = onde X = [u] B e Y = [w] B. x j y j, j=1 Observação 1.10 O processo de Gram-Schmidt também pode ser usado para testar dependência linear. De fato, suponhamos que v 1,..., v n sejam vetores LD em um espaço vetorial com produto interno e que v 1 0. Seja m o maior inteiro para o qual os vetores v 1,..., v m são LI. Então 1 m < n. Sejam w 1,..., w m os vetores obtidos aplicando o processo de ortogonalização aos vetores v 1,..., v m. Então, o vetor m w m+1 = v m+1 k=1 v m+1, w k w k 2 w k, é nulo, pois como w m+1 está no subespaço gerado por w 1,..., w m, já que v m+1 pertence ao subespaço gerado por v 1,..., v m que é igual ao subespaço gerado por w 1,..., w m e é ortogonal a cada um desses vetores, temos w m+1 = m k=1 w m+1, w k w k 2 w k = 0. Reciprocamente, se w 1,..., w m são não-nulos e w m+1 = 0, então v 1,..., v n são LI, mas v 1,..., v m+1 são LD. Exemplo 1.9 Considere os vetores v 1 = (3, 0, 4), v 2 = ( 1, 0, 7) e v 3 = (2, 9, 11) em R 3 munido do produto interno canônico. Aplicando o processo de Gram- Schmidt aos vetores v 1, v 2 e v 3, obtemos os seguintes vetores: w 1 = (3, 0, 4) ; w 2 = ( 1, 0, 7) ( 1, 0, 7), (3, 0, 4) 25 = ( 1, 0, 7) (3, 0, 4) = ( 4, 0, 3) ; (3, 0, 4) J. Delgado - K. Frensel 281 Instituto de Matemática - UFF

288 Produto Interno - Definições básicas w 3 = (2, 9, 11) (2, 9, 11), (3, 0, 4) 25 (3, 0, 4) = (2, 9, 11) 2(3, 0, 4) ( 4, 0, 3) = (0, 9, 0). (2, 9, 11), ( 4, 0, 3) 25 ( 4, 0, 3) Como w 1, w 2 e w 3 são não-nulos e ortogonais, {w 1, w 2, w 3 } é uma base ortogonal de R 3 e, portanto, { w 1 = w 1 w 1 = (3, 0, 4) 5, w 2 = w 2 w 2 é uma base ortonormal de R 3. Seja X = (x 1, x 2, x 3 ) R 3. Então, = ( 4, 0, 3) 5, w 3 = w 3 w 3 } = (0, 1, 0) X = (x 1, x 2, x 3 ) = X, w 1 w 1 + X, w 2 w 2 + X, w 3 w 3 = 3x 1 + 4x 3 5 w 1 + 4x 1 + 3x 3 5 w 2 + x 2 w 3. E a base {f 1, f 2, f 3 } de (R 3 ) dual da base {w 1, w 2, w 3 } é dada por: Definição 1.5 f 1 (x 1, x 2, x 3 ) = 3x 1 + 4x 3 5 f 2 (x 1, x 2, x 3 ) = 4x 1 + 3x 3 5 f 3 (x 1, x 2, x 3 ) = x 2. Seja W um subespaço de um espaço vetorial V com produto interno e seja v V. Uma melhor aproximação de v por vetores de W é um vetor w W tal que Teorema 1.2 v w v u, u W. Seja W um subespaço de um espaço vetorial V com produto interno e seja v V. (a) O vetor w W é uma melhor aproximação de v por vetores de W se, e somente se, v w é ortogonal a todo vetor de W. (b) Se uma melhor aproximação de v por vetores de W existir, ela é única. (c) Se W é de dimensão finita e {w 1,..., w n } é uma base ortonormal de W, então J. Delgado - K. Frensel 282 Instituto de Matemática - UFF

289 Produto Interno - Definições básicas w = v, w k w k, k=1 e a (única) melhor aproximação de v por vetores de W. Prova. Se u é um vetor arbitrário de V, então v u = (v w) + (w u) e v u 2 = v w 2 + 2R v w, w u + w u 2 (I) Suponhamos que v w seja ortogonal a todo vetor em W, u W e u w. Como w u W, temos que v u 2 = v w 2 + w u 2 > v w 2. Reciprocamente, suponhamos que v u v w para todo u W. Então, por (I), temos que para todo vetor u W. 2R v w, w u + w u 2 0, Como todo vetor em W pode ser expresso na forma w u, com u W, temos que 2R v w, x + x 2 0 para todo vetor x W. Em particular, se u W e u w, podemos tomar w u, v w x = (w u). w u 2 Então, a desigualdade (II) se reduz a (II) 2 v w, w u 2 w u 2 + v w, w u 2 w u 2 0, ou seja v w, w u 2 0. Logo, v w, w u = 0. Como todo vetor em W pode ser escrito na forma w u, u W, temos que v w é ortogonal a todo vetor em W. Seja w uma outra melhor aproximação de v por vetores de W. Então, v w, w w = 0, e v w, w w = 0, ou seja, v, w w = w, w w, e v, w w = w, w w. Logo, w w, w w = 0, isto é, w = w. Suponhamos agora que W tem dimensão finita e que {w 1,..., w n } é uma J. Delgado - K. Frensel 283 Instituto de Matemática - UFF

290 Produto Interno - Definições básicas base ortonormal de W. Seja w = v, w k w k. Então, k=1 v w, w j = v, w j w, w j = v, w j v, w k w k, w j = v, w j v, w j = 0, para todo j = 1,..., n. Assim, v w é ortogonal a toda combinação linear dos vetores w 1,..., w k, isto é, a todo vetor de W. Então, por (a), w é a melhor aproximação de v por vetores de W. k=1 Definição 1.6 Seja V um espaço vetorial com produto interno e seja S um subconjunto de V. O suplementar ortogonal de S é o conjunto S de todos os vetores em V que são ortogonais a todo vetor em S, ou seja, S = {v V v, w = 0 w S}. Observação 1.11 S é um subespaço vetorial. De fato, S é não-vazio pois 0 S e se v 1, v 2 S e c K, então cv 1 + v 2, w = c v 1, w + v 2, w = 0, para todo w S. Logo, cv 1 + v 2 S. Exemplo 1.10 Tem-se que {0} = V e V = {0}. Observação 1.12 Se W é um subespaço de V e w W é a melhor aproximação de v V por vetores de W, então w é o único vetor de W tal que v w W. Nesse caso, w é chamado a projeção ortogonal de v sobre W. Se todo vetor de V possuir uma projeção ortogonal sobre W, a aplicação que a cada vetor de V associa a sua projeção ortogonal sobre W é chamada a projeção ortogonal de V sobre W. J. Delgado - K. Frensel 284 Instituto de Matemática - UFF

291 Produto Interno - Definições básicas Pelo teorema anterior, sempre existe a projeção ortogonal de um espaço com produto interno sobre um subespaço de dimensão finita. Corolário 1.2 Sejam V um espaço vetorial com produto interno, W um subespaço de dimensão finita e π a projeção ortogonal de V sobre W. Então a aplicação v v π(v) é a projeção ortogonal de V sobre W. Prova. Seja v V. Então, v π(v) W e v u = π(v) + (v π(v) u) para todo u W. Como π(v) W e v π(v) u W, temos que v u 2 = π(v) 2 + v π(v) u 2 v (v π(v)) 2, valendo a desigualdade estrita se u v π(v). Portanto, v π(v) é a melhor aproximação de v por vetores em W. Teorema 1.3 Seja W um subespaço vetorial de dimensão finita de um espaço V com produto interno. Seja π a projeção ortogonal de V sobre W. Então π é uma transformação linear idempotente de V sobre W. Além disso, W = Ker(π) e V = W W. Prova. Seja v V. Como π(v) é a melhor aproximação de v por vetores de W, temos que π(v) = v se v W. Portanto, π(π(v)) = π(v) para todo v V, isto é, π é idempotente (π 2 = π). Vamos, agora, provar que π é uma transformação linear. Sejam u, v V e c K. Como u π(u) e v π(v) são ortogonais a todos os vetores de W, temos que u π(u) e v π(v) pertencem a W. Portanto, o vetor c(u π(u)) + (v π(v)) = (cu + v) (cπ(u) + π(v)) também pertence a W. Como cπ(u)+π(v) W, temos que cπ(u)+π(v) é a melhor aproximação de cu + v por vetores de W, ou seja, π(cu + v) = cπ(u) + π(v). J. Delgado - K. Frensel 285 Instituto de Matemática - UFF

292 Produto Interno - Definições básicas Seja v V. Como π(v) é o único vetor em W tal que v π(v) W, temos que π(v) = 0 se v W. Reciprocamente, se π(v) = 0 então v W. Logo, W é o núcleo de π. Como v = π(v) + (v π(v)) para todo vetor v V e π(v) W, v π(v) W, temos que V = W + W. Além disso, se v W W, então v, v = 0, ou seja, v = 0. Logo, W W = {0} e, portanto, V = W W. Observação 1.13 A projeção ortogonal I π de V sobre W, é uma transformação linear idempotente de V sobre W com núcleo W. De fato, como π é linear e π 2 = π, temos que I π é linear e (I π)(i π) = (I 2π) + π 2 = I 2π + π = I π. Além disso, (I π)(v) = 0 se, e somente se, π(v) = v, ou seja, (I π)(v) = 0 se, e só se, v W. Logo, W é o núcleo de I π. Exemplo 1.11 Seja R 3 munido do produto interno canônico e seja π a projeção ortogonal de R 3 sobre o subespaço W gerado pelo vetor w = (3, 12, 1). Então, se x = (x 1, x 2, x 3 ) R 3, π(x) = x, w w w = 3x x 2 x 3 (3, 12, 1) Portanto, W = Ker(π) = {(x 1, x 2, x 3 ) R 3 3x x 2 x 3 = 0} tem dimensão dois e (I π)(x) = (145x 1 36x 2 + 3x 3, 36x x x 3, 3x x x 3 ) é a projeção ortogonal de V sobre W. Observação 1.14 O processo de Gram-Schmidt pode ser, agora, descrito geometricamente. Seja V um espaço vetorial com produto interno e v 1,..., v n vetores LI em V. Seja P k, k > 1 a projeção ortogonal de V sobre o suplementar ortogonal do subespaço gerado por v 1,..., v k 1, e seja P 1 = I. J. Delgado - K. Frensel 286 Instituto de Matemática - UFF

293 Produto Interno - Definições básicas Então, os vetores que se obtém aplicando o processo de ortogonalização aos vetores v 1,..., v n são definidos por: w k = P k (v k ), 1 k n. Corolário 1.3 Seja {v 1,..., v n } um conjunto ortogonal de vetores não-nulos em um espaço vetorial V com produto interno. Se v V, então k=1 v, v k 2 v k 2 v 2 Desigualdade de Bessel e a igualdade ocorre se, e somente se, v, v v = k v k v 2 k. k=1 Prova. Seja w = k=1 v, v k v k 2 v k. Então, v = w + u, onde w, u = 0. Observe que w = π(v), onde π é a projeção ortogonal de V sobre o subespaço W gerado pelos vetores v 1,..., v n. Logo, v 2 = w 2 + u 2, onde w 2 = k=1 v, v k 2 v k 2. Então, v 2 w 2 = k=1 ou seja, se, e somente se, v = v, v k 2 v k 2 e a igualdade ocorre se, e só se, u = 0, k=1 v, v k v k 2 v k. Logo, v pertence ao subespaço W gerado pelos vetores v 1,..., v k se, e somente se, v = k=1 v, v k v k 2 v k, ou seja, se, e só se, a desigualdade de Bessel é, na verdade, uma igualdade. J. Delgado - K. Frensel 287 Instituto de Matemática - UFF

294 Funcionais Lineares e Adjuntos Observação 1.15 No caso especial em que {v 1,..., v n } é um conjunto ortonormal, a desigualdade de Bessel afirma que v, v k 2 v 2. k=1 Exemplo 1.12 Aplicando a desigualdade de Bessel aos conjuntos ortonormais do exemplo 1.8, temos que: k= n k= n f(t) e 2 π n i t dt c k e 2π n i t 2 2 dt = 1 0 k= n f(t) 2 dt ; c k 2 ; 1 ( ) 2 2 cos(2πt) + 2 sen(4 π t) dt = = Funcionais Lineares e Adjuntos Seja V um espaço vetorial com produto interno e seja w V. Definimos a aplicação f w K v f w (v) = v, w. Sendo o produto interno v, w linear como função de v, f w funcional linear sobre V. é um Teorema 2.1 Seja V um espaço vetorial de dimensão finita com produto interno e seja f um funcional linear sobre V. Então existe um único vetor w V tal que f(v) = v, w, para todo v V. Prova. Seja {v 1,..., v n } uma base ortonormal de V e seja J. Delgado - K. Frensel 288 Instituto de Matemática - UFF

295 Funcionais Lineares e Adjuntos w = f(v k ) v k. k=1 Seja f w : V K o funcional linear definido por f w (v) = v, w. Como f w (v j ) = v j, w = v j, f(v k ) v k = k=1 f(v k ) v j, v k = f(v j ), k=1 para todo j = 1,..., n, temos que f = f w. Suponhamos que existe outro vetor w V tal que f(v) = v, w para todo v V. Então, v, w = v, w, ou seja, v, w w = 0 para todo v V. Fazendo v = w w, obtemos que w w, w w = 0. Logo, w = w. Observação 2.1 O vetor w pertence a (Ker(f)). De fato, seja W = Ker(f). Então, V = W W. Se π é a projeção ortogonal de V sobre W, então para todo v V. f(v) = f(π(v)), Suponhamos f O. Então, posto (f) = 1 e dim W = 1. Se w 0 é um vetor não-nulo de W, temos que para todo v V. π(v) = v, w 0 w 0 2 w 0 Logo, f(v) = v, w 0 w 0 f(w 0) = v, f(w 0) 2 w 0 w 2 o = 0 para todo v V. Assim, w = f(w 0) w 0 2 w 0. J. Delgado - K. Frensel 289 Instituto de Matemática - UFF

296 Funcionais Lineares e Adjuntos Exemplo 2.1 Mostraremos, agora, através de um exemplo, que o teorema anterior não é válido sem a hipótese de V ser de dimensão finita. Seja V o espaço vetorial dos polinômios com coeficientes complexos com o produto interno f, g = 1 0 f(t)g(t) dt. Este produto interno também pode ser definido algebricamente. Se f = a k x k e g = b j x j, então f, g = j,k 1 j + k + 1 a k b j. Seja z C e seja L o funcional linear definido por L(f) = f(z). Suponhamos que existe um polinômio g V tal que L(f) = f(z) = f, g = para todo f V. 1 0 f(t) g(t) dt, Seja h = x z. Então (hf)(z) = 0 para todo f V. Assim, 0 = 1 para todo f V. Tome f = h g. Então, 0 = h(t) f(t) g(t) dt, h(t) 2 g(t) 2 dt. Logo, hg = O. Como h O, devemos ter g = O, o que é uma contradição, já que L não é o funcional nulo. Teorema 2.2 Seja T um operador linear sobre um espaço V de dimensão finita com produto interno. Então, existe um único operador linear T sobre V tal que T(v), w = v, T (w), para todo v, w V. Prova. Seja w V. Então, a aplicação v T(v), w é um funcional linear J. Delgado - K. Frensel 290 Instituto de Matemática - UFF

297 Funcionais Lineares e Adjuntos sobre V. Pelo teorema anterior, existe um único vetor w V tal que T(v), w = v, w, para todo v V. Faça T (w) = w. Devemos verificar que T : V V é uma transformação linear. Sejam w, u V e c K. Então, para qualquer v V, temos v, T (cw + u) = T(v), cw + u = c T(v), w + T(v), u = c v, T (w) + v, T (u) = v, ct (w) + T (u). Logo, T (cw + u) = ct (w) + T (u), ou seja, T é linear. Proposição 2.1 Seja V um espaço vetorial de dimensão finita com produto interno e seja B = {v 1,..., v n } uma base ortonormal de V. Seja T um operador linear sobre V e seja A a matriz de T em relação à base ordenada B. Então, A ij = T(v j ), v i. Prova. Como B é uma base ortonormal, temos que T(v j ) = T(v j ), v i v i. Logo, A ij = T(v j ), v i. i=1 Teorema 2.3 Seja V um espaço vetorial de dimensão finita com produto interno e seja T um operador linear sobre V. Então, em relação a qualquer base ortonormal de V, a matriz de T é a transposta conjugada da matriz de T. Prova. Sejam B = {v 1,..., v n } uma base ortonormal de V, A = [T] B e B = [T ] B. Pelo teorema anterior, A kj = T(v j ), v k e B kj = T (v j ), v k. Logo, B kj = T (v j ), v k = v k, T (v j ) = T(v k ), v j = A jk. J. Delgado - K. Frensel 291 Instituto de Matemática - UFF

298 Funcionais Lineares e Adjuntos Exemplo 2.2 Seja V um espaço vetorial de dimensão finita com produto interno e seja π a projeção ortogonal de V sobre um subespaço W. Então, para quaisquer vetores v, w V, Logo, π = π. Exemplo 2.3 Seja π : R 3 W dada por π(v), w = π(v), π(w) + (w π(w)) = π(v), π(w) = π(v) + (v π(v)), π(w) = v, π(w). π(x 1, x 2, x 3 ) = 3x x 2 x (3, 12, 1), a projeção ortogonal de R 3 sobre o subespaço W gerado pelo vetor (3, 12, 1), do exemplo Então, A = é a matriz de π em relação à base ortonormal canônica. Como π = π, A é também a matriz de π em relação à base canônica. E, como A = A, isso não contradiz o teorema acima. Considere, agora a base B = {v 1, v 2, v 3 }, onde Como v 1 = (154, 0, 0), v 2 = (145, 36, 3), v 3 = ( 36, 10, 12). π(v 1 ) = (9, 36, 3) = (154, 0, 0) (145, 36, 3), π(v 2 ) = (0, 0, 0), π(v 3 ) = (0, 0, 0), temos que [π] B = B = Nesse caso, B B e B não é a matriz de π = π em relação à base B. Isso ocorre porque a base B não é ortonormal. J. Delgado - K. Frensel 292 Instituto de Matemática - UFF

299 Funcionais Lineares e Adjuntos Definição 2.1 Seja T um operador linear sobre um espaço V com produto interno. Dizemos que T possui um adjunto sobre V se existe um operador linear T sobre V tal que T(v), w = v, T (w) para todos v, w V. Observação 2.2 O Teorema 2.2 afirma que todo operador linear sobre um espaço V de dimensão finita com produto interno possui um adjunto. Mas, no caso de dimensão infinita isso nem sempre ocorre. Em qualquer caso, existe no máximo um operador T, que é denominado adjunto de T. Observação 2.3 O adjunto de T depende não só de T, como também do produto interno de V. Exemplo 2.4 Seja V = C n 1 o espaço das matrizes complexas n 1 com o produto interno X, Y = Y X. Se A é uma matriz complexa n n, o adjunto do operador linear X AX é o operador X A X. De fato, AX, Y = Y AX = (A Y) X = X, A Y. Exemplo 2.5 Seja V = C n n o espaço das matrizes complexas n n com o produto interno A, B = Tr (B A). Seja M C n n. O adjunto do operador L M (A) = MA é o operador L M (A) = M A. De fato, L M (A), B = Tr (B (MA)) = Tr (MAB ) = Tr (AB M) = Tr (A(M B) ) = Tr ((M B) A) = A, M B. Logo, (L M ) (B) = M B = L M (B), ou seja, (L M ) = L M. J. Delgado - K. Frensel 293 Instituto de Matemática - UFF

300 Funcionais Lineares e Adjuntos Exemplo 2.6 Seja V o espaço vetorial dos polinômios sobre C, com o produto interno f, g = 1 0 f(t)g(t) dt. Se f = a k x k, seja f = a k x k. Então, f(t) = f(t), para todo t R. Consideremos o operador M f (g) = fg, isto é, M f é o operador multiplicação por f. Então, o adjunto de M f é o operador M f. De fato, M f (g), h = = f(t)g(t)h(t) dt g(t)f(t)h(t) dt = g, M f (h). Logo, (M f ) = M f. Exemplo 2.7 Daremos, agora, um exemplo para mostrar que nem todo operador sobre um espaço vetorial de dimensão infinita com produto interno possui um adjunto. Seja V o espaço dos polinômios sobre C com o produto interno f, g = 1 0 f(t)g(t) dt. Seja D o operador derivação sobre V. Então, D(f), g = 1 f (t)g(t) dt = f(1)g(1) f(0)g(0) = f(1)g(1) f(0)g(0) f, D(g). Suponhamos que existe um polinômio D (g) tal que D(f), g = f, D (g), para todo f V. f(t)g(t) dt Ou seja, f, D (g) = f(1)g(1) f(0)g(0) f, D(g), J. Delgado - K. Frensel 294 Instituto de Matemática - UFF

301 Funcionais Lineares e Adjuntos ou ainda, f, D (g) + D(g) = f(1)g(1) f(0)g(0), para todo f V. Seja L(f) = f(1)g(1) f(0)g(0), onde g C[x] é fixo. funcional linear e L(f) = f, h, para todo f C[x], Então, L é um onde h = D (g) + D(g). Tome l = (x 1)x. Então, 0 = L(l f) = lf(1)g(1) lf(0)g(0) = para todo f C[x]. 1 0 l(t)f(t)h(t) dt, Fazendo f = lh, temos que 1 l(t) 2 h(t) 2 dt = 0, o que implica que h(t) = 0 t R. 0 Assim, L(f) = f, h = f(1)g(1) f(0)g(0) = 0, para todo f C[x]. Tomando f = x e f = x 1, obtemos que g(1) = g(0) = 0. Logo, se g C[x] é tal que g(1) 0 ou g(0) 0, então não existe D (g) tal que D(f), g = f, D (g), para todo f. Veremos agora como a operação que leva T em T se assemelha com a conjugação sobre os números complexos. Teorema 2.4 Seja V um espaço vetorial de dimensão finita com produto interno. Se T e U são operadores lineares sobre V e c é um escalar, então: (a) (T + U) = T + U ; (b) (ct) = ct ; (c) (T U) = U T ; J. Delgado - K. Frensel 295 Instituto de Matemática - UFF

302 Funcionais Lineares e Adjuntos (d) (T ) = T. Prova. Como, para todos v, w V temos (T + U)(v), w = T(v) + U(v), w = T(v), w + U(v), w = v, T (w) + v, U (w) = v, T (w) + U (w) = v, (T + U )(w), temos, pela unicidade do adjunto, que (T + U) = T + U. De modo análogo, para todos v, w W, temos (ct)(v), w = ct(v), w = c T(v), w = c v, T (w) = v, (ct )(w) ; T U(v), w = U(v), T (w) = v, U T (w) ; T (v), w = w, T (v) = T(w), v = v, T(w). Logo, pela unicidade do adjunto, temos que (ct) = ct, (T U) = U T, e (T ) = T. Observação 2.4 Se T é um operador linear sobre um espaço vetorial complexo de dimensão finita com produto interno, então T pode ser expresso de modo único na forma: T = U 1 + iu 2, onde U 1 = U 1 e U 2 = U 2. De fato, se T = U 1 + iu 2, onde U 1 = U 1 e U 2 = U 2, então T = (U 1 + iu 2 ) = U 1 iu 2 = U 1 iu 2. Logo, U 1 = T + T 2 e U 2 = T T 2i. Assim, T possui, de certa forma, uma parte real, U 1, e uma parte imaginária, U 2. (Lembre-se: z C é real se, e somente se, z = z) J. Delgado - K. Frensel 296 Instituto de Matemática - UFF

303 Funcionais Lineares e Adjuntos Definição 2.2 Um operador linear T tal que T = T é dito auto-adjunto ou hermitiano. Então, T é auto-adjunto se, e somente se, [T] B = [T ] B = [T] B, para toda base ortonormal B de V, ou seja, se, e somente se, [T] B é uma matriz auto-adjunta (ou hermitiana) para toda base ortonormal B de V. Observação 2.5 Seja a transformação i V : V V y i V (y)(x) = x, y. Então: (a) i V (y 1 + y 2 ) = i V (y 1 ) + i V (y 2 ), pois i V (y 1 + y 2 )(x) = x, y 1 + y 2 = x, y 1 + x, y 2 = i V (y 1 )(x) + i V (y 2 )(x), para todo x V. (b) i V (λy) = λi V (y), pois i V (λy)(x) = x, λy = λ x, y = λi V (y)(x), para todo x V. (c) i V é injetora, pois i V (y 1 ) = i V (y 2 ) i V (y 1 )(x) = i V (y 2 )(x), x V x, y 1 = x, y 2, x V x, y 1 y 2 = 0, x V. Fazendo x = y 1 y 2, obtemos que y 1 y 2, y 1 y 2 = 0, logo y 1 y 2 = 0. Isto é, y 1 = y 2. (d) Se V tem dimensão finita, i V é sobrejetora, pois se f V já provamos que existe um (único) vetor y V tal que f(x) = x, y, para todo x V. Logo, f = i V (y). Seja T : V V um operador linear sobre um espaço vetorial V de dimensão finita com produto interno e seja J. Delgado - K. Frensel 297 Instituto de Matemática - UFF

304 Operadores Unitários T1 : V V f T1 (f) = f T, o adjunto de T anteriormente definido. Então, o seguinte diagrama é comutativo V i V V T 1 i V ou seja, i V T = T 1 i V. V T V De fato, T1 i V(y)(x) = (i V (y) T)(x) = i V (y)(t(x)) = T(x), y = x, T (y) = i V (T (y))(x) = (i V T )(y)(x), para todos x, y V. Logo, T i V = i V T. 3. Operadores Unitários Definição 3.1 Sejam V e W espaços vetoriais com produto interno sobre o mesmo corpo K (R ou C) e seja T uma transformação linear de V em W. Dizemos que T preserva produto interno se T(v), T(w) = v, w, para todos v, w V. Uma isometria de V em W é um isomorfismo de V em W que preserva o produto interno. Uma isometria de um espaço vetorial com produto interno sobre si mesmo é um operador unitário Observação 3.1 Se T L(V, W) preserva produto interno, então T(v) = v para todo v V. Isto é, T preserva a norma. Em particular T é uma transformação injetora. Reciprocamente, se T L(V, W) preserva a norma, ou seja T(v) = v J. Delgado - K. Frensel 298 Instituto de Matemática - UFF

305 Operadores Unitários para todo v V, então T preserva produto interno. De fato, para K = R, usando a identidade de polarização, temos que T(v), T(w) = 1 ( T(v) + T(w) 2 T(v) T(w) 2) 4 = 1 ( T(v + w) 2 T(v w) 2) 4 = 1 ( v + w 2 v w 2) 4 = v, w, e para K = C, T(v), T(w) = 1 ( T(v) + T(w) 2 T(v) T(w) 2) 4 + i ( T(v) + it(w) 2 T(v) it(w) 2) 4 = 1 ( T(v + w) 2 T(v w) 2) 4 + i ( T(v + iw) 2 T(v iw) 2) 4 = 1 ( v + w 2 v w 2) + i ( v + iw 2 v iw 2) 4 4 = v, w, Proposição 3.1 Sejam V e W espaços vetoriais com produto interno de mesma dimensão finita n sobre o corpo K (R ou C). Se T L(V, W), as seguintes afirmações são equivalentes: (a) T preserva produto interno. (b) T é um isomorfismo que preserva produto interno (ou seja T é uma isometria). (c) T leva toda base ortonormal de V em uma base ortonormal de W. (d) T leva alguma base ortonormal de V em uma base ortonormal de W. Prova. (a)= (b) Como T é injetora e dim(v) = dim(w) = n, temos que T é sobrejetora. Logo, T é um isomorfismo. (b)= (c) Seja B = {v 1,..., v n } uma base ortonormal de V. Como T é um J. Delgado - K. Frensel 299 Instituto de Matemática - UFF

306 Operadores Unitários isomorfismo, temos que B = {T(v 1 ),..., T(v n )} é uma base de W tal que T(v i ), T(v j ) = v i, v j = δ ij, ou seja, B é uma base ortonormal de W. (c)= (d) É de fácil verificação. (d)= (a) Seja B = {v 1,..., v n } uma base ortonormal de V tal que B = {T(v 1 ),..., T(v n )} é uma base ortonormal de W. Então, se v = x j v j e w = y k v k, temos que j=1 T(v), T(w) = = = k=1 x j T(v j ), j=1 x j y k δ jk = j,k=1 x j v j, j=1 k=1 y k T(v k ) = x j y k T(v j ), T(v k ) k=1 x j y k v j, v k j,k=1 ou seja, T preserva produto interno. y k v k = v, w, j,k=1 Corolário 3.1 Sejam V e W espaços vetoriais de dimensão finita com produto interno sobre o mesmo corpo K (R ou C). Existe um isomorfismo T : V W que preserva produto interno se, e somente se, dim(v) = dim(w). Prova. (= ) trivial. ( =) Se {v 1,..., v n } é uma base ortonormal de V e {w 1,..., w n } é uma base ortonormal de W, seja T a transformação linear de V em W definida por T(v i ) = w i, i = 1,..., n. Então, T é um isomorfismo de V em W que preserva produto interno. Exemplo 3.1 Se V é um espaço n dimensional com produto interno sobre o corpo K (R ou C), então toda base ortonormal B = {v 1,..., v n } determina uma isometria de V em K n com o produto interno canônico. De fato, a transformação J. Delgado - K. Frensel 300 Instituto de Matemática - UFF

307 Operadores Unitários ( T(v) = T j=1 x j v j ) = (x 1,..., x n ), onde v = x j v j, define uma isometria de V em K n, pois {T(v 1 ) = j=1 e 1,..., T(v n ) = e n } é a base canônica, que é ortonormal em relação ao produto interno canônico. Se consideramos o espaço K n 1 com o produto interno X, Y = Y X, temos que v [v] B é uma isometria de V em K n 1 se, e somente se, B é uma base ortonormal de V. Exemplo 3.2 Seja P C n n uma matriz complexa invertível e seja G = P P. Sejam X, Y = Y X e [X, Y] = Y GX produtos internos em C n 1. Então, T : (C n 1, [, ]) (C n 1,, ) X PX é uma isometria. De fato, T(X), T(Y) = PX, PY = (PY) PX = Y P PX = Y GX = [X, Y]. Definição 3.2 Um operador unitário sobre um espaço vetorial V com produto interno é um isomorfismo de V em V que preserva o produto interno. Observação 3.2 O conjunto dos operadores unitários sobre um espaço V com produto interno é um grupo com a operação de composição. De fato, se U 1 e U 2 são unitários, então U 2 U 1 é um isomorfismo e U 2 U 1 (v) = U 1 (v) = v, para todo v V. Além disso, o inverso U 1 de um operador unitário U é unitário, pois U 1 (v) = U(U 1 (v)) = v, para todo v V. J. Delgado - K. Frensel 301 Instituto de Matemática - UFF

308 Operadores Unitários Temos, também, que o operador identidade é unitário. Observação 3.3 Se V é um espaço de dimensão finita com produto interno e U é um operador linear sobre V, então, pela proposição 3.1, temos que U é unitário se, e somente se, U preserva produto interno, ou ainda, se, e só se, U leva alguma (toda) base ortonormal de V em outra base ortonormal de V. Proposição 3.2 Seja U um operador linear sobre um espaço vetorial V com produto interno. Então, U é unitário se, e só se, o adjunto U de U existe e UU = U U = I. Prova. Suponhamos que U é unitário. Então U é invertível e U(v), w = Uv, UU 1 (w) = v, U 1 (w), para todos v, w V. Logo, U = U 1 é o adjunto de U. Suponhamos, agora, que U existe e UU = U U = I. Então U é invertível, U 1 = U e U(v), U(w) = v, U U(w) = v, w, para todos v, w W. Logo, U é um isomorfismo que preserva produto interno, ou seja, U é unitário. Observação 3.4 Seja V um espaço vetorial com produto interno e seja T um operador linear sobre V. Então, T é unitário se, e só se, T é unitário. Exemplo 3.3 Seja V = C n 1 com o produto interno X, Y = Y X, e seja A C n n. Seja o operador U : C n 1 C n 1 o operador definido por U(X) = AX. Como U(X), U(Y) = AX, AY = (AY) AX = Y A AX, para todo X, temos que U é unitário se, e somente se, A A = I. J. Delgado - K. Frensel 302 Instituto de Matemática - UFF

309 Operadores Unitários Definição 3.3 Uma matriz n n real ou complexa A é dita unitária se A A = I. Proposição 3.3 Seja V um espaço vetorial de dimensão finita com produto interno e seja U um operador linear sobre V. Então U é unitário se, e só se, a matriz de U em relação a alguma (toda) base ortonormal ordenada de V é uma matriz unitária. Prova. Suponhamos que U é unitário. Seja B uma base ortonormal de V. Como U U = I, temos que I = [I] B = [U U] B = [U ] B [U] B = [U] B [U] B, ou seja [U] B é uma matriz unitária. Suponhamos, agora, que [U] B é uma matriz unitária para alguma base ortonormal B. Então, I = [U] B [U] B = [U ] B [U] B = [U U] B. Logo, U U = I, ou seja, U é um operador unitário. Observação 3.5 Seja A uma matriz n n complexa. Então, A é unitária A A = I (A A) jk = δ jk, j, k = 1,..., n A rj A rk = δ jk, j, k = 1,..., n r=1 as colunas da matriz A formam um conjunto ortonormal de vetores de C n 1 com respeito ao produto interno canônico X, Y = Y X. Como A A = I AA = I, temos que A é unitária as linhas de A formam um conjunto ortonormal de vetores de C n com respeito ao produto interno canônico. Então, A é unitária as colunas de A formam uma base ortonormal de C n 1 com respeito ao produto interno canônico as linhas de A formam uma base ortonormal de C n com respeito ao produto interno canônico. J. Delgado - K. Frensel 303 Instituto de Matemática - UFF

310 Operadores Unitários Definição 3.4 Uma matriz n n A, real ou complexa, é dita ortogonal se A t A = I. Uma matriz unitária é ortogonal se, e somente se, todas as suas entradas são reais. De fato, A = A t a ij = a ij, i, j = 1,..., n. Exemplo 3.4 Uma matriz 1 1 [c] é ortogonal se, e somente se, c = ±1, e é unitária se, e somente se, cc = 1, ou seja, se, e somente se, c = 1, ou ainda, se, e só se, c = e iθ, para algum θ R. Exemplo 3.5 Seja a matriz 2 2 sobre K (R ou C) ( a A = c ) b. d Então A é ortogonal se, e só se, A 1 = A t, ou seja, se, e só se, ( ) ( ) A t a c 1 d b = = = A 1. b d ad bc c a Como det(a t ) = det(a) e A t A = I, temos que (det(a)) 2 = 1. Logo, det A = ±1. Assim, A é ortogonal se, e só se, ( ) ( ) a c d b =, e ad bc = 1, b d c a ou seja, d = a, c = b e ad bc = 1 ; ou ( a b ) c = d ( d c b a ), e ad bc = 1, ou seja, d = a, c = b e ad bc = 1. Então, A é ortogonal se, e só se, ( ) a b A = b a ou A = ( a b b a ), J. Delgado - K. Frensel 304 Instituto de Matemática - UFF

311 Operadores Unitários onde a 2 + b 2 = 1. Em particular, se θ R, a matriz ( cos θ A θ = sen θ ) sen θ, cos θ é uma matriz ortogonal real, logo unitária. Como A θ é a matriz em relação à base canônica de R 2 do operador linear U θ, rotação de ângulo θ em torno da origem, temos que U θ é um operador unitário, ou seja, preserva o produto interno. Exemplo 3.6 Seja a matriz 2 2 sobre K (R ou C) ( a A = c ) b. d Então, A é unitária se, e só se, ( ) A a c = = b d ( 1 d ad bc c ) b = A 1. a Como det(a ) = det(a) e A A = I, temos que det(a) = e iθ, para algum θ R. Assim, A é unitária se, e só se, ( ) ( ) A a c = = e iθ d b = A 1, e ad bc = e iθ, b d c a ou seja, d = e iθ a, c = e iθ b e ad bc = e iθ para algum θ R. Logo, A é unitária se, e só se, ( a A = e iθ b b e iθ a ), onde θ R e a 2 + b 2 = 1. Observação 3.6 O conjunto U(n) das matrizes unitárias n n é um grupo. De fato, se A U(n), então (A 1 ) 1 = A = (A ) 1 = (A 1 ). E, se A e B são unitárias, então J. Delgado - K. Frensel 305 Instituto de Matemática - UFF

312 Operadores Unitários (AB) 1 = B 1 A 1 = B A = (AB). Observação 3.7 Sejam V um espaço vetorial de dimensão finita com produto interno, B = {v 1,..., v n } e B = {v 1,..., v n} bases ortonormais de V. Seja P = [I] BB a matriz de mudança da base B para a base B, onde v k = P jk v j. j=1 Seja U : V V o operador linear definido por U(v j ) = v j, j = 1,..., n. Como U leva a base ortonormal B na base ortonormal B e [U] B = P, temos que U é um operador unitário e P é uma matriz unitária. Logo, se T : V V é um operador linear, temos que [T] B = [I] B B[T] B [I] BB = P 1 [T] B P, onde P é uma matriz unitária e B, B são bases ortonormais. Definição 3.5 Sejam A e B matrizes complexas n n. Dizemos que B é unitariamente equivalente a A se existe uma matriz unitária P n n tal que B = P 1 AP = P AP. E dizemos que B é ortogonalmente equivalente a A se existe uma matriz ortogonal P n n, tal que Observação 3.8 B = P 1 AP = P t AP. Seja T : V V um operador linear sobre um espaço vetorial V de dimensão finita com produto interno, e sejam B e B bases ortonormais de V. Então, [T] B e [T] B são unitariamente equivalentes, e se V é real, [T] B e [T] B são ortogonalmente equivalentes, através de uma matriz ortogonal real. J. Delgado - K. Frensel 306 Instituto de Matemática - UFF

313 Operadores Normais 4. Operadores Normais Seja T : V V um operador linear sobre um espaço V de dimensão finita e seja B = {v 1,..., v n } uma base ortonormal de V, sendo T(v i ) = c i v i, i = 1,..., n. Então, [T] B = c 1... c n 1 e [T ] B = ([T] B ) = c... c n. Se V é real, c i = c i, i = 1,..., n e [T ] B = [T] B, ou seja, T = T. Então, T é auto-adjunto. Se V é complexo, podemos apenas afirmar que [T] B [T ] B = [T ] B [T] B, pois [T] B e [T ] B são matrizes diagonais. Logo, TT = T T. Definição 4.1 Seja V um espaço vetorial de dimensão finita com produto interno e T um operador linear sobre V. Dizemos que T é normal se TT = T T, ou seja, se T e T comutam. Observação 4.1 Todo operador auto-adjunto é normal. Todo operador unitário é normal Observação 4.2 Todo múltiplo de um operador normal é um operador normal, mas a soma e o produto de operadores normais nem sempre são normais. Proposição 4.1 Seja V um espaço vetorial com produto interno e T um operador linear auto-adjunto sobre V. Então todo autovalor de T é real. Prova. Seja c um autovalor de T e seja v não-nulo tal que T(v) = cv. Então, J. Delgado - K. Frensel 307 Instituto de Matemática - UFF

314 Operadores Normais c v, v = cv, v = T(v), v = v, T (v) = v, T(v) = v, cv = c v, v, ou seja, (c c) v, v = 0. Como v, v = 0, temos que c = c. Logo, c é real. Observação 4.3 Se T é normal, então T (v) = T(v) para todo v V. De fato e T T(v), v = T(v), (T ) (v) = T(v), T(v) = T(v) 2, TT (v), v = T (v), T (v) = T (v) 2. Como TT = T T, temos que T(v) = T (v). Observação 4.4 Se T é normal, então T λi é normal para todo λ K (R ou C). De fato, (T λi)(t λi) = (T λi)(t λ I) = TT λt λ T + λ 2 I = T T λt λ T + λ 2 I = (T λ I)(T λi) = (T λi) (T λi). Proposição 4.2 Seja V um espaço vetorial com produto interno e seja T um operador normal sobre V. Seja v V. Então v é um autovetor de T associado a um autovalor c se, e só se, v é um autovalor de T associado ao autovalor c. Prova. Pela observação 4.4, T ci é normal, e pela observação 4.3, temos que 0 = (T ci)(v) = (T ci) (v) = (T ci)(v), ou seja, T (v) = cv. Proposição 4.3 Seja V um espaço vetorial com produto interno e T um operador normal sobre V. Então, autovetores associados a autovalores distintos são ortogonais. J. Delgado - K. Frensel 308 Instituto de Matemática - UFF

315 Operadores Normais Prova. Sejam λ e µ autovalores distintos de T, e v, w autovetores de T associados aos autovalores λ e µ, respectivamente. Então, λ v, w = λv, w = T(v), w = v, T (w) = v, µw = µ v, w. Logo, (λ µ) v, w = 0. Como λ µ, temos que v, w = 0. Proposição 4.4 Seja V um espaço vetorial com produto interno e T um operador linear sobre V. Seja W um subespaço de V invariante por T. Então, W é invariante por T. Prova. Sejam w W e v W. Então, v, T (w) = T(v), w = 0, pois T(v) W e w W. Como v, T (w) = 0 para todo v W, temos que T (w) W. Proposição 4.5 Seja V um espaço vetorial sobre K (R ou C) e seja T um operador autoadjunto sobre V. Então, T possui um autovetor não-nulo. Prova. Seja B = {v 1,..., v n } uma base ortonormal de V e seja A = [T] B. Como p c = det(xi A) é um polinômio com coeficientes complexos, p c possui uma raiz c C. Então, det(ci A) = 0, ou seja ci A não é invertível. Logo, existe X C n 1 {0} tal que AX = cx. Se V é um espaço vetorial real, temos que c R, pois, como A = A, o operador U : C n 1 C n 1 dado por U(X) = AX é auto-adjunto com o produto interno canônico e c é um autovalor de U. Logo, como ci A é uma matriz com entradas reais e det(ci A) = 0, existe X R n 1 {0} tal que AX = cx. J. Delgado - K. Frensel 309 Instituto de Matemática - UFF

316 Operadores Normais Seja v = x 1 x j v j, onde X =. 0. x n j=1 Então, v 0 e [T(v)] B = [T] B [v] B = AX = cx = c[v] B. Logo, T(v) = cv. Observação 4.5 A hipótese de T ser um operador auto-adjunto só foi usada no caso real para garantir que toda raiz do polinômio característico de T é real. No caso complexo, essa hipótese é desnecessária. Observação 4.6 O polinômio característico de um operador auto-adjunto sobre um espaço vetorial complexo ou real tem todos os coeficientes reais, pois todas as suas raízes são reais. Observação 4.7 Um operador auto-adjunto sobre um espaço vetorial de dimensão infinita com produto interno pode não ter autovetores não-nulos. De fato, seja V = C 0 ([0, 1], C) com o produto interno f, g = 1 0 f(t)g(t) dt, e seja T : V V o operador linear definido por T(f)(t) = t f(t), para todo t [0, 1]. Como T(f), g = 1 tf(t) g(t) dt = f(t) tg(t) dt = f, T(g), f, g V, temos que T = T, ou seja, T é auto-adjunto. Suponha que existe c C e f V {0} tal que T(f) = cf. Então, t f(t) = c f(t), t [0, 1], ou seja, (t c) f(t) = 0 para todo t [0, 1]. Logo, f(t) = 0 para todo t [0, 1], o qual é uma contradição. J. Delgado - K. Frensel 310 Instituto de Matemática - UFF

317 Operadores Normais Teorema 4.1 Seja V um espaço vetorial de dimensão finita com produto interno sobre K (R ou C) e seja T um operador auto-adjunto sobre V. Então, V possui uma base ortonormal de autovetores de T. Prova. Pela proposição 4.5, T possui um autovetor v não-nulo. Tome v 1 = que também é um autovetor de T de norma 1. Se dim(v) = 1 o teorema fica provado. v v, Se dim(v) > 1, vamos proceder por indução sobre a dimensão de V para provar o resultado. Suponhamos que o teorema seja válido para espaços com produto interno de dimensão menor que dim(v). Seja W o subespaço gerado pelo vetor v 1. Como v 1 é um autovetor de T, temos que T(W) W, ou seja, W é invariante por T. Pela proposição 4.4, W é invariante por T = T. Seja U = T W. Como U(v), w = T(v), w = v, T(w) = v, U(w), v, w W, temos que U é um operador auto-adjunto sobre o espaço W. Como dim(w ) = dim(v) 1 temos, pela hipótese de indução, que W possui uma base ortonormal {v 2,..., v n } de autovetores de U. Então, {v 1, v 2,..., v n } é uma base ortonormal de autovetores de T, já que v 2,..., v n também são autovetores de T e V = W W. Corolário 4.1 Seja A uma matriz n n hermitiana (auto-adjunta). Então A é unitariamente equivalente a uma matriz diagonal, ou seja, existe uma matriz P unitária tal que P 1 AP é diagonal. Se A é uma matriz simétrica real (A t = A), existe uma matriz ortogonal real P tal que P 1 AP é diagonal. Prova. Seja V o espaço C n 1 com o produto interno canônico e seja T o ope- J. Delgado - K. Frensel 311 Instituto de Matemática - UFF

318 Operadores Normais rador sobre V que é representado por A em relação à base canônica B 0 de C n 1, ou seja, T(X) = AX para todo X V. Como A = A, temos que T = T, ou seja, T é auto-adjunto. Então, pelo teorema anterior, V possui uma base ortonormal B = {v 1,..., v n } de autovetores de T, ou seja, [T] B é diagonal. Seja P a matriz cujos vetores colunas são os vetores v 1,..., v n. Então, P é unitária e P = [I] B0 B. Logo, [T] B = P 1 AP, ou seja, A é unitariamente equivalente a uma matriz diagonal. Caso todas as entradas de A sejam reais, tomamos V = R n 1 com o produto interno canônico e repetimos o argumento. Neste caso, a matriz P é uma matriz unitária com entradas reais, ou seja, P é uma matriz ortogonal real. Observação 4.8 Seja V um espaço vetorial real de dimensão finita com produto interno e seja T um operador linear sobre V. Pelas observações feitas no início da seção e pelo teorema anterior, temos que: Um operador T é auto-adjunto o espaço V possui uma base ortonormal de autovetores de T. Equivalentemente, se A é uma matriz n n com entradas reais, temos que: A é simétrica existe uma matriz n n P ortogonal real tal que P t AP = P 1 AP é uma matriz diagonal. De fato, a implicação (= ) já foi provada no corolário acima. Para provar a recíproca, basta observar que se P t AP = D é uma matriz diagonal, então D = D t = (P t AP) t = P t A t P, ou seja, P t AP = P t A t P. E como P t P = PP t = I, temos A = PP t APP t = PP t A t PP t = A t, ou seja, A é uma matriz simétrica. J. Delgado - K. Frensel 312 Instituto de Matemática - UFF

319 Operadores Normais Observação 4.9 Seja V um espaço vetorial sobre K (R ou C) de dimensão finita com produto interno e seja T um operador auto-adjunto sobre V. Se λ 1,..., λ k são os autovalores distintos de T, W i o autoespaço associado ao autovalor λ i e π i : V W i a projeção de V sobre W i, i = 1,..., k, então: λ i R, i = 1,..., k ; p c = (x λ 1 ) d 1... (x λk ) d k ; p m = (x λ 1 )... (x λ k ) ; W i W j, i j ; V = W 1... W k (soma direta ortogonal) ; π i é a projeção ortogonal de V sobre W i ; dim(w i ) = d i, i = 1,..., k ; I = π π k ; π 2 i = π i, i = 1,..., k ; π i π j = O, se i j ; T = λ 1 π λ k π k ; (x λ j ) π i = p i (T), onde p i = j i, i = 1,..., k. (λ i λ j ) j i Seja, agora, um espaço vetorial V de dimensão finita com produto interno e T um operador sobre V. Já provamos, no início da seção, que se V possui uma base ortonormal de autovetores de T, então T é normal. O teorema abaixo mostra que a recíproca também é verdadeira para espaços vetoriais complexos. O teorema só é válido para espaços vetoriais complexos, pois um operador normal sobre um espaço real pode não ter autovalores reais. Isto é verdadeiro, por exemplo, para todas as rotações de R 2, salvo duas. De fato, o operador rotação J. Delgado - K. Frensel 313 Instituto de Matemática - UFF

320 T θ : R 2 R 2 X AX Operadores Normais onde A = ( cos θ sen θ ) sen θ cos θ é normal, pois A A = A t A = AA t = AA = I, e o seu polinômio característico é p c = (x cos θ) 2 + sen 2 θ. Como e iθ e e iθ são as raízes deste polinômio, que não são reais, se θ 0, π, temos que não existe uma base ortonormal de R 2 formada por autovetores de T θ, se θ 0, π. Teorema 4.2 Seja V um espaço vetorial complexo de dimensão finita com produto interno e seja T um operador normal sobre V. Então, V possui uma base ortonormal de autovetores de T. Prova. Sejam λ 1,..., λ m os autovalores distintos de T, n = dim(v), e W λi autoespaço associado ao autovalor λ i, i = 1,..., m. o Já sabemos que W λi W λj, se i j. Vamos provar, por indução sobre n, que V = W λ1... W λm. Se n = dim(v) = 1, não há nada a provar. Suponhamos que o resultado seja verdadeiro para operadores normais sobre um espaço vetorial complexo de dimensão menor ou igual a n 1. Seja W λ1 o autoespaço associado ao autovalor λ 1. Como T(W λ1 ) W λ1, temos, pela proposição 4.4, que T (Wλ 1 ) Wλ 1. Além disso, como T(T (v)) = T (T(v)) = λ 1 T (v), v W λ1, temos que T (W λ1 ) W λ1. Logo, pela proposição 4.4, T(Wλ 1 ) Wλ 1. Assim, T W λ1 : Wλ 1 Wλ 1 é um operador normal sobre Wλ 1, pois [T W λ1 ] = [T W λ1 ], já que T (W λ 1 ) W λ 1 e T(v), w = v, T (w) para quaisquer v, w W λ 1. J. Delgado - K. Frensel 314 Instituto de Matemática - UFF

321 Operadores Normais Como dim(wλ 1 ) n 1, temos, pela hipótese de indução, que Wλ 1 = W µ 1... W µ k, onde µ 1,..., µ k são os autovalores distintos de T W λ1 e W µ i é o autoespaço correspondente ao autovalor µ i. Como todo autovetor de T W λ1 é um autovetor de T, temos que, para cada i = 1,..., k, existe j i {1,..., m}, tal que µ i = λ ji. Logo, W µ i = {v Wλ 1 T(v) = µ i v} = {v Wλ 1 T(v) = λ ji v} = Wλ 1 W λ ji. Observe, também, que λ ji λ 1, para todo i = 1,..., k, pois se λ ji = λ 1, existiria v Wλ 1 {0} tal que T(v) = λ 1 v, o que é um absurdo, já que W λ1 Wλ 1 = {0}. Como W λji W λ1, para todo i = 1,..., k, temos que W λji Wλ 1, para todo i = 1,..., k. Logo, W µ i = Wλ 1 W λji = W λji, i = 1,..., k. Então, V = W λ1 W λ 1 = W λ1 W λj1... W λjk. Basta, agora, mostrar que λ 1, λ j1,..., λ jk são todos os autovalores de T. Seja λ um autovalor de T e seja v 0 tal que T(v) = λv. Então, existem v 1 W λ1 e w i W λji, i = 1,..., k, tais que v = v 1 + w w k. Como T(v) = λv = λ(v 1 + w w k ) = T(v 1 ) + T(w 1 ) T(w k ) = λ 1 v 1 + λ j1 w λ jk w k, temos que (λ λ 1 )v 1 + (λ λ j1 )w (λ λ jk )w k = 0. Logo, (λ λ 1 )v 1 = 0 e (λ λ ji )w i = 0, i = 1,..., k. Sendo v 0, devemos ter que, λ = λ 1 ou λ = λ ji, para algum i = 1,..., k. Provamos, assim, que V = W λ1 autovalores distintos de T.... W λm, onde λ 1,..., λ m são os Então, se B i é uma base ortonormal de W λi, i = 1,..., m, B = B 1... B m é uma base ortonormal de V formada por autovetores de T. J. Delgado - K. Frensel 315 Instituto de Matemática - UFF

322 Operadores Normais Corolário 4.2 Seja A uma matriz n n complexa normal (AA = A A). Então, existe uma matriz n n P unitária tal que P 1 AP = P AP é diagonal. Forma canônica de Jordan Real de um Operador Normal Teorema 4.3 Seja V um espaço vetorial real de dimensão finita com produto interno e seja T um operador normal sobre V. Então, se p c = p d 1 1 pd pd k k (x λ 1) f 1... (x λl ) f l é o polinômio característico de T, onde λ 1,..., λ l são os autovalores reais distintos de T e p i = (x µ j )(x µ j ), µ j = a j e iθ j, θj (0, π), j = 1,..., k, temos que: (1) p m = p 1... p k (x λ 1 )... (x λ l ) é o polinômio minimal de T. (2) V = Ker(p 1 (T))... Ker(p k (T)) W λ1... W λl é uma decomposição de V numa soma direta de subespaços invariantes ortogonais, onde: W λi = Ker(T λ i I), T Wλi = λ i I, dim(w λi ) = f i e x λ i é o polinômio minimal de T Wλi, i = 1,..., l. dim(ker(p j (T))) = 2d j e p j é o polinômio minimal de T Ker(pj (T)), j = 1,..., k. (3) Existe uma base B = B 1... B k B k+1... B k+l ortonormal de V tal que: B i é uma base ortonormal de Ker(p i (T)) tal que [T Ker(pi (T))] Bi = A i = R i 1 R i 2... R i d i 2d i 2d i ( ) onde R i j = a cos θi sen θ i i, para todo j = 1,..., d sen θ i cos θ i e i = 1,..., k. i B k+j é uma base ortonormal de W λj tal que, j [T Wλj ] Bk+j = B j = λ... fj fj, j = 1,..., l. λ j J. Delgado - K. Frensel 316 Instituto de Matemática - UFF

323 Operadores Normais Ou seja, A 1... [T] B = A k B 1... B l n n está na forma canônica de Jordan real. Prova. Seja V = {(u, v) u, v V} o complexificado do espaço V. Afirmação:, C : V V C, definido por (u, v), (u, v ) C = u, u + v, v i u, v + v, u é um produto interno sobre V. De fato, (a + ib)(u 1, v 1 ) + (u 2, v 2 ), (u, v ) C = (au 1 bv 1 + u 2, bu 1 + av 1 + v 2 ), (u, v ) C = au 1 bv 1 + u 2, u + bu 1 + av 1 + v 2, v i au 1 bv 1 + u 2, v + i bu 1 + av 1 + v 2, u = a u 1, u b v 1, u + u 2, u + b u 1, v + a v 1, v + v 2, v ia u 1, v + ib v 1, v i u 2, v + ib u 1, u + ia v 1, u + i v 2, u = a u 1, u + a v 1, v + ib v 1, v + ib u 1, u ia u 1, v + ia v 1, u + b u 1, v b v 1, u + u 2, u + v 2, v i u 2, v + i v 2, u = (a + ib) u 1, u + (a + ib) v 1, v i(a + ib) u 1, v + i(a + ib) v 1, u + (u 2, v 2 ), (u, v ) C = (a + ib) ( u 1, u + v 1, v i u 1, v + i v 1, u ) + (u 2, v 2 ), (u, v ) C = (a + ib) (u 1, v 1 ), (u, v ) C + (u 2, v 2 ), (u, v ) C. (u, v ), (u, v) C = u, u + v, v i u, v + i v, u = u, u + v, v + i u, v i v, u = (u, v), (u, v ) C. (u, v), (u, v) C = u, u + v, v i u, v + i v, u = u, u + v, v 0. (u, v), (u, v) C = u 2 + v 2 = 0 u = v = 0 (u, v) = (0, 0). J. Delgado - K. Frensel 317 Instituto de Matemática - UFF

324 Operadores Normais Afirmação: ( L) = (L ). De fato, como L(u), v = u, L(v), para quaisquer u, v V, temos: L(u, v), (u, v ) = (L(u), L(v)), (u, v ) C C = L(u), u + L(v), v i L(u), v + i L(v), u = u, L (u ) + v, L (v ) i u, L (v ) + i v, L (u ) = (u, v), (L (u ), L (v )) C = (u, v), L (u, v ). Logo, ( L) (u, v ) = L (u, v ) para todo (u, v ) V. Afirmação: L é normal. De fato, como LL = L L, temos que L( L) = L L = (LL ) = (L L) = ( L ) L = ( L) L. Como L : V V é um operador normal sobre o espaço complexo V, temos, pelo teorema 4.2, que L é diagonalizável. Então: p m = (x µ 1 )(x µ 1 )... (x µ k )(x µ k )(x λ 1 )... (x λ l ) é o polinômio minimal de L (que é igual ao polinômio minimal de L). σ( W µr ) = W µr, r = 1,..., k. dim( W µr ) = dim( W µr ) = d r, r = 1,..., k, onde W µ = {(u, v) V T(u, v) = µ(u, v)}. (Ker(p r (T))) = W µr W µr, r = 1,..., k. Ker( T λ j I) = Ŵλ j, dim(w λj ) = dim(ŵλ j ) = f j, j = 1,..., l. V = W µ1 W µ1... W µk W µk Ŵλ 1... Ŵλ l, soma direta de subespaços invariantes e ortogonais. Já vimos, também, que se B r = {(v r 1, wr 1 ),..., (vr d r, w r d r )} é uma base de Ŵ µr, então σ(b r ) = B r = {(v r 1, wr 1 ),..., (vr d r, w r d r )} é uma base de Ŵµ r. Afirmação: B r ortonormal = B r ortonormal. De fato, como (v r k, w r k ), (vr j, wr j ) = v r C k, vr j + w r k, w r j i v r k, w r j + i w r k, vj r C = { 0, se k j 1, se k = j, J. Delgado - K. Frensel 318 Instituto de Matemática - UFF

325 Operadores Normais temos que (v r k, w r k ), (vr j, wr j ) = v r C k, vr j + w r k, w r j + i v r k, w r j i w r k, vj r Já sabemos também que = (v { r k, wr k ), (vr j, wr j ) C 0, se k j = 1, se k = j, {v 1 + w 1, v 1 w 1,..., v dr + w dr, v dr w dr } é uma base de Ker(p r (T)) tal que e T(v r j + wr j ) = a r cos θ r (v r j + wr j ) + a r sen θ r (v r j wr j ), T(v r j wr j ) = a r sen θ r (v r j + wr j ) + a r cos θ r (v r j wr j ), para j = 1,..., d r, onde µ r = a r cos θ r + ia r sen θ r. Afirmação: v r j, vr j = w r j, w r j De fato, 1 = 2 e v r j, wr j = 0, j = 1,..., dr. 1 = (v r j, wr j ), (vr j, wr j ) C = v r j, vr j + w r j, w r j, e 0 = (v r j, wr j ), (vr j, wr j ) C = v r j, vr j w r j, w r j + i v r j, w r j + i w r j, v r j, pois (v r j, wr j ) W µr, (v r j, wr j ) W µr e W µr W µr. Logo, v r j, j wr = 0 e v r j, v r j + w r j, w r j = 1 v r j, v r j w r j, w r j = 0. Então, v r j, wr j = 0 e v r j, v r j = w r j, w r j = 1 2, r = 1,..., d r. Afirmação: B r = {v r 1 + wr 1, vr 1 wr 1,..., vr d r + w r d r, v r d r w r d r } é uma base ortonormal de Ker(p r (T)). De fato, v r j + wr j, vr j + wr j = v r j, v r j + w r j, w r j = 1 v r j wr j, vr j wr j = v r j, v r j + w r j, w r j = 1 v r j + wr j, vr j wr j = v r j, v r j w r j, w r j = 0 J. Delgado - K. Frensel 319 Instituto de Matemática - UFF

326 Operadores Normais Além disso, como os vetores (v r j, wr j ), (vr j, wr j ), (vr t, w r t) e (v r t, w r t) são dois a dois ortogonais, se t j, temos que o vetor (v r j, 0) = 1 2 (vr j, wr j ) (vr j, wr j ) é ortogonal ao vetor (wr t, 0) = i 2 (vr t, w r t) i 2 (vr t, w r t), ou seja, (v r j, 0), (w r t, 0) = v r C j, wr t = 0. o vetor (v r j, 0) = 1 2 (vr j, wr j ) (vr j, wr j ) é ortogonal ao vetor (vr t, 0) = 1 2 (vr t, w r t) (vr t, w r t), ou seja, (v r j, 0), (v r t, 0) = v r C j, vr t = 0. o vetor (w r j, 0) = i 2 (vr j, wr j ) i 2 (vr j, wr j ) é ortogonal ao vetor (wr t, 0) = i 2 (vr t, w r t) i 2 (vr t, w r t), ou seja, (w r j, 0), (w r t, 0) = w r C j, wr t = 0. Logo, v r j + wr j, vr t + w r t = v r j, v r t + w r j, w r t + w r j, v r t + v r j, w r t = 0, se t j. v r j + wr j, vr t w r t = v r j, v r t w r j, w r t v r j, w r t + w r j, v r t = 0, se t j. Seja F r j o subespaço de V gerado por Br j = {vr j +wr j, vr j wr j }, j = 1,..., d r. Então, F r j Fr t, se j t, dim F r j = 2, Ker(p r(t)) = F r 1... Fr d r e ( ) a r cos θ r a r sen θ r [T F r j ] B r j = a r sen θ r a r cos θ r Afirmação: Ker(p r (T)) Ker(p s (T)), se r s. 2 2 De fato, se v Ker(p r (T)) e w Ker(p s (T)), então (v, 0) W µr W µr e (w, 0) W µs W µs. Como W µr W µr W µs W µs, se s r, temos que v, w = (v, 0), (w, 0) C = 0. Afirmação: Ker(p r (T)) W λj, r = 1,..., k, j = 1,..., l. De fato, como Ŵ λj = Ker( T λ j I), Ker(p r (T)) = W µr W µr e Ŵλ j W µr W µr, J. Delgado - K. Frensel 320 Instituto de Matemática - UFF

327 Operadores Normais temos que se v W λj e w Ker(p r (T)), então (v, 0) Ŵλ j e (w, 0) W µr W µr. Logo, v, w = (v, 0), (w, 0) C = 0. Sendo também W λj W λt, se t j, obtemos que V = Ker(p 1 (T))... Ker(p k (T)) W λ1... W λl é uma decomposição em soma direta por subespaços invariantes dois a dois ortogonais. Como dim(w λj ) = f j e T Wλj = λ j I, existe uma base ortonormal B k+j de W λj tal que j [T Wλj ] Bk+j = λ... fj fj. λ j Logo, B = B 1... B k Γ 1... Γ l é uma base ortonormal de V tal que [T] B está na forma canônica de Jordan real. Corolário 4.3 Seja A uma matriz normal real. Então, existe uma matriz ortogonal real P tal que P 1 AP = P t AP está na forma canônica de Jordan real. Observação 4.10 Se V é real e T : V V é um operador normal, então T é semi-simples, pois T : V V é normal, e, portanto, diagonalizável. Proposição 4.6 Seja V um espaço vetorial de dimensão finita sobre K (R ou C) com produto interno e seja T um operador normal sobre V. Então: (a) T é auto-adjunto todas as raízes de p c são reais. (b) T é unitário todas as raízes de p c tem norma igual a 1. Prova. J. Delgado - K. Frensel 321 Instituto de Matemática - UFF

328 Operadores Normais (a) (= ) Se T é auto-adjunto, todos os autovalores de T são reais e existe uma base ortonormal B de V tal que [T] B é diagonal. Logo, p c = (x λ 1 ) d 1... (x λk ) d k, onde λ1,..., λ k são os autovalores distintos de T. Então, todas as raízes de p c são reais. ( =) Se T é normal e todas as raízes de p c são reais, existe, V possui uma base ortonormal B de autovetores, pelo teorema 4.2 (K = C), e pelo teorema 4.3 (K = R). Como [T] B = λ j... temos que [T ] B = [T] B = [T] B, ou seja, T = T. λ n, onde λ i R, i = 1,..., n, (b) (= ) Seja T um operador unitário e seja v um autovetor não-nulo tal que T(v) = λv. Então, λ 2 v, v = λλ v, v = λv, λv = T(v), T(v) = v, v. Como v, v 0, temos que λ = 1, ou seja, λ = e iθ, θ (0, π), se λ C e λ = ±1, se λ R. Caso K = C: Como todo operador unitário T é normal, V possui uma base ortonormal B de autovetores de T. Logo, todas as raízes de p c têm norma igual a 1. Caso K = R: Seja B uma base ortonormal de V e seja A = [T] B. Como [T ] B = [T] B = A, temos que AA = [T] B [T] B = [T] B[T ] B = [TT ] B = I = [T T] B = [T] B [T] B = A A. Logo, o operador L : C n 1 C n 1 definido por L(X) = AX é unitário sobre o espaço complexo C n 1. Como o polinômio característico p c de T é igual ao polinômio característico de L, isto é, p c = det(xi A), temos que todas as raízes de p c têm norma igual a 1. ( =) Caso K = C: Se T é normal e todas as raízes de p c têm norma igual a 1, existe uma base ortonormal de autovetores B = {v 1,..., v n } tais que T(v i ) = λ i v i, sendo λ i = 1, i = 1,..., n. Como B = {T(v 1 ),..., T(v n )} = {λ 1 v 1,..., λ n v n } é uma base ortonormal de V, temos que T é um operador unitário, pois leva a base ortonormal B na base ortonormal B. J. Delgado - K. Frensel 322 Instituto de Matemática - UFF

329 Operadores Normais Caso K = R: Seja B uma base ortonormal de V e seja A = [T] B. Como AA = A A, pois T é normal, temos que o operador L : C n 1 C n 1 definido por L(X) = AX é normal. Como p c = p L c = det(xi A) têm, por hipótese, todas suas raízes de norma 1, temos que L é unitário, ou seja, AA = A A = I. Logo, T é unitário, pois [T T] B = [T ] B [T] B = [T] B [T] B = I = [T] B [T] B = [T] B[T ] B = [TT ] B, ou seja, [T T] B = [TT ] B = I. Assim, T T = TT = I. Como consequência da proposição anterior e do teorema 4.3, obtemos o seguinte teorema sobre operadores unitários. Teorema 4.4 Seja V um espaço vetorial sobre K (R ou C) de dimensão finita com produto interno e seja T um operador unitário sobre V. Então: (1) Se K = C, V possui uma base ortonormal de autovetores de T com autovalores de módulo 1. (2) Se K = R, p c = p d pd k k (x 1)f 1 (x+1) f 2, onde pj = (x e iθ j )(x e iθ j), θj (0, π), j = 1,..., k. p m = p 1... p k (x 1)(x + 1). V = Ker(p 1 (T))... Ker(p k (T)) W 1 W 1 é soma direta de subespaços invariantes dois a dois ortogonais, onde W 1 = Ker(T I) e W 1 = Ker(T + I), dim(ker(p j (T))) = 2d j, j = 1,..., k, dim(w 1 ) = f 1 e dim(w 1 ) = f 2. existe uma base ortonormal B = B 1... B k γ 1 γ 1 de V tal que: γ 1 é uma base de W 1 tal que 1 [T W1 ] γ1 =... = B 1. 1 f1 f1 γ 1 é uma base de W 1 tal que 1 [T W 1 ] γ 1 =... 1 f2 f2 = B 1. J. Delgado - K. Frensel 323 Instituto de Matemática - UFF

330 Operadores Normais B j é uma base de Ker(p j (T)) tal que [T Ker(pj (T))] Bj = R j 1... = A j, R j d j 2dj 2dj ( ) sendo R j i = cos θj sen θ j, i = 1,..., d sen θ j cos θ j, j = 1,..., k. j Ou seja, A 1... [T] B = A k B 1 B 1 está na forma canônica de Jordan real. Veremos, agora, algumas propriedades importantes de um operador normal. Proposição 4.7 Seja T um operador normal sobre um espaço vetorial V sobre K (R ou C) com produto interno. Então, (T(V)) = Ker(T). Prova. Suponhamos que w (T(V)), ou seja, w, T(v) = 0 para todo v V. Então, T (w), v = 0 para todo v V. Logo, T (w) = 0. Como T(w) = T (w), temos que T(w) = 0, ou seja w Ker(T). Suponhamos, agora, que w Ker(T), ou seja, T(w) = 0. Então, T (w) = 0 e T (w), v = w, T(v) = 0, para todo v V. Logo, w (T(V)). Proposição 4.8 Se T é um operador normal e v um vetor tal que T 2 (v) = 0, então T(v) = 0. Prova. Como T(T(v)) = 0, temos que T(v) T(V) Ker(T). Logo, T(v) T(V) (T(V)) = {0}. Ou seja, T(v) = 0. J. Delgado - K. Frensel 324 Instituto de Matemática - UFF

331 Operadores Normais Proposição 4.9 Seja T um operador normal e f um polinômio com coeficientes no corpo de escalares. Então, f(t) é um operador normal. Prova. Seja f = a 0 + a 1 x a n x n. Então, f(t) = a 0 I + a 1 T a n T n e f(t) = a 0 I + a 1 T a n (T n ). Como T T = TT, segue que f(t) e f(t) comutam. Proposição 4.10 Seja T um operador normal sobre um espaço V de dimensão finita com produto interno e sejam W 1,..., W k as componentes primárias de V sob T. Se W é um subespaço de V invariante por T, então k W = W i W i=1 Prova. k Obviamente, (W i W) W. Seja v W e seja π j : V W j a i=1 projeção ortogonal de V sobre W j, j = 1,..., k. Como cada π j é um polinômio em T e W é invariante por T, temos que π j (v) W W j, j = 1,..., k. Além disso, como I = π π k, temos que v = π 1 (v) π k (v). Logo, v W j W, ou seja, W j=1 W j W. j=1 Assim, W = W j W, ou melhor ainda, W = j=1 k W j W, pois os j=1 subespaços W j W, j = 1,..., k, são linearmente independentes. Teorema 4.5 Seja V um espaço vetorial real de dimensão finita com produto interno e seja T um operador normal sobre V. J. Delgado - K. Frensel 325 Instituto de Matemática - UFF

332 Operadores Normais Se p = (x a) 2 + b 2, a, b R, b 0, é o polinômio minimal de T, então T é invertível e T = (a 2 + b 2 )T 1. Prova. Pelo teorema 4.3, temos que V = Ker(p(T)), p c = p r, onde 2r = dim(v) e V possui uma base ortonormal B tal que a b b a a b [T] B = b a... a b b a Então, det[t] B = (a 2 + b 2 ) r 0. Logo, T é invertível. 2r 2r Como a b [T ] B = [T] B = b a a b b a... a b b a 2r 2r, temos que [TT ] B = a 2 + b 2 a 2 + b 2... a 2 + b 2, 2r 2r ou seja, TT = (a 2 + b 2 )I. Logo, T = (a 2 + b 2 )T 1. Teorema 4.6 Seja T um operador normal sobre um espaço V de dimensão finita com produto interno. Então, qualquer operador linear que comuta com T, também comuta com T. Além disso, todo subespaço T invariante é também T invariante. Prova. J. Delgado - K. Frensel 326 Instituto de Matemática - UFF

333 Operadores Normais Suponhamos que U é um operador linear que comuta com T. Seja V = W 1... W k a decomposição primária de V com respeito a T, e seja π j : V W j a projeção ortogonal de V sobre W j, j = 1,..., k. Como T comuta com U e π j comutam, j = 1,..., k. é um polinômio em T, temos que π j e U Assim, se v W j, U(v) = U(π j (v)) = π j (U(v)), ou seja, U(v) W j. Logo, W j é invariante por U, j = 1,..., k. Sejam U j = U Wj e T j = T Wj. Se W j = Ker(T c j I), então T j = c j I. Logo, U j comuta com Tj = c j I. Se V é real e W j = Ker(p j (T)), onde p j = (x a j ) 2 + b 2 j, b j > 0, temos que p j é o polinômio minimal de T j. Logo, pelo teorema anterior, T j = (a 2 j + b2 1 j )Tj. Como T j U j = U j T j, temos que U j T 1 j Temos, também, que T comuta com π j, pois π j TT = T T. Logo, W j é invariante por T e T j = T Wj. Assim, se v W j, pois U(v) W j. = T 1 j U j. Então, U j comuta com T j. é um polinômio em T e UT (v) = U j T j (v) = T j U j(v) = T j (U(v)) = T U(v), Como V = W 1... W k, temos que UT (v) = T U(v) para todo v V, pois se v = v v k, v j W j, j = 1,..., k, então UT (v) = UT (v v k ) = UT (v 1 ) UT (v k ) = T U(v 1 ) T U(v k ) = T U(v v k ) = T U(v). Logo, U comuta com T. Seja, agora, W um subespaço de V invariante por T e seja Z j = W W j, j = 1,..., k. Pela proposição 4.10, W = Z 1... Z k. Como W e W j são invariantes por T, temos que Z j = W W j é invariante por T e, portanto, por T j = T Wj. J. Delgado - K. Frensel 327 Instituto de Matemática - UFF

334 Operadores Normais Vamos, agora, mostrar que Z j é também invariante por T j. Se T j = c j I, temos que Z j é invariante por T j, pois T j = c j I. Se não for o caso, sabemos que T j é invertível e T j (Z j ) Z j. Logo, T j (Z j ) = Z j. Então, T 1 j (Z j ) = Z j. Como T j = (a 2 j + b2 1 j )Tj, temos que Tj (Z j) = Z j. Se w W, existem w j Z j, j = 1,..., k, tais que w = w w k. Logo, T (w) = T (w w k ) = T (w 1 ) T (w k ) = T 1 (w 1) T (w k ) Z 1... Z k = W. Assim, T (W) W. Observação 4.11 Seja V um espaço vetorial de dimensão finita com produto interno e T um operador normal sobre V. Já sabemos que se T(W) W, então T (W) W, pelo teorema anterior, e T (W ) W, pela proposição 4.4. Logo, T(W ) W, pois T(W ) = (T ) (W ) W, já que T (W ) W. Ou seja, se W é invariante por T, então W é invariante por T e W é invariante por T e T. Observação 4.12 Se T : V V é normal e T(W) W, então (T W ) = (T ) W e T W é normal. De fato, como v, T w = T(v), w = T W (v), w = v, (T W ) (w), para quaisquer v, w W, e T (w) W, temos que T (w) = (T W ) (w), já que T (w) (T W ) (w), T (T W ) (w) = 0. Logo, T W = (T W ) e (T W )(T W ) = (T W ) (T W ). Com base nas observações acima, podemos demonstrar a seguinte versão mais forte do teorema da decomposição cíclica para operadores normais. J. Delgado - K. Frensel 328 Instituto de Matemática - UFF

335 Operadores Normais Teorema 4.7 Seja T um operador linear normal sobre um espaço V de dimensão finita com produto interno. Então existem r vetores não-nulos v 1,..., v r, com respectivos T anuladores p 1,..., p r, tais que: (a) V = Z(v 1, T)... Z(v r, T). (b) p k+1 p k, k = 1,..., r 1. (c) Z(v i, T) Z(v j, T), se i j. Além do mais, o número r e os T anuladores p 1,..., p r são determinados de modo único pelas condições (a) e (b) e pelo fato de que nenhum v k é nulo. Prova. Vamos provar o resultado por indução sobre a dimensão do espaço V. Se dim(v) = 1, V = Z(v, T), para todo v V {0}. Suponhamos que o teorema é válido para todo operador normal sobre um espaço de dimensão menor ou igual a n 1. Seja V um espaço de dimensão n e T um operador normal sobre V. Pelo Teorema da Decomposição Cíclica, existem r vetores w 1,..., w r nãonulos tais que V = Z(w 1, T)... Z(w r, T), tais que q j+1 divide q j, para todo j = 1,..., r 1, onde q j é o T anulador de w j. Seja W = Z(w 1, T). Então, dim(w) 1, W é T invariante, e q 1 é o polinômio minimal de T. Além disso, W é T invariante e V = W W. Logo, T W é normal e dim(w ) n 1. Pela hipótese de indução, existem s vetores não-nulos u 1,..., u s em W tais que W = Z(u 1, T W )... Z(u s, T W ), tais que Z(u i, T W ) Z(u j, T W ), se i j e f i+1 divide f i, i = 1,..., s 1, onde f i é o T W anulador de u i. Como Z(u i, T W ) = Z(u i, T), i = 1,..., s, temos que W = Z(u 1, T)... Z(u s, T). J. Delgado - K. Frensel 329 Instituto de Matemática - UFF

336 Operadores Normais Além disso, como f 1 é o polinômio minimal de T W, temos que f 1 divide p 1. Logo, V = W W = Z(w 1, T) Z(u 1, T)... Z(u s, T) e p 1 f1 f2... fs. Ou seja V = Z(w 1, T) Z(u 1, T)... Z(u s, T), é uma decomposição cíclica ortogonal que satisfaz (b), w 1 0 e u j 0, j = 1,..., s. Logo, s = r 1. Observação 4.13 Pode não existir uma base B ortonormal tal que [T] B está na forma canônica racional. Com efeito, considere o operador T : R 2 R 2 dado por T(X) = AX, ( ) 1 0 onde A =. 0 2 Como A t = A, T é auto-adjunto e, portanto, normal. Além disso, p m = p c = (x 1)(x 2) = x 2 3x + 2. Logo, T possui um vetor cíclico. Tome v = e 1 + e 2 = (1, 1). Então, T(v) = e 1 + 2e 2 = (1, 2). Logo, V = Z(v, T). Suponha que existe uma base B ortonormal tal que ( ) 0 2 [T] B =. 1 3 Então, existe w V {0} tal que B = {w, T(w)}. Suponha que w = ae 1 + be 2, com a 2 + b 2 = 1. Assim, T(w) = at(e 1 ) + bt(e 2 ) = ae 1 + 2be 2, com a 2 + 4b 2 = 1, e w, T(w) = a 2 + 2b 2 = 0. Logo, a = b = 0, o que é uma contradição, já que w 0. Definição 4.2 Um operador T sobre um espaço vetorial V de dimensão finita com produto interno é dito: J. Delgado - K. Frensel 330 Instituto de Matemática - UFF

337 Operadores Normais não-negativo se T = T e T(v), v 0, para todo v V ; positivo se T = T e T(v), v > 0 para todo v V {0}. Proposição 4.11 Seja T um operador normal sobre um espaço vetorial V de dimensão finita com produto interno sobre K (R ou C). Então T é não-negativo (ou positivo) se, e somente se, todas as raízes do seu polinômio característico são números reais não-negativos (resp. positivos). Prova. Se T é não-negativo (ou positivo), todas as raízes de p c são reais pela proposição 4.6, pois T é auto-adjunto. Assim, todas as raízes de p c são autovalores de T. Então, se λ é uma raiz de p c, existe v V {0} tal que T(v) = λv. Logo, λ v, v = T(v), v 0 (ou > 0). Como v, v > 0, temos que λ 0 (ou > 0). Suponhamos, agora, que todas as raízes de p c são números reais nãonegativos (ou positivos). Então, pela proposição 4.6, T é auto-adjunto e, portanto, diagonalizável. Seja B = {v 1,..., v n } uma base ortonormal de autovetores de T, com T(v i ) = λ i v i, λ i 0 (ou > 0), i = 1,..., n. Seja v V {0}. Então existem a 1,..., a n K não todos nulos, tais que v = a 1 v a n v n. Logo, T(v), v = a 1 λ 1 v a n λ n v n, a 1 v a n v n = λ 1 a λ na 2 n 0 (ou > 0). Assim, T é não-negativo (ou positivo). Já observamos antes que podemos fazer uma analogia entre a operação de se tomar adjunto de um operador e a operação de se tomar o conjugado de um número complexo. Um número complexo z é real ou de módulo 1 conforme z = z ou zz = 1. E um operador T é auto-adjunto ou unitário conforme T = T ou TT = I. Vamos, agora demonstrar dois teoremas que são os análogos para operadores destas duas afirmações sobre números complexos: J. Delgado - K. Frensel 331 Instituto de Matemática - UFF

338 Operadores Normais (a) Todo número não-negativo possui uma única raiz quadrada nãonegativa. (b) Todo número complexo pode ser expresso sob a forma z = ru, onde r é não-negativo e u = 1, ou seja, u = e iθ, para algum θ R, que é a decomposição polar para números complexos. Teorema 4.8 Seja T um operador não-negativo sobre um espaço vetorial V de dimensão finita com produto interno. Então T possui uma única raiz quadrada nãonegativa, ou seja, existe um, e somente um, operador N não-negativo tal que N 2 = T. Prova. Existência: Sejam λ 1,..., λ k os autovalores distintos de T. Como T é diagonalizável, pois T é auto-adjunto, temos que: V = W λ1... W λk, onde W λi autovalor λ i, i = 1,..., k. é o autoespaço de T correspondente ao I = π π k, onde π i : V W λi W λi, i = 1,..., k. é a projeção ortogonal de V sobre π 2 = π i, i = 1..., k. π i π j = O, se i j. T = λ 1 π λ k π k (resolução espectral de T). Como λ i 0, i = 1..., k, podemos considerar o operador N = λ 1 π λ k π k. Como os escalares λ 1,..., λ k são distintos e os operadores π i, i = 1,..., k, não-nulos, satisfazem as condições acima, temos que o operador N é diagonalizável e λ 1,..., λ k são os seus autovalores distintos. Além disso, como π i = π i e λ i 0, i = 1,..., k, temos que N é autoadjunto com todos os autovalores não-negativos, ou seja N é um operador não-negativo tal que N 2 = ( λ 1 π λ k π k )( λ 1 π λ k π k ) = λ 1 π λ k π k = T, Unicidade: Seja U um operador não-negativo tal que U 2 = T. Como J. Delgado - K. Frensel 332 Instituto de Matemática - UFF

339 Operadores Normais U é auto-adjunto e todos os seus autovalores são não-negativos, U é diagonalizável e U = d 1 π d s π s, onde d 1,..., d s são os autovalores distintos de U e π i : V W di é a projeção ortogonal de V sobre W di, autoespaço de U correspondente ao autovalor d i, i = 1,..., s. Como T = U 2 = d 2 1 π d 2 s π s, d 2 i d2 j, para i j, I = π π s, π i π j = O, para i j, π 2 i = I, i = 1,..., s, temos que d 2 1,..., d2 s são os autovalores distintos de T e π i (V) = W di é o autoespaço de T associado a d 2 i, i = 1,..., s. Logo, s = k e, para cada j = 1,..., k, existe r j {1,..., k} tal que d 2 j = λ r j e π j = π rj. Então, U = λ r1 π r λ rk π rk = N. Teorema 4.9 Seja V um espaço de dimensão finita com produto interno e seja T um Teorema da Decomposição Polar operador linear arbitrário sobre V. Então, existe um operador unitário U sobre V e um operador não-negativo N sobre V tais que T = UN. O operador não-negativo N é único. Se T é invertível, o operador unitário U também é único. Prova. Suponhamos que T = UN, onde U é unitário e N é não-negativo. Então, T = N U = NU. Assim, T T = NU UN = N I N = N 2. Como T T é não-negativo, pois (T T) = T (T ) = T T e T T(v), v = T(v), T(v) 0, para todo v V, temos que N é determinado de modo único como sendo a única raiz quadrada não-negativa de T T. Então, para iniciarmos a demonstração da existência de U e N, tomamos N como sendo a única raiz quadrada não negativa de T T. Se T é invertível, então N também o é, porque, nesse caso, N é positivo, já que J. Delgado - K. Frensel 333 Instituto de Matemática - UFF

340 Operadores Normais N(v), N(v) = N 2 (v), v = T T(v), v = T(v), T(v) > 0, para todo v V {0}. Seja U = TN 1. Então, U = (N 1 ) T = (N ) 1 T = N 1 T. Logo, UU = TN 1 N 1 T = T(N 1 ) 2 T = T(N 2 ) 1 T = T(T T) 1 T = TT 1 (T ) 1 T = I, ou seja, U é unitário. Suponhamos, agora, que T não é invertível. Definamos primeiro U sobre a imagem de N. Seja v um vetor na imagem de N, digamos N(w) = v. Definamos U(v) = T(w), porque queremos que UN(w) = T(w). Precisamos verificar que U está bem definido sobre a imagem de N, ou seja, se N(w) = N(w ) então T(w) = T(w ). Verificamos acima que N(u) = T(u) para todo u V. Assim, fazendo u = w w, temos que N(w w ) = 0 se, e somente se, T(w w ) = 0. Portanto U está bem definida sobre a imagem de N e é linear. Vamos, agora, definir U sobre W, onde W = N(V). Como Ker(N) = Ker(T), temos que dim(n(v)) = dim(t(v)) e, portanto, dim(n(v) ) = dim(t(v) ). Logo, existe um isomorfismo U 0 : W T(V) que preserva produto interno. Como V = W W, todo vetor v pode ser escrito de modo único sob a forma v = N(w) + u, onde N(w) W e u W. Definamos U(v) = T(w) + U 0 (u). Então, U está bem definida e é linear. Além disso, U(v), U(v) = T(w) + U 0 (u), T(w) + U 0 (u) = T(w), T(w) + U 0 (u), U 0 (u), pois T(w) T(V) e U 0 (u) T(V). Logo, U(v), U(v) = N(w), N(w) + u, u = N(w) + u, N(w) + u = v, v, J. Delgado - K. Frensel 334 Instituto de Matemática - UFF

341 Operadores Normais pois N(w) W e u W. Então U é unitário e UN(w) = T(w), para todo w V. Observação 4.14 Seja T = UN, onde U é unitário e N é não-negativo. Temos que U e N comutam se, e somente se, N é normal. De fato, se T = UN = NU, então TT = (NU)(NU) = NUU N = NUU N = N I N = N 2 = T T. Reciprocamente, se TT = T T, temos que UN 2 U = N 2, pois TT = UNN U = UN 2 U, e T T = N U UN = N 2. Como UNU é auto-adjunto e UNU (v), v = N(U (v)), U (v) 0, para todo v V, temos que UNU é não-negativo e (UNU ) 2 = (UNU )(UNU ) = UNU UNU = UN I NU = UN 2 U = N 2. Pela unicidade da raiz quadrada de um operador não-negativo, N = UNU = UNU 1, ou seja, NU = UN. Observação 4.15 Todo operador T pode ser escrito na forma T = N 1 U 1, onde N 1 é nãonegativo e U 1 é unitário. De fato, pelo teorema anterior, T = UN, onde U é unitário e N é nãonegativo. Logo, T = (T ) = N U = NU, onde N é não-negativo e U é unitário. J. Delgado - K. Frensel 335 Instituto de Matemática - UFF

342 Diagonalização simultânea de uma família comutativa de operadores normais 5. Diagonalização simultânea de uma família comutativa de operadores normais Definição 5.1 Seja F uma família de operadores lineares sobre um espaço V com produto interno sobre o corpo K (R ou C). Uma função r : F K é chamada uma raiz da família F se existir um vetor v V {0} tal que T(v) = r(t)(v), para todo T F. Para uma função arbitrária r : F K indicaremos V(r) = {α V T(α) = r(t)(α), T F} Observação 5.1 V(r) é um subespaço de V, pois 0 V(r) e se v, w V(r) e λ K, então T(λv + w) = λt(v) + T(w) = λr(t)(v) + r(t)(w) = r(t)(λv + w), para todo T F. V(r) {0} se, e somente se, r é uma raiz de F. Todo vetor v não-nulo em V(r) é um autovetor para todo T F. Teorema 5.1 Seja F uma família comutativa de operadores normais diagonalizáveis sobre um espaço V de dimensão finita com produto interno. Então F possui apenas um número finito de raízes. Se r 1,..., r k são as raízes distintas de F, então (1) V(r i ) V(r j ), se i j. (2) V = V(r 1 )... V(r k ). Prova. Suponhamos que r e s são raízes distintas de F. Então existe um operador T em F tal que r(t) s(t). J. Delgado - K. Frensel 336 Instituto de Matemática - UFF

343 Diagonalização simultânea de uma família comutativa de operadores normais Sejam v V(r) {0} e w V(s) {0}. Como T(v) = r(t)(v), T(w) = s(t)(w) e r(t) s(t), temos que v e w são autovetores de T associados a autovalores distintos. Logo, v, w = 0, ou seja, V(r) V(s). Como V tem dimensão finita, V(r) V(s), se r s, e dim(v(r)) 1, temos que F possui apenas um número finito r 1,..., r k de raízes distintas. Seja {T 1,..., T m } uma base do subespaço de L(V, V) gerado por F. Para cada i = 1,..., m, sejam π i 1,..., πi k i as projeções que determinam a resolução espectral do operador identidade determinado por T i, ou seja V = W λ i 1... W λ i ki, onde λ i j, j = 1,..., k i, são os autovalores distintos de T i e Wλ i j é o autoespaço de T i correspondente ao autovalor λ i j. π i j : V W λ i j é a projeção ortogonal de V sobre W λ i j, j = 1,..., k i. I = π i πi k i. T = λ i 1 πi λi k i π i k i. π i j πi l = O, se j l. (π i j )2 = π i j, j = 1,..., k i. As projeções π i j, i = 1,..., m, j = 1,..., k i, comutam entre si, pois π i j um polinômio em T i e os operadores T 1,..., T m comutam. Como I = ( k1 ) ( km ) π 1 j 1... π m j m, j 1 =1 j m=1 é temos que para todo v V. v = j 1,...,j m π 1 j 1 π m j m (v), (I) Suponhamos que j 1,..., j m são índices tais que w = π 1 j 1... π m j m (v) 0. Seja w i = n i π n j n (v). Então, w = π i j i (w i ), pois as projeções comutam. J. Delgado - K. Frensel 337 Instituto de Matemática - UFF

344 Diagonalização simultânea de uma família comutativa de operadores normais Logo, w é um autovetor de T i associado ao autovalor λ i j i, ou seja, T i (w) = λ i j i w. Seja T F. Então existem escalares b 1,..., b m tais que T = m b i T i. i=1 Assim, T(w) = ( m m ) b i T i (w) = b i λ i j i (w). i=1 i=1 Logo, r : F K, definida por r(t) = m b i λ i j i, i=1 é uma raiz de F. Então, r = r t, para algum t {1,..., k}, e w V(r t ) {0}. Provamos, assim, que todo termo não-nulo de (I) pertence a um dos subespaços V(r 1 ),..., V(r k ). Logo, V = V(r 1 )... V(r k ), pois os subespaços são ortogonais, logo, LI. Observação 5.2 Seja P j : V V(r j ), j = 1,..., k, a projeção ortogonal sobre V(r j ). Então, P i P j = O, se i j, I = P P k, e todo T F pode ser escrito na forma k T = r j (T) P j. ( ) j=1 Definição 5.2 A família de projeções ortogonais {P 1,..., P k } é denominada a resolução espectral do operador identidade determinada por F e, ( ) é a resolução espectral de T em termos desta família. Corolário 5.1 Se F é uma família comutativa de operadores normais diagonalizáveis sobre um espaço V de dimensão finita, então V possui uma base ortonormal B tal que [T] B é diagonal para todo T F. J. Delgado - K. Frensel 338 Instituto de Matemática - UFF

345 Diagonalização simultânea de uma família comutativa de operadores normais Prova. Seja B i uma base ortonormal de V(r i ), i = 1,..., k. Então B = B 1... B k é uma base ortonormal de V de autovetores de T, para todo T F, pois todos os vetores de V(r i ), i = 1,..., k, são autovetores de T, para todo T F. Definição 5.3 Uma álgebra auto-adjunta de operadores sobre um espaço vetorial V com produto interno é uma sub-álgebra de L(V, V) que contém o adjunto de cada um de seus elementos. Observação 5.3 A interseção de uma coleção qualquer de álgebras auto-adjuntas é uma álgebra auto-adjunta. Definição 5.4 Se F é uma família de operadores lineares sobre um espaço de dimensão finita com produto interno, a álgebra auto-adjunta gerada por F é a menor álgebra auto-adjunta que contém F. Teorema 5.2 Seja F uma família comutativa de operadores normais diagonalizáveis sobre um espaço V de dimensão finita com produto interno e seja A a álgebra auto-adjunta gerada por F e I (o operador identidade). Seja {P 1,..., P k } a resolução do operador identidade definida por F. Então A é o conjunto de todos os operadores sobre V da forma k T = c j P j, (I) j=1 onde c 1,..., c k são escalares arbitrários. Prova. Seja C o conjunto de todos os operadores sobre V da forma (I). Então C contém o operador identidade e o adjunto k T = c j P j, j=1 J. Delgado - K. Frensel 339 Instituto de Matemática - UFF

346 Diagonalização simultânea de uma família comutativa de operadores normais de cada um de seus elementos. Se T = k c j P j e U = j=1 k d j P j, então, para λ escalar, j=1 λt + u = k (λc j + d j )P j, j=1 e k T U = c j d i P j P i = i,j=1 k c j d j P j = U T. j=1 Assim, C é uma álgebra comutativa auto-adjunta que contém F e o operador identidade. Logo, A C. Sejam r 1,..., r k as raízes distintas de F. Então, para cada par de índices (i, n), com i n, existe um operador T in F tal que r i (T in ) r n (T in ). Sejam a in = r i (T in ) r n (T in ) e b in = r n (T in ). Então, o operador linear Q i = n i a 1 in (T in b in I) A. Vamos mostrar que Q i = P i, i = 1,..., k. Seja j i e v V(r j ). Então T ij (v) = r j (T ij )(v) = b ij v, ou seja, (T ij b ij I)(v) = 0. Como todos os fatores de Q i comutam, temos que Q i (v) = 0. Logo, Q i (v) = P i (v), para todo v V(r j ), j i. Seja, agora, v V(r i ). Então, T in (v) = r i (T in )(v) e a 1 in (T in b in I)(v) = a 1 in (r i(t in ) b in )(v) = a 1 in (r i(t in ) r n (T in ))(v) = v. Assim, Q i (v) = v = P i (v) para todo v V(r i ). Logo, Q i = P i, i = 1,..., k. Então, C A. Observação 5.4 O teorema mostra que a álgebra A é comutativa e que cada elemento de A é um operador normal diagonalizável. J. Delgado - K. Frensel 340 Instituto de Matemática - UFF

347 Formas De fato, se B i é uma base ortonormal de V(r i ), i = 1,..., k, então B = B 1... B k é uma base ortonormal de V tal que [T] B é diagonal para k todo T A, pois se T = c j P j, então T(v) = c j v para todo v V(r j ), j=1 j = 1,..., k, já que P i (v) = 0, se i j, e P j (v) = v. 6. Formas Definição 6.1 Uma forma (sesquilinear) sobre um espaço vetorial V sobre o corpo K (R ou C) é uma função f : V V K tal que: f(λv + v, w) = λf(v, w) + f(v, w) ; f(v, λw + w ) = λ f(v, w) + f(v, w ) ; quaisquer que sejam v, w, v, w V e λ K. Assim, f é uma função linear com respeito à primeira variável, e linearconjugada com respeito à segunda variável. Observação 6.1 Se K = R, f é bilinear, ou seja, f é linear com respeito às duas variáveis. Se K = C, temos que f é bilinear se, e somente se, f = O. De fato, se f é bilinear, f(v, iw) = if(v, w) e f(v, iw) = if(v, w). Logo, 2if(v, w) = 0, ou seja, f(v, w) = 0. Observação 6.2 O conjunto das formas sobre V é um subespaço vetorial do espaço de todas as funções de V V em K. Teorema 6.1 Seja V um espaço vetorial de dimensão finita com produto interno e f uma forma sobre V. Então existe um único operador linear T f sobre V tal que f(v, w) = T f (v), w, para todos v, w V. Além disso, a aplicação f T f é um isomorfismo do espaço das formas em L(V, V). J. Delgado - K. Frensel 341 Instituto de Matemática - UFF

348 Formas Prova. Seja w V fixo. Como v f(v, w) é um funcional linear sobre V, existe um único vetor w V tal que f(v, w) = v, w para todo v V. Definimos a função L : V V, colocando L(w) = w. O operador L é linear, pois se w 1, w 2 V e λ K, v, L(λw 1 + w 2 ) = f(v, λw 1 + w 2 ) = λ f(v, w 1 ) + f(v, w 2 ) = λ v, L(w 1 ) + v, L(w 2 ) = v, λ L(w 1 ) + L(w 2 ) para todo v V. Seja T f = L. Então, f(v, w) = v, L(w) = L (v), w = T f (v), w, para todos v, w V. Suponhamos que existe um outro operador T tal que f(v, w) = T (v), w para todos v, w V. Então, T f (v), w = T (v), w, ou seja, T f (v) T (v), w = 0, para todos v, w V. Logo, T (v) = T f (v) para todo v V. Vamos, agora, provar que a função f T f é um isomorfismo linear. Sejam f e g formas sobre V e λ K. Então, (λf + g)(v, w) = T λf+g (v), w, e (λf + g)(v, w) = λf(v, w) + g(v, w) = λ T f (v), w + T g (v), w = λt f (v) + T g (v), w, para todos v, w V. Logo, T λf+g = λt f + T g. Além disso, se T L(V, V), f(v, w) = T(v), w é uma forma sobre V tal que T f = T. Logo, a aplicação linear f T f é sobrejetora. J. Delgado - K. Frensel 342 Instituto de Matemática - UFF

349 Formas Temos, também, que f = O se, e somente se, T f (v), w = 0, para todos v, w V. Logo, f = O se, e somente se, T f = O. Assim, a aplicação f T f é um isomorfismo linear. Observação 6.3 Sabemos que a função K n n K n n K (A, B) Tr (AB ) define um produto interno sobre K n n, e que, se B é uma base ortonormal de V, L(V, V) K n n T [T] B é um isomorfismo linear. Então, T, U = Tr ([T] B [U] B ) = Tr ([T U ] B ), é um produto interno sobre L(V, V), que independe da base ortonormal B, pois se B é outra base ortonormal de V, existe P K n n unitária tal que [T] B = P 1 [T] B P para todo T L(V, V). Logo, Tr ([T U ] B ) = Tr ([T] B [U] B ) = Tr (P 1 [T] B P P [U] B (P 1 ) ) = Tr (P 1 [T U ] B P) = Tr ([T U ] B ), já que P = P 1. Assim, como f T f L(V, V), temos que é um isomorfismo do espaço das formas sobre f, g = Tr (T f T g), é um produto interno sobre o espaço das formas sobre V. Além disso, se B é uma base ortonormal de V, então A ij = T f (v j ), v i e B ij = T g (v j ), v i, onde A = [T f ] B e B = [T g ] B. Logo, f, g = Tr (T f Tg) = Tr (AB ) = A ij B ij i,j=1 = T f (v j ), v i T g (v j ), v i = i,j=1 i,j=1 f(v j, v i ) g(v j, v i ) J. Delgado - K. Frensel 343 Instituto de Matemática - UFF

350 Formas Definição 6.2 Sejam f uma forma sobre V e B uma base de V. A matriz A com entradas A ij = f(v j, v i ) é denominada a matriz de f em relação à base ordenada B. Observação 6.4 Se B é uma base ortogonal, [T f ] B = A, mas para uma base qualquer, isso nem sempre é verdade. Observação 6.5 Se A é a matriz de f em relação à base B = {v 1,..., v n }, então ( ) f(v, w) = f x k v k, y j v j = x k f(v k, v j ) y j = k=1 j=1 k,j=1 y j A jk x k = Y AX = AX, Y C j,k=1 onde X = [v] B, Y = [w] B e, C é o produto interno canônico de K n 1. Observação 6.6 Se B = {v 1,..., v n} é outra base de V e v = P ij v i, i, j = 1,..., n. i=1 então a matriz A de f na base B é dada por A = P AP. De fato, ( ) A jk = f(v k, v j ) = f P sk v s, P rj v r k=1 = P sk P rj f(v s, v r ) = r=1 s,r=1 s,r=1 P rj A rs P sk = (P AP) jk, j, k = 1,..., n. Teorema 6.2 Seja T um operador linear sobre um espaço vetorial complexo V de dimensão finita com produto interno. Então V possui uma base ortonormal B tal que [T] B é triangular superior. J. Delgado - K. Frensel 344 Instituto de Matemática - UFF

351 Formas Prova. Vamos provar o resultado por indução sobre a dimensão n de V. Se n = 1, não há nada a provar. Suponhamos que o resultado seja válido para operadores sobre espaços de dimensão menor ou igual a n 1. Seja T : V V um operador linear, onde dim(v) = n. Como V é complexo, o operador T possui um autovetor v não-nulo. Seja W o subespaço de dimensão 1 gerado por v. Como T (W) W temos, pela proposição 4.4, que T(W ) W, ou seja, W é T invariante. Então, pela hipótese de indução, dim(w ) = n 1, W possui uma base B = {v 2,..., v n } ortonormal tal que [T W ] B é triangular superior. Logo, B = {v 1,..., v n } é uma base ortonormal de V tal que [T] B é triangular superior, pois ( ) 1 0 [T] B =, 0 A onde A = [T W ] B. Corolário 6.1 Seja f uma forma sobre um espaço vetorial complexo V de dimensão finita com produto interno. Então, V possui uma base ortonormal B tal que a matriz de f em relação à base B é triangular superior. Prova. Seja T L(V, V) tal que f(v, w) = T(v), w para v, w V. Pelo teorema anterior, existe uma base B ortonormal tal que [T] B é triangular superior. Mas, como B é ortonormal, [T] B em relação à base B. é a matriz A da forma f Logo, A é triangular superior. Definição 6.3 Seja V um espaço vetorial real ou complexo. Uma forma f sobre V é dita hermitiana se f(v, w) = f(w, v), para todos v, w V. J. Delgado - K. Frensel 345 Instituto de Matemática - UFF

352 Formas Observação 6.7 Se T é um operador linear sobre um espaço vetorial V de dimensão finita com produto interno e f é a forma f(v, w) = T(v), w, então, f é hermitiana se, e somente se, T é auto-adjunto. De fato, f(v, w) = f(w, v) T(v), w = T(w), v = v, T(w), para todos v, w V. Logo, T = T. Observação 6.8 Se f é hermitiana, então f(v, v) R para todo v V. Teorema 6.3 Seja V um espaço vetorial complexo e seja f uma forma sobre V tal que f(v, v) R para todo v V. Então, f é hermitiana. Prova. Sejam v, w V. Como f(v + w, v + w) = f(v, v) + f(v, w) + f(w, v) + f(w, w) e f(v + iw, v + iw) = f(v, v) + if(w, v) if(v, w) + f(w, w), temos que f(v, w) + f(w, v) R e if(w, v) if(v, w) R, pois f(v+w, v+w), f(v, v), f(w, w) e f(v+iw, v+iw) são, por hipótese, números reais. Então, f(v, w) + f(w, v) = f(v, w) + f(w, v) e if(w, v) if(v, w) = i f(w, v) + i f(v, w). Multiplicando a segunda identidade por i, obtemos que f(v, w) + f(w, v) = f(v, w) + f(w, v) f(w, v) + f(v, w) = f(w, v) f(v, w). Logo, 2 f(v, w) = 2 f(w, v), ou seja, f(v, w) = f(w, v). J. Delgado - K. Frensel 346 Instituto de Matemática - UFF

353 Formas Corolário 6.2 Seja T um operador linear sobre um espaço vetorial complexo V de dimensão finita com produto interno. Então, T é auto-adjunto se, e somente se, T(v), v R, para todo v V. Teorema 6.4 Seja V um espaço vetorial de dimensão finita com produto interno e seja Teorema do Eixo Principal f uma forma hermitiana sobre V. Então V possui uma base ortonormal B em relação à qual f é representada por uma matriz diagonal com entradas reais. Prova. Seja T o operador linear tal que f(v, w) = T(v), w para todos v, w V. Como f é hermitiana, T é um operador auto-adjunto. Então, pelo teorema 4.1, V possui uma base ortonormal B = {v 1,..., v n } formada por autovetores de T. Seja T(v i ) = c i v i, i = 1,..., n. Como T é auto-adjunto, seus autovalores c i, i = 1,..., n, são todos reais. Logo, A ij = f(v j, v i ) = T(v j ), v i = c j δ ij, onde A é a matriz de f com respeito à base B. Assim, A é diagonal com entradas reais. Observação 6.9 Nas condições acima, f(v, w) = Y AX = y k A kj x j = j,k=1 c j x j y j, j=1 e onde X = [v] B e Y = [w] B. f(v, v) = c j x j 2, j=1 J. Delgado - K. Frensel 347 Instituto de Matemática - UFF

354 7. Formas Positivas Formas Positivas Definição 7.1 Uma forma f sobre um espaço vetorial V real ou complexo é dita não-negativa, se f é hermitiana e f(v, v) 0, para todo v V. positiva, se f é hermitiana e f(v, v) > 0, para todo v V {0}. Observação 7.1 Uma forma positiva sobre V é um produto interno sobre V. Observação 7.2 Seja f uma forma sobre o espaço V de dimensão finita. Seja B = {v 1,..., v n } uma base de V e seja A a matriz de f em relação à base B, ou seja, A jk = f(v k, v j ). Se v = x 1 v , x n v n, então f(v, v) = A kj x j x k = X AX. k,j=1 Assim, f é não-negativa se, e somente se, A = A e para todo (x 1,..., x n ) K n. A kj x j x k 0, j,k=1 De fato, f é hermitiana se, e só se, f(v, w) = f(w, v) para todo v, w V, ou seja, se, e só se, AX, Y C = AY, X C = X, AY C, para todos X, Y K n 1, onde, C é o produto interno canônico de K n 1. Logo, f é hermitiana se, e só se, A = A. E f é positiva se, e só se, A = A e A kj x j x k > 0, (x 1,..., x n ) K n {0}, j,k=1 ou seja, se, e só se, g(x, Y) = Y AX é um produto interno sobre K n 1. Mas, para K = C, temos que: f é não-negativa j,k A kj x j x k 0 para todo (x 1,..., x n ) C n. J. Delgado - K. Frensel 348 Instituto de Matemática - UFF

355 Formas Positivas f é positiva j,k A kj x j x k > 0 para todo (x 1,..., x n ) C n {0}. De fato, pelo teorema 6.3, se j,k A kj x j x k R para todo (x 1,..., x n ) C n, então f é hermitiana. Teorema 7.1 Seja A uma matriz n n sobre K (R ou C). A função g definida por g(x, Y) = Y AX é uma forma positiva sobre K n 1 se, e só se, existe uma matriz P K n n invertível, tal que A = P P. Prova. Suponhamos que A = P P, sendo P invertível. Como A = A, temos que g é hermitiana. Além disso, g(x, X) = X AX = X P PX = (PX) PX > 0, para todo X K n 1 {0}, já que PX = 0 se, e só se, X = 0. Suponhamos, agora, que g é uma forma positiva sobre K n 1, ou seja, g é um produto interno sobre K n 1. Então, K n 1 possui uma base {v 1,..., v n } ortonormal em relação ao produto interno g. Seja Q a matriz n n cuja j ésima coluna é v j. Como B é uma base ortonormal, temos que δ jk = g(v j, v k ) = v k Av j, ou seja, Q AQ = I. Além disso, Q é invertível, pois B é uma base de K n 1. Fazendo P = Q 1, temos que A = (Q ) 1 Q 1 = (Q 1 ) Q 1 = P P, sendo P invertível. Observação 7.3 Se g é positiva, então det(a) > 0, pois det(a) = det(p P) = det(p ) det(p) = det(p) det(p) = det(p) 2 > 0. A condição de que det(a) > 0 é necessária, mas não suficiente, como veremos abaixo. J. Delgado - K. Frensel 349 Instituto de Matemática - UFF

356 Formas Positivas Definição 7.2 Seja A uma matriz n n sobre o corpo K. Os menores principais de A são os escalares A 11 A 1k k (A) = det....., k = 1,..., n. A k1 A kk Lema 7.1 Seja A uma matriz n n invertível sobre um corpo K. afirmações são equivalentes: As seguintes (a) Existe uma matriz triangular superior P, com P kk = 1, 1 k n, tal que a matriz B = AP é triangular inferior. (b) Os menores principais de A são todos diferentes de zero. Prova. (b)= (a) Seja P K n n e façamos B = AP. Então, B jk = A jr P rk, j, k = 1,..., n. r=1 Se P é triangular superior, ou seja, P rk = 0, se r > k, e P kk = 1, para todo k = 1,..., n, então k 1 A jr P rk + A jk = B jk, se k 2. r=1 Assim, B será triangular inferior se, e só se, B jk = 0, j < k, ou seja, se, e só se, k 1 A jr P rk = A jk, 1 j k 1 e 2 k n. ( ) r=1 Então, a afirmação (a) do lema é equivalente à afirmação de que existem escalares P rk, 1 r k e 1 k n, que satisfazem ( ) e P kk = 1, 1 k n. Para cada 2 k n, ( ) é um sistema de k 1 equações lineares nas incógnitas P 1,k,..., P k 1 k. A matriz dos coeficientes do sistema é A 11 A 1 k , A k 1 1 A k 1 k 1 J. Delgado - K. Frensel 350 Instituto de Matemática - UFF

357 Formas Positivas cujo determinante é o menor principal k 1 (A). Como k 1 (A) 0, para todo 2 k n + 1, os sistemas possuem soluções únicas. Mostramos, assim, que (b)= (a) e que a matriz P é única. (a)= (b) Suponhamos que B = AP, onde P é triangular superior, com P kk = 1, k = 1,..., n, e B é triangular inferior. Afirmação: k (A) = k (B) = B B kk, k = 1,..., n. Sejam A 1,..., A n e B 1,..., B n as colunas de A e B, respectivamente. Então, B 1 = A 1 e r 1 B r = P jr A j + A r, 2 r n (I) j=1 Seja k {1,..., n} fixo. Então, por (I), a r ésima coluna da matriz B 11 B 1k..... B k1 B kk é obtida, adicionando-se à r ésima coluna da matriz A 11 A 1k..... A k1 A kk uma combinação linear de suas outras colunas. Então, k (A) = k (B). Como A e P são invertíveis, temos que B é invertível e, portanto, n (B) = B B nn 0. Logo, k (A) = k (B) = B B kk 0, k = 1,..., n. Teorema 7.2 Seja f uma forma sobre um espaço vetorial V de dimensão finita e seja A a matriz de f em relação a uma base B de V. Então, f é positiva se, e só se, A = A e k (A) > 0 para todo k = 1,..., n. Prova. Suponhamos que A = A e k (A) > 0, k = 1,..., n. Pelo lema anterior, existe uma (única) matriz P, com P kk = 1, k = 1,..., n, triangular superior tal que B = AP é triangular inferior. J. Delgado - K. Frensel 351 Instituto de Matemática - UFF

358 Formas Positivas Logo, P é triangular inferior e, portanto, P B = P AP também é triangular inferior. Como A é auto-adjunta, a matriz D = P AP é auto-adjunta. Logo, D = P B = P AP é diagonal, pois D é triangular e auto-adjunta. Além disso, k (D) = k (P B) = k (B), k = 1,..., n. De fato, se B 1,..., B n e D 1,..., D n são as linhas de B e D, respectivamente, então D 1 = B 1 e r 1 D r = PrjB j + B r, r = 2,..., n. j=1 Assim, a r ésima linha da matriz D 11 D 1k..... D k1 D kk é obtida, adicionando-se à r ésima linha da matriz B 11 B 1k..... B k1 B kk uma combinação linear de suas outras linhas. Logo, k (D) = k (B), k = 1,..., n. Como k (B) = k (A) > 0, k = 1,..., n e D é diagonal, temos que k (D) = D D kk > 0, k = 1,..., n. Logo, D kk > 0, para todo k = 1,..., n. Seja B = {v 1,..., v n }. Como A é a matriz de f com respeito à base B, então, D = P AP é a matriz de f com respeito à base B = {v 1,..., v n}, onde v j = P ij v i. i=1 Logo, f(v, v) = X DX = D kk x k 2 > 0, k=1 onde X = [v] B K n 1 {0}. Ou seja, f é uma forma positiva. J. Delgado - K. Frensel 352 Instituto de Matemática - UFF

359 Formas Positivas Suponhamos, agora, que f é uma forma positiva. Seja B = {v 1,..., v n } uma base de V e seja A a matriz de f na base B. Já sabemos que A = A. Para cada k = 1,..., n, seja V k o subespaço de V gerado pelos vetores v 1,..., v k e seja f k a forma f Vk V k. Como f k é positiva e, em relação à base {v 1,..., v k } de V k, f k é representada pela matriz A 11 A 1k A k =....., A k1 A kk temos que k (A) = det(a k ) > 0, k = 1,..., n, pois já provamos, anteriormente, que se uma forma é positiva, o determinante de qualquer matriz que a represente é positivo. Observação 7.4 Seja f : V V K (R ou C) uma forma. Já provamos que: se K = C, f é positiva A = A e X AX > 0, X AX > 0, X C n 1 {0}. X C n 1 {0} se K = R, f é positiva A = A t e X t AX > 0, X R n 1 {0}. A hipótese de que A = A t no caso real é necessária, pois uma matriz real que satisfaz X t AX > 0, X R n 1 {0} não é necessariamente simétrica. Exemplo 7.1 Seja f : R 2 1 R 2 1 a forma definida por f(x, Y) = AX, Y, onde ( ) 1 2 A =. 2 1 ( x Então, para todo X = R y) 2 1 {0}, temos ( ) ( ) 1 2 x x + 2y f(x, X) = X AX = (x, y) = (x, y) 2 1)( y 2x + y = x 2 + 2yx 2xy + y 2 = x 2 + y 2 > 0. Mas A t A. J. Delgado - K. Frensel 353 Instituto de Matemática - UFF

360 Resumo sobre matrizes positivas Observação 7.5 Um fato verdadeiro é que, se A R n n, então: A = A t e X t AX > 0, X R n 1 {0} X AX > 0, X C n 1 {0}. Com efeito: X AX > 0, X C n 1 {0} = A = A = A t e X t AX > 0, X R n 1 {0}. (X + iy) A(X + iy) = (X t iy t )A(X + iy) = X t AX + Y t AY + ix t AY iy t AX = X t AX + Y t AY + i(x t AY Y t AX) = X t AX + Y t AY > 0, se X + iy 0, X, Y R n 1, pois Y t AX = Y t A t X = (X t AY) t = X t AY. Logo, uma forma f : V V K (R ou C) é positiva se, e só se, X AX > 0, para todo X C n 1 {0}, onde A é a matriz de f com respeito a alguma base de V. Observação 7.6 Seja f uma forma positiva sobre um espaço V de dimensão finita com produto interno e seja T o único operador sobre V tal que f(v, w) = T(v), w para todos v, w W. Então, f é uma forma positiva se, e só se, T é um operador positivo, ou seja, T = T e T(v), v > 0 para todo v V. Existe, portanto, uma correspondência biunívoca entre os operadores positivos e as formas positivas. 8. Resumo sobre matrizes positivas Se A C n n, as seguintes afirmações são equivalentes: (1) A kj x j x k > 0, X C n 1 {0}. j,k=1 (2) [X, Y] = Y AX é um produto interno sobre C n 1. J. Delgado - K. Frensel 354 Instituto de Matemática - UFF

361 Resumo sobre matrizes positivas (3) Em relação ao produto interno canônico X, Y = Y X de C n 1, o operador X AX sobre C n 1 é positivo. (4) Existe uma matriz P C n n invertível tal que A = P P. (5) A = A e os menores principais de A são positivos. Se A R n n, as afirmações acima também são equivalentes às seguintes: (6) A = A t e X t AX > 0, X R n 1 {0}. (7) (X, Y) = X t AY é um produto interno sobre R n 1. (8) Em relação ao produto interno canônico X, Y = Y t X de R n 1, o operador X AX sobre R n 1 é positivo. (9) Existe uma matriz P R n n invertível tal que A = P t P. Exemplo 8.1 A forma f : C 3 C 3 C definida por f( (z 1, z 2, z 3 ), (w 1, w 2, w 3 ) ) = z 1 w 1 iz 2 w 1 + iz 1 w 2 + 2z 2 w 2 + 2z 3 w 3, é positiva. De fato, se B = {e 1, e 2, e 3 } é a base canônica de C 3, a matriz A de f em relação a B tem entradas: A 11 = f(e 1, e 1 ) = 1 ; A 12 = f(e 2, e 1 ) = i ; A 13 = f(e 3, e 1 ) = 0 ; A 21 = f(e 1, e 2 ) = i ; A 22 = f(e 2, e 2 ) = 2 ; A 23 = f(e 3, e 2 ) = 0 ; A 31 = f(e 1, e 3 ) = 0 ; A 32 = f(e 2, e 3 ) = 0 ; A 33 = f(e 3, e 3 ) = 2. Assim, A = 1 i 0 i Então, A = A, 1 (A) = 1, 2 (A) = 2 1 = 1 > 0 e 3 (A) = 2 > 0. Logo, por (5), f é uma forma positiva. J. Delgado - K. Frensel 355 Instituto de Matemática - UFF

362 Funções de operadores 9. Funções de operadores De maneira análoga ao que foi feito para obter a raiz quadrada nãonegativa de um operador não-negativo, podemos também definir, sob certas condições, f(t), onde f é uma função definida sobre um subconjunto do corpo K (R ou C) e T é um operador linear. Definição 9.1 Seja T um operador diagonalizável sobre um espaço V de dimensão finita. O espectro de T é o conjunto S = {c 1,..., c k }, cujos elementos são os autovalores distintos de T. Definição 9.2 Seja T um operador normal diagonalizável sobre um espaço V de dimensão finita com produto interno e seja T = c 1 π c k π k, sua resolução espectral. Seja f uma função com valores no corpo dos escalares, cujo domínio contém o espectro de T. Então o operador f(t) é definido por: f(t) = f(c 1 )π f(c k )π k. Teorema 9.1 Seja T um operador normal diagonalizável com espectro S sobre um espaço V de dimensão finita com produto interno. Suponhamos que f seja uma função com valores no corpo dos escalares, cujo domínio contém S. Então, f(t) é um operador normal diagonalizável com espectro f(s). Se U é uma aplicação unitária de V sobre V e T = UTU 1, então S é o espectro de T e f(t ) = Uf(T)U 1. Prova. Seja T = k c j π j a resolução espectral de T e seja j=1 f(t) = k f(c j )π j. j=1 J. Delgado - K. Frensel 356 Instituto de Matemática - UFF

363 Funções de operadores Como f(t) = k f(c j )π j = k f(c j )π j, j=1 j=1 já que π j é auto-adjunta, para j = 1,..., k, temos que f(t) f(t) = f(t)f(t), pois cada π j é um polinômio em T. Logo, f(t) é um operador normal. Afirmação: f(s) é o espectro de f(t). De fato, se v π j (V) {0}, então f(t)(v) = f(c j )(v), ou seja, f(c j ) é um autovalor de f(t). Reciprocamente, suponhamos que v 0 e f(t)(v) = bv. Como v = π 1 (v) π k (v), temos que k k f(t)(v) = f(t)π j (v) = f(c j )π j (v) = j=1 j=1 k bπ j (v). j=1 Logo, k 0 = (f(c j ) b)π j (v) j=1 2 = k f(c j ) b 2 π j (v) 2, j=1 já que π j (v) π i (v), se i j. Como v 0, existe i {1,..., k} tal que π i (v) 0. Então, f(c i ) = b, já que f(c j ) b 2 π j (v) 2 = 0, j = 1,..., k. Provamos, assim, que f(s) é o espectro de f(t). Seja f(t) = {b 1,..., b r }, com b m b n, se m n. Seja J m o conjunto dos índices i {1,..., k}, tais que f(c i ) = b m e seja P m = π j, m = 1,..., r. j J m Então: Pm 2 = P m, ou seja, P m é uma projeção. P m P n = O, se m n. I = P P r. r f(t) = b m P m, onde {b 1,..., b r } é o espectro de f(t). m=1 J. Delgado - K. Frensel 357 Instituto de Matemática - UFF

364 Funções de operadores P m (V) é o autoespaço de f(t) associado ao autovalor b m. P m (V) P n (V), se m n. P m é a projeção ortogonal de V sobre P m (V). V = P 1 (V)... P r (V). Ou seja, r f(t) = b m P m, m=1 é a resolução espectral do operador f(t). Suponhamos, agora, que U é uma transformação unitária de V sobre V e que T = UTU 1. Sendo T = UTU 1 e π j = Uπ ju 1, j = 1,..., k, temos que T = k c j Uπ j U 1 = j=1 k c j π j, j=1 é a resolução espectral de T, pois: c 1,..., c k são escalares distintos. π j π i = Uπ ju 1 Uπ i U 1 = Uπ j π i U 1 = O, se i j. π j π j = Uπ ju 1 Uπ j U 1 = Uπ j π j U 1 = π j, j = 1,..., k. π j é um operador não-nulo, j = 1,..., k. π π k = Uπ 1U Uπ k U 1 = U(π π k )U 1 = UIU 1 = I. Logo, {c 1,..., c k } é o espectro de T e π j (V ) = Uπ j U 1 (V ) = Uπ j (V) é o autoespaço de T associado ao autovalor c j, j = 1,..., k. Assim, f(t ) = k f(c j )π j = j=1 ( k k ) f(c j )Uπ j U 1 = U f(c j )π j U 1 = Uf(T)U 1. j=1 j=1 Corolário 9.1 Com as mesmas hipóteses do teorema 9.1, suponhamos que T seja representado, em relação à base ordenada B = {v 1,..., v n }, pela matriz J. Delgado - K. Frensel 358 Instituto de Matemática - UFF

365 Funções de operadores diagonal D com entradas D ii = d i, i = 1,..., n na diagonal. Então, em relação à base B, f(t) é representado pela matriz f(d) com entradas f(d 1 ),..., f(d n ) na diagonal. Além disso, se B = {v 1,..., v n} é outra base de V e P é a matriz tal que v j = P ij v i, então P 1 f(d)p é a matriz de f(t) em relação à base B. Prova. i=1 Para cada i {1,..., n}, existe um único j {1,..., k}, tal que v i π j (V) e d i = c j. Portanto, f(t)(v i ) = f(d i )(v i ) para todo i = 1,..., n, e f(t)(v j ) = P ij f(t)(v i ) = = = i=1 (f(d)p) ij i=1 k=1 f(d i )P ij v i = i=1 (P 1 f(d)p) kj v k. k=1 P 1 ki v k = Logo, [f(t)] B = f(d) e [f(t)] B = P 1 f(d)p. k=1 i=1 (f(d)p) ij v i i=1 P 1 ki (f(d)p) ijv k Observação 9.1 Seja A uma matriz n n sobre K (R ou C) normal e diagonalizável. Sejam P e Q matrizes n n invertíveis tais que D = PAP 1 e D = QAQ 1 são matrizes diagonais. Considere o espaço K n 1 com o produto interno canônico e o operador T : K n 1 K n 1 definido por T(X) = AX. Então, T é um operador normal diagonalizável, pois [T] BC = A e A A = AA, e [T] B = [I] BBC [T] BC [I] BC B = PAP 1 = D, [T] B = [I] B B C [T] BC [I] BC B = QAQ 1 = D, onde B C é a base canônica de K n 1, B é a base de K n 1 formada pelos vetores colunas de P 1 e B é a base de K n 1 formada pelos vetores colunas de Q 1. J. Delgado - K. Frensel 359 Instituto de Matemática - UFF

366 Funções de operadores Como as entradas d 1,..., d n e d 1,..., d n das matrizes diagonais de D e D, respectivamente, são os autovalores de T, temos que {d 1,..., d n } = {d 1,..., d n}. Seja f uma função com valores no corpo K, cujo domínio contém o conjunto S = {d 1,..., d n }. Definimos f(a) = P 1 f(d)p. A matriz f(a) está bem definida, pois, pelo corolário anterior, temos f(d) = [f(t)] B, f(d ) = [f(t)] B e [f(t)] B = [I] B B[f(T)] B [I] BB = [I] B B C [I] BC Bf(D)[I] BBC [I] BC B = QP 1 f(d)pq 1, ou seja, Q 1 f(d )Q = P 1 f(d)p. Exemplo 9.1 Seja A uma matriz n n complexa normal e seja P uma matriz unitária tal λ 1 que D = PAP =... é uma matriz diagonal. Então, e A = P e D P = P e λ 1 λ n... P. e λn No caso particular em que A = O é a matriz nula, e A = I, pois 0 O = P... P e e A = P e 0... P = P IP = I. 0 Seja B outra matriz normal complexa n n que comuta com A. Considere C n 1 com o produto interno canônico e os operadores T A : C n 1 C n 1 e T B = C n 1 C n 1, definidos por T A (X) = AX e T B (X) = BX. Como A = [T A ] BC e B = [T B ] BC, onde B C é a base canônica de C n 1, temos que T A e T B são operadores normais que comutam. Seja C n 1 = W 1... W k a decomposição primária de C n 1 com res- e 0 J. Delgado - K. Frensel 360 Instituto de Matemática - UFF

367 Funções de operadores peito ao operador T A, ou seja W j, j = 1,..., k, são os autoespaços de T A associados aos seus autovalores distintos. Seja v W j. Então, T A (T B (v)) = AB(v) = BA(v) = T B (T A (v)) = T B (c j v) = c j T B (v). Logo, T B (W j ) W j. Como T B Wj é um operador normal sobre um espaço complexo, W j possui uma base ortonormal B j tal que [T B Wj ] Bj é diagonal. Logo, B = {B 1,..., B k } é uma base ortonormal de C n 1, já que W j W i, j i, tal que [T A ] B e [T B ] B são matrizes diagonais. Então, λ 1 D A = [T A ] B = PAP =... λ n µ 1 e D B = [T B ] B = PBP =... µ n onde P é a matriz cujas colunas são os vetores da base B. Assim, λ 1 + µ 1 D A + D B = P(A + B)P =... e A = P e λ 1... e λn P e e B = P e µ 1 λ n + µ n,... e µn P. Logo, e A e B = P e λ 1... e λn P P e µ 1... e µn P = P e λ 1... e λn e µ 1... e µn P e λ 1+µ 1 = P... e λn+µn P = e A+B. e A = P e λ 1... e λn. J. Delgado - K. Frensel 361 Instituto de Matemática - UFF

368 Funções de operadores e A e A = e O = I. No caso particular em que A = A, temos que A é uma matriz normal cujos autovalores são imaginários puros. De fato, se v 0 e Av = λv, então A v = λv. Logo, λv = λv, ou seja, λ + λ = 0. iθ 1 Assim, D = PAP =..., para alguma matriz n n invertível iθ n P, onde iθ 1,..., iθ n, θ j R, j = 1,..., n, são os autovalores de A. Logo e A = P e iθ 1... e iθn P. Então, det(e A ) = det e iθ 1... e iθn = e iθ iθ n = e Tr (A). (e A ) = P e iθ 1... e iθn P = e A. e A (e A ) = e A e A = I, ou seja A é uma matriz unitária. No caso geral, se C é uma matriz n n complexa normal e P é uma matriz unitária tal que a 1 + ib 1 D = PCP =..., a n + ib n é uma matriz diagonal, onde a j, b j R, j = 1,..., n, temos que C = P DP = C 1 + C 2, onde a 1 C 1 = P... a n P é uma matriz auto-adjunta e ib 1 C 2 = P... ib n P J. Delgado - K. Frensel 362 Instituto de Matemática - UFF

369 Funções de operadores é uma matriz tal que C 2 = C 2 que comuta com C 1. Logo, e C = e C 1+C 2 = e C 1 e C 2, onde e C 1 = P e a 1... e an P é uma matriz positiva e e C 2 = P e b 1... e bn P é uma matriz unitária. J. Delgado - K. Frensel 363 Instituto de Matemática - UFF

Álgebra Linear e Geometria Anaĺıtica. Espaços Vetoriais Reais

Álgebra Linear e Geometria Anaĺıtica. Espaços Vetoriais Reais universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 4 Espaços Vetoriais Reais Definição de espaço vetorial real [4 01] O conjunto

Leia mais

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 1 Matrizes e Sistemas de Equações Lineares Geometria anaĺıtica em R 3 [1 01]

Leia mais

1.3 Matrizes inversas ] [ 0 1] = [ ( 1) ( 1) ] = [1 0

1.3 Matrizes inversas ] [ 0 1] = [ ( 1) ( 1) ] = [1 0 1.3 Matrizes inversas Definição: Seja A uma matriz de ordem k n, a matriz B de ordem n k é uma inversa à direita de A, se AB = I. A Matriz C de ordem n k é uma inversa à esquerda de A, se CA = I. Exemplo

Leia mais

MAT Resumo Teórico e Lista de

MAT Resumo Teórico e Lista de MAT 0132 - Resumo Teórico e Lista de Exercícios April 10, 2005 1 Vetores Geométricos Livres 1.1 Construção dos Vetores 1.2 Adição de Vetores 1.3 Multiplicação de um Vetor por um Número Real 2 Espaços Vetoriais

Leia mais

(x 1, y 1 ) (x 2, y 2 ) = (x 1 x 2, y 1 y 2 ); e α (x, y) = (x α, y α ), α R.

(x 1, y 1 ) (x 2, y 2 ) = (x 1 x 2, y 1 y 2 ); e α (x, y) = (x α, y α ), α R. INSTITUTO DE MATEMÁTICA E ESTATÍSTICA UNIVERSIDADE DE SÃO PAULO MAT-2457 Álgebra Linear para Engenharia I Terceira Lista de Exercícios - Professor: Equipe da Disciplina EXERCÍCIOS 1. Considere as retas

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear

Leia mais

Álgebra Linear Exercícios Resolvidos

Álgebra Linear Exercícios Resolvidos Álgebra Linear Exercícios Resolvidos Agosto de 001 Sumário 1 Exercícios Resolvidos Uma Revisão 5 Mais Exercícios Resolvidos Sobre Transformações Lineares 13 3 4 SUMA RIO Capítulo 1 Exercícios Resolvidos

Leia mais

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009 Notas para o Curso de Álgebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009 2 Sumário 1 Matrizes e Sistemas Lineares 5 11 Matrizes 6 12 Sistemas Lineares 11 121 Eliminação Gaussiana 12 122 Resolução

Leia mais

Capítulo Propriedades das operações com vetores

Capítulo Propriedades das operações com vetores Capítulo 6 1. Propriedades das operações com vetores Propriedades da adição de vetores Sejam u, v e w vetores no plano. Valem as seguintes propriedades. Comutatividade: u + v = v + u. Associatividade:

Leia mais

Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares

Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares FATEC Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares Prof Dr Ânderson Da Silva Vieira 2017 Sumário Introdução 2 1 Matrizes 3 11 Introdução 3 12 Tipos especiais de Matrizes 3 13 Operações

Leia mais

Introduzir os conceitos de base e dimensão de um espaço vetorial. distinguir entre espaços vetoriais de dimensão fnita e infinita;

Introduzir os conceitos de base e dimensão de um espaço vetorial. distinguir entre espaços vetoriais de dimensão fnita e infinita; META Introduzir os conceitos de base e dimensão de um espaço vetorial. OBJETIVOS Ao fim da aula os alunos deverão ser capazes de: distinguir entre espaços vetoriais de dimensão fnita e infinita; determinar

Leia mais

ESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R

ESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R ESPAÇO VETORIAL REAL Seja um conjunto V, não vazio, sobre o qual estão definidas as operações de adição e multiplicação por escalar, isto é: u, v V, u + v V a R, u V, au V O conjunto V com estas duas operações

Leia mais

Interbits SuperPro Web

Interbits SuperPro Web 1 (Ita 018) Uma progressão aritmética (a 1, a,, a n) satisfaz a propriedade: para cada n, a soma da progressão é igual a n 5n Nessas condições, o determinante da matriz a1 a a a4 a5 a 6 a a a 7 8 9 a)

Leia mais

MAT Álgebra Linear para Engenharia II - Poli 2 ō semestre de ā Lista de Exercícios

MAT Álgebra Linear para Engenharia II - Poli 2 ō semestre de ā Lista de Exercícios MAT 2458 - Álgebra Linear para Engenharia II - Poli 2 ō semestre de 2014 1 ā Lista de Exercícios 1. Verifique se V = {(x, y) x, y R} é um espaço vetorial sobre R com as operações de adição e de multiplicação

Leia mais

Álgebra Linear. André Arbex Hallack

Álgebra Linear. André Arbex Hallack Álgebra Linear André Arbex Hallack 2017 Índice 1 Sistemas Lineares 1 1.1 Corpos............................................. 1 1.2 Sistemas de Equações Lineares............................... 3 1.3 Sistemas

Leia mais

Avaliação e programa de Álgebra Linear

Avaliação e programa de Álgebra Linear Avaliação e programa de Álgebra Linear o Teste ( de Março): Sistemas de equações lineares e matrizes. Espaços lineares. o Teste ( de Maio): Matriz de mudança de base. Transformações lineares. o Teste (

Leia mais

1. Operações com vetores no espaço

1. Operações com vetores no espaço Capítulo 10 1. Operações com vetores no espaço Vamos definir agora as operações de adição de vetores no espaço e multiplicação de um vetor espacial por um número real. O processo é análogo ao efetuado

Leia mais

Inversão de Matrizes

Inversão de Matrizes Inversão de Matrizes Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial - 2015.2 21 de

Leia mais

Produto Misto, Determinante e Volume

Produto Misto, Determinante e Volume 15 Produto Misto, Determinante e Volume Sumário 15.1 Produto Misto e Determinante............ 2 15.2 Regra de Cramer.................... 10 15.3 Operações com matrizes............... 12 15.4 Exercícios........................

Leia mais

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática 1 Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática 3 a Lista - MAT 137 - Introdução à Álgebra Linear 2017/II 1. Sejam u = ( 4 3) v = (2 5) e w = (a b).

Leia mais

Álgebra Linear AL. Luiza Amalia Pinto Cantão. Depto. de Engenharia Ambiental Universidade Estadual Paulista UNESP

Álgebra Linear AL. Luiza Amalia Pinto Cantão. Depto. de Engenharia Ambiental Universidade Estadual Paulista UNESP Álgebra Linear AL Luiza Amalia Pinto Cantão Depto de Engenharia Ambiental Universidade Estadual Paulista UNESP luiza@sorocabaunespbr Espaços Vetoriais 1 Definição; 2 Subespaços; 3 Combinação Linear, dependência

Leia mais

Exercícios sobre Espaços Vetoriais II

Exercícios sobre Espaços Vetoriais II Exercícios sobre Espaços Vetoriais II Prof.: Alonso Sepúlveda Castellanos Sala 1F 104 1. Seja V um espaço vetorial não trivial sobre um corpo infinito. Mostre que V contém infinitos elementos. 2. Sejam

Leia mais

UNIVERSIDADE FEDERAL DE VIÇOSA Centro de Ciências Exatas Departamento de Matemática

UNIVERSIDADE FEDERAL DE VIÇOSA Centro de Ciências Exatas Departamento de Matemática UNIVERSIDADE FEDERAL DE VIÇOSA Centro de Ciências Exatas Departamento de Matemática 2 a Lista - MAT 137 - Introdução à Álgebra Linear II/2005 1 Resolva os seguintes sistemas lineares utilizando o Método

Leia mais

Parte 2 - Espaços Vetoriais

Parte 2 - Espaços Vetoriais Espaço Vetorial: Parte 2 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado

Leia mais

= o A MATRIZ IDENTIDADE. a(i, :) = (aii, ai2,, ai.) i = 1,, m

= o A MATRIZ IDENTIDADE. a(i, :) = (aii, ai2,, ai.) i = 1,, m Matrizes e Sistemas de Equações 9 para toda matriz A n X n. Vamos discutir, também, a existência e o cálculo de inversas multiplicativas. A MATRIZ IDENTIDADE Uma matriz muito importante é a matriz / n

Leia mais

Aulas práticas de Álgebra Linear

Aulas práticas de Álgebra Linear Ficha 3 Aulas práticas de Álgebra Linear Licenciatura em Engenharia Naval e Oceânica Mestrado Integrado em Engenharia Mecânica 1 o semestre 2018/19 Jorge Almeida e Lina Oliveira Departamento de Matemática,

Leia mais

Álgebra Linear Semana 05

Álgebra Linear Semana 05 Álgebra Linear Semana 5 Diego Marcon 4 de Abril de 7 Conteúdo Interpretações de sistemas lineares e de matrizes invertíveis Caracterizações de matrizes invertíveis 4 Espaços vetoriais 5 Subespaços vetoriais

Leia mais

Matrizes e sistemas de equações algébricas lineares

Matrizes e sistemas de equações algébricas lineares Capítulo 1 Matrizes e sistemas de equações algébricas lineares ALGA 2007/2008 Mest Int Eng Biomédica Matrizes e sistemas de equações algébricas lineares 1 / 37 Definições Equação linear Uma equação (algébrica)

Leia mais

Notas de Aula - Espaços Vetoriais I

Notas de Aula - Espaços Vetoriais I Notas de Aula - Espaços Vetoriais I 1 O espaço vetorial R 2 A definição de espaço vetorial que veremos adiante faz uso da ideia de operações definidas sobre um conjunto. Iniciaremos nosso estudo explorando

Leia mais

6. Verifique detalhadamente que os seguintes conjuntos são espaços vetoriais(com a soma e produto por escalar usuais):

6. Verifique detalhadamente que os seguintes conjuntos são espaços vetoriais(com a soma e produto por escalar usuais): a Lista. Sejam u = ( 4 ) v = ( 5) e w = (a b). Encontre a e b tais que (a)w = u + v (b)w = 5v (c)u + w = u v. Represente os vetores acima no plano cartesiano.. Sejam u = (4 ) v = ( 4) e w = (a b c). Encontre

Leia mais

MAT2457 ÁLGEBRA LINEAR PARA ENGENHARIA I 3 a Prova - 1 o semestre de (a) 3; (b) 2; (c) 0; (d) 1; (e) 2.

MAT2457 ÁLGEBRA LINEAR PARA ENGENHARIA I 3 a Prova - 1 o semestre de (a) 3; (b) 2; (c) 0; (d) 1; (e) 2. MAT2457 ÁLGEBRA LINEAR PARA ENGENHARIA I 3 a Prova - 1 o semestre de 2018 Questão 1. Seja U = [(2, 1, 1), (1, 0, 2)], subespaço vetorial de R 3 e ax + by + z = 0 uma equação de U, isto é U = { (x, y, z)

Leia mais

Notações e revisão de álgebra linear

Notações e revisão de álgebra linear Notações e revisão de álgebra linear Marina Andretta ICMC-USP 17 de agosto de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211

Leia mais

Aula 25 - Espaços Vetoriais

Aula 25 - Espaços Vetoriais Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado

Leia mais

é encontrado no cruzamento da linha i com a coluna j, ou seja, o primeiro índice se refere à linha e o segundo à coluna.

é encontrado no cruzamento da linha i com a coluna j, ou seja, o primeiro índice se refere à linha e o segundo à coluna. Ministério da Educação Secretaria de Educação Profissional e Tecnológica Instituto Federal De Santa Catarina Campus São José Professora: ELENIRA OLIVEIRA VILELA COMPONENTE CURRICULAR: ALG ÁLG. LINEAR MATRIZES

Leia mais

1. Conhecendo-se somente os produtos AB e AC, calcule A = X 2 = 2X. 3. Mostre que se A e B são matrizes que comutam com a matriz M = 1 0

1. Conhecendo-se somente os produtos AB e AC, calcule A = X 2 = 2X. 3. Mostre que se A e B são matrizes que comutam com a matriz M = 1 0 Lista de exercícios. AL. 1 sem. 2015 Prof. Fabiano Borges da Silva 1 Matrizes Notações: 0 para matriz nula; I para matriz identidade; 1. Conhecendo-se somente os produtos AB e AC calcule A(B + C) B t A

Leia mais

ALGA I. Representação matricial das aplicações lineares

ALGA I. Representação matricial das aplicações lineares Módulo 6 ALGA I Representação matricial das aplicações lineares Contents 61 Matriz de uma aplicação linear 76 62 Cálculo do núcleo e imagem 77 63 Matriz da composta 78 64 GL(n Pontos de vista passivo e

Leia mais

ficha 1 matrizes e sistemas de equações lineares

ficha 1 matrizes e sistemas de equações lineares Exercícios de Álgebra Linear ficha matrizes e sistemas de equações lineares Exercícios coligidos por Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto Superior Técnico 2 o semestre 2/2

Leia mais

Espaços vectoriais reais

Espaços vectoriais reais ALGA - 00/0 - Espaços Vectoriais 49 Introdução Espaços vectoriais reais O que é que têm em comum o conjunto dos pares ordenados de números reais, o conjunto dos vectores livres no espaço, o conjunto das

Leia mais

Métodos Matemáticos II

Métodos Matemáticos II Sumário Métodos Matemáticos II Nuno Bastos Licenciatura em Tecnologias e Design Multimédia Escola Superior de Tecnologia de Viseu Gabinete 4 [email protected] http://www.estv.ipv.pt/paginaspessoais/nbastos.

Leia mais

Aulas práticas de Álgebra Linear

Aulas práticas de Álgebra Linear Ficha Matrizes e sistemas de equações lineares Aulas práticas de Álgebra Linear Mestrado Integrado em Engenharia Eletrotécnica e de Computadores o semestre 6/7 Jorge Almeida e Lina Oliveira Departamento

Leia mais

1 a Lista de Exercícios MAT 3211 Álgebra Linear Prof. Vyacheslav Futorny

1 a Lista de Exercícios MAT 3211 Álgebra Linear Prof. Vyacheslav Futorny 1 a Lista de Exercícios MAT 3211 Álgebra Linear - 213 - Prof. Vyacheslav Futorny 1 a parte: Resolução de sistemas de equações lineares, matrizes inversíveis 1. Para cada um dos seguintes sistemas de equações

Leia mais

5. Considere os seguintes subconjuntos do espaço vetorial F(R) das funções de R em R:

5. Considere os seguintes subconjuntos do espaço vetorial F(R) das funções de R em R: MAT3457 ÁLGEBRA LINEAR I 3 a Lista de Exercícios 1 o semestre de 2018 1. Verique se V = {(x, y) : x, y R} é um espaço vetorial sobre R com as operações de adição e de multiplicação por escalar dadas por:

Leia mais

2 Espaços Vetoriais. 2.1 Espaços Vetoriais Euclidianos

2 Espaços Vetoriais. 2.1 Espaços Vetoriais Euclidianos 2 Espaços Vetoriais 2.1 Espaços Vetoriais Euclidianos Definição: Dado n N, considere-se o conjunto de todos os n-uplos ordenados de elementos reais, isto é o conjunto de elementos da forma x = (x 1,, x

Leia mais

Lista de Exercícios 05 Álgebra Matricial

Lista de Exercícios 05 Álgebra Matricial Lista de Exercícios 05 Álgebra Matricial - 016.1 1. Determine a quantidade desconhecida em cada uma das expressões: ( ) ( ) ( ) T 0 3 x + y + 3 3 w (a) 3.X = (b) = 6 9 4 0 6 z. Uma rede de postos de combustíveis

Leia mais

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1 QUESTÕES ANPEC ÁLGEBRA LINEAR QUESTÃO 0 Assinale V (verdadeiro) ou F (falso): (0) Os vetores (,, ) (,,) e (, 0,) formam uma base de,, o espaço vetorial gerado por,, e,, passa pela origem na direção de,,

Leia mais

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B =

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B = 3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2008. (a) Ache os auto-valores e auto-vetores de A = 3 4 2 0 2 0 0 0 e B = 0 0 2 0 2 0 2 0 0 (b) Mostre que λ + λ 2 + λ 3 é igual ao

Leia mais

Parte 1 - Matrizes e Sistemas Lineares

Parte 1 - Matrizes e Sistemas Lineares Parte 1 - Matrizes e Sistemas Lineares Matrizes: Uma matriz de tipo m n é uma tabela com mn elementos, denominados entradas, e formada por m linhas e n colunas. A matriz identidade de ordem 2, por exemplo,

Leia mais

Álgebra Linear. Jorge Orestes Cerdeira Instituto Superior de Agronomia

Álgebra Linear. Jorge Orestes Cerdeira Instituto Superior de Agronomia Álgebra Linear Jorge Orestes Cerdeira Instituto Superior de Agronomia - 202 - ISA/UTL Álgebra Linear 202/3 2 Conteúdo Cálculo matricial 5. Sistemas de equações lineares......................... 5.2 Matrizes

Leia mais

exercícios de álgebra linear 2016

exercícios de álgebra linear 2016 exercícios de álgebra linear 206 maria irene falcão :: maria joana soares Conteúdo Matrizes 2 Sistemas de equações lineares 7 3 Determinantes 3 4 Espaços vetoriais 9 5 Transformações lineares 27 6 Valores

Leia mais

UFPB - CCEN - DEPARTAMENTO DE MATEMÁTICA ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 1 a LISTA DE EXERCÍCIOS PERÍODO

UFPB - CCEN - DEPARTAMENTO DE MATEMÁTICA ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 1 a LISTA DE EXERCÍCIOS PERÍODO UFPB - CCEN - DEPARTAMENTO DE MATEMÁTICA ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA a LISTA DE EXERCÍCIOS PERÍODO 0 Os exercícios 0 8 trazem um espaço vetorial V e um seu subconjunto W Sempre que W for um subespaço

Leia mais

ALGA I. Bases, coordenadas e dimensão

ALGA I. Bases, coordenadas e dimensão Módulo 5 ALGA I. Bases, coordenadas e dimensão Contents 5.1 Bases, coordenadas e dimensão............. 58 5.2 Cálculos com coordenadas. Problemas......... 65 5.3 Mudanças de base e de coordenadas..........

Leia mais

A forma canônica de Jordan

A forma canônica de Jordan A forma canônica de Jordan 1 Matrizes e espaços vetoriais Definição: Sejam A e B matrizes quadradas de orden n sobre um corpo arbitrário X. Dizemos que A é semelhante a B em X (A B) se existe uma matriz

Leia mais

Capítulo 1. Matrizes e Sistema de Equações Lineares. 1.1 Corpos

Capítulo 1. Matrizes e Sistema de Equações Lineares. 1.1 Corpos Capítulo 1 Matrizes e Sistema de Equações Lineares Neste capítulo apresentaremos as principais de nições e resultados sobre matrizes e sistemas de equações lineares que serão necessárias para o desenvolvimento

Leia mais

Universidade Federal Fluminense - GAN

Universidade Federal Fluminense - GAN Solimá Gomes Pimentel Universidade Federal Fluminense IM - GAN Solimá Gomes Pimentel, ****- Matemática para Economia III/Solimá Gomes Pimentel 2pt, ; 31cm Inclui Bibliografia. 1. Matemática para Economia

Leia mais

CM005 Algebra Linear Lista 1

CM005 Algebra Linear Lista 1 CM005 Algebra Linear Lista Alberto Ramos. Para cada um dos sistemas de equações lineares, use o método de Gauss para obter um sistema equivalente cuja matriz de coeficientes esteja na forma escada. Indique

Leia mais

Apontamentos I. Álgebra Linear aulas teóricas. Mestrado Integrado em Engenharia Eletrotécnica e de Computadores

Apontamentos I. Álgebra Linear aulas teóricas. Mestrado Integrado em Engenharia Eletrotécnica e de Computadores Apontamentos I Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Eletrotécnica e de Computadores 1 o semestre 2016/17 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice

Leia mais

Lista de exercícios 6 Espaços Vetoriais

Lista de exercícios 6 Espaços Vetoriais Universidade Federal do Paraná semestre 016. Algebra Linear, Olivier Brahic Lista de exercícios 6 Espaços Vetoriais Exercícios da Seção 3. Exercício 1: Determine se os seguintes conjuntos formam subespaços

Leia mais

Soluções dos trabalhos de 1 a 7

Soluções dos trabalhos de 1 a 7 Universidade Federal Rural do Semiárido-UFERSA Departamento de Ciências Exatas e Naturais Curso: Bacharelado em Ciência e Tecnologia e Computação Disciplina: Álgebra Linear Aluno(a): Soluções dos trabalhos

Leia mais

Notas de Aula. Gustavo Henrique Silva Sarturi. i Z (1 i m) a j1 a j2

Notas de Aula. Gustavo Henrique Silva Sarturi. i Z (1 i m) a j1 a j2 Notas de Aula Gustavo Henrique Silva Sarturi Matemática B - Em Ação [email protected] 1 Matrizes Definição 1.1. Uma matriz A m n é um arranjo retangular de m n números reais (ou complexos) organizados

Leia mais

apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13

apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13 apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice Índice 1 1 Matrizes,

Leia mais

(x 1 + iy 1 ) + (x 2 + iy 2 ) = x 1 + x 2 + i(y 1 + y 2 ) a(x + iy) = ax + i(ay)

(x 1 + iy 1 ) + (x 2 + iy 2 ) = x 1 + x 2 + i(y 1 + y 2 ) a(x + iy) = ax + i(ay) Espaços Vetoriais Definição. Um espaço vetorial sobre R é um conjunto V no qual se tem definida uma adição e uma multiplicação de seus elementos por escalares (isto é, por números reais), ou seja, dados

Leia mais

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA 1 NOTAS DE AULA Professor Doutor: Jair Silvério dos Santos (i) Matrizes Reais Uma matriz real é o seguinte arranjo de números reais : a 11 a 12 a 13 a 1m a 21

Leia mais

Elementos de Cálculo 1 - Notas de Aulas I Sistemas Lineares, Matrizes e Determinantes Prof Carlos Alberto S Soares

Elementos de Cálculo 1 - Notas de Aulas I Sistemas Lineares, Matrizes e Determinantes Prof Carlos Alberto S Soares Elementos de Cálculo 1 - Notas de Aulas I Sistemas Lineares, Matrizes e Determinantes Prof Carlos Alberto S Soares 1 Introdução Neste capitulo, estaremos interessados em estudar os sistemas de equações

Leia mais

Capítulo 5. Operadores Auto-adjuntos. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo

Capítulo 5. Operadores Auto-adjuntos. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo Capítulo 5 Operadores Auto-adjuntos Curso: Licenciatura em Matemática Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo Disciplina: Álgebra Linear II Unidade II Aula 5: Operadores Auto-adjuntos

Leia mais

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017 º Sábado - Matrizes - //7. Plano e Programa de Ensino. Matrizes. Exemplos. Ordem de Uma Matriz. Exemplos. Representação 7. Matriz Genérica m x n 8. Matriz Linha 9. Exemplos. Matriz Coluna. Exemplos. Diagonal

Leia mais

Álgebra Linear I. Notas de Aula 1. Alex Farah Pereira de Junho de 2017

Álgebra Linear I. Notas de Aula 1. Alex Farah Pereira de Junho de 2017 Álgebra Linear I Notas de Aula 1 Alex Farah Pereira 2 3 11 de Junho de 2017 1 Turma de Matemática. 2 Departamento de Análise-IME-UFF 3 http://alexfarah.weebly.com ii Conteúdo 1 Espaços Vetoriais 1 1.1

Leia mais

ÁLGEBRA LINEAR. Base e Dimensão de um Espaço Vetorial. Prof. Susie C. Keller

ÁLGEBRA LINEAR. Base e Dimensão de um Espaço Vetorial. Prof. Susie C. Keller ÁLGEBRA LINEAR Base e Dimensão de um Espaço Vetorial Prof. Susie C. Keller Base de um Espaço Vetorial Um conjunto B = {v 1,..., v n } V é uma base do espaço vetorial V se: I) B é LI II) B gera V Base de

Leia mais

Inversão de Matrizes

Inversão de Matrizes Inversão de Matrizes Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial - 2017.1 18 de

Leia mais

Álgebra Linear e Geometria Analítica

Álgebra Linear e Geometria Analítica Instituto Politécnico de Viseu Escola Superior de Tecnologia Departamento: Matemática Álgebra Linear e Geometria Analítica Curso: Engenharia Electrotécnica Ano: 1 o Semestre: 1 o Ano Lectivo: 007/008 Ficha

Leia mais

Aulas Teóricas de Álgebra Linear

Aulas Teóricas de Álgebra Linear Aulas Teóricas de Álgebra Linear Instituto Superior Técnico - o Semestre 009/00 MEAmbi - MEBiol Matrizes De nição Uma matriz A, do tipo m n (m por n), é uma tabela de mn números dispostos em m linhas e

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

Álgebra Linear - Prof. a Cecilia Chirenti. Lista 3 - Matrizes

Álgebra Linear - Prof. a Cecilia Chirenti. Lista 3 - Matrizes Álgebra Linear - Prof. a Cecilia Chirenti Lista 3 - Matrizes. Sejam A = C = 0 3 4 3 0 5 4 0 0 3 4 0 3, B = 3, D = 3,. Encontre: a A+B, A+C, 3A 4B. b AB, AC, AD, BC, BD, CD c A t, A t C, D t A t, B t A,

Leia mais

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia Álgebra Linear Determinantes, Valores e Vectores Próprios Jorge Orestes Cerdeira Instituto Superior de Agronomia - 200 - ISA/UTL Álgebra Linear 200/ 2 Conteúdo Determinantes 5 2 Valores e vectores próprios

Leia mais

Álgebra Linear e suas Aplicações Notas de Aula. Petronio Pulino = Q

Álgebra Linear e suas Aplicações Notas de Aula. Petronio Pulino = Q Álgebra Linear e suas Aplicações Notas de Aula Petronio Pulino 1 3 4 3 1 0 4 0 1 = Q 4 1 6 Qt Q t Q = 1 1 1 PULINUS Álgebra Linear e suas Aplicações Notas de Aula Petronio Pulino Departamento de Matemática

Leia mais

Fundamentos de Matemática Curso: Informática Biomédica

Fundamentos de Matemática Curso: Informática Biomédica Fundamentos de Matemática Curso: Informática Biomédica Profa. Vanessa Rolnik Artioli Assunto: sequências e matrizes 05 e 06/06/14 Sequências Def.: chama-se sequência finita ou n-upla toda aplicação f do

Leia mais

Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n

Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n 1. Descrição do método e alguns exemplos Colocamos o seguinte problema: dado um conjunto finito: A = {a 1, a 2,...,

Leia mais

MA71B - Geometria Analítica e Álgebra Linear Profa. Dra. Diane Rizzotto Rossetto. LISTA 5 - Espaços Vetoriais

MA71B - Geometria Analítica e Álgebra Linear Profa. Dra. Diane Rizzotto Rossetto. LISTA 5 - Espaços Vetoriais Ministério da Educação Universidade Tecnológica Federal do Paraná Campus Curitiba - DAMAT MA7B - Geometria Analítica e Álgebra Linear Profa. Dra. Diane Rizzotto Rossetto LISTA 5 - Espaços Vetoriais Desenvolvidas

Leia mais

Espaços Vetoriais. () Espaços Vetoriais 1 / 17

Espaços Vetoriais. () Espaços Vetoriais 1 / 17 Espaços Vetoriais () Espaços Vetoriais 1 / 17 Espaços Vetoriais Definição Seja um conjunto V, não vazio. i. Uma adição em V é uma operação que a cada par de elementos (u, v) V V associa um elemento u +

Leia mais

ficha 2 determinantes

ficha 2 determinantes Exercícios de Álgebra Linear ficha 2 determinantes Exercícios coligidos por Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto Superior Técnico 2 o semestre 2011/12 Determinantes 2 Sendo

Leia mais

Aulas práticas de Álgebra Linear

Aulas práticas de Álgebra Linear Ficha 2 Determinantes Aulas práticas de Álgebra Linear Mestrado Integrado em Engenharia Eletrotécnica e de Computadores 1 o semestre 2016/17 Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto

Leia mais

Guia-1. a 11 a a 1n a 21 a a 2n A = a m1 a m2... a mn

Guia-1. a 11 a a 1n a 21 a a 2n A = a m1 a m2... a mn Guia-1 Revisão de Matrizes, Determinantes, Vetores e Sistemas Lineares SMA00 - Complementos de Geometria e Vetores Estagiária PAE: Ingrid Sofia Meza Sarmiento 1 Introdução Este texto cobre o material sobre

Leia mais

Unicidade da Forma Escalonada Reduzida de uma Matriz

Unicidade da Forma Escalonada Reduzida de uma Matriz 1 Unicidade da Forma Escalonada Reduzida de uma Matriz Reginaldo J Santos Departamento de Matemática-ICEx Universidade Federal de Minas Gerais http://wwwmatufmgbr/~regi 1 de maio de 24 Definição 1 Uma

Leia mais

Álgebra Linear e Aplicações - Primeira Prova - Gabarito. Problema 1 (2 pontos) Calcule dim(ran(t )) para a transformação linear T : R 4 R 3

Álgebra Linear e Aplicações - Primeira Prova - Gabarito. Problema 1 (2 pontos) Calcule dim(ran(t )) para a transformação linear T : R 4 R 3 Álgebra Linear e Aplicações - Primeira Prova - Gabarito Problema (2 pontos) Calcule dim(ran(t )) para a transformação linear T : R R 3 com a seguinte representação matricial na base canônica. 2 3 A = 0

Leia mais

Aula 1 Autovetores e Autovalores de Matrizes Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17

Aula 1 Autovetores e Autovalores de Matrizes Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17 Sumário Aula 1 Autovetores e Autovalores de Matrizes.......... 8 Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17 Aula 3 Polinômio Característico................. 25 Aula 4 Cálculo de Autovalores

Leia mais

Legenda. Questões. 2ª Lista de Exercícios (ALI0001) Prof. Helder G. G. de Lima 1. Cálculos Conceitos Teoria

Legenda. Questões. 2ª Lista de Exercícios (ALI0001) Prof. Helder G. G. de Lima 1. Cálculos Conceitos Teoria 2ª Lista de Exercícios (ALI0001) Prof. Helder G. G. de Lima 1 Legenda Cálculos Conceitos Teoria Questões 1. Revise todos os axiomas da definição de espaço vetorial V sobre o corpo de escalares R, verificando

Leia mais

Equação Geral do Segundo Grau em R 2

Equação Geral do Segundo Grau em R 2 8 Equação Geral do Segundo Grau em R Sumário 8.1 Introdução....................... 8. Autovalores e autovetores de uma matriz real 8.3 Rotação dos Eixos Coordenados........... 5 8.4 Formas Quadráticas..................

Leia mais

Questão 1: Seja V o conjunto de todos os pares ordenados de números reais. Denamos a adição e a multiplicação por escalar em V por

Questão 1: Seja V o conjunto de todos os pares ordenados de números reais. Denamos a adição e a multiplicação por escalar em V por Ministério da Educação Universidade Tecnológica Federal do Paraná Campus Curitiba - DAMAT MA7B - Geometria Analítica e Álgebra Linear Profa. Dra. Diane Rizzotto Rossetto LISTA 4 - Espaços Vetoriais Desenvolvidas

Leia mais

Tópicos de Álgebra Linear Verão 2019 Lista 1: Espaços Vetoriais

Tópicos de Álgebra Linear Verão 2019 Lista 1: Espaços Vetoriais Universidade Federal do Paraná Centro Politécnico ET-DMAT Prof. Maria Eugênia Martin Tópicos de Álgebra Linear Verão 2019 Lista 1: Espaços Vetoriais Exercício 1. Determine se os seguintes conjuntos são

Leia mais

1 Subespaços Associados a uma Matriz

1 Subespaços Associados a uma Matriz 1 Subespaços Associados a uma Matriz Seja V = R n e para quaisquer u, v, e w em V e quaisquer escalares r,s em R 1, 1. u + v é um elemento de V sempre que u e v são elementos de V a adição é fechada, 2.

Leia mais

MINISTÉRIO DA EDUCAÇÃO E DO DESPORTO UNIVERSIDADE FEDERAL DE VIÇOSA DEPARTAMENTO DE MATEMÁTICA

MINISTÉRIO DA EDUCAÇÃO E DO DESPORTO UNIVERSIDADE FEDERAL DE VIÇOSA DEPARTAMENTO DE MATEMÁTICA MINISTÉRIO DA EDUCAÇÃO E DO DESPORTO UNIVERSIDADE FEDERAL DE VIÇOSA DEPARTAMENTO DE MATEMÁTICA a LISTA DE EXERCÍCIOS DE MAT 7 II SEMESTRE DE 00 Professores: Flávia, Gustavo e Lana. Suponha que uma força

Leia mais

Unidade 7 - Bases e dimensão. A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa. 10 de agosto de 2013

Unidade 7 - Bases e dimensão. A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa. 10 de agosto de 2013 MA33 - Introdução à Álgebra Linear Unidade 7 - Bases e dimensão A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa PROFMAT - SBM 10 de agosto de 2013 Nesta unidade introduziremos dois conceitos

Leia mais

Sistemas de equações lineares com três variáveis

Sistemas de equações lineares com três variáveis 18 Sistemas de equações lineares com três variáveis Sumário 18.1 Introdução....................... 18. Sistemas de duas equações lineares........... 18. Sistemas de três equações lineares........... 8

Leia mais