1 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 1: Sistemas Lineares e Matrizes Sumário 1 O que é Álgebra Linear?............... 2 1.1 Corpos......................... 3 1.2 Espaços Vetoriais................... 4 1.3 Sistemas de Equações Lineares........... 9 2 Matrizes......................... 14 2.1 A Denição de Matriz................ 14 2.2 Operações com Matrizes............... 16 2.3 Matriz Inversa.................... 23 1
2 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES 1 O que é Álgebra Linear? Os espaços em que trabalharemos são os R n, com n 2, isto é, o produto cartesiano de n cópias da reta real R. Para n 4, este espaço generaliza o espaço R 2 dos vetores do plano e o espaço R 3 dos vetores no espaço. A diferença crucial entre os casos n = 2 e n = 3 e os casos em que n 4 é que, para estes últimos, não se dispõe de uma representação geométrica. O fato não diminui a importância desses espaços, pois basta pensar que o R 4 é o espaço-tempo da Física, em que os pontos são quaternos (x, y, z, t), com as três primeiras coordenadas representando a posição no espaço de uma partícula ideal e a última representando o instante t em que esta partícula ocupa tal posição. Por não existir uma representação geométrica para os pontos de R n com n 4, seremos obrigados a tratá-los algebricamente, sem o recurso da visualização geométrica, tão fundamental em R 2 e R 3. Portanto, trataremos os elementos de R n como vetores, onde a soma de dois vetores (x 1, x 2,..., x n ) e (y 1, y 2,..., y n ) é dada por (x 1, x 2,..., x n ) + (y 1, y 2,..., y n ) = (x 1 + y 1, x 2 + y 2,..., x n + y n ), e a multiplicação do vetor (x 1, x 2,..., x n ) pelo número real a, chamado de escalar, é denida por a(x 1, x 2,..., x n ) = (ax 1, ax 2,..., ax n ). Os espaços R n são utilizados de modo essencial em quase todos os ramos do conhecimento e, por este motivo, são estudados em Matemática sob os mais variados pontos de vista e com as mais diversas estruturas. Por exemplo, no Cálculo Diferencial, são considerados como espaços normados; em Geometria, como espaços com produto interno. A estrutura de R n estudada em Álgebra Linear é a induzida pela estrutura de corpo da reta real R. Essa é a estrutura mínima apropriada para se estudar sistemas de equações lineares com várias incógnitas. Além disso, é aquela sobre a qual se constroem o Cálculo Diferencial e a Geometria Diferencial, entre outros.
1. O QUE É ÁLGEBRA LINEAR? 3 Como a estrutura de corpo de R desempenhará papel fundamental, vamos denir formalmente este conceito. 1.1 Corpos Um conjunto K será chamado de corpo se for munido de uma operação de adição (+) e uma operação de multiplicação ( ), vericando as condições a seguir. A1 A adição é associativa: (a + b) + c = a + (b + c), para todos a, b, c K. A2 A adição é comutativa: a + b = b + a, para todos a, b K. A3 A adição possui elemento neutro: existe 0 K, tal que a + 0 = a, para todo a K. A4 A adição possui simétricos: para todo a K, existe a K tal que a + ( a) = 0. M1 A multiplicação é associativa: (a b) c = a (b c), para todos a, b, c K. M2 A multiplicação é comutativa: a b = b a, para todos a, b K. M3 A multiplicação possui elemento neutro: existe 1 K \ {0}, tal que a 1 = a, para todo a K. M4 A multiplicação possui inversos: para todo a K \ {0}, existe a 1 K tal que a a 1 = 1. AM A multiplicação é distributiva com relação à adição: a (b + c) = a b + a c, para todos a, b, c K. Portanto, são corpos os conjuntos Q, R e C, com as suas respectivas adições e multiplicações. A operação de multiplicação em um corpo muitas vezes é denotada por ( ), escrevendo a b, ou mesmo ab, no lugar de a b, notação que adotaremos ao longo deste livro.
4 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Existem exemplos de corpos que à primeira vista parecem exóticos, como o corpo de Galois 1 F 2, que consiste dos dois elementos 0 e 1 com as seguintes operações: + 0 1 0 0 1 1 1 0 0 1 0 0 0 1 0 1 Note que este é o corpo com o menor número possível de elementos, pois todo corpo deve possuir os dois elementos distintos 0 e 1. Apesar de parecerem apenas curiosidades, os corpos com um número nito de elementos têm as mais variadas aplicações em quase toda a Matemática e são essenciais na tecnologia e na computação. 1.2 Espaços Vetoriais Os espaços R n, por serem constituídos por vetores que podem ser somados e multiplicados por escalares, como vimos antes, são chamados espaços vetoriais. Como os espaços vetoriais são os objetos principais de estudo da Álgebra Linear, vamos deni-los formalmente a seguir. Um conjunto V será dito um espaço vetorial sobre um corpo K, se possui uma adição (+) com as mesmas propriedades da adição em um corpo; ou seja, A1 A adição é associativa: (u + v) + w = u + (v + w), para todos u, v, w V. A2 A adição é comutativa: u + v = v + u, para todos u, v V. A3 A adição possui elemento neutro (elemento zero): existe 0 V, tal que v + 0 = v, para todo v V. 1 Em homenagem a Évariste Galois (França, 1811-1832), considerado um dos grandes gênios da Matemática.
1. O QUE É ÁLGEBRA LINEAR? 5 A4 A adição possui simétricos: para todo v V, existe v V tal que v + ( v) = 0. E além disso, existe uma operação chamada de multiplicação por escalar, que associa a um elemento a K e a um elemento v V, um elemento av V, tal que ME1 a(u + v) = au + av, para todos a K e u, v V. ME2 (a 1 + a 2 )v = a 1 v + a 2 v, para todos a 1, a 2 K e v V. ME3 (a 1 a 2 )v = a 1 (a 2 v), para todos a 1, a 2 K e v V. ME4 1v = v, para todo v V. Os elementos de V serão chamados de vetores e os elementos de K de escalares. Assim, o elemento 0 de V será chamado de vetor nulo e o elemento v de vetor oposto de v. O primeiro matemático a dar uma denição abstrata para um espaço vetorial foi Giuseppe Peano (Itália, 1858-1932) em seu livro Calcolo Geometrico, de 1888. No Capítulo IX, Peano dá uma denição do que ele chama de um sistema linear. Para Peano, um sistema linear consistia de quantidades com operações de adição e multiplicação por escalar. A adição deveria satisfazer as leis comutativa e associativa, enquanto a multiplicação por escalar deveria satisfazer duas leis distributivas, uma lei associativa e a lei de que 1 v = v para toda quantidade v. Além disso, Peano incluiu como parte de seu sistema de axiomas a existência de uma quantidade 0 (zero) satisfazendo v + 0 = v, para todo v, assim como v + ( 1)v = 0 para todo v. Peano também deniu a dimensão de um sistema linear como o máximo número de quantidades linearmente independentes do sistema (veja esta noção na Seção 2 do Capítulo 3). Peano vericou que o conjunto das funções polinomiais em uma variável forma um sistema linear, mas não existia um tal número máximo de quantidades linearmente independentes, portanto, a dimensão deste sistema deveria ser innito. O fato a seguir decorre da denição de espaço vetorial. Para a K e
6 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES v V, tem-se que a = 0 ou v = 0 av = 0. De fato, sejam a K e 0 V. Como 0 + 0 = 0, pela propriedade ME1, segue-se que a 0 = a(0 + 0) = a 0 + a 0. Somando o simétrico a 0 de a 0 a ambos os lados da igualdade acima e utilizando as propriedades A4, A1 e A3, temos que 0 = a 0 + ( a 0) = (a 0 + a 0) + ( a 0) = a 0 + [a 0 + ( a 0)] = a 0 + 0 = a 0. De modo semelhante, mostra-se (faça-o) que para 0 K e v V tem-se 0 v = 0, onde o elemento 0 da direita é o elemento zero de V. Reciprocamente, suponhamos que av = 0 e a 0, então, multiplicando ambos os lados da igualdade acima pelo escalar a 1, temos que 0 = a 1 0 = a 1 (av) = (a 1 a)v = 1v = v. Dois vetores u e v em um espaço vetorial V serão ditos colineares, se existir um elemento a em K tal que v = au. Portanto, são colineares os vetores u e au, para todo a K. Note que o vetor 0 é colinear com qualquer vetor v, pois 0 = 0v. É um exercício fácil mostrar que R n é um espaço vetorial sobre o corpo R, com as operações de adição de vetores e a multiplicação por escalares que denimos anteriormente, onde o elemento zero é o vetor (0, 0,..., 0) e o simétrico de (x 1, x 2,..., x n ) é o vetor (x 1, x 2,..., x n ) = ( x 1, x 2,..., x n ). Observe que não há nada de especial sobre os reais, além de sua estrutura de corpo para que R n seja um espaço vetorial sobre R. Mais geralmente, dado um corpo qualquer K, o espaço K n é um espaço vetorial sobre K, com
1. O QUE É ÁLGEBRA LINEAR? 7 operações semelhantes às de adição de vetores e de multiplicação de vetores por escalares que denimos no caso em que K = R. Por exemplo, os espaços vetoriais F n 2 sobre F 2, por mais inócuos que possam parecer, são de extrema utilidade em várias aplicações, dentre elas na construção de códigos corretores de erros (veja a referência [3] para maiores detalhes sobre esta teoria). Outros exemplos importantes de espaços vetoriais são os espaços R e C sobre o corpo Q e o espaço C sobre o corpo R. Como sucede com frequência em Matemática, ao introduzir um conceito para lidar com determinado problema, cria-se um instrumento que muitas vezes transcende o problema inicial e se constitui em um conceito central em vários outros contextos. Isto ocorreu com a noção de espaço vetorial, que inicialmente foi introduzida para tratar de alguns tipos de problemas em R n, como a resolução de sistemas de equações lineares cuja discussão iniciaremos na próxima subseção, e se desenvolveu em uma teoria com vida própria. Pode-se sinteticamente dizer que a Álgebra Linear é a parte da Matemática que se dedica ao estudo dos espaços vetoriais e de certas funções entre esses espaços, chamadas de transformações lineares. Embora muitas das ferramentas básicas da Álgebra Linear, particularmente as que estão relacionadas com sistemas lineares, datem da antiguidade, o assunto começou a tomar sua forma atual em meados dos século XIX. A partir desta época, muitas noções estudadas em séculos anteriores foram abstraídas e muitos métodos generalizados. A Álgebra Linear tem várias aplicações fora da Matemática. Por exemplo, citamos a teoria da relatividade e a mecânica quântica na Física e a teoria de análise de regressão na Estatística. A seguir, daremos alguns exemplos diferentes de R n para ilustrar situações onde aparecem os espaços vetoriais e que, muitas vezes, quando tratadas dessa forma ganham clareza. Exemplo 1 O conjunto das funções de um conjunto não vazio A em R forma um espaço vetorial sobre R, onde a soma é a soma usual de funções
8 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES com valores reais (f + g)(x) = f(x) + g(x), para todo x A, e a multiplicação de uma função f por um escalar a R é denida como sendo (a f)(x) = a f(x), para todo x A. Em particular, se I = [a, b] é um intervalo em R, sabe-se do Cálculo Diferencial e Integral que o conjunto das funções contínuas, bem como o conjunto das funções integráveis, de I em R, são espaços vetoriais sobre R. Exemplo 2 De acordo com o Exemplo 1, o conjunto S das sequências de números reais, isto é, o conjunto das funções de N \ {0} em R é um espaço vetorial sobre R. É fácil vericar (leitor, faça-o) que o conjunto R(a, b) das sequências (u n ) em S que satisfazem a recorrência u n+1 = au n + bu n 1, n 2, onde a e b são dois números reais xados, é um espaço vetorial sobre R. Em particular, o conjunto R(1, 1), que contém a sequência de Fibonacci 2 (aquela para a qual u 1 = u 2 = 1), é um espaço vetorial. Veremos no Capítulo 5 como esta informação nos ajudará a achar todas as sequências em R(1, 1), determinando suas fórmulas fechadas. Exemplo 3 (Peano) O conjunto K[x] dos polinômios com coecientes em um corpo K forma um espaço vetorial sobre K. Para n N, os conjuntos K[x] n = {p(x) K[x] ; grau(p(x)) n} {0} também são espaços vetoriais sobre K. Em particular, o conjunto R[x] 2 = {a 0 + a 1 x + a 2 x 2 ; a 0, a 1, a 2 R} é um espaço vetorial sobre R. 2 Apelido de Leonardo de Pisa (Itália, 1170-1250). Foi o primeiro grande matemático europeu da Idade Média.
1. O QUE É ÁLGEBRA LINEAR? 9 1.3 Sistemas de Equações Lineares Desde a antiguidade, em diversas áreas do conhecimento, muitos problemas são modelados matematicamente por sistemas de equações lineares. Damos a seguir um exemplo de sistema de equações lineares: { x + y = 36 x y = 2, (1) onde se subentende que estamos buscando dois números reais cuja soma vale 36 e cuja diferença vale 2. Portanto, as soluções procuradas podem ser representadas por pares de números reais (a, b) tais que, se substituírmos x por a e y por b, nas equações, elas se tornam igualdades de fato. Por exemplo, o par (x, y) = (19, 17) é uma solução, pois obtemos as igualdades: { 19 + 17 = 36 19 17 = 2. Os sistemas com duas equações lineares, como o acima, já eram considerados pelos babilônios por volta de 1800 a.c. e resolvidos por um método que chamamos hoje de método de eliminação gaussiana 3. Por exemplo, para resolver o sistema de equações (1), ao somarmos a segunda equação à primeira, o transformamos no sistema equivalente, { 2x = 38 x y = 2, que seguimos transformando até obtermos um sistema onde as soluções são trivialmente encontradas: { 2x = 38 x y = 2 { x = 19 x y = 2 { x = 19 x y x = 2 19 { x = 19 y = 17. 3 Em homenagem a Carl Friedrich Gauss (Alemanha, 1777-1855), considerado um dos maiores matemáticos de todos os tempos.
10 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Esse método será generalizado e sistematizado para sistemas de equações lineares com m equações e n incógnitas do tipo a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a 2n x n = b 2 (2). a m1 x 1 + a m2 x 2 + + a mn x n = b m, onde os a ij 's e os b i 's, para 1 i m e 1 j n, são números reais dados, ou, mais geralmente, elementos de um corpo K dado. Seja S = {(c 1, c 2,..., c n ) R n ; a i1 c 1 + a i2 c 2 + + a in c n = b i, 1 i m}. Esse subconjunto de R n é chamado de conjunto solução do sistema (2). É precisamente este conjunto que queremos determinar ou descrever o mais explicitamente possível. Note que para resolver o sistema (1), do exemplo acima, o modicamos gradativamente, por meio de uma sequência de transformações elementares, em um sistema mais simples de resolver, onde por transformação elementar de um sistema entendemos uma das seguintes transformações: 1) Trocar a posição relativa de duas equações do sistema; 2) Trocar uma equação pela soma membro a membro da própria equação com um múltiplo de outra; 3) Trocar uma equação dada por um de seus múltiplos (i.e., a equação obtida multiplicando ambos os membros da equação dada por um número real não nulo). Diremos que dois sistemas de equações lineares são sistemas equivalentes, se pudermos obter um sistema do outro a partir de uma sequência nita de transformações elementares. Esta relação entre sistemas é efetivamente uma relação de equivalência. De fato, ela é claramente reexiva, pois basta multiplicar uma das equações
1. O QUE É ÁLGEBRA LINEAR? 11 do sistema por 1; é transitiva, pois basta concatenar uma sequência de transformações elementares com uma outra; e é simétrica, pois podemos desfazer uma transformação elementar com outra. Assim, é imediato vericar que: Sistemas de equações lineares equivalentes possuem mesmo conjunto solução. Dentre os sistemas de equações lineares, ocupam lugar de destaque os sistemas homogêneos, ou seja, aqueles sistemas como em (2), porém com os b i 's todos nulos: a 11 x 1 + a 12 x 2 + + a 1n x n = 0 a 21 x 1 + a 22 x 2 + + a 2n x n = 0. a m1 x 1 + a m2 x 2 + + a mn x n = 0. Esses sistemas possuem peculiaridades não compartilhadas pelos sistemas mais gerais. Por exemplo, o vetor (0, 0,..., 0) pertence ao conjunto S h de soluções do sistema. Além disso, se os vetores u = (c 1, c 2,..., c n ) e u = (c 1, c 2,..., c n) são soluções do sistema, e se a R, então os vetores u + u = (c 1 + c 1, c 2 + c 2,..., c n + c n) e au = (ac 1, ac 2,..., ac n ) também são soluções do sistema (3) (leitor, verique). Assim, resulta que o espaço S h das soluções do sistema (3) é um espaço vetorial sobre R De fato, as propriedades A1 e A2 da denição são satisfeitas para todos os vetores de R n e em particular para os de S h. Por outro lado, (0, 0,..., 0) S h e se (c 1, c 2,..., c n ) S h, então 1(c 1, c 2,..., c n ) = ( c 1, c 2,..., c n ) S h, o que mostra que a adição em S h possui também as propriedades A3 e A4. Além disso, as propriedades ME1ME4 da multiplicação por escalar são facilmente vericadas para S h. Note que o que há de essencial em um sistema de equações lineares (2) são os coecientes das equações que o formam além dos números que (3)
12 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES compõem os segundos membros das equações. Consideremos os vetores (a i1, a i2,..., a in, b i ) de R n+1 que representam os coecientes das equações do sistema (2) acrescidos dos segundos membros e os organizemos como linhas de uma tabela, chamada de matriz ampliada do sistema (2), como segue: a 11 a 12 a 1n b 1 a 21 a 22... a 2n b 2..... (4) a m1 a m2 a mn b m Quando o sistema de equações é homogêneo, a ele associamos a matriz a 11 a 12 a 1n a 21 a 22... a 2n..., a m1 a m2 a mn eliminando a coluna de zeros da direita na matriz (4). As matrizes surgiram por volta do ano 200 a.c. com os chineses, motivados pelo interesse em calcular soluções de sistemas com mais de quatro equações lineares. De fato, no Capítulo 8 do texto intitulado Jiuzhang suanshu, de autor desconhecido, que signica Nove capítulos sobre a Arte Matemática", ca claro que o procedimento de resolução de sistemas lineares usado pelos chineses é semelhante ao método de escalonamento, que discutiremos ainda neste capítulo, e é apresentado na forma de matrizes. Cabe observar que os chineses só consideravam sistemas lineares com o mesmo número de equações e incógnitas, não constando em seus escritos o motivo desses sistemas produzirem sempre uma única solução e como o algoritmo chinês funcionava. Problemas 1.1 Verique que o conjunto das funções de um conjunto não vazio A nos reais é um espaço vetorial sobre R, com as operações denidas no Exemplo
1. O QUE É ÁLGEBRA LINEAR? 13 1. Verique também que, para cada par de números reais (a, b), o conjunto das recorrências R(a, b), denido no Exemplo 2, é um espaço vetorial sobre R. 1.2 Seja v um elemento não nulo de um espaço vetorial V sobre R. Mostre que é injetora a função R V t tv. 1.3 Sejam v 1 e v 2 elementos de um espaço vetorial V sobre R. Mostre que a função R 2 V (a 1, a 2 ) a 1 v 1 + a 2 v 2 é injetora se, e somente se, v 1 e v 2 não são colineares. 1.4 Diga, em cada caso, por que o conjunto com as operações indicadas não satisfaz à denição de espaço vetorial, onde a R. a) R 2, com as operações: (x, y) + (x, y ) = (x + x, y + y ) e a(x, y) = (3ax, 3ay). b) R 2, com as operações: (x, y) + (x, y ) = (xx, yy ) e a(x, y) = (ax, 0). c) R 3, com as operações: (x, y, z) + (x, y, z ) = (0, 0, 0) e a(x, y, z) = (ax, ay, az). 1.5 Sejam U e W dois espaços vetoriais sobre um corpo K. Considere o produto cartesiano V = U W desses dois conjuntos. Dena as seguintes operações em V : (u 1, w 1 ) + (u 2, w 2 ) = (u 1 + u 2, w 1 + w 2 ) e a(u 1, w 1 ) = (au 1, aw 1 ), onde u 1, u 2 U, w 1, w 2 W e a K. Mostre que V com as operações de adição e de mutiplicação por escalar, acima denidas, é um espaço vetorial sobre K. Este espaço vetorial é chamado de espaço produto de U por W.
14 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES 2 Matrizes As matrizes são ferramentas básicas da Álgebra Linear, pois além de fornecerem meios para a resolução dos sistemas de equações lineares, elas também representarão as transformações lineares entre espaços vetoriais, como veremos no Capítulo 6. 2.1 A Denição de Matriz Dados m e n em N \ {0}, denimos uma matriz real de ordem m por n, ou simplesmente uma matriz m por n (escreve-se m n), como uma tabela formada por elementos de R distribuídos em m linhas e n colunas. Estes elementos de R são chamados entradas da matriz 4. Por exemplo, a matriz [3] é uma matriz 1 1, ao passo que [ ] 2 1 0 1 2 4 é uma matriz 2 3. As entradas da primeira linha da matriz são dadas pelos números reais 2, 1 e 0 e as entradas da segunda linha da matriz são dadas pelos números reais 1, 2 e 4. É usual indicarmos as entradas de uma matriz arbitrária A pelos símbolos A ij, ou ainda a ij, onde os índices indicam, nessa ordem, a linha e a coluna onde o elemento se encontra. Assim, uma matriz m n é usualmente representada por a 11 a 12... a 1n a A = 21 a 22... a 2n..., a m1 a m2... a mn 4 As entradas de uma matriz não precisam ser necessariamente números reais, podem ser números complexos ou, mais geralmente, elementos de um corpo K.
2. MATRIZES 15 ou por A = [a ij ] m n, ou simplesmente por A = [a ij ], quando a ordem da matriz estiver subentendida. matrizes m n. O símbolo M(m, n) denota o conjunto das Dependendo dos valores de m e n, uma matriz m n recebe um nome especial. De fato, toda matriz 1 n é chamada de uma matriz linha e toda matriz m 1 é chamada de uma matriz coluna. Uma matriz n n é chamada de matriz quadrada de ordem n. Por exemplo, a matriz [ ] 1 3 1 0 4 é uma matriz linha de ordem 1 5 e a matriz 2 1 0 0 1 2 3 1 4 é uma matriz quadrada de ordem 3. Se A = [a ij ] é uma matriz quadrada de ordem n, as entradas a ii, com 1 i n, formam a diagonal principal de A. Uma matriz diagonal de ordem n é uma matriz quadrada de ordem n em que os elementos que não pertencem à diagonal principal são iguais a zero: a 11 0... 0 0 a 22... 0.... 0 0... a nn A matriz diagonal de ordem n cujas entradas da diagonal principal são iguais ao número real 1, 1 0... 0 0 1... 0..., 0 0... 1 é chamada matriz identidade de ordem n e denotada usualmente por I n. Em alguns casos, representaremos por simplicidade I n apenas por I.
16 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Uma matriz triangular superior de ordem n é uma matriz quadrada de ordem n em que todos os elementos abaixo da diagonal principal são iguais a zero: a 11 a 12... a 1n 0 a 22... a 2n.... 0 0... a nn Portanto, uma matriz quadrada A = [a ij ] de ordem n é triangular superior se a ij = 0 sempre que i > j. Analogamente, uma matriz triangular inferior de ordem n é uma matriz quadrada de ordem n em que todos os elementos acima da diagonal principal são iguais a zero: a 11 0... 0 a 21 a 22... 0.... a n1 a n2... a nn Portanto, uma matriz quadrada A = [a ij ] de ordem n é triangular inferior se a ij = 0 sempre que i < j. Uma matriz m n cujas entradas são todas iguais a zero é chamada de uma matriz nula. Por exemplo, a matriz [ ] 0 0 0 0 0 0 é uma matriz nula de ordem 2 3. 2.2 Operações com Matrizes Dizemos que duas matrizes A = [a ij ] m n e B = [b ij ] m n, de mesma ordem, são iguais, escrevendo A = B, quando a ij = b ij para todo 1 i m e para todo 1 j n.
2. MATRIZES 17 Por exemplo, se x e y denotam números reais, temos que as matrizes [ ] [ ] x 0 1 0 e 1 y 1 2 são iguais quando x = 1 e y = 2. Denimos a seguir uma operação de adição no conjunto M(m, n) das matrizes m n. Se A = [a ij ] e B = [b ij ] são duas matrizes de mesma ordem m n, a soma de A e B, denotada A + B, é a matriz C = [c ij ] de ordem m n tal que c ij = a ij + b ij para todo 1 i m e para todo 1 j n. Por exemplo, [ ] 2 3 1 0 2 1 [ ] [ ] 2 3 1 0 0 0 + =. 0 2 1 0 0 0 Dada uma matriz A = [a ij ], dene-se a matriz oposta de A, como a matriz A = [ a ij ]. A adição de matrizes tem propriedades semelhantes à adição nos números reais, ou à adição de elementos em espaços vetoriais, como mostra o resultado a seguir. Proposição 1.2.1. Se A, B e C são matrizes de mesma ordem, então : (i) (ii) (iii) A + (B + C) = (A + B) + C (associatividade da adição); A + B = B + A (comutatividade da adição); A + 0 = A, onde 0 denota a matriz nula m n (elemento neutro); (iv) A + ( A) = 0. Demonstração As propriedades acima decorrem diretamente das denições de igualdade e adição de matrizes. Por esta razão, provaremos apenas o item (i) e deixaremos (ii), (iii) e (iv) como exercício (veja Problema 2.5). (i): Se A = [a ij ], B = [b ij ] e C = [c ij ], então A + (B + C) = [a ij ] + [b ij + c ij ] = [a ij + (b ij + c ij )] = [(a ij + b ij ) + c ij ] = [a ij + b ij ] + [c ij ] = (A + B) + C,
18 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES onde usamos a associatividade da adição de números reais. Uma outra operação importante com matrizes é a multiplicação por escalar. Dada a matriz A = [a ij ] m n, denimos o produto de A pelo número real a, como aa = [aa ij ] m n. Por exemplo, 2 0 6 0 3 1 1 = 3 3. 0 1 0 3 Tendo denido as operações de adição e multiplicação por escalar em M(m, n), denimos a operação de subtração da maneira usual: matrizes A e B em M(m, n), A B = A + ( B). dada as Proposição 1.2.2. As seguintes propriedades se vericam para quaisquer A e B M(m, n), e a, a R: (i) a(a + B) = aa + ab; (ii) (a + a )A = aa + a A; (iii) a(a A) = (aa )A; (iv) 1A = A. Demonstração Provaremos apenas (i) e deixaremos a demonstração das demais propriedades ao leitor (veja Problema 2.5). (i): De fato, sejam A = [a ij ], B = [b ij ] elementos de M(m, n) e a um elemento de R, então a(a + B) = a[a ij + b ij ] = [a(a ij + b ij )] = [aa ij + ab ij ] = [aa ij ] + [ab ij ] = a[a ij ] + a[b ij ] = aa + ab, onde usamos a distributividade da multiplicação em relação à adição de números reais.
2. MATRIZES 19 Assim, com as Proposições 1.2.1 e 1.2.2, provamos que o conjunto M(m, n) é um espaço vetorial sobre R. O conjunto das matrizes tem uma estrutura muito mais rica do que a de simples espaço vetorial, obtida com a noção de produto de matrizes, noção esta, fundamental para a resolução de sistemas de equações lineares com o uso de matrizes. Nosso próximo objetivo é, portanto, denir a multiplicação de matrizes e mostrar algumas de suas propriedades. A denição de produto de matrizes foi apresentada por Arthur Cayley (Inglaterra, 1821-1895), no trabalho intitulado A Memoir on the Theory of Matrices, publicado em 1858 na revista Philosophical Transactions of the Royal Society of London. Neste trabalho, Cayley notou que a multiplicação de matrizes, como foi denida, simplica em muito o estudo de sistemas de equações lineares. Também observou que esta multiplicação deixava de apresentar propriedades importantes, como a comutatividade e a lei do corte, e que uma matriz não nula não é necessariamente invertível. Sejam A = [a ij ] m n e B = [b ij ] n p duas matrizes. Denimos o produto AB de A por B, denotado por AB, como a matriz C = [c ij ] m p tal que c ij = n a ik b kj = a i1 b 1j + + a in b nj k=1 para todo 1 i m e para todo 1 j p. Vamos explicar esta fórmula para obter o elemento da matriz AB que se encontra na i-ésima linha e j-ésima coluna: Na matriz A, destaque a i-ésima linha, e na matriz B, a j-ésima coluna. Feito isto, multiplique ordenadamente o primeiro elemento da linha com o primeiro elemento da coluna, o segundo elemento da linha com o segundo elemento da coluna, etc., o último elemento da linha com o último elemento da coluna e nalmente some esses números todos.
20 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Por exemplo, 2 4 [ ] 2( 1) + 4(1) 1 1 0 0 = 0( 1) + 0(1) 1 1 1 3 1( 1) + 3(1) 2(1) + 4( 1) 2 2 0(1) + 0( 1) = 0 0. 1(1) + 3( 1) 4 4 Note que para o produto de A por B estar denido, o número de colunas de A deve ser igual ao número de linhas de B. Assim, se A e B são matrizes 2 3 e 3 1, respectivamente, o produto AB está denido e é uma matriz 2 1. Porém, o produto BA não está denido. Uma condição necessária para que AB = BA é que A e B sejam matrizes quadradas de mesma ordem. Contudo, esta condição não é suciente. Por exemplo, as matrizes [ ] [ ] 0 1 0 1 A = e B = 2 0 1 0 são matrizes quadradas de ordem 2, mas AB BA. Assim, vemos que a multiplicação de matrizes não possui a propriedade comutativa. Observe que [ ] [ ] 1 1 1 1 = 0, 1 1 1 1 sem que nenhuma das duas matrizes seja nula. Portanto, na multiplicação de matrizes, podemos ter AB = 0 sem que necessariamente A ou B seja nula. Lembremos que isto não ocorre com a multiplicação de números reais, pois dados dois números reais x e y tais que xy = 0, tem-se obrigatoriamente que x = 0 ou y = 0. Os sistemas lineares como em (2) da Seção 1 se expressam de modo perfeito pela equação matricial AX = B, onde a 11 a 12... a 1n x 1 b 1 a A = 21 a 22... a 2n..., X = x 2. e B = b 2.. a m1 a m2... a mn x n b m
2. MATRIZES 21 As matrizes A, X e B são chamadas, respectivamente, de matriz dos coecientes do sistema, matriz das incógnitas e matriz dos termos independentes. Na seguinte proposição apresentamos algumas propriedades da multiplicação de matrizes. Proposição 1.2.3. Desde que as operações sejam possíveis, temos: (i) A(B + C) = AB + AC (distributividade à esquerda da multiplicação em relação à adição); (ii) (iii) (iv) (A + B)C = AC + BC (distributividade à direita da multiplicação em relação à adição); (AB)C = A(BC) (associatividade); A I = I A = A (existência de elemento identidade). Demonstração Provaremos a propriedade (iii) e deixaremos a demonstração das demais propriedades ao leitor (veja Problema 2.5). (iii): Suponhamos que as matrizes A, B e C sejam de ordens n r, r s e s m, respectivamente. Temos que ( (AB)C )ij = s k=1 (AB) ikc kj = s k=1 ( r l=1 a ilb lk ) ckj = r l=1 a ( s il k=1 b ) lkc kj = r l=1 a il(bc) lj = ( A(BC)) ij. Isto mostra que a propriedade (iii) é válida. Tendo denido a multiplicação de matrizes, denimos a potenciação da maneira usual: dados A em M(n, n) e k N \ {0}, A 0 = I n e A k = A} A {{ A}. k fatores Dada uma matriz A = [a ij ] m n, chamamos de transposta de A, e denotamos por A t, a matriz [b ij ] n m, onde b ij = a ji,
22 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES para todo 1 i n e para todo 1 j m. Por exemplo, 4 0 1 2 0 3 t [ ] 4 1 0 =. 0 2 3 Uma matriz quadrada A é chamada simétrica se A t = A e antissimétrica se A t = A. Por exemplo, dadas as matrizes 2 1 3 0 1 3 A = 1 1 0 e B = 1 0 2, 3 0 5 3 2 0 a matriz A é simétrica e B é antissimétrica. Terminamos esta seção apresentando o conceito de matriz em blocos. Uma matriz A é dita ser uma matriz em blocos se A está subdividida em matrizes menores, chamadas blocos. Esta subdivisão é, geralmente, apresentada por linhas horizontais e/ou linhas verticais, como mostra o seguinte exemplo: [ ] [ ] 2 1 1 0 2 1 1 0 =. 6 4 0 1 6 4 0 1 Uma matriz pode ser subdividida em blocos de várias maneiras. exemplo, 0 1 0 2 0 1 0 2 0 1 0 2 1 4 2 1 = 1 4 2 1 = 1 4 2 1. 0 0 5 3 0 0 5 3 0 0 5 3 Uma propriedade interessante da partição em blocos é que os resultados das operações de adição e multiplicação com matrizes em blocos podem ser obtidos efetuando o cálculo com os blocos, como se eles fossem simplesmente elementos das matrizes. Por
2. MATRIZES 23 2.3 Matriz Inversa Dada uma matriz quadrada A de ordem n, chamamos de inversa de A a uma matriz quadrada B de ordem n tal que AB = BA = I n. Por exemplo, dada a matriz temos que a matriz [ ] 2 5 A =, 1 3 [ ] 3 5 B = 1 2 é uma inversa de A, já que AB = BA = I 2. Note que uma matriz[ quadrada ] não possui necessariamente [ uma] inversa. 0 0 a b Por exemplo, seja A =. Dada qualquer matriz B =, temos 0 0 c d que [ ] [ ] [ ] 0 0 a b 0 0 AB = = I 2. 0 0 c d 0 0 Logo, A não tem inversa. Mesmo que uma matriz [ não ] seja nula, ela pode não ter inversa. Por 1 1 exemplo, a matriz A = não possui inversa, já que não existe uma 1 1 matriz quadrada B de ordem 2 tal que AB = I 2 (verique). Uma matriz quadrada A é dita invertível se A admite uma matriz inversa. Se uma matriz A possui uma inversa, então essa inversa é única. De fato, suponhamos que B e C são duas inversas de uma matriz A de ordem n n. Então AB = I n e CA = I n. Assim, por (iii) e (iv) da Proposição 1.2.3, C = C I n = C(AB) = (CA)B = I n B = B.
24 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Já que a inversa, no caso de existir, é única, escrevemos A 1 para denotar a inversa de A. Se k N \ {0} e A é uma matriz invertível, denimos A k por: A k = A} 1 A 1 {{ A 1 }. k fatores Vejamos algumas propriedades das matrizes inversas. Proposição 1.2.4. Sejam A e B matrizes quadradas de ordem n. (i) Se A é invertível, então A 1 é também invertível e (A 1 ) 1 = A. (ii) Se A e B são invertíveis, então AB também é invertível e (AB) 1 = B 1 A 1. Deixamos a demonstração desta proposição ao leitor (veja Problema 2.12), bem como a generalização do item (ii) para um número arbitrário de fatores. O interesse das matrizes invertíveis reside no fato de que dado um sistema linear de equações com n equações e n incógnitas, AX = B, se soubermos que a matriz A é invertível e soubermos como calcular sua inversa, então o sistema se resolve efetuando apenas a multiplicação da matriz A 1 com B, pois AX = B = X = (A 1 A)X = A 1 (AX) = A 1 B. Vimos que uma matriz quadrada não nula não possui necessariamente inversa. Uma pergunta natural é se podemos caracterizar as matrizes quadradas invertíveis, ou seja, se podemos apresentar uma condição necessária e suciente para que uma matriz quadrada seja invertível. Também estamos interessados em obter um método para o cálculo da inversa de uma matriz invertível. No próximo capítulo, apresentaremos uma caracterização de matrizes invertíveis e um método para inversão de matrizes que utiliza as transformações elementares nas linhas de uma matriz e a forma escalonada. No Capítulo 8, Proposição 8.3.1(iii), veremos um outro modo bem diferente de atacar este problema pelo uso dos determinantes. Problemas
2. MATRIZES 25 [ ] 1 2 3 2.1* Sejam A= 4 1 0 Calcule 2A, 3B e 2A 3B. [ ] 1 2 0 e B=. 1 2 0 2.2 Determine os valores de x, y e z em R para que as matrizes A e B dadas sejam iguais: [ ] x + y 0 A = z x 2y [ ] 13 0 e B =. 1 4 2.3 Dadas as matrizes [ ] [ ] 1 1 4 2 0 1 2 A =, B =, C = 1 e 2 0 1 0 1 1 3 D = [ 1 1], determine: (a) A + B; (b) 2C; (c) AC; (d) CD; (e) BC; (f) DA. 2.4* Considere as matrizes A = [a ij ] 4 5 com a ij = i j, B = [b ij ] 5 9 com b ij = j e C = [c ij ] com C = AB. (a) É possível determinar c 63? Justique a resposta. (b) Determine c 36. 2.5 Conclua as demonstrações das Proposições 1.2.1, 1.2.2 e 1.2.3. 2.6* Dada uma matriz A, dizemos que uma matriz X comuta com A se AX = XA. Determine todas as matrizes que comutam com [ ] 1 0 A =. 0 3 2.7 a) Mostre que a matriz c I n, onde c R, comuta com toda matriz X M(n, n).
26 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES b) Ache todas as matrizes M = [ x z ] [ ] y 1 1 que comutam com a matriz. t 0 1 2.8 Verdadeiro ou falso? Justique. (a) Se A e B são matrizes quadradas de mesma ordem, então (A B)(A + B) = A 2 B 2. (b) Se A, B e C são matrizes quadradas de mesma ordem tais que AB = AC, então B = C. 2.9 Mostre que se A é uma matriz triangular superior, então A 2 também é uma matriz triangular superior. [ ] 2.10* (a) Obtenha A t 1 2 3, onde A =. 0 1 4 (b) Verique que a transposta de uma matriz triangular superior é uma matriz triangular inferior. (c) Mostre que (A + B) t = A t + B t e (ka) t = ka t, onde A e B são matrizes de mesma ordem e k R. (d) Se A é uma matriz m n e B é uma matriz n p, prove que (AB) t = B t A t. (e) Mostre que (A t ) t = A para toda matriz A de ordem m n. 2.11* Mostre que se B é uma matriz quadrada, então: (a) B + B t e BB t são simétricas; (b) B B t é antissimétrica. (c) Observando que B = B + Bt 2 + B Bt, 2 conclua que toda matriz quadrada se escreve como soma de uma matriz simétrica e de uma matriz antissimétrica.
2. MATRIZES 27 (d) Mostre que a escrita em (c) é o único modo possível de escrever uma matriz quadrada como soma de uma matriz simétrica e de uma matriz antissimétrica. 2.12 Prove a Proposição 1.2.4. 2.13 Demonstre que: (a) se A tem uma linha nula, então AB tem uma linha nula; (b) se B tem uma coluna nula, então AB tem uma coluna nula; (c) qualquer matriz quadrada com uma linha ou uma coluna nula não é invertível. 2.14 Mostre que uma matriz A é invertível se, e somente se, A t é invertível. Conclua que as operações de inversão e de transposição comutam; isto é, (A t ) 1 = (A 1 ) t, quando A é invertível. 2.15 Sejam a = (a 1,..., a n ), b = (b 1,..., b n ) R n. Denamos a 1 0 0 0 a Diag(a) = 2 0....... 0 0 a n Mostre que: (a) Diag(a) + cdiag(b) = Diag(a + cb) onde c R; (b) Diag(a) Diag(b) = Diag(b) Diag(a) = Diag(a 1 b 1,..., a n b n ); (c) Diag(a) m = Diag(a m 1,..., a m n ), onde m N \ {0}; (d) Em que condições a matriz Diag(a) é invertível e qual é a sua inversa? Este problema mostra que somar, multiplicar, calcular potências e inverter matrizes diagonais é muito simples. 2.16 Supondo que as matrizes A, B e C são matrizes quadradas de mesma ordem e invertíveis, resolva as seguintes equações matriciais nas quais X é a incógnita:
28 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES (a) CX + 2B = 3B; (b) CAX t = C; (c) ABX = C. [ ] a b 2.17 Dada uma matriz A =, mostre que : c d a) se ad bc 0, então A é invertível e [ A 1 1 d = ad bc c b) se ad bc = 0, então A não é invertível. ] b ; a
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
2 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 2: Transformação de Matrizes e Resolução de Sistemas Sumário 1 Transformação de Matrizes.............. 30 1.1 Transformações Elementares de Matrizes...... 30 1.2 Forma Escalonada de uma Matriz.......... 32 1.3 Matrizes Elementares e Aplicações......... 35 2 Resolução de Sistemas Lineares........... 42 29
30CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS O método de eliminação em sistemas de equações lineares consiste em e- fetuar repetidamente transformações elementares sobre um sistema de equações lineares, de modo a ir obtendo sistemas equivalentes, até reduzir o sistema original a um sistema de fácil resolução. Neste capítulo, reinterpretaremos na matriz ampliada associada a um sistema de equações lineares as transformações que se efetuam nos sistemas de equações ao longo do processo de eliminação, explicitando seu caráter algorítmico, ou seja, de procedimento sistemático e efetivo. Esse método é essencialmente devido a Gauss e foi aperfeiçoado por Camille Jordan (França, 1838-1922) e, por este motivo, é chamado de eliminação de Gauss-Jordan. 1 Transformação de Matrizes 1.1 Transformações Elementares de Matrizes Seja A uma matriz m n. Para cada 1 i m, denotemos por L i a i-ésima linha de A. Denimos as transformações elementares nas linhas da matriz A como se segue: 1) Permutação das linhas L i e L j, indicada por L i L j. 2) Substituição de uma linha L i pela adição desta mesma linha com c vezes uma outra linha L j, indicada por L i L i + cl j. 3) Multiplicação de uma linha L i por um número real c não nulo, indicada por L i cl i. Por exemplo, vamos efetuar algumas transformações elementares nas linhas da matriz 2 1 2 3 2 1 4 0. 0 1 2 3
1. TRANSFORMAÇÃO DE MATRIZES 31 Temos 2 1 2 3 2 1 4 0 0 1 2 3 L 1 L 3 0 1 2 3 2 1 4 0, 2 1 2 3 2 1 2 3 2 1 4 0 0 1 2 3 L 2 1 2 L 2 2 1 2 3 1 1/2 2 0 0 1 2 3 e 2 1 2 3 2 1 4 0 0 1 2 3 2 1 2 3 0 0 2 3. L 2 L 2 L 1 0 1 2 3 Sejam A e B matrizes de ordem m n. A matriz A é dita ser equivalente por linhas à matriz B se B pode ser obtida de A pela aplicação sucessiva de um número nito de transformações elementares sobre linhas. Por exemplo, as matrizes 1 0 2 1 2 3 e 1 0 0 1 0 0 são equivalentes por linhas já que 1 0 1 0 1 0 1 0 2 1 0 1 0 1 0 1. L 2 L 2 2L 1 L 3 L 3 + 2L 1 L 3 L 3 3L 2 2 3 2 3 0 3 0 0 Observe que a noção de equivalência de matrizes por linhas corresponde à noção de equivalência de sistemas lineares quando se efetuam as respectivas transformações sobre as equações. De fato, a sistemas equivalentes, correspondem matrizes associadas equivalentes, e vice-versa.
32CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Note que se A é equivalente por linhas a uma matriz B, então B é equivalente por linhas à matriz A, já que toda transformação elementar sobre linhas é reversível. Mais precisamente, se e representa uma das transformações elementares nas linhas de uma matriz A de ordem m n, denotando por e(a) a matriz obtida de A aplicando-lhe a transformação e, temos o resultado a seguir. Proposição 2.1.1. Toda transformação elementar e nas linhas de matrizes em M(m, n) é reversível, no sentido de que existe uma transformação elementar e tal que e (e(a)) = A e e(e (A)) = A, para todo A M(m, n). Demonstração Se e é uma transformação elementar do tipo L i L j, tome e = e. Se e é uma transformação elementar do tipo L i cl i, tome e como a tranformação L i 1 c L i. Finalmente, se e é uma transformação elementar do tipo L i L i + cl j, tome e como a tranformação L i L i cl j. Não é difícil o leitor se convencer de que, em cada caso na demonstração anterior, e é a única transformação elementar com a propriedade que e (e(a)) = A para toda matriz A M(m, n). Se A é uma matriz equivalente por linhas a uma matriz B (e, então, B é equivalente por linhas a A), dizemos simplesmente que A e B são matrizes equivalentes. 1.2 Forma Escalonada de uma Matriz Nesta subseção mostraremos que toda matriz pode ser transformada por meio de uma sequência de transformações elementares sobre linhas numa matriz em uma forma muito especial, a forma escalonada, que será utilizada na próxima seção para resolver sistemas de equações lineares. Uma matriz m n será dita estar na forma escalonada se for nula, ou se: 1) o primeiro elemento não nulo de cada linha não nula é 1; 2) cada coluna que contém o primeiro elemento não nulo de alguma linha tem todos os seus outros elementos iguais a zero;
1. TRANSFORMAÇÃO DE MATRIZES 33 3) toda linha nula ocorre abaixo de todas as linhas não nulas; 4) se L 1,..., L p são as linhas não nulas, e se o primeiro elemento não nulo da linha L i ocorre na coluna k i, então k 1 < k 2 < < k p. Por exemplo, a matriz 0 1 2 0 1 0 0 0 1 3 0 0 0 0 0 está na forma escalonada, pois todas as condições da denição anterior são satisfeitas, mas as matrizes 1 0 0 0 0 3 1 0 1 2 0 e 1 0 1 0 0 1 0 0 0 0 não estão na forma escalonada, pois a primeira não satisfaz a condição 2, enquanto a segunda não satisfaz a condição 1 (observe que ela também não satisfaz a condição 4). Cabe aqui uma observação acerca da terminologia que utilizamos. Usualmente, na literatura, o termo forma escalonada de uma matriz refere-se a uma forma menos especial do que a nossa, a qual vários autores chamam de forma escalonada reduzida. A nossa justicativa para o uso dessa terminologia é que não há razão para adjetivarmos a forma escalonada, pois utilizaremos apenas uma dessas noções. O resultado que apresentaremos a seguir nos garantirá que toda matriz é equivalente por linhas a uma matriz na forma escalonada. O interesse desse resultado reside no fato que ao reduzir a matriz ampliada associada a um dado sistema de equações lineares à forma escalonada, encontramos um outro sistema equivalente ao sistema dado que se encontra em sua expressão mais simples. Quando aplicado aos sistemas de equações lineares, este resultado é chamado de processo de eliminação de Gauss-Jordan.
34CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Vejamos agora um algoritmo que reduz por linhas uma matriz dada não nula qualquer a uma matriz na forma escalonada. O termo reduzir por linhas signica transformar uma matriz usando as transformações elementares sobre linhas. Este processo é também chamado de escalonamento de matrizes. Passo 1. Seja k 1 a primeira coluna da matriz dada com algum elemento não nulo. Troque as linhas entre si de modo que esse elemento não nulo apareça na primeira linha, isto é, de modo que na nova matriz a 1k1 0. Passo 2. Para cada i > 1, realize a transformação L i L i a ik 1 a 1k1 L 1. Repita os Passos 1 e 2 na matriz assim obtida, ignorando a primeira linha. Novamente, repita os Passos 1 e 2 nessa nova matriz, ignorando as duas primeiras linhas etc., até alcançar a última linha não nula. Passo 3. Se L 1,..., L p são as linhas não nulas da matriz obtida após terminar o processo acima e se k i é a coluna na qual aparece o primeiro elemento não nulo a iki da linha L i, aplique as transformações L i 1 a iki L i para todo 1 i p. Passo 4. Realize na matriz obtida até então as transformações L l L l a lki L i, l = 1,..., i 1, para i = 2. Depois para i = 3, e assim por diante, até i = p. Dessa forma, obteremos uma matriz na forma escalonada que é equivalente por linhas à matriz dada. Estabelecemos assim o seguinte resultado: Teorema 2.1.2. Toda matriz é equivalente a uma matriz na forma escalonada. Por exemplo, a matriz 1 2 3 0 0 0 4 2 0 0 0 1/2
1. TRANSFORMAÇÃO DE MATRIZES 35 é transformada numa matriz na forma escalonada com a seguinte sequência de transformações sobre suas linhas: 1 2 3 0 1 2 3 0 1 2 3 0 0 0 4 2 L 2 1 4 0 0 0 1/2 L 0 0 1 1/2 0 0 1 1/2 2 L 3 2L 3 0 0 0 1/2 0 0 0 1 1 2 0 3/2 1 2 0 0 0 0 1 1/2 L 1 L 1 3 2 L 1 L 1 + 3L L 3 0 0 1 0. 2 0 0 0 1 L 2 L 2 1 2 L 3 0 0 0 1 Pelo algoritmo acima, deduzimos que qualquer matriz é equivalente a pelo menos uma matriz na forma escalonada. Como em cada passo do algoritmo temos certa margem de escolhas de transformações elementares sobre as linhas da matriz, não há aparentemente nenhum motivo para poder armar que a forma escalonada de uma dada matriz seja única. Fato é que, não importando qual a sequência de transformações elementares que efetuemos nas linhas de uma dada matriz, no nal do processo chegamos a uma mesma matriz na forma escalonada que é equivalente à matriz dada. Este resultado será provado na última seção do capítulo 1.3 Matrizes Elementares e Aplicações Uma matriz elementar de ordem n é uma matriz quadrada de ordem n obtida da matriz identidade I n a parir da aplicação de uma transformação elementar, isto é, trata-se de uma matriz da forma E = e(i n ), onde e é uma transformação elementar. Por exemplo, a matriz identidade é uma matriz elementar e as matrizes [ ] 0 1 e(i 2 ) =, onde e: L 1 L 2, 1 0
36CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS e 1 1 0 e(i 3 ) = 0 1 0, onde e: L 1 L 1 + L 2, 0 0 1 são matrizes elementares de ordem 2 e de ordem 3, respectivamente. Sejam A M(m, n) e e uma transformação elementar. O próximo resultado, cuja demonstração ca como exercício para o leitor (veja Problema 1.3), nos diz que a matriz e(a) pode ser obtida como o produto da matriz elementar e(i m ) pela matriz A. Por exemplo, consideremos 1 2 A = 0 1. 2 1 Se e 1 : L 1 L 2, e 2 : L 1 2L 1 e e 3 : L 1 L 1 + 2L 2, uma rápida vericação nos mostra que e 1 (A) = e 1 (I 3 )A, e 2 (A) = e 2 (I 3 )A e e 3 (A) = e 3 (I 3 )A. Teorema 2.1.3. Seja e uma transformação elementar sobre matrizes de M(m, n). Considere a matriz elementar E = e(i m ). Então e(a) = EA, para todo A M(m, n). Como consequência do Teorema 2.1.3, temos Corolário 2.1.4. Sejam A e B em M(m, n). Então, A é equivalente a B se, e somente se, existem matrizes elementares E 1,..., E s de ordem m tais que Demonstração E s E 2 E 1 A = B. Por denição, A é equivalente a B quando existem transformações elementares e 1,..., e s tais que e s (... (e 2 (e 1 (A)))... ) = B. Mas, pelo teorema anterior, a igualdade acima equivale a E s E 2 E 1 A = B,
1. TRANSFORMAÇÃO DE MATRIZES 37 onde E i = e i (I m ), para cada 1 i s. Corolário 2.1.5. Toda matriz elementar é invertível e sua inversa também é uma matriz elementar. Demonstração Seja E uma matriz elementar. Seja e a transformação elementar tal que E = e(i). Se e é a transformação elementar inversa de e e se E = e (I), pelo Teorema 2.1.3 temos e Logo, E é invertível e E 1 = E. I = e (e(i)) = e (E) = e (I)E = E E I = e(e (I)) = e(e ) = e(i)e = E E. Pelo Corolário 2.1.5 sabemos como inverter uma matriz elementar. Por exemplo, se considerarmos as matrizes 0 1 0 1 2 0 A = 1 0 0 e B = 0 1 0, 0 0 1 0 0 1 podemos concluir que A e B são invertíveis, já que A e B são matrizes elementares. De fato, A = e 1 (I 3 ) com e 1 : L 1 L 2 e B = e 2 (I 3 ) com e 2 : L 1 L 1 + 2L 2. Pelo Corolário 2.1.5, A 1 = e 1(I 3 ), onde e 1 é a transformação elementar inversa de e 1 e B 1 = e 2(I 3 ), onde e 2 é a transformação elementar inversa de e 2. Mais precisamente, 0 1 0 1 2 0 A 1 = 1 0 0 e B 1 = 0 1 0. 0 0 1 0 0 1 A seguir, apresentamos o resultado central desta seção que caracteriza as matrizes invertíveis. Teorema 2.1.6. Para uma matriz quadrada A de ordem n, são equivalentes as seguintes armações: (i) A é invertível;
38CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS (ii) Se B é uma matriz na forma escalonada equivalente a A, então B = I n ; (iii) A é uma matriz elementar ou um produto de matrizes elementares. Demonstração Vamos começar provando a implicação (i) (ii). Com efeito, como B é equivalente a A, pelo Corolário 2.1.4, existem matrizes elementares E 1, E 2,..., E s tais que E s E 2 E 1 A = B. Como, pelo Corolário 2.1.5, cada E i é invertível e A, por hipótese, é invertível, temos que B é invertível (cf. Proposição 1.2.4). Por outro lado, pelo Problema 1.7, temos que B = I n. A implicação (ii) (iii) é evidente, já que A = E1 1 E2 1 Es 1 B, onde B = I n e cada E 1 i é uma matriz elementar (cf. Corolário 2.1.5). A implicação (iii) (i) é evidente, pois matrizes elementares são invertíveis e produtos de matrizes invertíveis são invertíveis (cf. Proposição 1.2.4). Observe, como decorrência do resultado acima, que uma matriz quadrada invertível é equivalente a uma única matriz na forma escalonada (a matriz identidade), cando estabelecida, neste caso, a unicidade da forma escalonada. Finalizamos esta seção apresentando um método para inversão de matrizes por meio de transformações elementares. Proposição 2.1.7. Sejam A uma matriz invertível e e 1,..., e s uma sequência de transformações elementares tais que e s (... (e 2 (e 1 (A)))... ) = I, onde I é a matriz identidade. Então essa mesma sequência de transformações elementares aplicada a I produz A 1 ; isto é, e s (... (e 2 (e 1 (I)))... ) = A 1. Demonstração Para cada 1 i s, seja E i a matriz elementar correspondente à transformação e i. Então Assim, E s E 2 E 1 A = I. (E s E 2 E 1 I)A A 1 = I A 1,
1. TRANSFORMAÇÃO DE MATRIZES 39 donde E s E 2 E 1 I = A 1. Para ilustrarmos o uso do Teorema 2.1.6 e da Proposição 2.1.7, consideremos a matriz 1 0 2 A = 2 1 3. 4 1 8 Se aplicarmos uma sequência de transformações elementares em A até obtermos uma matriz B na forma escalonada, pelo Teorema 2.1.6, A é invertível se, e somente se, B = I 3. Se B = I 3, pela Proposição 2.1.7, essa mesma sequência de transformações elementares aplicada a I 3 resultará em A 1. Assim, vamos formar a matriz em blocos [ A I 3 ] e vamos reduzir esta matriz 3 6 a uma matriz na forma escalonada. De fato, 1 0 2 1 0 0 [ ] 1 0 2 1 0 0 A I3 = 2 1 3 0 1 0 L 2 L 2 2L 1 0 1 1 2 1 0 4 1 8 0 0 1 L 3 L 3 4L 1 0 1 0 4 0 1 1 0 2 1 0 0 1 0 2 1 0 0 0 1 1 2 1 0 0 1 1 2 1 0 L 2 L 2 L 3 L 3 L 2 0 1 0 4 0 1 0 0 1 6 1 1 1 0 2 1 0 0 1 0 0 11 2 2 0 1 1 2 1 0 L 1 L 1 2L 3 0 1 0 4 0 1. L 3 L 3 0 0 1 6 1 1 L 2 L 2 L 3 0 0 1 6 1 1 Como obtemos uma matriz na forma [ I 3 C ], temos que A é invertível e C = A 1. Assim, 11 2 2 A 1 = 4 0 1. 6 1 1
40CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Consideremos agora a matriz 1 0 1 A = 0 2 1. 3 0 3 [ ] Ao reduzirmos a matriz em blocos A I 3 a uma matriz na forma escalonada, obtemos a matriz B C ] 1 0 1 [, onde B = 0 1 1/2 e, portanto, 0 0 0 diferente de I 3. Logo, A não é invertível por ser equivalente a uma matriz com uma linha nula (cf. Problema 1.7). Problemas [ ] 2 1 1.1* Seja A =. 1 3 (a) Obtenha a forma escalonada de A. (b) A é invertível? Justique. (c) Se A for invertível, escreva a matriz A 1 como um produto de matrizes elementares. 1.2 Determine a matriz inversa de cada uma das matrizes dadas: [ ] 12 7 (a) A = ; 5 3 2 3 1 (b) B = 1 3 1 ; 1 2 1 2 1 0 2 3 1 2 2 (c) C = 4 1 2 3. 3 1 1 2 1.3 Demonstre o Teorema 2.1.3.
1. TRANSFORMAÇÃO DE MATRIZES 41 1.4 Determine a forma escalonada das matrizes: 0 1 3 2 1 2 1 2 1 (a) A = 2 1 4 3 ; (b) B = 2 4 1 2 3 ; 2 3 2 1 3 6 2 6 5 1 3 1 2 0 11 5 3 (c) C = 2 5 3 1. 4 1 1 5 1.5 Uma certa sequência de transformações elementares aplicadas a uma matriz A produz uma matriz B. A mesma sequência aplicada a AB produzirá que matriz? Justique sua resposta. 1.6 Descreva todas as possíveis matrizes 2 2 que estão na forma escalonada. 1.7 Seja A uma matriz quadrada na forma escalonada. Mostre que são equivalentes as seguintes asserções: (a) A matriz A não tem linhas nulas. (b) A é a matriz identidade. (c) A é invertível. Sugestão Use o Problema 2.13(c), do Capítulo 1. 1.8* Sejam A e B matrizes quadradas de mesma ordem. (a) Mostre que, se AB = I, então A é invertível e A 1 = B. Assim AB = I se, e somente se, BA = I. (b) Mostre que AB é invertível se, e somente se A e B são invertíveis. Por denição, uma matriz quadrada A é invertível quando existe uma matriz quadrada B tal que AB = I e BA = I. No entanto, pelo problema acima, no contexto das matrizes quadradas, basta encontrar B tal que AB = I ou tal que BA = I para que A seja invertível. Ou seja, se uma das duas igualdades é satisfeita, então a outra é automaticamente satisfeita. 1.9 Sejam E 1, E 2 e E 3 as matrizes elementares de ordem n obtidas da identidade pelas transformações elementares L i L j, L i L i + kl j e L i cl i,
42CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS onde j i, respectivamente. Mostre que E1 t = E 1, E2 t = E 2 e Et 3 = E 3, onde E 2 é a matriz elementar obtida da identidade mediante a transformação L j L j + kl i. 2 Resolução de Sistemas Lineares Finalmente, nesta seção, poremos em funcionamento a maquinária desenvolvida com as matrizes para a resolução de sistemas de equações lineares, culminando com o Teorema do Posto. Trata-se de um resultado central dessa teoria que descreve a resolubidade dos sistemas de equações lineares gerais. Este teorema é também conhecido no Ensino Médio como Teorema de Rouché-Capelli, em homenagem aos matemáticos Eugène Rouché (França, 18321919) e Alfredo Capelli (Itália, 18551910). Quanto a suas soluções, um sistema linear se classica como impossível, ou possível e determinado, ou possível e indeterminado. Um sistema linear é chamado impossível, quando não tem solução, possível e determinado, quando tem uma única solução e possível e indeterminado, quando tem mais de uma solução.. Já foi observado anteriormente que um sistema linear homogêneo com n incógnitas é sempre possível, pois admite como solução a n-upla (0, 0,..., 0),
2. RESOLUÇÃO DE SISTEMAS LINEARES 43 chamada solução trivial. Qualquer outra solução, se existir, é dita solução não trivial do sistema. Dado um sistema linear AX = B, o sistema linear AX = 0 é chamado de sistema linear homogêneo associado. A relação fundamental entre um sistema linear e seu sistema linear homogêneo associado é apresentada na proposição a seguir. Proposição 2.2.1. Seja AX = B um sistema linear. Suponhamos que X 1 seja uma solução do sistema AX = B e que S h seja o conjunto solução do sistema linear homogêneo associado AX = 0. Então S = {X 1 + Z ; Z S h } (1) é o conjunto solução do sistema AX = B. Demonstração Para demonstrarmos (1), usaremos algumas propriedades já vistas da adição e da multiplicação por escalar de matrizes. De fato, se X 2 S, podemos escrever X 2 = X 1 + Z com Z S h. Como X 1 é uma solução particular de AX = B e Z S h, segue que AX 1 = B e AZ = 0. Logo, AX 2 = A(X 1 + Z) = AX 1 + AZ = B + 0 = B, mostrando que X 2 é uma solução do sistema AX = B. Por outro lado, tomemos uma solução X 2 do sistema AX = B e denamos Z = X 2 X 1. Temos, então, que AZ = A(X 2 X 1 ) = AX 2 AX 1 = B B = 0; logo Z = X 2 X 1 S h. Portanto, X 2 = X 1 + Z S. Observamos que o resultado acima é apenas de interesse teórico, pois não nos ajuda a obter o conjunto solução de um sistema linear. Um método bem ecaz para se resolver um sistema linear é o método do escalonamento. Este consiste em se tomar a matriz ampliada de um sistema linear e aplicar uma sequência de transformações elementares a esta matriz, de modo a obtermos
44CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS uma matriz equivalente que seja a matriz ampliada de um sistema linear fácil de se resolver. Exemplo 1. Resolvamos o sistema linear x + y 2z + 3w = 4 2x + 3y + 3z w = 3 5x + 7y + 4z + w = 5. (2) Observemos que 1 1 2 3 4 2 3 3 1 3 5 7 4 1 5 L 2 L 2 2L 1 L 3 L 3 5L 1 1 1 2 3 4 1 1 2 3 4 0 1 7 7 5 0 1 7 7 5, L 3 L 3 2L 2 0 2 14 14 15 0 0 0 0 5 sendo que esta última matriz é a matriz ampliada do sistema linear x + y 2z + 3w = 4 y + 7z 7w = 5 0x + 0y + 0z + 0w = 5. (3) (4) Note que o sistema (4) é impossível. a relação do sistema (4) com o originalmente proposto? A pergunta que fazemos é: qual A resposta é que eles têm o mesmo conjunto solução, já que (2) e (4) têm matrizes ampliadas equivalentes. Mais precisamente, temos o resultado a seguir. Proposição 2.2.2. Dois sistemas lineares com matrizes ampliadas equivalentes têm o mesmo conjunto solução. Demonstração É só lembrar que efetuar transformações elementares sobre as linhas da matriz ampliada do sistema, equivale a efetuar transformações elementares no sistema de equações, obtendo um sistema equivalente.
2. RESOLUÇÃO DE SISTEMAS LINEARES 45 A matriz ampliada do sistema linear (2) poderia ter sido reduzida por linhas a uma matriz na forma escalonada. Porém, a equação 0x + 0y + 0z + 0w = 5 obtida da última linha da matriz nal em (3) já garante, pela Proposição 2.2.2, que o sistema (2) é impossível. De fato, dado um sistema linear nas incógnitas x 1, x 2,..., x n, se após uma sequência de transformações elementares ocorrer uma equação da forma 0x 1 + 0x 2 + + 0x n = b, com b 0, então o sistema é impossível; ou seja, não tem solução. Quando aplicarmos a Proposição 2.2.2 a um sistema homogêneo não é necessário tomar a matriz ampliada, basta considerar a matriz dos coecientes do sistema. Exemplo 2. Determinemos o conjunto solução do sistema linear homogêneo x + 2y + 3z 5w = 0 2x + 4y + z + 2w = 0 x + 3y + 4z = 0 3x + 5y + 8z 10w = 0. Ora, basta considerarmos a matriz dos coecientes do sistema. Assim, 1 2 3 5 1 2 3 5 1 2 3 5 2 4 1 2 L 2 L 2 2L 1 0 0 5 12 0 0 5 12 1 3 4 0 L 3 L 3 L 1 0 1 1 5 L 4 L 4 + L 3 0 1 1 5, L 3 5 8 10 4 L 4 3L 1 0 1 1 5 0 0 0 10 sendo esta última matriz, a matriz dos coecientes do sistema linear homogêneo x + 2y + 3z 5w = 0 5z + 12w = 0 y + z + 5w = 0 10w = 0,
46CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS que admite apenas a solução (0, 0, 0, 0). Assim, o conjunto solução do sistema originalmente dado é S = {(0, 0, 0, 0)}. Para apresentarmos o resultado central deste capítulo, necessitaremos de alguns resultados que estabeleceremos a seguir. Lema 2.2.3. Seja dada uma matriz A = [A A ] na forma escalonada, onde A é uma matriz m (n 1) e A é uma matriz m 1. Sejam k 1,..., k p as posições das colunas de A onde ocorrem os primeiros elementos não nulos das linhas não nulas L 1,..., L p, respectivamente. O sistema A X = A admite solução se, e somente se, k p n. Demonstração Observe que como A está na forma escalonada, a matriz A também está na forma escalonada. Se k p = n, então a p-ésima linha da matriz A é (0 0 0 1). Assim, o sistema A X = A tem uma equação da forma 0x 1 + + 0x n 1 = 1, que não tem solução. Se k p n, temos que p k p < n. Assim, se os a i 's são as entradas de A, temos que a p+1 = = a m = 0. Se denotarmos por A i a i-ésima coluna da matriz A, temos que 1 0 0 0 1 0 A. k 1 = A k1 =, A. k 0 2 = A k2 =,..., A. k 0 p = A kp =, 1... 0 0 0 onde cada matriz acima tem as últimas m r entradas nulas. A X = A se escreve, em blocos, da seguinte forma: O sistema a = [A 1 A 2... A n 1 ]X = A 1 x 1 + A 2 x 2 + + A n 1 x n 1. Para achar uma solução do sistema basta tomar x ki = a i e x j = 0, se j k i, para todo i = 1,..., p.
2. RESOLUÇÃO DE SISTEMAS LINEARES 47 A seguir, daremos a prova da unicidade da forma escalonada de uma matriz. Teorema 2.2.4. (Unicidade da forma escalonada) Existe uma única matriz na forma escalonada equivalente por linhas a uma dada matriz. Demonstração Basta mostrar que dadas duas matrizes A e B na forma escalonada e equivalentes por linhas, então A = B (justique). O resultado será provado por indução sobre o número n de colunas da matriz. Para n = 1, as únicas matrizes na forma escalonada são 0 1 0 0. e.. 0 0 Como qualquer transformação aplicada às linhas da primeira matriz não a altera, as duas matrizes acima não são equivalentes, daí decorre a unicidade, nesse caso. Admitamos o resultado verdadeiro para matrizes com n 1 colunas, onde n 2. Sejam A e B duas matrizes m n, ambas na forma escalonada e equivalentes. Escrevamos A = [A A ] e B = [B B ], onde A e B são os blocos formados com as n 1 colunas de A e de B, e A e B são as últimas colunas de A e de B, respectivamente. É imediato vericar pela denição que A e B estão na forma escalonada; e que A é equivalente a B, pois as mesmas operações elementares que transformam A em B, transformam A em B. Portanto, pela hipótese de indução, temos que A = B. Estamos então reduzidos a duas matrizes A = [A A ] e B = [A B ] na forma escalonada e equivalentes. Vamos desdobrar a nossa análise em dois casos. Caso 1) A matriz A é tal que k p = n. Assim, a matriz A tem as primeiras p 1 linhas não nulas e a p-ésima linha nula e as entradas a i de A são tais que a i = 0, se i p e a p = 1. Pelo Lema 2.2.3, o sistema A X = A não tem solução. Como as matrizes A = [A A ] e B = [A B ] são equivalentes, pela Proposição 2.2.2, os sistemas A X = A e A X = B
48CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS são também equivalentes, o que implica que o segundo sistema também não admite solução. Aplicando novamente o Lema 2.2.3 ao sistema A X = B, temos que b p = 1 e b i = 0, se i p, o que nos diz que A = B. Caso 2) A matriz A é tal que k p n. Pelo Lema 2.2.3 tem-se que o sistema A X = A tem uma solução X 0. Como os sistemas são equivalentes, temos que X 0 é solução do sistema A X = B, logo A = A X 0 = B. A demonstração do Teorema 2.2.4, acima, foi inspirada em [1], o qual recomendamos para estudos mais avançados de Álgebra Linear. Seja A uma matriz de ordem m n. Pelo Teorema 2.2.4, A é equivalente a uma única matriz Ã, de ordem m n, na forma escalonada. Dizemos que à é a forma escalonada de A. Portanto, faz sentido denir o posto p da matriz A como o número de linhas não nulas de sua forma escalonada Ã. Por exemplo, se 1 2 1 0 A = 1 0 3 5, 1 2 1 1 sua forma escalonada é a matriz 1 0 0 7/8 à = 0 1 0 1/4. 0 0 1 11/8 Portanto, o posto p de A é igual a 3, pois o número de linhas não nulas de à é 3. Para matrizes quadradas temos o seguinte resultado: Corolário 2.2.5. Uma matriz quadrada de ordem n é invertível se, e somente se, ela tem posto n. Demonstração Se a matriz é invertível, então pelo Teorema 2.1.6, sua forma escalonada é I n, logo tem posto n. Reciprocamente, seja dada uma matriz quadrada de ordem n e seja à sua forma escalonada. Se A tem posto n, então à não tem linhas nulas, logo,
2. RESOLUÇÃO DE SISTEMAS LINEARES 49 pelo Problema 1.7, à = I n. Pelo Corolário 2.1.4, temos que A = E s... E 1 à = E s... E 1, onde E 1,..., E s são matrizes elementares, logo invertíveis (cf. Corolário 2.1.5). Daí decorre que A é invertível por ser produto de matrizes invertíveis (cf. Proposição 1.2.4(ii)). Observe que o Lema 2.2.3 pode ser reinterpretado com a noção de posto do seguinte modo: Um sistema de equações lineares AX = B admite solução se, e somente se, o posto da matriz aumentada [A B] do sistema tiver posto igual ao da matriz A do sistema. De fato, o que mostramos foi que o sistema possui solução se, e somente se, a última linha não nula da forma escalonada da matriz ampliada do sistema não for da forma (0 0... 0 1). Isto é parte do Teorema de Rouché-Capelli, resultado central deste capítulo e que apresentamos na íntegra a seguir. Teorema 2.2.6. (Teorema do Posto) Consideremos um sistema linear com m equações e n incógnitas AX = B. Sejam p AB o posto da matriz ampliada do sistema e p A o posto da matriz dos coecientes do sistema. Então (i) O sistema é possível se, e somente se, p AB = p A. (ii) O sistema é possível e determinado se p AB = p A = n. (iii) O sistema é possível e indeterminado se p AB = p A < n. Neste caso, n p A é o número de incógnitas livres do sistema, ou seja, incógnitas que podem assumir qualquer valor real. Demonstração Seja AX = B um sistema linear com n incógnitas. Seja C = [A B] a matriz ampliada do sistema e seja C = [à B] a forma escalonada de C. Denotaremos à = [ã ij] e B = [ b i ].
50CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS Claramente temos que à é a forma escalonada de A e como à é um bloco de C, p A = pã < p C = p AB ou p A = pã = p C = p AB. Vamos considerar os dois casos anteriores separadamente. Caso 1. Se p A < p AB, então C tem uma linha do tipo (0 0 0 1). Portanto, o sistema ÃX = B é impossível e, então, pela Proposição 2.2.2, AX = B é impossível. Caso 2. nulas. Se p A = p AB, então C e Dividiremos este caso em dois subcasos. Subcaso 2.1. p AB = p A = n. à têm o mesmo número de linhas não Sendo à uma matriz com n colunas, com p à = p A = n, e estando à na forma escalonada, ela é uma matriz em blocos da forma à = [ ] I n. 0 Como p A = p AB = n, segue que B é tal que b n+1 = = b m = 0. Portanto, ÃX = B é possível e determinado com a única solução x 1 = b1,..., x n = b n. Consequentemente, AX = B também é determinado com mesma solução. Subcaso 2.2. p A = p AB < n. Ponhamos p = p A = p AB. Neste caso, à (assim como C) tem p linhas não nulas L 1,..., L p, tais que o primeiro elemento não nulo de L i está na coluna k i e k 1 < < k p. Além disso, temos b p+1 = = b m = 0.
2. RESOLUÇÃO DE SISTEMAS LINEARES 51 Temos então que a equação ÃX = B se escreve como x k1 + ã 1k1 +1x k1 +1 + + ã 1n x n b1 x k2 + ã 2k2 +1x k2 +1 + + ã 2n x n b2.. x kp + ã pkp+1x kp+1 + + ã pn x n = bp. 0 0.. 0 0 A igualdade matricial acima, juntamente com o fato da matriz forma escalonada, nos fornece o sistema de equações x k1 = j>k 1 ã 1j x j + b 1, onde ã 1ki = 0, se i > 1, x k2 = j>k 2 ã 2j x j + b 2, onde ã 2ki = 0, se i > 2,... Ã estar na x kp 1 = j>k p 1 ã p 1,j x j + b p 1, onde ã p 1,ki = 0, se i = k p, x kp = j>k p ã pj x j + b p. Isto mostra que podemos escolher arbitrariamente valores para as incógnitas no conjunto {x 1,..., x n } \ {x k1,..., x kp } (5) e com esses determinar valores para x k1,..., x kp. Como o conjunto em (5) tem n p elementos, o sistema ÃX = B tem n p incógnitas livres e, consequentemente, o mesmo ocorre para o sistema AX = B. Particularizando o Teorema do Posto para os sistemas homogêneos, obtemos o corolário a seguir. Corolário 2.2.7. Seja dado um sistema linear homogêneo com m equações e n incógnitas AX = 0. (i) Se A tem posto n, então o sistema possui apenas a solução nula. Em particular, isto ocorre quando m = n e A é invertível.
52CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS (ii) Se A tem posto p < n, então o sistema possui innitas soluções. Em particular, isto sempre ocorre quando m < n. A seguir, daremos um exemplo da aplicação do Teorema do Posto. Exemplo 3. linear Com o auxílio do Teorema do Posto, resolvamos o sistema x + 2y 2z + 3w = 2 2x + 4y 3z + 4w = 5 5x + 10y 8z + 11w = 12. Ora, 1 2 2 3 2 1 2 2 3 2 2 4 3 4 5 L 2 L 2 2L 1 0 0 1 2 1 5 10 8 11 12 L 3 L 3 5L 1 0 0 2 4 2 1 2 0 1 4 L 1 L 1 + 2L 2 0 0 1 2 1. L 3 L 3 2L 2 0 0 0 0 0 Como p AB = p A = 2 < 4 = n, onde n é o número de incógnitas do sistema, o sistema linear é possível e indeterminado. Existem então duas incógnitas livres, digamos y e w, às quais podemos atribuir quaisquer valores reais a e b, respectivamente. Assim, temos y = a e w = b. Substituindo w = b na segunda equação obtemos z = 1 + 2b. Pondo y = a, z = 1 + 2b e w = b na primeira equação, segue-se que x = 4 2a + b. Portanto, as soluções do sistema são os elementos do conjunto {(4 2a + b, a, 1 + 2b, b) ; a, b R}. Observamos que, pelo Teorema do Posto, o número de incógnitas livres está bem determinado. Porém, as incógnitas livres podem ser escolhidas com alguma liberdade. No exemplo anterior, escolhemos y e w como incógnitas livres, mas, poderíamos ter escolhido x e t como incógnitas livres.
2. RESOLUÇÃO DE SISTEMAS LINEARES 53 Problemas 2.1* Resolva o sistema linear homogêneo y + 3z 2t = 0 2x + y 4z + 3t = 0 2x + 3y + 2z t = 0 4x 3y + 5z 4t = 0. 2.2* Que condições devem ser impostas a m, n e p para que o sistema linear x + 2y 3z = m 2x + 6y 11z = n x 2y + 7z = p tenha solução? 2.3 Determine X tal que AX B = C, onde [ ] [ ] [ ] 1 3 2 2 1 8 4 3 A =, B = e C =. 1 4 3 0 1 10 8 2 2.4 Resolva o sistema linear 1 2 1 2 3 1 2 x 1 y = 4 3 1 3. z 2 4 2 4 2.5 Dadas as matrizes 1 2 1 0 2 1 A = 1 0 3 5, B 1 = 1 e B 2 = 2, 1 2 1 1 0 1 resolva:
54CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS (a) os sistemas AX = B 1 e AX = B 2 ; (b) o sistema AX = 3B 1 B 2, utilizando soluções particulares já encontradas no item (a). 2.6 Dada uma matriz A de ordem m n, raciocine com a forma escalonada para mostrar que: (a) a equação AC = I pode ser resolvida o sistema linear AX = B tem solução para qualquer B posto de A é m; (b) a equação CA = I pode ser resolvida o sistema linear AX = 0 tem solução única posto de A é n. 2.7 Na matriz A de ordem 5 5 temos a seguinte relação entre as linhas: L 1 + L 2 2L 4 + 3L 5 = 0. Encontre uma matriz C, de posto 3, tal que CA tenha linhas L 1, L 4, 0. 2.8 Como devem ser escolhidos os coecientes a, b e c para que o sistema ax + by 3z = 3 2x by + cz = 1 ax + 3y cz = 3 tenha a solução x = 1, y = 1 e z = 2? 2.9 Determine os valores de k R para que os sistemas abaixo x + y + kz = 2 kx + y + z = 1 x + kz = 0 (a) 3x + 4y + 2z = k, (b) x + ky + z = 1, (c) y = 0 2x + 3y z = 1 x + y + kz = 1 kx + z = 0 tenham: (i) solução única; (ii) nenhuma solução; (iii) mais de uma solução. Determine a solução do sistema quando esta existir.
2. RESOLUÇÃO DE SISTEMAS LINEARES 55 2.10 Que condições devem ser impostas a a, b e c para que o sistema abaixo nas incógnitas x, y e z tenha solução? x + 2y 3z = a 2x + 6y 11z = b x 2y + 7z = c. 2.11 Determine os valores de a, de modo que o seguinte sistema nas incógnitas x, y e z tenha: (a) nenhuma solução, (b) mais de uma solução, (c) uma única solução: x + y z = 1 2x + 3y + az = 3 x + ay + 3z = 2. 2.12 Considere o sistema linear 2 2 nas incógnitas x e y: ax + by = e cx + dy = f. Mostre que: (a) se a c b, isto é, se ad bc 0, então o sistema tem solução única d x = de bf ad bc e y = af ce ad bc ; (b) se a c = b d e, então o sistema não tem solução; f (c) se a c = b d = e, então o sistema tem mais de uma solução. f 2.13 Suponha que, num sistema linear homogêneo, os coecientes de uma das incógnitas são todos iguais a zero. Mostre que o sistema tem solução não nula.
56CAPÍTULO 2. TRANSFORMAÇÃO DE MATRIZES E RESOLUÇÃO DE SISTEMAS 2.14 Seja A uma matriz quadrada de ordem n. Prove que as seguintes armações são equivalentes: (a) A é invertível; (b) O sistema linear homogêneo AX = 0 só admite a solução trivial; (c) Para toda matriz B de ordem n 1, o sistema linear AX = B é possível e determinado.
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
3 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 3: Espaços Vetoriais Sumário 1 Subespaços Vetoriais................. 58 1.1 Caracterização dos Subespaços Vetoriais...... 58 1.2 Operações com Subespaços............. 61 1.3 Subespaços Gerados................. 63 2 Dependência e Independência Linear........ 69 3 Bases e Dimensão................... 75 3.1 Bases......................... 75 3.2 Dimensão....................... 82 4 Espaço Linha de uma Matriz............ 86 57
58 CAPÍTULO 3. ESPAÇOS VETORIAIS Neste capítulo, desenvolveremos o conceito de espaço vetorial que introduzimos no Capítulo 1. Intimamente associadas à noção de espaço vetorial estão as noções de subespaço vetorial, de base e de dimensão, conceitos esses fundamentais que introduziremos neste capítulo e que nos permitirão entender melhor a estrututa desses espaços. A estrutura de espaço vetorial está presente em espaços importantes da Análise Matemática e da Geometria Diferencial, como os espaços de Banach e os espaços de Hilbert, que possuem muitas aplicações na Física moderna, entre outros. Neste texto enfatizaremos os espaços vetoriais sobre o corpo R dos números reais. Apesar do fato de muitos dos resultados que obteremos serem válidos no contexto mais geral dos espaços vetoriais sobre corpos abitrários, nos restringiremos aos espaços vetoriais reais. 1 Subespaços Vetoriais Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução S h de um sistema de equações lineares homogêneo com n incógnitas forma um espaço vetorial contido no espaço R n. Esta é uma situação típica da noção de subespaço de um espaço vetorial, que deniremos a seguir com maior generalidade. 1.1 Caracterização dos Subespaços Vetoriais Sejam V um espaço vetorial e W um subconjunto não vazio de V. Dizemos que W é um subespaço vetorial de V, ou simplesmente um subespaço de V, se W, com as operações de adição em V e de multiplicação de vetores de V por escalares, é um espaço vetorial. Para mostrar que um subconjunto não vazio W de V é um subespaço de V é preciso inicialmente vericar se as operações de adição de vetores e de multiplicação de vetores por escalares em V estão denidas em W. Em seguida, seria necessário vericar as propriedades A1A4 e ME1ME4 da denição de espaço vetorial que demos na Subseção 1.2 do Capítulo 1. No
1. SUBESPAÇOS VETORIAIS 59 entanto, como W é parte de V, que já sabemos ser um espaço vetorial, então algumas das propriedades anteriores não precisam ser testadas em W. Por exemplo, não precisamos testar se a adição em W é associativa nem se é comutativa, pois essas propriedades são satisfeitas por todos os elementos de V e, consequentemente, por todos os elementos de W. Pelo mesmo motivo, as condições ME1ME4 não precisam ser testadas em W. Assim, para mostrar que um subconjunto não vazio W de V é um subespaço de um espaço vetorial V, precisaremos somente vericar se A3 e A4 são satisfeitas. O resultado a seguir mostra que, de fato, basta mostrar que as operações de V estão denidas em W. Proposição 3.1.1. Sejam V um espaço vetorial e W um subconjunto não vazio de V. Então, W é um subespaço de V se, e somente se, as seguintes condições são satisfeitas: (i) se u, v W, então u + v W ; (ii) se a R e u W, então au W. Demonstração Se W é um subespaço de V, então claramente as condições (i) e (ii) são vericadas. Reciprocamente, suponhamos que W possua as propriedades (i) e (ii). Para mostrar que W é subespaço de V, precisamos somente vericar que os elementos de W possuem as propriedades A3 e A4. Tome um elemento qualquer u de W, o que é possível pois W. Pela condição (ii), au W para todo a R. Tomando a = 0, segue-se que 0u = 0 W e, tomando a = 1, segue-se que ( 1)u = u W. A Proposição 3.1.1 arma que um subconjunto não vazio de um espaço vetorial V é um subespaço de V se, e somente se, a adição e a multiplicação por escalar são fechadas em W. seguinte forma: A Proposição 3.1.1 pode ser reescrita da Corolário 3.1.2. Sejam V um espaço vetorial e W um subconjunto não vazio de V. Temos que W é um subespaço vetorial de V se, e somente se, u + av W, para todo a R e para todos u, v W.
60 CAPÍTULO 3. ESPAÇOS VETORIAIS A demonstração do resultado anterior é deixada para o leitor (veja Problema 1.1). Vejamos agora alguns exemplos de subespaços vetoriais. Exemplo 1. Seja V um espaço vetorial. Então o conjunto {0}, constituído apenas do vetor nulo, e também todo o espaço V são subespaços de V. O conjunto {0} é chamado de espaço vetorial nulo. Exemplo 2. Seja V = R n e sejam i 1, i 2,..., i r números naturais tais que 0 < i 1 < i 2 < < i r n. O conjunto W = {(x 1, x 2,..., x n ) ; x i1 = x i2 = = x ir = 0} é um subespaço vetorial de R n. Em particular, W 1 = {(0, y, z) ; y, z R} e W 2 = {(0, y, 0) ; y R} são subespaços vetoriais de R 3. Exemplo 3. Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução S h de um sistema de equações lineares homogêneas em n incógnitas forma um subespaço vetorial de R n. Os subespaços do Exemplo 2 podem ser vistos sob esta ótica, pois o subespaço W, do referido exemplo, pode ser descrito como o espaço solução do sistema de equações lineares homogêneas x i1 = x i2 = = x ir = 0. Exemplo 4. No espaço vetorial das matrizes M(n, n), os conjuntos das matrizes triangulares superiores, triangulares inferiores e das matrizes diagonais, são subespaços vetoriais. Exemplo 5. No espaço vetorial S das sequências reais, as recorrências lineares do tipo R(a, b) (cf. Exemplo 2, Seção 1, Capítulo 1) formam subespaços vetoriais. Mais geralmente, o conjunto R(a 1, a 2,..., a r ) das sequências que são soluções da recorrência linear u n = a 1 u n 1 + a 2 u n 2 + + a r u n r é um subespaço vetorial de S (verique).
1. SUBESPAÇOS VETORIAIS 61 1.2 Operações com Subespaços Como, antes de mais nada, espaços vetoriais são conjuntos, é bastante natural perguntar-se se a união e a interseção de conjuntos preservam a propriedade de espaço vetorial. Dados U = {(x, y) R 2 ; x + y = 0} e W = {(x, y) R 2 ; x y = 0}, subespaços de R 2, o conjunto U W não é um subespaço de R 2. De fato, temos que u = (1, 1) U W e w = (1, 1) U W, mas u + w = (2, 0) / U W. Este exemplo mostra que a união de dois subespaços de um espaço vetorial V não é necessariamente um subespaço de V. A próxima proposição mostra que a interseção de subespaços é sempre um subespaço. Proposição 3.1.3. A interseção de dois subespaços de um espaço vetorial V é um subespaço de V. Demonstração Sejam U e W subespaços de V. Para vericarmos que U W é também um subespaço de V, vamos fazer uso do Corolário 3.1.2 Para isto, primeiramente note que U W é um subconjunto não vazio de V, pois 0 U e 0 W, já que ambos U e W são subespaços de V. Agora, tomemos a R e u, v U W. Como u, v U e u, v W, segue do Corolário 3.1.2 que u + av U e u + av W, ou seja, u + av U W. Novamente, pelo Corolário 3.1.2, segue que U W é um subespaço de V. Observemos que o principal problema quando consideramos a união de subespaços é que se tomamos um vetor em cada subespaço, a soma deles pode não pertencer à união. Seria, então, natural considerarmos o conjunto soma denido a seguir. Dados U e W subespaços de um espaço vetorial V, denimos a soma de U e W, denotada por U + W, como o conjunto U + W = {u + w ; u U e w W }. Com isto, quando somamos um elemento de um subespaço com um elemento do outro, automaticamente, a soma destes elementos está na soma dos subespaços.
62 CAPÍTULO 3. ESPAÇOS VETORIAIS Como exemplo, consideremos U = {(x, y) R 2 ; x + y = 0} e W = {(x, y) R 2 ; x y = 0}. Temos que U + W = R 2, e, consequentemente, U + W é um subespaço de R 2. De fato, se (x, y) R 2 então ( x y (x, y) =, y x ) ( x + y +, x + y ), 2 2 2 2 o que mostra que todo elemento de R 2 se escreve como a soma de um elemento de U e um elemento de W. Este exemplo ilustra o resultado a seguir. Proposição 3.1.4. A soma de dois subespaços U e W de um espaço vetorial V é um subespaço de V. Este é o menor subespaço de V que contém cada um dos subespaços, no sentido que se um subespaço vetorial L de V é tal que U L e W L, então U + W L. Demonstração Sejam U e W subespaços de V. Tomemos a R e v 1, v 2 U + W. Como v 1, v 2 U + W, existem u 1 e u 2 elementos de U e existem w 1 e w 2 elementos de W tais que Então, v 1 = u 1 + w 1 e v 2 = u 2 + w 2. v 1 + av 2 = (u 1 + w 1 ) + a(u 2 + w 2 ) = (u 1 + au 2 ) + (w 1 + aw 2 ) U + W. Assim, provamos que U + W é um subespaço de V. Para mostrar que U + W é o menor subespaço vetorial de V que contém U e W, seja L um subespaço de V que contém U e W. Para todos u U e w W, temos que u, w L, logo u + w L. Isto mostra que U + W L. Sejam U e W subespaços de um espaço vetorial V. O espaço vetorial V é dito ser a soma direta de U e W, e representado por V = U W, se V = U + W e U W = {0}. Como exemplo de uma soma direta, consideremos novamente os subespaços U = {(x, y) R 2 ; x + y = 0} e W = {(x, y) R 2 ; x y = 0}. Vimos anteriormente que R 2 = U +W. Como U W = {0}, segue que R 2 = U W. O próximo resultado mostra uma importante propriedade das somas diretas.
1. SUBESPAÇOS VETORIAIS 63 Teorema 3.1.5. Sejam U e W subespaços de um espaço vetorial V. Temos que V = U W se, e somente se, todo vetor v em V se escreve de modo único como v = u + w, onde u U e w W. Demonstração Suponhamos V = U W. Tomemos v V. Como V = U + W, pela denição de soma de subespaços, existem u U e w W tais que v = u + w. Vejamos que a decomposição acima é única no sentido de que se v = u + w, com u U e w W, então u = u e w = w. v = u + w, então Ora, como v = u + w e u u = (w w ). Como o lado esquerdo pertence a U e o lado direito a W, da igualdade anterior decorre que u u U W e w w U W. Como U W = {0}, segue então que u = u e w = w. Reciprocamente, suponhamos que todo vetor de V se escreve de modo único como a soma de um vetor de U e de um vetor de W. Claramente, então, V = U + W. Se U W {0}, existiria um vetor não nulo v em U W. Como v W e W é um subespaço, então v W também. Consequentemente, teríamos 0 = 0 + 0, com 0 U e 0 W, e 0 = v + ( v), com v U e v W. Como v 0, teríamos duas escritas distintas para um mesmo vetor de V. Como isto não ocorre, temos de fato que U W = {0}. 1.3 Subespaços Gerados Seja V um espaço vetorial e sejam v 1, v 2,..., v r vetores de V. Diremos que um vetor v de V é uma combinação linear de v 1, v 2,..., v r se existirem números reais a 1, a 2,..., a r tais que v = a 1 v 1 + a 2 v 2 + + a r v r. (1)
64 CAPÍTULO 3. ESPAÇOS VETORIAIS Por exemplo, o vetor (1, 6, 0) em R 3 é uma combinação linear dos vetores v 1 = (1, 2, 0) e v 2 = ( 1, 2, 0), já que v = 2v 1 + 1v 2. De fato, a equação (1, 6, 0) = a 1 (1, 2, 0) + a 2 ( 1, 2, 0) equivale ao sistema de equações lineares { a1 a 2 = 1 2a 1 + 2a 2 = 6, cuja solução é única e dada por a 1 = 2 e a 2 = 1. Já o vetor w = (2, 2, 6) não é uma combinação linear de v 1 e v 2, pois não existem números reais a 1 e a 2 tais que w = a 1 v 1 + a 2 v 2. Com efeito, a equação (2, 2, 6) = a 1 (1, 2, 0) + a 2 ( 1, 2, 0) equivale ao sistema de equações lineares a 1 a 2 = 2, 2a 1 + 2a 2 = 2, 0a 1 + 0a 2 = 6, mostrando que o sistema é impossível. Se r = 1 em (1), então v = a 1 v 1, ou seja, v é uma combinação linear de um único vetor v 1 se for um múltiplo por escalar de v 1. Sejam v 1, v 2,..., v r vetores de um espaço vetorial V. Consideremos o conjunto W de todas as combinações lineares de v 1, v 2,..., v r. O resultado a seguir mostra que W é um subespaço de V. Este subespaço é chamado o subespaço gerado por v 1, v 2,..., v r e dizemos que v 1, v 2,..., v r geram W ou que {v 1, v 2,..., v r } é um conjunto gerador de W. Para indicarmos que W é o espaço gerado por v 1, v 2,..., v r, escrevemos W = G(v 1, v 2,..., v r ). Por exemplo, G((1, 0, 0), (0, 1, 0), (0, 0, 1)) = R 3. Proposição 3.1.6. Seja W = G(v 1, v 2,..., v r ), onde v 1, v 2,..., v r são vetores de um espaço vetorial V. Valem as seguintes armações:
1. SUBESPAÇOS VETORIAIS 65 (i) W é um subespaço de V ; (ii) W é o menor subespaço de V contendo v 1, v 2...., v r, no sentido de que qualquer subespaço de V que contém v 1, v 2,..., v r também contém W. Demonstração reais a 1, a 2,..., a r (i): Tomemos a R e u, v W. Então existem números e b 1, b 2,..., b r tais que u = a 1 v 1 + a 2 v 2 + + a r v r, v = b 1 v 1 + b 2 v 2 + + b r v r. Portanto, u + av = (a 1 + ab 1 )v 1 + (a 2 + ab 2 )v 2 + + (a r + ab r )v r. Assim, u+av é uma combinação linear de v 1, v 2,..., v r e consequentemente pertence a W. Pelo Corolário 3.1.2, W é um subespaço de V. (ii): Cada vetor v i é uma combinação linear de v 1, v 2,..., v r, pois podemos escrever v i = 0v 1 + 0v 2 + + 1v i + + 0v r. Isto mostra que o subespaço W contém cada um dos vetores v 1, v 2,..., v r. Seja W um subespaço qualquer de V contendo v 1, v 2,..., v r. Pelo Corolário 3.1.2, esse subespaço contém todas as combinações lineares destes vetores. Assim, W W. Exemplo 6. O espaço gerado pelo vetor v = (1, 1, 2) em R 3 é o conjunto W = {a(1, 1, 2) ; a R}, já que uma combinação linear de v é um múltiplo escalar de v. Dizemos que um vetor w = av é uma dilatação, uma contração, ou uma inversão, de v, se a 1, 0 a < 1, ou a < 0, respectivamente. Assim, um elemento do subespaço W, acima, é uma dilatação, uma contração ou uma inversão de v (veja Figura 1).
66 CAPÍTULO 3. ESPAÇOS VETORIAIS Figura 1 Exemplo 7. Vamos encontrar o subespaço de R 3 gerado pelos vetores v 1 = (1, 2, 1) e v 2 = (2, 1, 1). Seja W = G(v 1, v 2 ). Tomemos v = (x, y, z) R 3. Temos que v W se, e somente se, existem números reais a 1 e a 2 tais que v = a 1 v 1 + a 2 v 2, ou, equivalentemente, se, e somente se, o sistema linear a 1 + 2a 2 = x 2a 1 + a 2 = y a 1 + a 2 = z (2) tem solução. A matriz ampliada do sistema (2) é equivalente à matriz 1 2 x 0 1 (x + z)/3. 0 0 (x + 3y 5z)/3 Portanto, (2) tem solução se, e somente se, x + 3y 5z = 0. W = {(x, y, z) R 3 ; x + 3y 5z = 0}. Assim, Para gerarmos um mesmo espaço, podemos usar conjuntos geradores distintos. Por exemplo, se considerarmos um vetor não nulo w qualquer em W no Exemplo 6 temos que G(v) = G(w). A seguinte proposição, cuja demonstração é deixada como exercício ao leitor (ver Problema 1.14), nos dá
1. SUBESPAÇOS VETORIAIS 67 uma condição necessária e suciente para que conjuntos distintos de vetores gerem um mesmo espaço. Proposição 3.1.7. Sejam α = {v 1, v 2,..., v r } e β = {w 1, w 2,..., w m } dois conjuntos de vetores em um espaço vetorial V. As seguintes armações são equivalentes: (a) G(v 1, v 2,..., v r ) = G(w 1, w 2,..., w m ); (b) cada vetor em α é uma combinação linear dos vetores de β e cada vetor em β é uma combinação linear dos vetores de α. Seja W um subespaço de um espaço vetorial V. Dar um conjunto de geradores w 1,..., w r de W é o mesmo que dar uma parametrização para o espaço W. De fato, considerando a aplicação ϕ: R r V (a 1,..., a r ) a 1 w 1 + + a r w r temos que W coincide com a imagem de ϕ. Problemas 1.1* Demonstre o Corolário 3.1.2. 1.2 Verique, em cada caso, se o conjunto W é um subespaço vetorial de R 2 : (a) W = {(x, y) ; x + y = 0}; (b) W = {(x, y) ; x + y = 1}; (c) W = {(x, y) ; x 2 = y}; (d) W = {(x, y) ; x + 3y = 0}. 1.3 Verique, em cada caso, se o conjunto W é um subespaço vetorial de R 3 : (a) W = {(x, y, z) ; x = 0}; (b) W = {(x, y, z) ; x + y + z 0}; (c) W = {(x, y, z) ; z = 3x 2y}; (d) W = {(x, 2x, x) ; x R}; (e) W = {(4x, y, y x) ; x, y R}.
68 CAPÍTULO 3. ESPAÇOS VETORIAIS 1.4 Verique, em cada caso, se o conjunto W é um subespaço vetorial de M(3, 3): (a) W = {[a ij ] ; a 11 + a 22 + a 33 = 0}; (b) W = {[a ij ] ; a ij = a ji para todo 1 i, j 3}; (c) W = {[a ij ] ; a ij = 0 se i j}; (d) W = {A ; A 2 = A}; (e) W = {A ; A é invertível}. 1.5 Verique, em cada caso, se o conjunto W é um subespaço vetorial de R[x]: (a) W = {p(x) = a + bx + cx 2 ; a, b, c Z}; (b) W = {p(x) = a + bx + cx 2 ; a = c = 0}; (c) W = {p(x) = a + bx + cx 2 ; c = a + b}; (d) W = {p(x) = a + bx + cx 2 ; c 0}. 1.6 Determine, em cada caso, V W e V + W : (a) V = {(x, y, z) R 3 ; x = y} e W = {(x, y, z) R 3 ; x = y = z}; (b) V ={[a ij ] 2 2 ; a 11 =a 22 e a 12 =a 21 } e W ={[a ij ] 2 2 ; a 11 =a 21 e a 12 =a 22 }; (c) V = {(x, y, x 3y) ; x, y R} e W = {(0, 0, z) ; z R}; (d) V = {(x, y, z, w) R 4 ; x + 2y w = 0} e W = {(x, x, x, x) ; x R}; (e) V = {(x, x, x) ; x R} e W = {(0, 0, z) ; z R}. Quais das somas anteriores são somas diretas? 1.7 Seja V = M(3, 3). Sejam U e W os subespaços de V das matrizes triangulares superiores e inferiores, respectivamente. Mostre que V U W. Construa subespaços U e W de V tais que V = U W e V = U W. 1.8 Sejam U e W subespaços de um espaço vetorial V. Mostre que: (a) U e W estão ambos contidos em U + W ; (b) U W é o maior subespaço contido em U e em W ; (c) W + W = W. 1.9 Sejam U e W subespaços de um espaço vetorial V. Prove que: (a) U W é subespaço vetorial se, e somente se, U W ou W U; (b) U + W = U W se, e somente se, U = W.
2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 69 1.10 Sejam U 1, U 2, W 1 e W 2 subespaços de um espaço vetorial V de modo que V = U 1 W 1 = U 2 W 2. Se U 1 U 2 e W 1 W 2, prove que U 1 = U 2 e W 1 = W 2. 1.11* Determine uma condição que a, b e c devem satisfazer de modo que (a, b, c) seja uma combinação linear de u = (2, 6, 4) e v = (2, 1, 1). 1.12* Considere o conjunto α = {( 1, 3, 1), (1, 2, 4)} e determine: (a) o espaço gerado por α; (b) o valor de k R para que v = (5, k, 11) pertença ao espaço gerado por α. 1.13 Encontre um conjunto de geradores para cada espaço abaixo: (a) V = {(x, y, z) R 3 ; x 2y + 3z = 0}; (b) V = {(x, y, z, t) R 4 ; x y = 0 e x + t = 0}; (c) V = {p(x) = a + bx + cx 2 R[x] 2 ; a b 2 = c}; { [ ] } a b (d) V = M(2, 2) ; a + c = d e b = 0. c d 1.14 Prove a Proposição 3.1.7. 1.15 Quais dos seguintes vetores (a) (0, 2, 2, 2), (b) (1, 4, 5, 2), (c) (0, 0, 0, 0), (d) (0, 3, 1, 5) são combinações lineares de u = (0, 0, 2, 2) e v = (0, 1, 3, 1)? 1.16 Expresse os seguintes polinômios (a) 2 + 5x, (b) x + 2x 2, (c) 3 + 3x + 5x 2 como combinação linear de p 1 (x) = 2 + x + 4x 2, p 2 (x) = 1 x + 3x 2, p 3 (x) = 3 + 2x + 5x 2. 2 Dependência e Independência Linear Vimos na seção anterior, que um conjunto nito de vetores α gera um dado espaço vetorial V se cada vetor em V pode ser escrito como uma combinação linear dos vetores de α. Em geral, pode haver mais de uma maneira
70 CAPÍTULO 3. ESPAÇOS VETORIAIS de expressar um vetor em V como uma combinação linear de vetores de um conjunto gerador. Por exemplo, R 3 = G(v 1, v 2, v 3, v 4 ), onde v 1 = (1, 1, 1), v 2 = (1, 1, 0), v 3 = (0, 1, 1) e v 4 = (1, 0, 1). Note que (4, 2, 1) = 1v 1 + 2v 2 1v 3 + 1v 4 e também que (4, 2, 1) = 1v 1 + 2v 2 + 0v 3 + 2v 4. Observamos nesse ponto que é possível trabalhar com conjuntos arbitrários (innitos) de geradores, mas não o faremos aqui, pois necessitaríamos introduzir novas ferramentas mais sosticadas, como o Lema de Zorn, ou o Axioma da Escolha (cf. [1]). Nesta seção, estudaremos condições sob as quais cada vetor de V pode ser escrito de uma única maneira como combinação linear dos elementos de um conjunto gerador. Na próxima seção veremos que conjuntos geradores com esta propriedade desempenham um papel fundamental no estudo dos espaços vetoriais. Sejam v 1, v 2,..., v r vetores em um espaço vetorial V. Dizemos que os vetores v 1, v 2,..., v r são linearmente independentes, ou simplesmente independentes, se a equação a 1 v 1 + a 2 v 2 + + a r v r = 0 é satisfeita somente quando a 1 = a 2 = = a r = 0. Caso exista algum a i 0, dizemos que os vetores v 1, v 2,..., v r são linearmente dependentes, ou simplesmente dependentes. O conjunto {v 1, v 2,..., v r } é dito ser independente ou dependente se os vetores v 1, v 2,..., v r são independentes ou dependentes, respectivamente. Observemos que se um dos vetores v 1, v 2,..., v r é o vetor nulo, digamos v 1 = 0, então os vetores são dependentes, pois 1v 1 + 0v 2 + + 0v r = 1 0 + 0 + + 0 = 0
2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 71 e o coeciente de v 1 não é 0. Por outro lado, qualquer vetor não nulo v é, por si só, independente, pois se av = 0, então a = 0. A seguir, apresentamos outros exemplos de vetores independentes e dependentes. Exemplo 1. Os vetores e 1 = (1, 0, 0), e 2 = (0, 1, 0) e e 3 = (0, 0, 1) são independentes, pois a equação a 1 e 1 + a 2 e 2 + a 3 a 3 = 0, equivalente à equação a 1 (1, 0, 0) + a 2 (0, 1, 0) + a 3 (0, 0, 1) = (0, 0, 0), é satisfeita somente se a 1 = a 2 = a 3 = 0. Exemplo 2. Vamos vericar se os vetores v 1 = (1, 3, 4), v 2 = (3, 2, 1) e v 3 = (1, 1, 2) são independentes ou dependentes. A equação a 1 v 1 + a 2 v 2 + a 3 v 3 = 0 é dada por a 1 (1, 3, 4) + a 2 (3, 2, 1) + a 3 (1, 1, 2) = (0, 0, 0) ou, equivalentemente, é dada pelo sistema linear homogêneo a 1 + 3a 2 + a 3 = 0 3a 1 + 2a 2 a 3 = 0 4a 1 + a 2 + 2a 3 = 0. (1) Assim, os vetores v 1, v 2 e v 3 são independentes, se o sistema em (1) tiver somente a solução trivial; ou são dependentes, se o sistema tiver uma solução não trivial. Mas, o sistema em (1) tem somente a solução trivial se, e somente se, a matriz dos coecientes 1 3 1 A = 3 2 1 4 1 2
72 CAPÍTULO 3. ESPAÇOS VETORIAIS é invertível (cf. Corolário 2.2.7). Como a matriz é equivalente por linhas à matriz (justique) 1 3 1 3 2 1, 0 0 0 concluímos que v 1, v 2 e v 3 são linearmente dependentes. A solução do exemplo anterior motiva o próximo resultado, que nos oferece um método para vericar se n vetores de R n são linearmente independentes ou dependentes. A demonstração é deixada ao cargo do leitor (veja Problema 2.8). Proposição 3.2.1. Sejam v 1, v 2,..., v n vetores em R n, onde, para cada i, com 1 i n, temos v i =(a i1, a i2,..., a in ). Seja A = [a ij ]. Temos que {v 1, v 2,..., v n } é linearmente independente se, e somente se, A é invertível. E caso tenhamos n+1 vetores em R n? O próximo teorema mostra que um conjunto linearmente independente em R n pode conter no máximo n vetores. Teorema 3.2.2. Sejam v 1, v 2,..., v r vetores em R n. Se r > n, então os vetores v 1, v 2,..., v r são linearmente dependentes. Demonstração Suponhamos que, para cada 1 i r, v i = (a i1,..., a in ). Consideremos a equação k 1 v 1 + k 2 v 2 + + k r v r = 0. Esta equação é equivalente ao sistema linear homogêneo a 11 k 1 + a 21 k 2 + + a r1 k r = 0 a 12 k 1 + a 22 k 2 + + a r2 k r = 0.... a 1n k 1 + a 2n k 2 + + a rn k r = 0. (2) O sistema dado em (2) é um sistema linear homogêneo de n equações nas r incógnitas k 1, k 2,..., k r. Como r > n, segue do Corolário 2.2.7 que o sistema tem soluções não triviais. Isto mostra que v 1, v 2,..., v r são dependentes.
2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 73 O termo linearmente dependente" sugere que os vetores de alguma maneira dependem uns dos outros. O próximo resultado mostra que isto realmente ocorre. Teorema 3.2.3. Um conjunto nito α com dois ou mais vetores de um espaço vetorial V é linearmente dependente se, e somente se, pelo menos um dos vetores de α pode ser escrito como uma combinação linear dos outros vetores. Demonstração vetorial V. Seja α = {v 1, v 2,..., v r } um subconjunto de um espaço Se α é linearmente dependente, então existem números reais a 1, a 2,..., a r, não todos nulos, tais que a 1 v 1 + a 2 v 2 + + a r v r = 0. Suponhamos que a j 0. Então v j = a 1 v 1 a j 1 v j 1 a j+1 v j+1 a r v r, a j a j a j a j mostrando que v j é uma combinação linear dos demais vetores de α. Suponhamos agora que α tem a propriedade de que um de seus vetores, digamos v i, pode ser escrito como uma combinação linear dos outros vetores de α. Ou seja, que existem números reais b 1,..., b i 1, b i+1,..., b r tais que v i = b 1 v 1 + + b i 1 v i 1 + b i+1 v i+1 + + b r v r. A equação anterior equivale a b 1 v 1 + + b i 1 v i 1 1v i + b i+1 v i+1 + + b r v r = 0. (3) Como o coeciente de v i na equação (3) não é 0, segue que α é linearmente dependente. Do resultado acima, segue imediatamente que um conjunto nito α com dois ou mais vetores de um espaço vetorial V é linearmente independente se, e somente se, nenhum dos vetores de α pode ser escrito como uma combinação linear dos outros vetores. Por exemplo, nenhum dos vetores dados no Exemplo 1 pode ser escrito como uma combinação linear dos demais. Já, no Exemplo 2, observemos que v 3 = 5 11 v 1 + 2 11 v 2.
74 CAPÍTULO 3. ESPAÇOS VETORIAIS Problemas 2.1* Considere o espaço vetorial R[x]. Determine se os polinômios f(x), g(x), h(x) são linearmente dependentes, onde f(x) = x 3 + 4x 2 2x + 3, g(x) = x 3 + 6x 2 x + 4 e h(x) = 2x 3 + 8x 2 8x + 7. 2.2 Verique, em cada caso, se o conjunto de vetores de R 3 indicado é linearmente dependente: (a) {(2, 1, 4), ( 4, 10, 2)}; (b) {( 3, 0, 4), (5, 1, 2), (1, 1, 3)}; (c) {(1, 0, 2), (3, 1, 5), ( 1, 2, 1), (4, 0, 1)}. 2.3 Quais dos seguintes conjuntos de vetores em R 4 são linearmente dependentes? (a) {(3, 8, 7, 3), (1, 1/2, 1, 3), (1, 4, 0, 3)}; (b) {(0, 0, 1, 1), (2, 2, 0, 0), (3, 3, 0, 3)}; (c) {(1, 0, 1, 2), (0, 2, 3, 1), (0, 1, 1, 0), ( 2, 1, 2, 1)}. 2.4 Para quais valores reais de a os vetores v 1 = (a, 1, 1), v 2 = ( 1, a, 1) e v 3 = ( 1, 1, a) formam um conjunto linearmente dependente em R 3? 2.5 Seja V um espaço vetorial e seja α = {v 1, v 2,..., v n } um conjunto linearmente independente de vetores de V. Mostre que qualquer subconjunto não vazio de α é também linearmente independente. 2.6 Mostre que se {v 1, v 2, v 3, v 4 } é um conjunto linearmente dependente de vetores em um espaço vetorial V e se v 5 é um vetor qualquer em V, então {v 1, v 2, v 3, v 4, v 5 } também é linearmente dependente. 2.7 Mostre que se {v 1, v 2, v 3, v 4 } gera um espaço vetorial V e se v 4 é uma combinação linear de v 1, v 2 e v 3, então {v 1, v 2, v 3 } ainda gera V. 2.8 Demonstre a Proposição 3.2.1.
3. BASES E DIMENSÃO 75 2.9 Mostre que se {v 1, v 2, v 3 } é um conjunto linearmente independente de vetores em um espaço vetorial V e se v 4 / G(v 1, v 2, v 3 ), então {v 1, v 2, v 3, v 4 } é linearmente independente. 2.10 Dados os elementos v 1,..., v r de um espaço vetorial V, mostre que esses são linearmente independentes se, e somente se, é injetiva a seguinte aplicação: ϕ: R r V (a 1,..., a r ) a 1 v 1 + + a r v r. 3 Bases e Dimensão Nesta seção introduziremos os dois conceitos fundamentais no contexto dos espaços vetoriais: base e dimensão. Esses dois conceitos esclarecem a estrutura desses espaços e ao mesmo tempo simplicam as demonstrações de vários resultados sobre eles. 3.1 Bases Seja α = {v 1, v 2,..., v n } um conjunto ordenado de vetores de um espaço vetorial V. Dizemos que α é uma base de V se as seguintes condições são vericadas: (i) α é linearmente independente; (ii) V = G(α). Vimos no Exemplo 1, da seção anterior, que o conjunto α = {e 1, e 2, e 3 } é linearmente independente. Este conjunto também gera R 3, pois qualquer vetor v = (a 1, a 2, a 3 ) em R 3 pode ser escrito como v = a 1 e 1 + a 2 e 2 + a 3 e 3. Assim, α, com a ordenação dada pelos índices, é uma base de R 3, chamada base canônica de R 3. Este é um caso particular do próximo exemplo. Exemplo 1. Denimos o símbolo de Kronecker 1, δ ij, para (i, j) N 2, como 1 Leopold Kronecker (Alemanha, 1823 1891) foi um dos grandes matemáticos do século XIX. Além de sua grande e profunda contribuição à Matemática, cou famoso
76 CAPÍTULO 3. ESPAÇOS VETORIAIS δ ij = { 1, se i = j 0, se i j. Seja n N \ {0}. Para cada 1 i n, denotemos por e i o vetor (δ i1, δ i2,..., δ ij,..., δ in ) = (0,..., 0, 1, 0,... 0) em R n, onde a componente 1 encontra-se na i-ésima posição. α = {e 1, e 2,..., e n } é linearmente independente, pois a equação O conjunto k 1 e 1 + k 2 e 2 + + k n e n = 0 é satisfeita somente se k 1 = k 2 = = k n = 0. Além disto, este conjunto também gera R n, pois qualquer vetor v = (a 1, a 2,..., a n ) em R n pode ser escrito como v = a 1 e 1 + a 2 e 2 + + a n e n. Assim, α, com a ordenação dada pelo índices dos e is é uma base de R n, chamada base canônica de R n. O próximo exemplo apresenta a base canônica de M(m, n). Exemplo 2. Sejam [ ] [ ] [ ] [ ] 1 0 0 1 0 0 0 0 M 1 =, M 2 =, M 3 = e M 4 =. 0 0 0 0 1 0 0 1 O conjunto α = {M 1, M 2, M 3, M 4 } é uma base de M(2, 2). Com efeito, para vermos que α gera M(2, 2), observemos que um vetor qualquer [ ] a b M = c d em M(2, 2) pode ser escrito como M = am 1 + bm 2 + cm 3 + dm 4. pela polêmica envolvendo os trabalhos de Cantor, o criador da Teoria dos Conjuntos, que Kronecker não considerava Matemática.
3. BASES E DIMENSÃO 77 Para vericarmos que α é linearmente independente, suponhamos que a 1 M 1 + a 2 M 2 + a 3 M 3 + a 4 M 4 = 0, ou seja, [ ] [ ] [ ] [ ] [ ] [ ] 1 0 0 1 0 0 0 0 a 1 a 2 0 0 a 1 + a 2 + a 3 + a 4 = =. 0 0 0 0 1 0 0 1 a 3 a 4 0 0 Segue-se que a 1 = a 2 = a 3 = a 4 = 0 e, portanto, α é linearmente independente. A base α é chamada a base canônica de M(2, 2). Mais geralmente, a base canônica de M(m, n) é formada por mn matrizes distintas, cada uma das quais possuindo uma única entrada igual a 1 e todas as demais entradas iguais a 0, ordenadas de forma semelhante ao que foi feito no caso M(2, 2). A noção de base é uma generalização para espaços vetoriais arbitrários do sistema de coordenadas em R 2 e R 3 já que, como veremos a seguir, uma base de um espaço vetorial V é um conjunto gerador no qual cada vetor de V pode ser escrito de modo único como combinação linear desses vetores. Teorema 3.3.1. Seja α = {v 1, v 2,..., v n } um conjunto ordenado de vetores de um espaço vetorial V. As seguintes armações são equivalentes: (i) α é uma base de V ; (ii) cada vetor v em V pode ser escrito de modo único na forma v = a 1 v 1 + a 2 v 2 + + a n v n. Demonstração Suponhamos que α é uma base de V. Tomemos v V. Como α gera V, existem números reais a 1, a 2,..., a n tais que v = a 1 v 1 + a 2 v 2 + + a n v n. (1) Para mostrar que a combinação linear em (1) é única, suponhamos que existem b 1, b 2,..., b n em R tais que v = b 1 v 1 + b 2 v 2 + + b n v n. (2)
78 CAPÍTULO 3. ESPAÇOS VETORIAIS De (1) e (2) segue que (a 1 b 1 )v 1 + (a 2 b 2 )v 2 + + (a n b n )v n = 0. (3) Como α é independente, a equação (3) é satisfeita somente se a j b j = 0 para todo 1 j n, ou seja, se b j = a j para todo 1 j n. Como v V foi tomado de modo arbitrário, (ii) segue. Suponhamos agora que α tem a propriedade de que cada vetor v em V pode ser escrito de modo único como combinação linear dos elementos de α. Pela denição de espaço gerado, claramente α gera V. Para mostrarmos que α é independente, consideremos a equação k 1 v 1 + k 2 v 2 + + k n v n = 0. Como 0 = 0v 1 + 0v 2 + + 0v n e esta escrita é única, segue que k 1 = k 2 = = k n = 0. Os números reais a 1, a 2,..., a n que aparecem no Teorema 3.3.1 são chamados coordenadas de v na base α. A matriz n 1 a 1 a 2., a n denotada por [v] α, é chamada a matriz das coordenadas de v na base α. Por exemplo, se α é a base canônica de R 3 e v = (1, 2, 1), então 1 [v] α = 2. 1 Tomemos agora β = {(1, 0, 0), (0, 1, 0), (1, 1, 1)}, que é uma base de R 3. Então 0 [v] β = 1. 1
3. BASES E DIMENSÃO 79 Geometricamente, o vetor v se localiza em uma mesma posição no espaço cartesiano, porém o modo como ele é determinado no espaço depende da base com a qual estamos trabalhando. Os vetores de uma base de R 3 (respectivamente R 2 ) especicam um sistema de coordenadas no espaço cartesiano (respectivamente no plano cartesiano). Observamos que a matriz das coordenadas de um vetor em relação a uma base α não depende apenas de α, mas também da ordem na qual escrevemos os seus vetores, já que uma mudança na ordem dos vetores da base implica numa mudança correspondente da ordem das entradas da matriz. Dessa forma, uma base de um espaço vetorial será sempre considerada como um conjunto ordenado de vetores. O próximo teorema mostra que um conjunto gerador de um espaço vetorial V sempre contém uma base de V. Teorema 3.3.2. Sejam v 1, v 2,..., v n vetores não nulos que geram um espaço vetorial V. Então, dentre estes vetores, podemos extrair uma base de V. Demonstração Consideremos α 0 = {v 1, v 2,..., v n }. Devemos extrair um conjunto linearmente independente de α 0. Se α 0 é linearmente independente, então α 0 é uma base de V, e a demonstração termina aqui. Se α 0 é linearmente dependente, segue do Teorema 3.2.3 que existe um vetor de α 0 que pode ser escrito como combinação linear dos demais. Sem perda de generalidade, suponhamos que este vetor seja v n, ou seja, que v n é uma combinação linear de v 1, v 2,..., v n 1. O conjunto α 1 = {v 1, v 2,..., v n 1 } ainda gera V. (Por quê? Veja Problema 2.7). Se α 1 é linearmente independente, então α 1 é uma base de V. Se α 1 é linearmente dependente, então um dos vetores de α 1, digamos v n 1, é uma combinação linear dos demais. O conjunto α 2 = {v 1, v 2,..., v n 2 } ainda gera V. Se α 2 é linearmente independente, então α 2 é uma base de V. Se α 2 é linearmente dependente, prosseguimos como anteriormente. Após uma quantidade nita de passos, obteremos um conjunto α r formado por n r vetores (0 r n 1) linearmente independentes que ainda geram V.
80 CAPÍTULO 3. ESPAÇOS VETORIAIS O próximo resultado generaliza o Teorema 3.2.2. Teorema 3.3.3. Seja V um espaço vetorial gerado por um conjunto nito de vetores v 1, v 2,..., v n. Então, qualquer conjunto com mais de n vetores de V é linearmente dependente. (Consequentemente, qualquer conjunto de vetores de V linearmente independente tem no máximo n vetores). Demonstração Consideremos α = {v 1, v 2,..., v n }. Pelo Teorema 3.3.2, podemos extrair de α uma base de V. Suponhamos sem perda de generalidade que β = {v 1, v 2,..., v r } seja esta base (notemos que 1 r n). Consideremos agora w 1, w 2,..., w m vetores de V, com m > n. Vamos mostrar que estes vetores são linearmente dependentes. De fato, como β é uma base de V, existem números reais a ij (1 i m, 1 j r) tais que w 1 = a 11 v 1 + a 12 v 2 + + a 1r v r, w 2 = a 21 v 1 + a 22 v 2 + + a 2r v r,... w m = a m1 v 1 + a m2 v 2 + + a mr v r. Se x 1 w 1 + x 2 w 2 + + x m w m = 0, segue de (4) que. (4) (a 11 x 1 + a 21 x 2 + + a m1 x m )v 1 + + (5) + (a 1r x 1 + a 2r x 2 + + a mr x m )v r = 0. Como β é linearmente independente, a equação (5) nos fornece o sistema linear homogêneo a 11 x 1 + a 21 x 2 + + a m1 x m = 0... a 1r x 1 + a 2r x 2 + + a mr x m = 0 que tem r equações e x 1, x 2,..., x m como incógnitas. Como r < m, o Corolário 2.2.7 garante que o sistema linear em questão admite innitas soluções. Logo, ele admite uma solução não trivial, ou seja, existe uma solução com algum x i não nulo. Portanto, os vetores w 1, w 2,..., w m são dependentes.
3. BASES E DIMENSÃO 81 Um espaço vetorial não nulo V é chamado de dimensão nita se contém um conjunto nito {v 1, v 2,..., v n } de vetores que constitui uma base de V. Se não existir um tal conjunto, dizemos que V é de dimensão innita. Convencionamos que o espaço vetorial nulo é um espaço de dimensão nita. O próximo resultado, que é uma consequência do Teorema 3.3.3, nos garante que todas as bases de um espaço vetorial de dimensão nita têm o mesmo número de elementos. Teorema 3.3.4. Sejam α = {v 1, v 2,..., v r } e β = {w 1, w 2,..., w s } duas bases de um espaço vetorial V. Então, r = s. Além disso, se A = (a ij ) e B = (b ij ) são as matrizes com coecientes reais tais que então AB = I. Demonstração v i = r a ij w j e w j = j=1 r b jk v k, k=1 Como α gera V e β é um conjunto linearmente independente, segue do Teorema 3.3.3 que s r. Por outro lado, como β gera V e α é um conjunto linearmente independente, segue do Teorema 3.3.3 que r s. Portanto, r = s. Sejam A e B tais que v i = r a ij w j e w j = j=1 r b jk v k. k=1. Logo v i = r j=1 a ijw j = r j=1 a ij ( r k=1 b jkv k ) = ( n n ) k=1 j=1 a ijb jk v k. Como os v i, i = 1,..., r formam um conjunto linearmente independente, isto acarreta (justique) que r a ij b jk = δ ik, j=1 logo AB = I, provando a parte que faltava do resultado.
82 CAPÍTULO 3. ESPAÇOS VETORIAIS 3.2 Dimensão O número de elementos de uma base de um espaço vetorial V de dimensão nita é chamado de dimensão de V e denotado por dim V. Convencionamos que se V é o espaço vetorial nulo, então dim V = 0. Exemplo 3. R n e M(m, n) são espaços vetoriais de dimensão nita. A dimensão de R n é n, já que a base canônica de R n tem n elementos (ver Exemplo 1). Por esta razão, R n é chamado de espaço n-dimensional. Os espaços vetoriais R 2 e R 3 são usualmente chamados de espaços bidimensional e tridimensional, respectivamente. Já a dimensão de M(m, n) é m n (ver Exemplo 2). O espaço vetorial R[x], introduzido por Peano e que apresentamos no Exemplo 3 da Seção 1, Capítulo 1, é um espaço vetorial que tem dimensão innita. De fato, tomemos n N \ {0} e suponhamos que α = {p 1,..., p n } é uma base de R[x]. Observemos que qualquer combinação linear dos elementos de α tem grau no máximo M, onde M = max{grau(p i ) ; 1 i n}. Assim, o polinômio q(x) = x M+1 está em R[x], mas não pode ser escrito como combinação linear dos elementos de α. Portanto, α não forma uma base de R[x]. Como n foi tomado de modo arbitrário, vemos que nenhum conjunto nito de vetores em R[x] constitui uma base para este espaço vetorial. Vimos no Teorema 3.3.2 que em espaços vetoriais V de dimensão nita, um conjunto gerador contém sempre uma base de V. A seguir, veremos que um conjunto linearmente independente está contido em alguma base de V. Teorema 3.3.5. Qualquer subconjunto linearmente independente de um espaço vetorial V de dimensão nita pode ser completado de modo a formar uma base de V. Demonstração Suponhamos dim V = n. Seja α = {w 1, w 2,..., w r } um conjunto de vetores linearmente independentes de V. Pelo Teorema 3.3.3, r n. Se α gera V, então α é uma base de V, e a demonstração acaba aqui (neste caso, r = n). Se α não gera V, então existe um vetor de V que não pertence ao espaço gerado por α. Chamemos este vetor de w r+1. O conjunto {w 1, w 2,..., w r+1 } é linearmente independente. (Por quê? Veja
3. BASES E DIMENSÃO 83 Problema 2.9). Se este conjunto gera V, temos então uma base de V que contém α. Caso contrário, prosseguimos usando o argumento acima. Como não podemos ter mais do que n vetores independentes em V, após um número nito de passos teremos obtido uma base de V que contém os vetores de α. Terminamos esta seção apresentando um resultado que envolve a noção de dimensão para subespaços. Mais precisamente, mostraremos que a dimensão de um subespaço W de um espaço vetorial de dimensão nita V não pode exceder a dimensão de V e que a única maneira de W ter a mesma dimensão de V é sendo igual a V. Teorema 3.3.6. Seja V um espaço vetorial de dimensão nita. Se W é um subespaço de V, então W tem também dimensão nita e dim W dim V. Além disso, se dim W = dim V, então W = V. Demonstração Se W = {0}, W tem dimensão nita. Se W {0}, tome w 1 W com w 1 0. O conjunto α 1 = {w 1 } é independente. Se α 1 gera W, então α 1 é uma base de W. Assim, W tem dimensão nita igual a 1. Se α 1 não gera W, existe w 2 W com w 2 / G(w 1 ). O conjunto α 2 = {w 1, w 2 } é independente. Se α 2 gera W, então W tem dimensão nita igual a 2. Se α 2 não gera W, prosseguimos com o raciocínio anterior. Como dim V é nita, digamos n, e qualquer conjunto independente de V tem no máximo n vetores, existe m N \ {0} com m n tal que α m = {w 1, w 2,..., w m } é uma base de W. Isto prova que W tem dimensão nita e que dim W = m, com m n. Suponhamos agora que dim W = dim V = n. Seja β = {w 1, w 2,..., w n } uma base de W. Suponhamos que W V. Como W V, existe então um vetor de V que não está em W. Chamemos este vetor de v. Como v / W, o conjunto {w 1, w 2,..., w n, v} é um conjunto de vetores de V linearmente independente. Como este conjunto tem n + 1 vetores e dim V = n, temos uma contradição. Portanto, de fato, W = V.
84 CAPÍTULO 3. ESPAÇOS VETORIAIS Observe que a demonstração da primeira parte do Teorema 3.3.6 nos dá um método para acharmos uma base de um subespaço. Em particular, mostramos que todo espaço vetorial não nulo de dimensão nita tem uma base. Problemas 3.1* Seja V um espaço vetorial tal que dim V = n. Prove que: (a) n vetores linearmente independentes de V formam uma base de V ; (b) n vetores que geram V formam uma base de V. Em geral, para mostrar que um conjunto de vetores α é uma base de um espaço vetorial V, devemos vericar que os vetores em α são linearmente independentes e que geram V. No entanto, se soubermos que V tem dimensão n e que α tem n elementos, então para que α seja uma base de V, basta vericar que os seus elementos são linearmente independentes ou que geram V, pois uma condição automaticamente implica a outra. Ou seja, o trabalho de vericar se α é uma base ca simplicado! 3.2* Seja V o espaço vetorial das matrizes simétricas 2 2. Mostre que dim V = 3 e exiba uma base de V. 3.3* Sejam U e W os seguintes subespaços de R 4 : U = {(a, b, c, d) ; b + c + d = 0}, W = {(a, b, c, d) ; a + b = 0, c = 2d}. Ache uma base e a dimensão de (a) U, (b) W, (c) U W, (d) U + W. 3.4 Seja α = {v 1, v 2, v 3 }, onde v 1 = (1, 1, 0), v 2 = (0, 1, 1) e v 3 = (2, 0, 2). (a) α é linearmente independente ou dependente? Justique a sua resposta. (b) Obtenha β α tal que β é independente e que G(β) = G(α). (c) Qual a dimensão de G(α)? Justique. 3.5 Seja U um subespaço de um espaço vetorial V de dimensão nita. Mostre que existe um subespaço W de V tal que V = U W.
3. BASES E DIMENSÃO 85 3.6 Determine se as matrizes [ ] [ ] [ ] 1 1 0 1 0 0 A =, B =, C = 0 0 1 0 1 1 [ ] 0 0 e D = 0 1 formam uma base de M(2, 2). 3.7 Determine a dimensão do espaço vetorial de todas as matrizes 3 3 triangulares superiores. 3.8 Seja A uma matriz 3 3. Por que o conjunto I, A, A 2,..., A 9 é linearmente dependente? 3.9 Determine a dimensão do espaço vetorial de todos os polinômios p de grau 4 tais que p(1) = 0. 3.10 Seja W o subespaço vetorial de M(2, 2) dado por {[ ] } a b W = ; a = d e c = a + b. c d (a) Qual a dimensão de W? (b) O conjunto {[ ] [ ]} 1 1 2 1, 0 1 3 4 é uma base de W? Por quê? 3.11 Encontre uma base e a dimensão do conjunto solução dos seguintes sistemas: x + 2y 2z t = 0 (a) x + y + z + t = 0 x + 2y + 3z + 2t = 0 ; x + y 2z + t = 0 (b) 2x + 2y 4z + 2t = 0. 3.12 Podemos ter uma base de R[x] n formada por n + 1 polinômios de grau n? Justique a sua resposta. 3.13 Encontre as coordenadas de:
86 CAPÍTULO 3. ESPAÇOS VETORIAIS (a) u = (1, 1) em relação à base {(2, 4), (3, 8)} de R 2 ; (b) u = (1, 1) em relação à base {(1, 1), (0, 2)} de R 2 ; (c) p(x) = 2 + x x 2 em relação à base {1 + x, 1 + x 2, x + x 2 } de R[x] 2. 3.14 Seja V um espaço vetorial de dimensão nita e seja α uma base de V. Mostre que: (a) [v + w] α = [v] α + [w] α para quaisquer v e w em V ; (b) [cv] α = c[v] α para todo v em V e para todo c R. 3.15 Sejam U e V espaços vetoriais, de dimensões r e s, respectivamente. Mostre que o espaço vetorial U V, denido no Problema 1.5, do Capítulo 1, tem dimensão r + s. Sugestão Se {u 1,..., u r } é uma base de U e {v 1,..., v s } é uma base de V, mostre que {(u i, 0); 1 i r} {(0, v j ); 1 j s} é uma base de U V. 3.16 Sejam U e W subespaços de um espaço vetorial V tais que U W = {0}. Sejam {u 1,..., u r } e {w 1,..., w s }, respectivamente, bases de U e W. Mostre que {u i ; 1 i r} {w j ; 1 j s} é uma base de U + W. Conclua que dim(u + W ) = dim U + dim W. 4 Espaço Linha de uma Matriz Nesta seção vamos apresentar um método para encontrar uma base de subespaços de R n, usando as transformações elementares nas linhas de uma matriz. Para uma matriz m n a 11 a 12... a 1n a A = 21 a 22... a 2n..., a m1 a m2... a mn
4. ESPAÇO LINHA DE UMA MATRIZ 87 os vetores v 1 = (a 11, a 12,..., a 1n ) v 2 = (a 21, a 22,..., a 2n ).. v m = (a m1, a m2,..., a mn ) em R n formados pelas linhas de A são chamados os vetores linha de A. O espaço G(v 1,..., v m ) gerado pelos vetores linha de A é chamado espaço linha de A e denotado por L(A). Note que L(A) é um subespaço de R n. O espaço linha de uma matriz não se altera ao aplicarmos transformações elementares. De fato, se A = [a ij ] é uma matriz m n, é fácil vericar que G(v 1,..., v i,..., v j,..., v m ) = G(v 1,..., v j,..., v i,..., v m ), G(v 1,..., v i,..., v m ) = G(v 1,..., kv i,..., v m ) (k 0), G(v 1,..., v i,..., v j,..., v m ) = G(v 1,..., v i + kv j,..., v j,..., v m ) (k R). Em outras palavras, L(A) = L(B), onde B = e(a), com e: L i L j ; L(A) = L(B), onde B = e(a), com e: L i kl i (k 0); L(A) = L(B), onde B = e(a), com e: L i L i + kl j (k R). Disto decorre o seguinte importante fato: Duas matrizes equivalentes geram o mesmo espaço linha. O próximo resultado mostra como obter uma base para o espaço linha de uma matriz. Teorema 3.4.1. As linhas não nulas de uma matriz Ã, na forma escalonada e equivalente a uma matriz A, formam uma base para o espaço linha de A. Demonstração Sejam A uma matriz m n e à = [ã ij] uma matriz na forma escalonada equivalente a A. Suponhamos que à tem p linhas não
88 CAPÍTULO 3. ESPAÇOS VETORIAIS nulas e consideremos os vetores v 1 = (ã 11,..., ã 1n ) v 2 = (ã 21,..., ã 2n ).. v p = (ã p1,..., ã pn ) formados pelas linhas não nulas de Ã. Pelo que vimos anteriormente, L(A) = L(Ã) = G(v 1, v 2,..., v p ), já que à é uma matriz equivalente a A. Vamos mostrar que {v 1, v 2,..., v p } é linearmente independente. Para cada 1 i p, seja k i a coluna na qual aparece o primeiro elemento não nulo da i-ésima linha de Ã, ou seja ã ik i = 1 e ã i,l = 0, se l < k i. Suponhamos que a 1 v 1 + + a p v p = 0, que reescrevemos como segue: a 1 (0,..., 0, ã 1k1,,...,, 0,..., 0,..., ) + a 2 (0,..., 0, 0, 0,..., 0, ã 2k2,..., 0,..., ). + a p (0,..., 0, 0, 0,..., 0, 0,..., ã pkp,..., ) = (0,..., 0, 0, 0,..., 0, 0,..., 0,..., 0), onde representa um número real. Logo, a igualdade de vetores, acima, nos fornece um sistema de equações lineares nas incógnitas a 1, a 2,..., a p, o qual contém as equações a 1 ã 1k1 = = a p ã pkp = 0. Como ã iki = 1, para todo i = 1,..., p, segue que a 1 = a 2 = = a p = 0. Portanto, {v 1, v 2,..., v p } gera L(A) e é linearmente independente, ou seja, {v 1, v 2,..., v p } forma uma base de L(A). Corolário 3.4.2. O posto p A de uma matriz A é o número máximo de linhas linearmente independentes da mesma. Mais precisamente, p A = dim L(A).
4. ESPAÇO LINHA DE UMA MATRIZ 89 Demonstração A dimensão do espaço linha de uma matriz é igual ao número máximo de linhas linearmente independentes da mesma. Como o espaço linha de uma matriz é igual ao espaço linha de uma matriz escalonada equivalente a ela, sua dimensão é igual ao número de linhas não nulas dessa última, que é igual ao posto da matriz. O exemplo a seguir nos mostrará como o Teorema 3.4.1 pode nos ajudar a determinar o espaço gerado por vetores em R n. Exemplo 1. Determine uma base do espaço gerado pelos vetores v 1 = (1, 2, 0, 0, 3), v 2 = (2, 5, 3, 2, 6), v 3 = (0, 5, 15, 10, 0) e v 4 = (2, 6, 18, 8, 6). O espaço gerado pelos vetores v 1, v 2, v 3 e v 4 é o espaço linha da matriz 1 2 0 0 3 2 5 3 2 6 A = 0 5 10 10 0. 2 6 18 8 6 Reduzindo esta matriz à forma escalonada obtemos a matriz 1 0 0 2 3 0 1 0 1 0 à = 0 0 1 1 0. 0 0 0 0 0 Os vetores linha não nulos da matriz à são os vetores w 1 = (1, 0, 0, 2, 3), w 2 = (0, 1, 0, 1, 0) e w 3 = (0, 0, 1, 1, 0). Estes vetores formam uma base para o subespaço de R 5 gerado por v 1, v 2, v 3 e v 4. Assim, se W = G(v 1, v 2, v 3, v 4 ), então W = G(w 1, w 2, w 3 ) = {xw 1 + yw 2 + zw 3 ; x, y, z R} = {(x, y, z, 2x y + z, 3x) ; x, y, z R}. Problemas
90 CAPÍTULO 3. ESPAÇOS VETORIAIS 4.1* Seja U o subespaço de R 4 gerado pelos vetores u 1 = (1, 2, 3, 3), u 2 = (2, 3, 1, 4), u 3 = (3, 8, 3, 5). (a) Ache uma base e a dimensão de U. (b) Estenda a base de U a uma base de todo o espaço R 4. 4.2* Seja U o subespaço de R 4 gerado pelos vetores u 1 = (2, 4, 2, 6), u 2 = (1, 2, 1/2, 1) e u 3 = (3, 6, 3, 7) e seja W o subespaço de R 4 gerado pelos vetores w 1 = (1, 2, 4, 11) e w 2 = (2, 4, 5, 14). Mostre que U = W. 4.3 Determine se (1, 1, 1), (1, 2, 3) e (0, 3, 1) formam uma base de R 3. 4.4 Ache uma base e a dimensão do subespaço W de R 4 gerado por w 1 = ( 1, 4, 2, 1), w 2 = (1, 3, 1, 2) e w 3 = (4, 10, 2, 10). Estenda a base de W a uma base de todo R 4. 4.5 Encontre os vetores da base canônica que podem ser acrescentados ao conjunto {v 1, v 2, v 3 } para formar uma base de R 5, onde v 1 = (1, 4, 2, 3, 0), v 2 = ( 3, 8, 4, 6, 0) e v 3 = (0, 1, 2, 5, 4).
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
4 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 4: O Espaço Vetorial R 3 Sumário 1 Retas e Planos em R 3................. 93 1.1 Retas em R 3..................... 93 1.2 Planos em R 3..................... 99 2 Posições Relativas................... 107 3 Determinantes e Geometria............. 111 3.1 Determinantes.................... 111 3.2 O Produto Vetorial.................. 115 91
92 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Neste Capítulo, aplicaremos os conceitos vistos no capítulo anterior à Geometria Analítica em R 3. Mais precisamente, usaremos os conceitos de subespaço vetorial, base e dimensão para estudar as noções de retas e planos em R 3. Uma ferramenta essencial para o estudo da geometria em R 3 é a noção de produto escalar que introduziremos em seguida. Dados u = (x 1, x 2, x 3 ) e v = (y 1, y 2, y 3 ) em R 3, denimos o produto escalar de u e v, denotado por u v, como o número real u v = x 1 y 1 + x 2 y 2 + x 3 y 3. Por exemplo, (1, 2, 1) (0, 2, 1) = 1.0 + 2.2 + ( 1)(1) = 3. É fácil vericar que, para quaisquer u, v, w R 3 e a R, tem-se (i) u v = v u, (ii) u (v + w) = u v + u w, (iii) (au) v = u (av) = a(u v). Dados dois vetores u e v em R 3, dizemos que eles são ortogonais, e denotamos u v, quando u v = 0. O produto escalar é um caso particular de uma classe de produtos de- nidos em espaços vetoriais de dimensão qualquer, chamados de produtos internos, que serão estudados no Capítulo 7. A partir do produto escalar, podemos denir a norma de um vetor v = (x, y, z), como v = v v = x 2 + y 2 + z 2. Note que da denição segue-se imediatamente que v 0 e que v = 0 se, e somente se, v = 0. Geometricamente, a norma do vetor v representa a distância da origem de R 3 ao ponto de coordenadas (x, y, z), ou seja, é igual ao módulo do vetor v. Mostraremos a seguir como a noção de produto escalar permite também calcular o ângulo entre dois vetores em R 3.
1. RETAS E PLANOS EM R 3 93 Lembremos que o ângulo entre dois vetores não nulos u e v em R 3 é o ângulo θ formado por eles tal que 0 θ π (Figura 2). Figura 2 Aplicando a lei dos cossenos no triângulo da Figura 2, obtemos u v 2 = u 2 + v 2 2 u v cos θ. (1) Por outro lado, segue das propriedade (i), (ii) e (iii) do produto escalar que u v 2 = (u v) (u v) = u u u v v u + v v = u 2 2u v + v 2. (2) De (1) e (2), temos que cos θ = u v u v (3) 1 Retas e Planos em R 3 1.1 Retas em R 3 Seja v um vetor não nulo em R 3. Seja W o conjunto de todas as combinações lineares de v, ou seja, W = G(v) = {tv ; t R}.
94 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Geometricamente, W é o conjunto de todas as dilatações, contrações e inversões de v. (Figura 3). Figura 3 Tomemos A um ponto de R 3. Denimos a reta que contém A e tem direção v, e denotamos r(a, v), como o conjunto r(a, v) = {A + tv ; t R} = {A} + W. O vetor v é chamado de um vetor diretor da reta r(a, v). Notemos que, pelo Teorema 3.1.7, todo vetor não nulo em G(v) é um vetor diretor de r(a, v). Pela regra do paralelogramo, é fácil determinar r(a, v) geometricamente. De fato, a reta r(a, v) é determinada pelos vetores dados pela diagonal, que parte da origem, do paralelogramo formado pelos vetores v A e tv (t R) (Figura 4), sendo que v A é o vetor dado pelo ponto A. Figura 4 Observamos que G(v), v 0, é a reta que passa pela origem com direção v, ou seja, G(v) = r(0, v). Portanto, todo subespaço vetorial de R 3 de dimensão 1 é, geometricamente, uma reta que passa pela origem. Reciprocamente, uma reta que passa pela origem é o espaço gerado por um de seus vetores diretores e, consequentemente, é um subespaço vetorial de R 3 de dimensão 1. Assim, caracterizamos geometricamente todos os subespaços vetoriais de R 3 com dimensão 1: os
1. RETAS E PLANOS EM R 3 95 subespaços vetoriais de R 3 com dimensão 1 são as retas em R 3 que passam pela origem. A seguir apresentamos os diversos tipos de equações de uma reta em R 3. Seja r(a, v) uma reta em R 3. Tomemos P R 3. Temos que P r(a, v) quando P = A + tv para algum t R. A equação P = A + tv, t R, (1) é chamada equação vetorial da reta r(a, v). Escrevendo P = (x, y, z), A = (x 1, y 1, z 1 ) e v = (a, b, c), obtemos de (1) que o que equivale às equações (x, y, z) = (x 1, y 1, z 1 ) + t(a, b, c), t R, x = x 1 + ta, t R, t = y 1 + tb, t R, (2) z = z 1 + tc, t R. As equações em (2) são chamadas de equações paramétricas de r(a, v). Se a 0, b 0 e c 0, obtemos de (2) que ou seja, t = x x 1 a x x 1 a = y y 1 b = y y 1 b = z z 1 c, = z z 1 (3) c
96 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 As equações em (3) são chamadas de equações simétricas da reta r(a, v). Podemos apresentar as equações em (3) de uma outra forma, explicitando as variáveis y e z e expressando-as em função de x. De fato, onde e onde y y 1 b z z 1 c = x x 1 a = x x 1 a y y 1 = b a (x x 1) y = mx + n, m = a b e n = b a x 1 + y 1, z z 1 = c a (x x 1) z = px + q, p = c a e q = c a x 1 + z 1. As equações { y = mx + n z = px + q, x R, (4) são chamadas de equações reduzidas da reta r(a, v). Observamos que em (4) a variável x aparece como variável independente. Se expressarmos as equações de forma que a variável independente seja y ou z, as equações obtidas são também chamadas de equações reduzidas. Exemplo 1. Encontremos as equações paramétricas da reta que tem como um vetor diretor v = (1, 0, 2) e que contém o ponto A = (2, 1, 3). Ora, as equações paramétricas da reta r(a, v) são x = 2 + t y = 1, z = 3 + 2t; t R. Exemplo 2. Determinemos a e b para que o ponto P = (1, a, b) pertença à reta de equações x = 2 + t y = 3 t, z = 1 + 2t; t R.
1. RETAS E PLANOS EM R 3 97 Para que P pertença à reta dada, as componentes de P devem satisfazer as equações acima, ou seja, devemos ter 1 = 2 + t a = 3 t, b = 1 + 2t, para algum t R. A solução procurada é então a = 0 e b = 5. Exemplo 3. Consideremos as retas r = r(a, v) e s = r(b, w), onde A = (0, 1, 0), B = (1, 0, 0), v = (1, 1, 2) e w = (2, 1, 3). Vamos vericar que r s =. Com efeito, se P = (x 0, y 0, z 0 ) r, então, para algum t 1 R, x 0 = t 1, y 0 = 1 t 1, z 0 = 2t 1. (5) E, se P = (x 0, y 0, z 0 ) s, então, para algum t 2 R, x 0 = 1 + 2t 2, y 0 = t 2, z 0 = 3t 2. (6) De (5) segue-se que P = (x 0, 1 x 0, 2x 0 ). E, de (6), segue-se que P = (x 0, x 0 1, 3(x 0 1) ). Assim, 2 2 1 x 0 = x 0 1 2 e 2x 0 = 2 3 (x 0 1), o que não ocorre para nenhum x 0 em R. Logo, não existe P r s, ou seja, r s =. Segue da denição de vetores colineares em um espaço vetorial sobre um corpo K, dada na Seção 1 do Capítulo 1, que dois vetores v 1 e v 2 em R 3 são colineares quando eles pertencem a uma mesma reta que passa pela origem. (Figura 5). Figura 5 Suponhamos que v 1 e v 2 pertençam à reta r(0, v). Então existem t 1 e t 2 em R tais que v 1 = t 1 v e v 2 = t 2 v. Se v 2 é o vetor nulo, {v 1, v 2 } é dependente. Se v 2 não é o vetor nulo, então t 2 é um número real não nulo. Assim, v 1 t 1 t 2 v 2 = 0,
98 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 mostrando que {v 1, v 2 } é dependente. Reciprocamente, sejam w 1 e w 2 vetores não nulos em R 3. Se {w 1, w 2 } é um conjunto linearmente dependente, então existe t R tal que w 1 = tw 2. Logo, w 1 pertence a reta r(0, w 2 ). Portanto, o conceito v 1 e v 2 são linearmente dependentes (linguagem algébrica) e o conceito v 1 e v 2 são colineares (linguagem geométrica) são equivalentes. Ou seja, provamos o seguinte resultado. Proposição 4.1.1. Dois vetores v 1 e v 2 em R 3 são linearmente dependentes se, e somente se, v 1 e v 2 são colineares. Discutimos acima a noção de vetores colineares. Existe também a noção de pontos colineares. Diremos que três pontos distintos A, B, C R 3 são colineares se existir uma reta em R 3 que contenha os três pontos. Os dois conceitos se relacionam de acordo com o resultado a seguir. Proposição 4.1.2. Três pontos distintos A, B, C R 3 são colineares se, e somente se, os vetores v 1 = B A e v 2 = C A são colineares. Demonstração Suponhamos que A, B e C pertençam a uma mesma reta. Como por dois pontos distintos passa uma e somente uma reta (Problema 1.6), a reta de equação vetorial P = A + v 1 t, t R contém A e B. Como C pertence à mesma reta, existe t 0 R tal que C = A + v 1 t 0,
1. RETAS E PLANOS EM R 3 99 ou seja, v 2 = v 1 t 0, mostrando que v 1 e v 2 são colineares. Reciprocamente, suponhamos que v 1 e v 2 sejam colineares. Então, existe t 0 R tal que v 2 = t 0 v 1, ou seja C A = t 0 (B A). Considere a reta de equação vetorial P = A + t(b A), t R. Note que tomando t = 0, temos P = A e tomando t = 1, temos P = B. Assim, A e B pertencem à reta. Tomando t = t 0, temos P = A+t 0 (B A) = C. Portanto, A, B e C pertencem a uma mesma reta. Exemplo 4. Veriquemos que os pontos A = (2, 3, 1), B = (1, 4, 1) e C = (3, 2, 3) são colineares. Pelas Proposições 4.1.1 e 4.1.2, devemos vericar que os vetores v 1 = B A e v 2 = C A são linearmente dependentes. Temos que v 1 = ( 1, 1, 2) e v 2 = (1, 1, 2). Como v 1 + v 2 = 0, temos que v 1 e v 2 são linearmente dependentes. 1.2 Planos em R 3 Sejam v 1 e v 2 dois vetores linearmente independentes em R 3. Seja W o conjunto de todas as combinações lineares de v 1 e v 2, ou seja, W = G(v 1, v 2 ) = {sv 1 + tv 2 ; s, t R}. Tomemos A um ponto de R 3. Denimos o plano que passa por A determinado por v 1 e v 2, e o denotamos por π(a, v 1, v 2 ), como o conjunto π(a, v 1, v 2 ) = {A + sv 1 + tv 2 ; s, t R} = {A} + W. Os vetores v 1 e v 2 são chamados de vetores base do plano π(a, v 1, v 2 ) (ver Figura 6). Figura 6
100 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Notemos que, pelo Teorema 3.3.6, quaisquer dois vetores independentes w 1, w 2 em G(v 1, v 2 ) formam uma base de π(a, v 1, v 2 ), pois G(w 1, w 2 ) G(v 1, v 2 ) e as dimensões dos dois espaços são iguais. Observemos também que o espaço G(v 1, v 2 ) é o plano que passa pela origem determinado por v 1 e v 2, ou seja, G(v 1, v 2 ) = π(0, v 1, v 2 ). Portanto, todo subespaço vetorial de R 3 de dimensão 2 é, geometricamente, um plano que passa pela origem. Reciprocamente, um plano que passa pela origem é o espaço gerado por dois de seus vetores base e, consequentemente, é um subespaço vetorial de R 3 de dimensão 2. Assim, caracterizamos geometricamente todos os subespaços vetoriais de R 3 com dimensão 2: os subespaços vetoriais de R 3 com dimensão 2 são os planos em R 3 que passam pela origem. Tomemos W um subespaço vetorial de R 3. Pelo Teorema 3.3.6, segue que dim W 3. Pelo que acabamos de ver, temos a seguinte classicação dos subespaços W de R 3 : aspecto algébrico aspecto geométrico dim W = 0 W = {(0, 0, 0)} (origem do espaço) dim W = 1 W é uma reta que passa pela origem dim W = 2 W é um plano que passa pela origem dim W = 3 W = R 3 A seguir apresentamos a equação vetorial e as equações paramétricas de um plano em R 3. Seja π(a, v 1, v 2 ) um plano em R 3. Tomemos P R 3.
1. RETAS E PLANOS EM R 3 101 Temos que P π(a, v 1, v 2 ) se, e somente se, P = A + sv 1 + tv 2 para certos s, t R. A equação P = A + sv 1 + tv 2, s R e t R (1) é chamada equação vetorial do plano π(a, v 1, v 2 ). Escrevendo P = (x, y, z), A = (x 1, y 1, z 1 ), v 1 = (a 1, b 1, c 1 ) e v 2 = (a 2, b 2, c 2 ), obtemos de (1) que (x, y, z) = (x 1, y 1, z 1 ) + s(a 1, b 1, c 1 ) + t(a 2, b 2, c 2 ), s, t R, o que equivale às equações x = x 1 + sa 1 + ta 2, s, t R, y = y 1 + sb 1 + tb 2, s, t R, (2) z = z 1 + sc 1 + tc 2, s, t R. As equações em (2) são chamadas de equações paramétricas de π(a,v 1,v 2 ). Vamos apresentar agora a equação cartesiana ou equação geral de um plano. Antes, precisamos apresentar a noção de vetor normal a um plano. Chamamos de vetor normal ao plano π(a, v 1, v 2 ) a um vetor não nulo ortogonal aos vetores v 1 e v 2 (portanto, ortogonal a todo vetor do plano). Seja n um vetor normal ao plano π(a, v 1, v 2 ). Seja P = (x, y, z) um ponto de π(a, v 1, v 2 ). Denotemos por v o vetor dado por P A. Então, v = t 1 v 1 + t 2 v 2 para certos t 1, t 2 R. Como n v 1 e n v 2, temos que n v 1 = n v 2 = 0. Assim, n v = 0. Se A = (x 1, y 1, z 1 ) e n = (a, b, c), temos que n v = 0 equivale à equação (a, b, c) (x x 1, y y 1, z z 1 ) = 0, ou seja, ax + by + cz + d = 0, (3) onde d = ax 1 by 1 cz 1. A equação em (3) é chamada de equação geral ou cartesiana do plano π(a, v 1, v 2 ).
102 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Exemplo 5. Determinemos as equações cartesianas dos planos cartesianos xoy, yoz e xoz. Os vetores e 1 = (1, 0, 0) e e 2 = (0, 1, 0) são vetores base para o plano cartesiano xoy e o vetor e 3 é um vetor normal ao plano xoy. Como e 3 = (0, 0, 1), a equação z + d = 0x + 0y + 1 z + d = 0 é uma equação cartesiana do plano xoy, onde d é um número real a ser determinado. Como a origem pertence ao plano xoy, temos que d = 0 + d = 0. Assim, z = 0 é a equação cartesiana do plano xoy. As equações x = 0 e y = 0 são as equações cartesianas dos planos yoz e xoz, respectivamente. Pela denição, vimos que um plano ca determinado por um ponto A em R 3 e por dois vetores v 1 e v 2 em R 3 linearmente independentes. Existem outras maneiras de se determinar um plano. No resultado a seguir, vamos apresentar três outras maneiras de se determinar um plano em R 3.
1. RETAS E PLANOS EM R 3 103 Teorema 4.1.3. (i) Existe um único plano em R 3 que passa por um ponto A e tem um vetor não nulo n como vetor normal. (ii) Existe um único plano em R 3 que passa por três pontos A, B e C não colineares. (iii) Existe um único plano que passa por uma reta r e um ponto A fora de r. Demonstração para o leitor (veja Problema 1.12). Provaremos apenas o item (i), deixando os demais itens Seja A um ponto em R 3 e seja n um vetor não nulo. Consideremos W = {v R 3 ; v n = 0}. Como n é não nulo, W é um subespaço vetorial de R 3 de dimensão 2. Assim, podemos tomar dois vetores linearmente independentes em W, digamos, v 1 e v 2. O plano π(a, v 1, v 2 ) contém A e tem n como um vetor normal. Mais ainda, este plano é o único com tais propriedades. De fato, consideremos π(p, w 1, w 2 ) um plano que contém A e tem n como um vetor normal. Vejamos que π(p, w 1, w 2 ) = π(a, v 1, v 2 ). Tomemos Q em π(p, w 1, w 2 ). Então, existem l e m em R tais que Q = P + lw 1 + mw 2. (4) Como π(p, w 1, w 2 ) contém A, existem p e q em R tais que A = P + pw 1 + qw 2. (5) Tomando a diferença (4)-(5), obtemos que Q = A + rw 1 + sw 2 (6) com r e s em R. Como w 1, w 2 W, existem números reais a, b, c e d tais que { w 1 = av 1 + bv 2 w 2 = cv 1 + dv 2. (7)
104 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Finalmente, substituindo (7) em (6), obtemos Q = A + (ra + sc)v 1 + (rb + sd)v 2, ou seja, Q π(a, v 1, v 2 ). Mostramos assim que π(p, w 1, w 2 ) π(a, v 1, v 2 ). Deixamos para o leitor vericar a outra inclusão. Exemplo 6. Determinemos a equação cartesiana do plano que contém o ponto A = (1, 1, 1) e a reta r de equações paramétricas x = 2t, y = 3t, z = 1 + t; t R. Como A / r, pelo Teorema 4.1.3, existe um único plano π que contém A e r. Para determinarmos este plano, tome B r e v um vetor diretor da reta r; digamos B = (0, 0, 1) e v = (2, 3, 1). Considere w = B A = ( 1, 1, 0). O plano π(a, v, w) é o plano procurado. Note que aqui estamos dando uma ideia de como resolver parte do Problema 1.12, provando assim o item (iii) do Teorema 4.1.3. Figura 7 O vetor n = (1, 1, 1) é um vetor normal ao plano π, logo uma equação cartesiana deste plano é dada por x y + z + d = 0,
1. RETAS E PLANOS EM R 3 105 onde d é um número real a ser determinado. Como A π, segue que 1 1 + 1 + d = 0, ou seja, d = 1. Portanto, uma equação cartesiana de π é x y + z 1 = 0. Exemplo 7. Determinaremos a equação vetorial do plano que contém os pontos A = (1, 2, 3), B = (1, 1, 0) e C = (0, 2, 1). Como os vetores v 1 = B A = (0, 3, 3) e v 2 = C A = ( 1, 0, 2) são linearmente independentes, os pontos A, B e C não pertencem a uma mesma reta. Assim, pela parte (ii) do Teorema 4.1.3, existe um único plano π que contém os pontos A, B e C. Este plano é o plano π(a, v 1, v 2 ) (aqui estamos dando uma ideia de como resolver a outra parte do Problema 1.12, provando assim o item (ii) do Teorema 4.1.3), cuja equação vetorial é dada por P = A + tv 1 + sv 2, t, s R. Ou seja, (x, y, z) = (1, 2, 3) + t(0, 3, 3) + s( 1, 0, 2), t, s R. Note que para t = s = 0, obtemos (1, 2, 3) na equação acima. Para t = 1 e s = 0, obtemos (1, 1, 0). E, para t = 0 e s = 1, obtemos (0, 2, 1). Assim, π(a, v 1, v 2 ) contém os pontos A, B e C. Problemas 1.1 Mostre que se w é ortogonal a u e a v, então w é ortogonal a todo vetor de G(u, v). 1.2* Mostre que, em R 3, a dependência linear de três vetores pode ser descrita geometricamente como segue: Três vetores quaisquer u, v e w são dependentes se, e somente se, estão num mesmo plano que passa pela origem, ou seja, se eles são coplanares.
106 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Este exercício é uma versão da Proposição 4.1.1 para três vetores em R 3. 1.3* Determine a equação geral do plano que passa pelos pontos A = ( 1, 2, 0), B = (2, 1, 1) e C = ( 1, 1, 1). 1.4 Determine uma base para cada um dos seguintes subespaços de R 3 : (a) o plano 3x 4y z = 0; (b) a reta x = 2t, y = t, z = 3t; (c) o plano x y = 0. 1.5 As equações paramétricas de uma reta são x = 2 + 4t, y = t 4, z = 7 8t (t R). Reduzir estas equações à forma simétrica. 1.6 (Determinação de uma reta por dois pontos.) Sejam A e B dois pontos distintos em R 3. Mostre que a reta r(a, v), onde v é o vetor A B, é a única reta que contém A e B. 1.7 Determine as equações simétricas da reta que contém os pontos A = (2, 3, 0) e B = (0, 1, 2). 1.8 Determine as equações reduzidas, em função da variável z, da reta que passa pelos pontos A = ( 1, 0, 1) e B = (1, 3, 2). 1.9 Qual deve ser o valor de k para que os pontos A = (3, k, 1), B = (1, 1, 1) e C = ( 2, 10, 4) pertençam à mesma reta? 1.10 Represente gracamente os planos de equações: (a) x + y + z = 0; (b) z 2 = 0; (c) 2x + y + z 1 = 0. 1.11 Determine o valor de k para que os pontos A = (k, 1, 5), B = (7, 2, 1), C = ( 1, 3, 1) e D = (1, 0, 3) estejam no mesmo plano. 1.12 Conclua a demonstração do Teorema 4.1.3. 1.13 Determine as equações paramétricas do plano x 4 + y 3 + z 2 = 1.
2. POSIÇÕES RELATIVAS 107 1.14 Determine a equação do plano que passa pelo ponto (2, 1, 0) e contém a reta 2x y z + 4 = 0 x + 2y z + 3 = 0. 1.15 Determine os pontos de interseção dos planos coordenados xoy, yoz e xoz com a reta y = 2x 3 r : z = x + 2. 2 Posições Relativas Vejamos a seguir como os conceitos de base e dimensão podem ser aplicados no estudo sobre as posições relativas entre retas, retas e planos e planos em R 3. Antes precisamos lembrar que duas retas r 1 = r(a 1, v 1 ) e r 2 = r(a 2, v 2 ) em R 3 são ditas coplanares quando elas pertencem a um mesmo plano. Na linguagem algébrica, isto equivale a dizer que o conjunto de vetores {v, v 1, v 2 } é linearmente dependente, onde v denota o vetor A 2 A 1 (veja Problema 2.1). As retas r 1 e r 2 são ditas reversas quando não são coplanares. Se r 1 e r 2 são retas reversas, então r 1 r 2 =, ou seja, elas não se intersectam. No caso de r 1 e r 2 serem coplanares um e somente um dos casos abaixo pode ocorrer: 1) r 1 r 2 = ; 2) r 1 r 2 = {P }, onde P R 3 ; 3) r 1 r 2 = r 1 = r 2. Se 1) ocorre, ou seja, se r 1 e r 2 não se intersectam, r 1 e r 2 são ditas retas paralelas. Se 2) ocorre, ou seja, se r 1 e r 2 se intersectam em um único ponto de R 3, r 1 e r 2 são ditas retas concorrentes. Se 3) ocorre, ou seja, se a interseção coincide com as retas dadas, r 1 e r 2 são ditas retas coincidentes. Vejamos uma demonstração destes fatos.
108 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Proposição 4.2.1. (Posições relativas de duas retas coplanares) Sejam r 1 = r(a 1, v 1 ) e r 2 = r(a 2, v 2 ) duas retas coplanares em R 3. Então, r 1 e r 2 são paralelas ou r 1 e r 2 são concorrentes ou r 1 e r 2 são coincidentes. Demonstração Se r 1 r 2 =, as retas são paralelas e não temos nada a fazer. Suponhamos que r 1 r 2. Então existe P R 3 tal que P r 1 r 2. Logo, r 1 = {A 1 } + W 1 = {P } + W 1 e r 2 = {A 2 } + W 2 = {P } + W 2, onde W 1 = G(v 1 ) e W 2 = G(v 2 ). Daí, temos que r 1 r 2 = {P } + (W 1 W 2 ). (1) Como W 1 e W 2 são subespaços vetoriais de R 3, temos pela Proposição 3.1.3 que W 1 W 2 é um subespaço vetorial de W 1 e de W 2. Como dim W 1 = dim W 2 = 1, segue agora, pelo Teorema 3.3.6, que dim(w 1 W 2 ) 1. Temos, então, dois casos a considerar: Caso 1. dim(w 1 W 2 ) = 0. Neste caso, W 1 W 2 = {0}. Logo, por (1), segue que r 1 r 2 = {P }. Caso 2. dim(w 1 W 2 ) = 1. Pelo Teorema 3.3.6, segue neste caso que W 1 W 2 = W 1 = W 2 Logo, por (1), segue que r 1 r 2 = r 1 = r 2. Vejamos a seguir o que ocorre com dois planos em R 3. Proposição 4.2.2. (Posições relativas entre dois planos) Sejam dados dois planos π 1 = π(p 1, v 1, v 2 ) e π 2 = π(p 2, v 3, v 4 ) em R 3. Uma e somente uma das possibilidades a seguir pode ocorrer: 1) π 1 π 2 = ; 2) π 1 π 2 = r, onde r é uma reta em R 3 ; 3) π 1 π 2 = π 1 = π 2.
2. POSIÇÕES RELATIVAS 109 Se 1) ocorre, os planos são ditos paralelos. Se 2) ocorre, os planos são ditos concorrentes e, se 3) ocorre, os planos são ditos coincidentes. Demonstração Sejam π 1 = {P 1 } + W 1 e π 2 = {P 2 } + W 2, onde W 1 = G(v 1, v 2 ) e W 2 = G(v 3, v 4 ). Se π 1 π 2 =, nada temos a fazer. Suponhamos π 1 π 2. Tomemos P π 1 π 2. Então π 1 = {P 1 } + W 1 = {P } + W 1 e π 2 = {P 2 } + W 2 = {P } + W 2. Daí, temos que π 1 π 2 = {P } + (W 1 W 2 ). (2) Como W 1 W 2 é um subespaço vetorial de W 1, segue, pelo Teorema 3.3.6, que dim(w 1 W 2 ) dim W 1 = 2. Por outro lado, dim(w 1 W 2 ) 0, pois, caso contrário, teríamos, pelo Problema 3.16 do Capítulo 3, que 4 = dim W 1 + dim W 2 = dim(w 1 + W 2 ) dim R 3 = 3, o que é absurdo. Portanto, 0 < dim(w 1 W 2 ) 2. Se dim(w 1 W 2 ) = 2, então W 1 W 2 = W 1 = W 2. Neste caso, por (2), π 1 π 2 = {P } + W 1 = {P } + W 2 = π 1 = π 2. Se dim(w 1 W 2 ) = 1, então existe um vetor v não nulo em R 3 tal que W 1 W 2 = G(v). Seja r = r(p, v). Temos, então, neste caso que π 1 π 2 = {P } + G(v) = r. Terminamos esta seção, observando que, no caso de termos uma reta r e um plano π em R 3, pode ocorrer uma e apenas uma das possibilidades abaixo:
110 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 1) r π = {P }, onde P é um ponto de R 3 ; 2) r π = ; 3) r π = r. Se 1) ocorre, dizemos que r e π são concorrentes; se 2) ocorre, r e π são ditos paralelos; e, se 3) ocorre, r está contida no plano π. A demonstração destes fatos segue de argumentos semelhantes aos usados nas Proposições 4.2.1 e 4.2.2 e é, portanto, omitida. Problemas 2.1* Sejam r 1 = r(a 1, v 1 ) e r 2 = r(a 2, v 2 ) duas retas em R 3. Seja v o vetor dado por A 2 A 1. As seguintes armações são equivalentes: (a) r 1 e r 2 são coplanares, ou seja, r 1 e r 2 pertencem a um mesmo plano; (b) o conjunto {v, v 1, v 2 } é linearmente dependente. 2.2* Estude a posição relativa das retas y = 2x 3 x = 1 36t r 1 : e r 2 : y = 4 6t z = x z = 3t. 2.3 Dê a posição relativa entre o plano 5x + 3y + 13z 1 = 0 e o plano 3x + 8y 3z + 8 = 0. 2.4 Verique se a reta x 1 = y 2 1 3 equação 4x 2y + 5z 20 = 0. = z 4 2 está contida no plano de 2.5 Dados os planos 2ax y + 4z + 2 = 0 e 4x + by + 8z + c = 0, determine a, b e c para que eles sejam coincidentes. 2.6 Dados os planos 4x 3ay + 6z 8 = 0 e 2x 6y + bz + 10 = 0, determine a e b para que sejam paralelos. 2.7 Para os dois planos a 1 x + b 1 y + c 1 z + d 1 = 0 e a 2 x + b 2 y + c 2 z + d 2 = 0, mostre que as seguintes relações são condições necessárias e sucientes para:
3. DETERMINANTES E GEOMETRIA 111 (a) Paralelismo: existe k 0 tal que a 1 = ka 2, b 1 = kb 2 e c 1 = kc 2 ; (b) Coincidência: existe k 0 tal que a 1 = ka 2, b 1 = kb 2, c 1 = kc 2 e d 1 = kd 2. 3 Determinantes e Geometria Nesta seção introduziremos os determinantes de matrizes 2 2 e 3 3, para posteriormente aplicá-los ao estudo da geometria em R 3. A noção mais geral de determinantes será estudada no Capítulo 8. Determinantes são funções muito especiais denidas nos espaços das matrizes quadradas com valores no corpo onde estão os coecientes da matriz. A utilidade dos determinantes é múltipla. Por exemplo, eles servem, como veremos no Capítulo 8, para dar um critério para invertibilidade de matrizes e um método para o cálculo da matriz inversa, caso a matriz seja invertível. Eles permitem dar fórmulas explícitas para as soluções de sistemas de equações lineares. Por meio deles, dene-se também a importante noção de polinômio característico de uma matriz, noção que desempenhará papel fundamental no Capítulo 9. O conceito de determinante aparece em vários outros contextos da Matemática. Por exemplo, em Geometria, ele aparece como a área de um paralelogramo e o volume de um paralelepípedo e, em Análise, ele está presente em teoremas importantes, como o Teorema da Função Inversa, o Teorema da Função Implícita e o Teorema de Mudança de Variáveis. Nesta seção estaremos interessados nas aplicações dos determinantes à geometria em R 3. 3.1 Determinantes No trabalho Um Tratado sobre Álgebra em Três Partes, de Colin Maclaurin (Escócia, 1698-1746), publicado em 1748, foi apresentado o que ele chamou de teorema geral, que era usado para resolver um sistema linear n n onde n 4. De fato, em seu trabalho nada foi mencionado sobre o caso em
112 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 que n 5. O método apresentado por Maclaurin é conhecido hoje como Regra de Cramer, após o matemático Gabriel Cramer (Suíça, 1704-1752) ter utilizado os métodos de Maclaurin em seu livro sobre curvas algébricas em 1750. Dado um sistema linear 2 2 nas incógnitas x e y, digamos, ax + by = e cx + dy = f, sabemos do Problema 2.12 do Capítulo 2 que, se ad bc 0, as soluções são dadas pelas fórmulas x = ed fb ad bc, af ce y = ad bc. Vejamos agora a resolução de um sistema linear de três equações nas incógnitas x, y e z, digamos, ax + by + cz = m dx + ey + fz = n gx + hy + kz = p. Este sistema foi tratado por Maclaurin de modo análogo ao caso 2 2, notando que, se o número real aek ahf + dhc dbk + gbf gec é diferente de zero, então x = mek mfh + bfp bnk + cnh cep aek ahf + dhc dbk + gbf gec, (1) (2) e y = z = nak ncg + mfg mdk + pcd paf aek ahf + dhc dbk + gbf gec aep ahn + dhm dbp + gbn gem aek ahf + dhc dbk + gbf gec Maclaurin notou que, tal como no caso 2 2, cada uma das expressões acima tem o mesmo denominador, que consiste de somas alternadas de vários
3. DETERMINANTES E GEOMETRIA 113 produtos dos coecientes das incógnitas do sistema. Ele também notou que o numerador da expressão de cada uma das incógnitas consiste de somas alternadas de vários produtos dos coecientes das demais incógnitas e dos termos independentes do sistema. Os numeradores e os denominadores que apareceram nas soluções de Maclaurin são o que conhecemos hoje por determinantes. O termo determinante foi introduzido pela primeira vez por Gauss em 1801. Vamos agora sintetizar as soluções de Maclaurin, introduzindo os determinantes. Se A = [a ij ] é uma matriz 2 2, denimos o determinante da matriz A como [ ] a 11 a 12 det = a 11 a 22 a 21 a 12. (3) a 21 a 22 Se A = [a ij ] é uma matriz 3 3, denimos o determinante da matriz A como a 11 a 12 a 13 det a 21 a 22 a 23 = a 31 a 32 a 33 a 11 a 22 a 33 a 11 a 23 a 32 + a 13 a 21 a 32 a 12 a 21 a 33 + a 12 a 23 a 31 a 13 a 22 a 31. (4) Note que a expressão (4) do determinante de uma matriz quadrada A de ordem 3 pode ser escrita como [ ] [ ] [ ] a 22 a 23 a 21 a 23 a 21 a 22 det A = a 11 det a 12 det + a 13 det. (5) a 32 a 33 a 31 a 33 a 31 a 32 Voltando aos sistemas lineares, temos que, se [ ] a b det 0, c d
114 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 então as soluções do sistema (1) podem ser escritas na forma [ ] ( [ ]) 1 [ ] ( [ e b a b a e a x = det det, y = det det f d c d c f c ]) 1 b. d Por outro lado, se a b c det d e f 0, g h k as soluções do sistema (2) podem ser escritas na forma: m b c a b c x = det n e f det d e f p h k g h k a m c a b c y = det d n f det d e f g p k g h k a b m a b c z = det d e n det d e f g h p g h k 1 1 1,,. A expressão do determinante em (3) é muito fácil de lembrar. Basta tomar o produto dos elementos da diagonal principal da matriz A e dele subtrair o produto dos elementos da outra diagonal. A expressão do determinante em (4) pode ser recuperada a partir da regra de Sarrus 1, muito utilizada no Regra Ensino demédio. Sarrus 1 2 0 Exemplo 1. Vamos calcular det 1 4 1. 2 1 1 1 Pierre Fréderic Sarrus (França, 1768-1861) cou conhecido na Matemática pela regra prática de resolução de determinantes de matrizes quadradas de ordem 3.
3. DETERMINANTES E GEOMETRIA 115 Pela regra de Sarrus, obtemos que 1 2 0 det 1 4 1 = 4 + 4 + 0 ( 2 + 1 + 0) = 10. 2 1 1 3.2 O Produto Vetorial Um outro produto que possui importantes aplicações geométricas é o produto vetorial em R 3. Trata-se de uma operação que a partir de dois vetores linearmente independentes em R 3, associa de modo natural um vetor ortogonal ao plano gerado por estes vetores. Sejam dados dois vetores u = (u 1, u 2, u 3 ) e v = (v 1, v 2, v 3 ) em R 3. Para que um vetor w = (x 1, x 2, x 3 ) seja tal que w u e w v, as suas coordenadas devem ser soluções do sistema { que podemos reescrever como w u = u 1 x 1 + u 2 x 2 + u 3 x 3 = 0 w v = v 1 x 1 + v 2 x 2 + v 3 x 3 = 0, { u 1 x 1 + u 2 x 2 = u 3 x 3 v 1 x 1 + v 2 x 2 = v 3 x 3. Como u e v são linearmente independentes, uma das expressões u i v j u j v i, para i, j = 1, 2, 3, i j, é não nula (cf. Problema 3.7). Podemos, sem perda (6)
116 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 de generalidade, supor que u 1 v 2 u 2 v 1 0. Assim, o sistema acima se resolve pela fórmula do Problema 2.12 do Capítulo 2, como segue: x 1 = u 2v 3 u 3 v 2 u 1 v 2 u 2 v 1 x 3, x 2 = u 3v 1 u 1 v 3 u 1 v 2 u 2 v 1 x 3. Portanto, para todo x 3 R, o vetor ( u2 v 3 u 3 v 2 x 3, u ) 3v 1 u 1 v 3 x 3, x 3 u 1 v 2 u 2 v 1 u 1 v 2 u 2 v 1 é um vetor ortogonal a u e v. vetor Escolhendo x 3 = u 1 v 2 u 2 v 1, temos que o (u 2 v 3 u 3 v 2, u 3 v 1 u 1 v 3, u 1 v 2 u 2 v 1 ) é ortogonal a u e v, independentemente da hipótese u 1 v 2 u 2 v 1 0 que zemos. Isto motiva a seguinte denição: Dados os vetores u = (u 1, u 2, u 3 ) e v = (v 1, v 2, v 3 ) em R 3, o produto vetorial de u e v, denotado por u v, é o vetor de R 3 dado por Por exemplo, u v = (u 2 v 3 u 3 v 2, u 3 v 1 u 1 v 3, u 1 v 2 u 2 v 1 ). (1, 0, 0) (0, 1, 2) = (0.2 0.1, 1.2 + 0.0, 1.1 0.0) = (0, 2, 1). (1, 0, 0) (0, 1, 0) = (0, 0, 1). (0, 1, 0) (0, 0, 1) = (1, 0, 0). O produto vetorial possui as propriedades a seguir. Para quaisquer u, v, w R 3 e a R, tem-se que (i) u v = v u, (ii) u (v + w) = (u v) + (u w) (iii) (au) v = a(u v) = u (av), (iv) (u v) u e (u v) v.
3. DETERMINANTES E GEOMETRIA 117 Estas propriedades são facilmente vericadas e serão deixadas como exercícios para o leitor. Notemos que a expressão que dene o produto vetorial pode ser colocada em uma forma mais compacta com a ajuda dos determinantes. De fato, se considerarmos a matriz formal 3 3 e 1 e 2 e 3 A = x 1 x 2 x 3, y 1 y 2 y 3 onde {e 1, e 2, e 3 } é a base canônica de R 3 e (x 1, x 2, x 3 ), (y 1, y 2, y 3 ) R 3, e calcularmos o seu determinante utilizando a fórmula (4), vamos obter que seu determinante é precisamente o produto vetorial de u = (x 1, x 2, x 3 ) e v = (y 1, y 2, y 3 ). Note que esta expressão é apenas formal, desprovida de qualquer conteúdo, pois, em princípio, não faz sentido considerar o determinante de uma matriz onde os elementos da primeira linha são vetores e os elementos das demais linhas são números reais. Isto é um abuso de notação, que serve apenas para memorizar a denição de u v. Por exemplo, para calcularmos o produto vetorial de u = (2, 8, 3) e v = (0, 4, 3), escrevemos e 1 e 2 e 3 [ ] [ ] [ ] 8 3 2 3 2 8 u v = det 2 8 3 = det e 1 det e 2 + det 4 3 0 3 0 4 0 4 3 = 36e 1 6e 2 + 8e 3 = ( 36, 6, 8). A seguir, vamos apresentar duas identidades envolvendo o módulo do produto vetorial de dois vetores em R 3. Proposição 4.3.1. Sejam u e v dois vetores em R 3. Tem-se que : i) u v 2 = u 2 v 2 (u v) 2 ; ii) u v = u v sen θ, sendo θ o ângulo entre u e v, com u e v não nulos. e 3
118 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Demonstração (i): Sejam u = (x 1, y 1, z 1 ) e v = (x 2, y 2, z 2 ). Temos que [ ] [ ] [ ] y 1 z 1 x 1 z 1 x 1 y 1 u v = det e 1 det e 2 + det e 3. y 2 z 2 x 2 z 2 x 2 y 2 Logo, u v 2 = (y 1 z 2 z 1 y 2 ) 2 + ( x 1 z 2 + z 1 x 2 ) 2 + (x 1 y 2 y 1 x 2 ) 2. Por outro lado, u 2 v 2 = (x 2 1 + y1 2 + z1)(x 2 2 2 + y2 2 + z2) 2 e Assim, (u v) 2 = (x 1 x 2 + y 1 y 2 + z 1 z 2 ) 2. u v 2 = u 2 v 2 (u v) 2. (ii): Por (i), segue que u v 2 = u 2 v 2 ( u v cos θ) 2, uma vez que Portanto, mostrando que cos θ = u v u v. u v 2 = u 2 v 2 u 2 v 2 cos 2 θ = u 2 v 2 (1 cos 2 θ) = u 2 v 2 sen 2 θ, u v = u v senθ. A seguir, daremos a interpretação geométrica do módulo do produto vetorial de dois vetores. Sejam u e v dois vetores não nulos em R 3. Consideremos o paralelogramo ABCD determinado pelos vetores u e v, conforme a Figura 8, abaixo, onde h denota a altura do paralelogramo e θ é o ângulo entre os vetores u e v.
3. DETERMINANTES E GEOMETRIA 119 Sabemos da Geometria que Como h = v senθ, segue que Figura 8 Área ABCD = u h. Área ABCD = u senθ. Pela Proposição anterior, item (b), concluímos então que Área ABCD = u v. Pelo que vimos acima, temos o seguinte resultado: Proposição 4.3.2. O módulo do produto vetorial de dois vetores não nulos u e v em R 3 mede a área do paralelogramo determinado por estes vetores. Com um outro produto em R 3, podemos obter o volume do paralelepípedo determinado por três vetores não nulos. Este é o produto misto que vamos denir a seguir. Sejam u = (x 1, y 1, z 1 ), v = (x 2, y 2, z 2 ) e w = (x 3, y 3, z 3 ) três vetores em R 3. Chama-se produto misto dos vetores u, v e w ao número real (u, v, w) = u (v w). Pelas denições de produto escalar e produto vetorial em R 3, podemos vericar que x 1 y 1 z 1 u (v w) = det x 2 y 2 z 2. x 3 y 3 z 3
120 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 Consideremos agora u, v e w três vetores não nulos em R 3. Chamemos de P o paralelepípedo determinado por estes vetores, conforme a gura abaixo: Figura 9 Na gura, h denota a altura do paralelepípedo e θ o ângulo entre u e v w. Como vimos anteriormente, v w é um vetor ortogonal aos vetores v e w. Assim, h = u cos θ. A área da base do paralelepípedo P é dada por v w. Portanto, se V denota o volume do paralelepípedo, obtemos V = v w u cos θ = u (v w) = (u, v, w). Assim, obtivemos o resultado a seguir: Proposição 4.3.3. O módulo do produto misto de três vetores não nulos u, v e w em R 3 mede o volume do paralelepípedo determinado por estes vetores. Problemas 3.1 Mostre que os determinantes de matrizes 2 2 possuem as seguintes propriedades:
3. DETERMINANTES E GEOMETRIA 121 a) Para todos a, b, c, c, d, d, t R, det [ a b c + tc d + td ] = det [ a c ] [ ] b a b + t det, d c d o mesmo valendo para a primeira linha; b) Para todos a, b R, [ ] 1 0 c) det = 1. 0 1 det [ a a ] b = 0; b 3.2 Mostre que uma função F : M(2, 2) R com as três propriedades acima é tal que F = det. 3.3 Mostre que os determinantes de matrizes 3 3 possuem as seguintes propriedades: a) Para todos a, b, c, d, e, f, g, g, h, h, k, k, t R, a b c a b c a b c det d e f = det d e f + t det d e f, g + tg h + th k + tk g h k g h k o mesmo valendo para as outras duas linhas; b) Para todos a, b, c, d, e, f, g, h, k R, a b c a b c a b c det a b c = det d e f = det d e f = 0, g h k a b c d e f 1 0 0 c) det 0 1 0 = 1. 0 0 1
122 CAPÍTULO 4. O ESPAÇO VETORIAL R 3 3.4 Mostre que, para quaisquer a, b, c e d em R, tem-se que sen a cos a sen (a + d) det sen b cos b sen (b + d) = 0. sen c cos c sen (c + d) 3.5 Determine x R para que x 2 x + 3 x 1 det 2 1 3 = 60. 3 2 1 3.6* Utilize o método de Maclaurin para determinar x e y em função de x e y, onde { x = x cos θ y sen θ y = x sen θ + y cos θ. 3.7 Mostre que dois vetores u = (u 1, u 2, u 3 ) e v = (v 1, v 2, v 3 ) em R 3 são linearmente independentes se, e somente se, um dos três determinantes abaixo é não nulo: [ ] [ ] [ ] u 1 u 2 u 1 u 3 u 2 u 3 det ; det ; det. v 1 v 2 v 1 v 3 v 2 v 3 Mostre que u v = 0 se, e somente se, u e v são colineares. 3.8 Calcule a área do paralelogramo que tem por lados os vetores u = (1, 3, 5) e v = (2, 1, 4). 3.9 Calcule o volume do paralelepípedo que tem por arestas os vetores u = (1, 3, 5), v = (2, 1, 4) e w = ( 2, 1, 3).
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
5 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 5: Transformações Lineares Sumário 1 O que são as Transformações Lineares?...... 124 2 Núcleo e Imagem.................... 130 2.1 O Núcleo....................... 130 2.2 A Imagem....................... 132 2.3 O Teorema do Núcleo e da Imagem......... 134 3 Operações com Transformações Lineares..... 144 123
124 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES As funções naturais no contexto dos espaços vetorais, as chamadas de transformações lineares, formam uma classe muito especial de funções que têm muitas aplicações na Física, nas Engenharias e em vários ramos da Matemática. 1 O que são as Transformações Lineares? As funções nas quais se está interessado na Álgebra Linear são as funções cujos domínios e contradomínios são espaços vetoriais e que, além disso, preservam as operações de adição de vetores e de multiplicação de um vetor por um escalar. Isto é o conteúdo da denição a seguir. Sejam V e W espaços vetoriais. Uma transformação linear de V em W é uma função T : V W que possui as seguintes propriedades: (i) T (v 1 + v 2 ) = T (v 1 ) + T (v 2 ), para quaisquer v 1 e v 2 em V ; (ii) T (av) = at (v), para quaisquer v em V e a em R. As propriedades (i) e (ii) são equivalentes à seguinte propriedade: T (v 1 + av 2 ) = T (v 1 ) + at (v 2 ), (1) para quaisquer v 1 e v 2 em V e para qualquer a em R. É esta caracterização das transformações lineares que utilizaremos, por ser mais prática, para mostrar que determinada função entre espaços vetoriais é uma transformação linear. Mostra-se por indução (veja Problema 1.1) que uma função T : V W é uma transformação linear se, e somente se, para todos v 1,..., v r V e todos a 1,..., a r R, tem-se que T (a 1 v 1 + + a r v r ) = a 1 T (v 1 ) + + a r T (v r ). (2) Vejamos a seguir alguns exemplos. Exemplo 1. A função T : R 2 R, dada por T (x, y) = x + y, é uma transformação linear.
1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 125 De fato, se v 1 = (x 1, y 1 ) R 2, v 2 = (x 2, y 2 ) R 2 e a R, temos que T (v 1 + av 2 ) = T (x 1 + ax 2, y 1 + ay 2 ) = x 1 + ax 2 + y 1 + ay 2 = (x 1 + y 1 ) + a(x 2 + y 2 ) = T (v 1 ) + at (v 2 ). Portanto, T é uma transformação linear de R 2 em R. Exemplo 2. A função T : R 3 R 2, dada por T (x, y, z) = (x y, y z), é uma transformação linear. De fato, se v 1 = (x 1, y 1, z 1 ) R 3, v 2 = (x 2, y 2, z 2 ) R 3 e a R, então T (v 1 + av 2 ) = T (x 1 + ax 2, y 1 + ay 2, z 1 + az 2 ) = (x 1 + ax 2 (y 1 + ay 2 ), y 1 + ay 2 (z 1 + az 2 )) = ((x 1 y 1 ) + a(x 2 y 2 ), (y 1 z 1 ) + a(y 2 z 2 )) = (x 1 y 1, y 1 z 1 ) + a(x 2 y 2, y 2 z 2 ) = T (v 1 ) + at (v 2 ), mostrando que T é uma transformação linear de R 3 em R 2. Exemplo 3. A função T : R R, dada por T (x) = 5x, é uma transformação linear. De fato, se x 1, x 2, a R, temos que T (x 1 + ax 2 ) = 5(x 1 + ax 2 ) = 5x 1 + a5x 2 = T (x 1 ) + at (x 2 ). Portanto, T é uma transformação linear de R em R. Na realidade, toda transformação linear de R em R é da forma T (x) = c x, x R, onde c é uma constante real; e reciprocamente (veja Problema 1.2). Exemplo 4. A função T : R 2 R 3, dada por T (x, y) = (0, 0, 0), é uma transformação linear. De fato, dados v 1 e v 2 em R 2 e dado a R, tem-se que T (v 1 + av 2 ) = (0, 0, 0) = (0, 0, 0) + a(0, 0, 0) = T (v 1 ) + at (v 2 ),
126 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES mostrando que T é uma transformação linear. Mais geralmente, se V e W são espaços vetoriais, a função T : V W, dada por T (v) = 0, v V, é uma transformação linear, chamada transformação nula. A transformação nula de V em W será também denotada por 0. Exemplo 5. A função T : R 2 R 2 dada por T (x, y) = (x 2, y) não é uma transformação linear. Com efeito, se tomarmos v 1 = (1, 0) e v 2 = ( 1, 0), então T (v 1 + v 2 ) = (0, 0) (2, 0) = T (v 1 ) + T (v 2 ). Exemplo 6. Seja f(x) um polinômio arbitrariamente xado em R[x]. A função T : R[x] R[x], dada por T (p(x)) = p(f(x)), é uma transformação linear. De fato, se p 1 (x), p 2 (x) R[x] e a R, temos que T (p 1 (x) + ap 2 (x)) = p 1 (f(x)) + ap 2 (f(x)) = T (p 1 (x)) + at (p 2 (x)), mostrando que T é uma transformação linear. Exemplo 7. Uma função T : R n R m é uma transformação linear se, e somente se, existem números reais a ij, com 1 i m e 1 j n, tais que T (x 1,..., x n ) = (a 11 x 1 + + a 1n x n,..., a m1 x 1 + + a mn x n ), fazendo jus ao adjetivo linear associado à palavra transformação. demonstração deste resultado, veja Problema 1.3. Para a Como a maioria dos resultados a seguir é evidente para espaços vetoriais nulos, vamos sempre considerar o domínio e o contradomínio de uma transformação linear como espaços vetoriais não nulos. Como consequência da propriedade (1), temos que uma transformação linear T : V W transforma o vetor nulo de V no vetor nulo de W, ou seja, T (0) = 0. De fato, 0 = T (0) T (0) = T (0) + ( 1)T (0) = T (1 0 1 0) = T (0).
1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 127 Porém, o fato de uma função T ter como domínio e contradomínio espaços vetoriais e satisfazer T (0) = 0 não implica que ela seja uma transformação linear, como mostra o Exemplo 5. Uma propriedade importante de uma transformação linear é que ela ca totalmente determinada se conhecermos seus valores nos vetores de uma base de seu domínio. Mais precisamente, temos o resultado a seguir. Teorema 5.1.1. Seja α = {v 1, v 2,..., v n } uma base de um espaço vetorial V. Sejam w 1, w 2,..., w n vetores de um espaço vetorial W. Então existe uma única transformação linear T : V W tal que T (v j ) = w j para todo 1 j n. Demonstração Tomemos v V. Como α é uma base de V, v se escreve de modo único como uma combinação linear dos vetores de α, digamos Dena T : V W por v = a 1 v 1 + a 2 v 2 + + a n v n. (3) T (v) = a 1 w 1 + a 2 w 2 + + a n w n. (4) A função T está bem denida, pois os números reais a 1, a 2,..., a n são unicamente determinados a partir de v. Além disso, T é uma transformação linear. De fato, tomemos a em R e w em V. Suponhamos que w = b 1 v 1 + b 2 v 2 + + b n v n. Como segue que v + aw = (a 1 + ab 1 )v 1 + (a 2 + ab 2 )v 2 + + (a n + ab n )v n, T (v + aw) = (a 1 + ab 1 )w 1 + (a 2 + ab 2 )w 2 + + (a n + ab n )w n = (a 1 w 1 + a 2 w 2 + + a n w n ) + a(b 1 w 1 + b 2 w 2 + + b n w n ) = T (v) + at (w). Para mostrar que T (v j ) = w j, xe j, onde 1 j n. Como v j = 0v 1 + + 1v j + + 0v n,
128 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES segue de (4) que T (v j ) = 0w 1 + + 1w j + + 0w n = w j. Vejamos agora que T é a única função com as propriedades desejadas. Para isto, suponhamos que S : V W seja uma transformação linear tal que S(v j ) = w j para todo j, com 1 j n. Tomemos v V. Por (3) e pela linearidade de S (propriedade (2)), temos que S(v) = a 1 S(v 1 ) + a 2 S(v 2 ) + + a n S(v n ). Como S(v j ) = w j para todo 1 j n, obtemos S(v) = a 1 w 1 + a 2 w 2 + + a n w n = T (v). Como v V foi tomado de modo arbitrário, segue que S = T. Exemplo 8. Para determinarmos a transformação linear T : R 2 R 3 tal que T (1, 1) = (0, 2, 1) e T (0, 2) = (1, 0, 1) devemos, pelo Teorema 5.1.1, vericar que α = {(1, 1), (0, 2)} é uma base de R 2 e calcular as coordenadas de um vetor de R 2 na base α. Ora, como α é linearmente independente e dim R 2 = 2, temos que α é uma base de R 2. Além disso, se (x, y) R 2, então (x, y) = a 1 (1, 1) + a 2 (0, 2) se, e somente se, a 1 = x e a 2 = y x. Portanto, 2 ( ) y x T (x, y) = xt (1, 1) + T (0, 2) 2 ( ) y x = x(0, 2, 1) + (1, 0, 1) ( y x = 2 2, 2x, x + y 2 ). Problemas
1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 129 1.1 Sejam V e W dois espaços vetoriais e T : V W uma função. Prove que as seguintes armações são equivalentes: (a) T (u + v) = T (u) + T (v) e T (av) = at (v), para quaisquer u e v em V e qualquer a em R; (b) T (u + av) = T (u) + at (v), para quaisquer u e v em V e qualquer a em R; (c) T (a 1 v 1 + + a r v r ) = a 1 T (v 1 ) + + a r T (v r ), para quaisquer v 1,..., v r em V e quaisquer a 1,..., a r em R. 1.2 Mostre que T : R R é uma transformação linear se, e somente se, existe c R tal que T (x) = cx, para todo x R. 1.3 Seja T : R n R m uma função. Mostre que T é uma transformação linear se, e somente se, existem números reais a ij, com 1 i m e 1 j n, tais que T (x 1,..., x n ) = (a 11 x 1 + + a 1n x n,..., a m1 x 1 + + a mn x n ). Sugestão Para mostrar que T é da forma desejada, escreva (x 1,..., x n ) = x 1 e 1 + + x n e n, onde e 1,..., e n é a base canônica de R n. Ponha T (e i ) = (a 1i,..., a mi ) e use a igualdade (2). A recíproca é uma vericação fácil. 1.4* Considere V = M(n, n) e seja B em V. Dena a função T : V V por T (A) = AB + BA para toda matriz A em V. transformação linear. Mostre que T é uma 1.5 Mostre que a função T : M(m, n) M(n, m), denida por T (A) = A t, é uma transformação linear. 1.6 Dada uma transformação linear T tal que T (u) = 2u e T (v) = u + v, calcule em função de u e v: (a) T (u + v); (b) T (3v); (c) T ( 3u); (d) T (u 5v). 1.7 Quais das funções abaixo são transformações lineares? Justique as respostas dadas. (a) T : R 3 R 3, onde T (x, y, z) = (x + y, x z, 0).
130 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES (b) T : R 2 R 3, onde T (x, y) = (x 2, x, y). [ ] (c) T : R 2 2x x y M(2, 2), onde T (x, y) =. x + y 2y (d) T : R 2 R, onde T (x, y) = xy. (e) T : R[x] 2 R[x] 2, onde T (ax + b) = ax 2 + bx. (f) T : R[x] d R[x] d, onde T (x) = x + a, com a R. 1.8 Determine n e m e a transformação linear T : R n R m tal que: (a) T (1, 2) = (3, 1, 1) e T (1, 1) = (1, 1, 0); (b) T (1, 1, 1) = (2, 1, 4), T (1, 1, 0) = (3, 0, 1) e T (1, 0, 0) = ( 1, 5, 1). 1.9 Sejam {v 1, v 2,..., v n } uma base de um espaço vetorial V e T : V W uma transformação linear. Mostre que T (v 1 ) = T (v 2 ) = = T (v n ) = 0 se, e somente se T é a transformação nula. 2 Núcleo e Imagem O núcleo e a imagem de uma transformação linear são dois subespaços de seu domínio e de seu contradomínio, respectivamente, que nos fornecem informações valiosas sobre a transformação. Há uma relação importante entre as dimensões do domínio, do núcleo e da imagem de uma transformação linear, que apresentaremos nesta seção e que possui muitas aplicações. 2.1 O Núcleo Seja T : V W uma transformação linear. O núcleo de T, denotado por Ker T, é o conjunto de vetores de V que são levados por T no vetor nulo de W, ou seja, Ker T = {v V ; T (v) = 0}. Note que Ker T é um subconjunto não vazio de V, já que T (0) = 0. Mais ainda, Ker T é um subespaço de V. De fato, se v 1, v 2 Ker T e se a R,
2. NÚCLEO E IMAGEM 131 então v 1 + av 2 Ker T, pois T (v 1 + av 2 ) = T (v 1 ) + at (v 2 ) = 0 + a 0 = 0. O seguinte exemplo ilustra o fato de que a determinação do núcleo de uma transformação linear, entre espaços vetoriais de dimensão nita, recai na determinação do conjunto solução de um sistema de equações lineares homogêneo. Exemplo 1. Seja T : R 4 R 3 a transformação linear denida por T (x, y, s, t) = (x y + s + t, x + 2s t, x + y + 3s 3t). Para determinarmos Ker T, devemos obter o conjunto de vetores (x, y, s, t) em R 4 tais que T (x, y, s, t) = (x y + s + t, x + 2s t, x + y + 3s 3t) = (0, 0, 0). Equivalentemente, Ker T é o conjunto solução do seguinte sistema linear homogêneo: x y + s + t = 0 x + 2s t = 0 x + y + 3s 3t = 0. Resolvendo o sistema acima, obtemos Ker T = {( 2s + t, s + 2t, s, t) ; s, t R}. Note que Ker T é um subespaço vetorial de R 4 de dimensão 2. Inversamente, o conjunto solução de um sistema de equações lineares homogêneo AX = 0, onde A = [a ij ], pode ser interpretado como o núcleo de uma transformação linear. Mais precisamente, é o núcleo da transformação linear T : R n R m, T (x 1,..., x n ) = (a 11 x 1 + + a 1n x n,..., a m1 x 1 + + a mn x n ).
132 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES Se uma transformação linear T é injetiva, então a equação T (v) = 0 só possui a solução v = 0. De fato, sendo T injetiva e como T (0) = 0, tem-se que T (v) = 0 = T (0) implica que v = 0. Fato curioso, é que vale também a recíproca desta propriedade, como mostraremos a seguir. Proposição 5.2.1. Seja T : V W uma transformação linear. Temos que T é injetiva se, e somente se, Ker T = {0}. Demonstração A implicação direta foi provada no comentário acima. Suponhamos agora que Ker T = {0}. Tomemos u e v vetores em V. Se T (u) = T (v), então T (u) T (v) = 0. Equivalentemente, T (u v) = 0. Assim, u v Ker T. Como Ker T = {0}, segue-se que u v = 0, logo u = v, mostrando a injetividade de T. Por exemplo, a transformação linear do Exemplo 1 não é injetiva, pois Ker T {(0, 0, 0, 0)}. Já a transformação linear dada por T (x, y)=(x y, x+y), (x, y) R 2, é injetiva, pois Ker T = {(0, 0)}. 2.2 A Imagem A imagem de T de uma transformação linear T : V W é o conjunto Im T = T (V ). Como T (0) = 0, temos que 0 Im T, logo ele é um subconjunto não vazio de W. Deixaremos como exercício para o leitor vericar que, de fato, Im T é um subespaço vetorial de W (veja Problema 2.1). A seguinte proposição mostra como podemos determinar geradores para a imagem de uma transformação linear. Proposição 5.2.2. Seja T : V W uma transformação linear. Se {v 1,..., v n } é um conjunto de geradores de V, então {T (v 1 ),..., T (v n )} é um conjunto de geradores de Im T. Em particular, dim Im T dim V. Demonstração Seja w Im T e tomemos v V tal que T (v) = w. Como {v 1,..., v n } gera V, v é uma combinação linear de v 1,..., v n, digamos, v = a 1 v 1 + + a n v n.
2. NÚCLEO E IMAGEM 133 Pela linearidade de T (cf. (2) da Seção 1), temos que w = T (v) = a 1 T (v 1 ) + + a n T (v n ), ou seja, w é uma combinação linear de T (v 1 ),..., T (v n ). Como w é arbitrário em Im T, segue que Im T = G(T (v 1 ),..., T (v n )). Exemplo 2. Calculemos a imagem da transformação linear apresentada no Exemplo 1. Pela Proposição 5.2.2, devemos determinar o espaço gerado pela imagem de um conjunto de geradores de R 4. Vamos calcular, então, o espaço gerado por T (1, 0, 0, 0) = (1, 1, 1), T (0, 1, 0, 0) = ( 1, 0, 1), T (0, 0, 1, 0) = (1, 2, 3) e T (0, 0, 0, 1) = (1, 1, 3). Pelo Teorema 3.4.1, basta reduzir a matriz 1 1 1 1 0 1 1 2 3 1 1 3 à forma escalonada. Ora, 1 1 1 1 1 1 1 1 1 1 0 1 L 2 L 2 + L 1 0 1 2 0 1 2 L 3 L 3 L 2 1 2 3 L 3 L 3 L 1 0 1 2 0 0 0. L 4 L 4 + 2L 2 L 1 1 3 4 L 4 L 1 0 2 4 0 0 0 Assim, {(1, 1, 1), (0, 1, 2)} é uma base de Im T, ou seja, Im T = {(x, x + y, x + 2y) ; x, y R}.
134 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES 2.3 O Teorema do Núcleo e da Imagem O seguinte resultado é um teorema importante que relaciona a dimensão do núcleo à dimensão da imagem de uma transformação linear T : V W, quando V tem dimensão nita. Teorema 5.2.3. (Teorema do Núcleo e da Imagem) Seja T : V W uma transformação linear, onde V tem dimensão nita. Então dim Ker T + dim Im T = dim V. (1) Demonstração Suponhamos que dim V = n. Seja α = {u 1, u 2,..., u m } uma base de Ker T. Como qualquer conjunto linearmente independente de vetores em V tem no máximo n vetores (Teorema 3.3.3), segue que m n. Vamos considerar dois casos: Caso 1. m = n. Neste caso, dim Ker T = dim V e, consequentemente, pelo Teorema 3.3.6, Ker T = V. Isto implica que Im T = {0}, portanto, dim Im T = 0, mostrando que a fórmula (1) é válida. Caso 2. m < n. Pelo Teorema 3.3.5, podemos completar α de modo a obtermos uma base β de V, digamos β = {u 1, u 2,..., u m, v m+1,..., v n }. Note que a fórmula (1) é vericada se provarmos que {T (v m+1 ),..., T (v n )} é uma base de Im T. Pela Proposição 5.2.2, temos que Im T = G(T (v m+1 ),..., T (v n )). Para provarmos que esses vetores são linearmente independentes, consideremos a equação b m+1 T (v m+1 ) + + b n T (v n ) = 0, que equivale a termos b m+1 v m+1 + + b n v n Ker T. Como α é uma base de Ker T, existem b 1, b 2,..., b m em R tais que b m+1 v m+1 + + b n v n = b 1 u 1 + b 2 u 2 + + b m u m,
2. NÚCLEO E IMAGEM 135 ou seja, b 1 u 1 + b 2 u 2 + + b m u m b m+1 v m+1 b n v n = 0. Sendo β uma base de V, a equação anterior se verica somente se todos os coecientes da combinação linear são iguais a zero. Em particular, b m+1 = = b n = 0. Em geral, para mostrarmos que uma função é bijetiva, devemos mostrar que ela é injetiva e sobrejetiva. No entanto, se a função é uma transformação linear entre espaços vetoriais de mesma dimensão nita, então, exatamente como no caso de funções entre conjuntos nitos de mesma cardinalidade, basta vericar que ela ou é injetiva ou é sobrejetiva; a outra condição é automaticamente satisfeita. Provaremos este fato a seguir com o auxílio do teorema do núcleo e da imagem. Note que esse resultado não é consequência do resultado para funções entre conjuntos nitos, pois um espaço vetorial sobre R, quando não nulo, é um conjunto innito. Proposição 5.2.4. Seja T : V W uma transformação linear entre espaços vetoriais de dimensão nita. Se dim V = dim W, então as seguintes armações são equivalentes: (i) T é injetiva; (ii) T é sobrejetiva. Demonstração Pelo Teorema do Núcleo e da Imagem, dim Ker T + dim Im T = dim V. Sendo dim V = dim W, podemos escrever a igualdade acima como dim Ker T + dim Im T = dim W. (2) Suponhamos que T seja injetiva. Pela Proposição 5.2.1, Ker T = {0} e, consequentemente, dim Ker T = 0. Segue então, de (2), que dim Im T =
136 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES dim W, mostrando que T é sobrejetiva, já que, pelo Teorema 3.3.6, Im T = W. Suponhamos agora que T seja sobrejetiva, ou seja, Im T = W. Esses dois espaços têm mesma dimensão, portanto, de (2) temos que dim Ker T = 0, o que garante que Ker T = {0}. Pela Proposição 5.2.1, segue que T é injetiva. Exemplo 3. Veriquemos que a transformação linear T : M(2, 2) R 4, dada por T é uma função bijetiva. ([ a c ]) b = (a + b, b + c, c, a + b + d) d Ora, como dim M(2, 2) = dim R 4, segue, da Proposição 5.2.4, que basta vericarmos que T é uma função injetiva. Como a igualdade T ([ a c ]) b = (0, 0, 0, 0) d só ocorre quando a = b = c = d = 0, temos que Ker T = {0}. Proposição 5.2.1, T é injetiva. Pela Observamos que a condição dim V = dim W, na Proposição 5.2.4, é necessária. De fato, consideremos a transformação linear T : R 3 R 2 dada por T (x, y, z) = (x, y). Temos que T é sobrejetiva, mas não é injetiva. Já a transformação linear T : R 2 R 3 dada por T (x, y) = (x, y, 0) é injetiva, mas não é sobrejetiva. Seja T : V W uma transformação linear bijetiva. Logo, existe a função inversa T 1 : W V de T. A função T 1 é também uma transformação linear. Com efeito, consideremos w 1 e w 2 em W e a em R. Como T é bijetiva, existem únicos vetores v 1 e v 2 em V tais que T (v 1 ) = w 1 e T (v 2 ) = w 2.
2. NÚCLEO E IMAGEM 137 Portanto, T 1 (w 1 + aw 2 ) = T 1 (T (v 1 ) + at (v 2 )) = T 1 (T (v 1 + av 2 )) = v 1 + av 2 = T 1 (w 1 ) + at 1 (w 2 ). Uma transformação linear bijetiva é chamada isomorsmo. Dois espaços vetoriais que possuem um isomorsmo entre eles serão ditos isomorfos, o que, em grego, signica que possuem mesma forma. Os isomorsmos desempenham um papel importante na Álgebra Linear. Por exemplo, R 4 e M(2, 2) são espaços vetoriais isomorfos, pois a função T : R 4 M(2, 2) dada por T (x, y, z, t) = [ x z ] y t é um isomorsmo. Pelo Teorema 5.2.3, segue que se dois espaços vetoriais de dimensão nita são isomorfos, então eles têm a mesma dimensão. O próximo resultado mostra que a recíproca desta armação é também verdadeira, ou seja, espaços vetoriais de mesma dimensão nita são isomorfos. Teorema 5.2.5. Se V e W são espaços vetoriais de dimensão n, então V e W são isomorfos. Demonstração Para provarmos que V e W são isomorfos, devemos mostrar que existe uma transformação linear bijetiva de V em W. Para isto, tomemos α = {v 1,..., v n } e β = {w 1,..., w n } bases de V e W, respectivamente. Dado v V, podemos escrever de modo único v = a 1 v 1 + + a n v n, com a 1,..., a n R.
138 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES Dena, então, T : V W por T (v) = a 1 w 1 + + a n w n. Pela demonstração do Teorema 5.1.1, T está bem denida e, além disso, T é uma transformação linear. Para provarmos que T é bijetiva basta provarmos, pela Proposição 5.2.4, que T é injetiva. Ora, se v = a 1 v 1 + + a n v n e 0 = T (v) = a 1 w 1 + + a n w n, segue-se que a 1 = = a n = 0, pois {w 1,..., w n } é uma base de W. Logo, v = 0, mostrando que Ker T = {0}. Dois espaços vetoriais V e W isomorfos são essencialmente o mesmo espaço vetorial, exceto que seus elementos e suas operações de adição e de multiplicação por escalar são escritas diferentemente. Assim, qualquer propriedade de V que dependa apenas de sua estrutura de espaço vetorial permanece válida em W, e vice-versa. Por exemplo, se T : V W é um isomorsmo de V em W, então {T (v 1 ),..., T (v n )} é uma base de W se, e somente se, {v 1,..., v n } é uma base de V (veja Problema 2.4). Exemplo 4. Seja W o subespaço de M(2, 2) gerado por [ ] [ ] [ ] [ ] 1 5 1 1 2 4 1 7 M 1 =, M 2 =, M 3 = e M 4 =. 4 2 1 5 5 7 5 1 Vamos encontrar uma base e a dimensão de W. Para encontrarmos uma base e a dimensão de W não usaremos a denição de espaço gerado. Em vez disso, usaremos a noção de espaço linha, que nos auxilia a exibir uma base de subespaços de R n e, consequentemente, de espaços vetoriais isomorfos a [ subespaços ] de R n. x y Ora, como T (x, y, t, z) = é um isomorsmo de R 4 em M(2, 2), t z temos que W é isomorfo ao espaço G(v 1, v 2, v 3, v 4 ), onde v 1 = (1, 5, 4, 2), v 2 = (1, 1, 1, 5), v 3 = (2, 4, 5, 7) e v 4 = (1, 7, 5, 1). Temos que a
2. NÚCLEO E IMAGEM 139 matriz 1 5 4 2 1 1 1 5 2 4 5 7 1 7 5 1 se reduz, pelas transformações elementares, à matriz 1 3 0 6 0 2 1 1 0 0 0 0. 0 0 0 0 Assim, α = {(1, 3, 0, {[ 6), (0, 2, ] 1, [ 1)} é]} uma base de G(v 1, v 2, v 3, v 4 ) e, consequentemente, α = 1 3 0 2, 0 6 1 1 é uma base de W, mostrando que dim W = 2. Note que, como consequência do Teorema 5.2.5, temos que todo espaço vetorial não nulo de dimensão nita n é isomorfo ao R n. Dessa forma, o estudo de espaços vetoriais de dimensão nita pode se reduzir ao estudo dos espaços R n, mediante a escolha de algum isomorsmo. Assim, dado um problema em um espaço vetorial de dimensão nita n, reescrevemos o problema para R n, usando um isomorsmo, e o resolvemos neste contexto. Com o isomorsmo utilizado, voltamos ao contexto original. Essa técnica foi ilustrada no Exemplo 4. Um outro exemplo pode ser visto no Problema 2.6, bem como no exemplo a seguir, em que são aplicados os conceitos de espaço vetorial, base e dimensão, de modo a obter resultados não triviais. Exemplo 5. Consideremos a recorrência R(1, 1), denida por u n+1 = u n + u n 1, n 2. Vimos no Exemplo 2 da Seção 1, do Capítulo 1 e no Exemplo 5 da Seção 1, do Capítulo 3, que as sequências reais que satisfazem a esta recorrência formam um espaço vetorial.
140 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES Observe que todo elemento (u n ) de R(1, 1) ca totalmente determinado se soubermos os valores de u 1 e u 2. Por exemplo, se u 1 = u 2 = 1, temos que (u n ) é a sequência de Fibonacci. Denamos a seguinte função: T : R(1, 1) R 2 (u n ) (u 1, u 2 ). Note que T é uma transformação linear, pois se (u n ), (v n ) R(1, 1) e c R, então T ((u n ) + c(v n )) = T ((u n + cv n )) = (u 1 + cv 1, u 2 + cv 2 ) = (u 1, u 2 ) + c(v 1, v 2 ) = T ((u n )) + ct ((v n )). Por outro lado, T é obviamente sobrejetora. T é também injetora, pois os valores de u 1 e u 2 determinam univocamente a sequência (u n ) de R(1, 1). Logo, T é um isomorsmo de espaços vetoriais e, portanto, dim R(1, 1) = 2. Vamos determinar uma base de R(1, 1). Procuremos dentre as progressões geométricas (q n ), com q 0, aquelas que satisfazem à recorrência R(1, 1). Essas devem satisfazer à condição q n+1 = q n + q n 1. Daí deduz-se que q deve satisfazer a equação q 2 q 1 = 0, cujas raízes são q 1 = 1 + 5 2, q 2 = 1 5. 2 Portanto, sendo (q n 1 ) e (q n 2 ) linearmente independentes (basta vericar que as imagens por T são linearmente independentes), eles formam uma base de R(1, 1).
2. NÚCLEO E IMAGEM 141 Assim, todo elemento (u n ) de R(1, 1) é tal que ( 1 + ) n ( 5 1 ) n 5 u n = t 1 + t 2, t 1, t 2 R. (3) 2 2 Portanto, dados u 1 e u 2, podemos determinar t 1 e t 2 resolvendo o sistema de equações: { t 1 q 1 + t 2 q 2 = u 1 t 1 q 2 1 + t 2 q 2 2 = u 2. Em virtude das igualdades q 2 1 = q 1 +1 e q 2 2 = q 2 +1, este sistema é equivalente ao sistema { t 1 q 1 + t 2 q 2 = u 1 t 1 (q 1 + 1) + t 2 (q 2 + 1) = u 2, Por exemplo, para a sequência de Fibonacci, onde u 1 = u 2 = 1, resolvendo o sistema acima, obtemos t 1 = 1/ 5 e t 2 = 1/ 5, que substituídos em (3) nos dão a seguinte fórmula para o termo geral da sequência de Fibonacci: ( ) n ( u n = 1+ 5 2 1 ) n 5 2 5. Finalizaremos esta seção com mais uma aplicação do Teorema do Núcleo e da Imagem. Exemplo 6. Determinaremos uma fórmula para a dimensão da soma de dois subespaços de um espaco vetorial. Sejam U e W subespaços vetoriais de dimensão nita de um espaço vetorial V. Considere a transformação linear T : U W V (u, w) u + w É fácil vericar que a imagem de T é o subespaço U + W e que Ker T é isomorfo a U W (veja Problema 2.5). Logo, pelo Teorema do Núcleo e da Imagem e pelo Problema 3.15, do Capítulo 3, temos que dim U + dim W = dim U W = dim Ker T + dim Im T = dim(u W ) + dim(u + W ).
142 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES Assim, temos que dim(u + W ) = dim U + dim W dim(u W ). Problemas 2.1* Prove que a imagem de uma transformação linear T : V W é um subespaço vetorial de W. 2.2* Dada a transformação linear T (x, y, z) = (x + 2y z, y + 2z, x + 3y + z) em R 3 : (a) Verique que Ker T é uma reta que passa pela origem; (b) Determine as equações paramétricas da reta obtida em (a); (c) Verique que Im T é um plano que passa pela origem; (d) Determine as equações paramétricas do plano obtido em (c). 2.3 Explique por que não existe nenhuma transformação linear sobrejetiva T : V W, quando dim V < dim W. 2.4* Seja T : V W um isomorsmo. Prove que {v 1,..., v n } é uma base de V se, e somente se, {T (v 1 ),..., T (v n )} for uma base de W. 2.5 Sejam U e W subespaços de um espaço vetorial V. Considere a função T : U W V, denida por T (u, w) = u + w. Mostre que: (a) T é uma transformação linear; (b) A imagem de T é o subespaço U + W ; (c) Ker T = {(u, u); u U W } é isomorfo a U W. 2.6* Determine a dimensão do subespaço de R[x] 3, denido por {p(x) = ax 3 + bx 2 + cx + d ; p( 1) = 0}. 2.7 Determine o núcleo e a imagem das seguintes transformações lineares: (a) T : R 3 R 2, onde T (x, y, z) = (x y, x z);
2. NÚCLEO E IMAGEM 143 (b) T : R 4 R 3, onde T (x, y, z, w)=(2x + y z + w, x + 2y w, 6x + 2z 3w); (c) T : R[x] R[x], onde T (p(x)) = x p(x); [ ] 1 1 (d) T : M(2, 2) M(2, 2), onde T (A) = M A, sendo M = ; 4 4 (e) T : R[x] 2 R 4, onde T (ax 2 + bx + c) = (a + b, 2b + c, a + 2b c, c). 2.8 Determine quais das transformações lineares do exercício anterior são injetivas e quais são sobrejetivas. 2.9 Dada uma transformação linear T : V W, mostre que: (a) se é sobrejetiva, então dim W dim V ; (b) se é injetiva, então dim V dim W. 2.10 Encontre uma transformação linear T : R 3 R 3 cujo núcleo seja gerado por (1, 2, 1) e ( 1, 1, 0). 2.11 Encontre uma transformação linear T : R 4 R 3 cujo núcleo seja gerado por (1, 2, 3, 4) e (0, 1, 1, 1). 2.12 Encontre uma transformação linear T : R 3 R 3 cuja imagem seja gerada por (1, 2, 3) e (0, 1, 1). 2.13 Encontre uma transformação linear T : R 3 R 4 cuja imagem seja gerada por (1, 3, 1, 2) e (1, 0, 1, 1). 2.14 Seja T : R 3 V uma transformação linear de R 3 em um espaço vetorial V qualquer. Mostre que o núcleo de T é todo o R 3, um plano pela origem, uma reta pela origem, ou só a origem. 2.15 Seja T : V R 3 uma transformação linear de um espaço vetorial V qualquer em R 3. Mostre que a imagem de T é só a origem, uma reta pela origem, um plano pela origem, ou todo o R 3. 2.16 Dê, quando possível, exemplos de transformações lineares T satisfazendo: (a) T : R 3 R 2 sobrejetiva; (b) T : R 4 R 2 com Ker T = {(0, 0, 0, 0)};
144 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES (c) T : R 3 R 3 com Im T = {(0, 0, 0)}; (d) T : R 3 R 4 com Ker T = {(x, y, x) ; x R}. 2.17 Seja T : V R uma transformação linear não nula. Prove que existe um vetor v V tal que T (v) = 1. Seja W o subespaço de V gerado pelo vetor v. Prove que V = W Ker T. 2.18 Sejam W 1 e W 2 subespaços de um espaço vetorial V tais que dim W 1 + dim W 2 = dim V. Mostre que existe uma transformação linear T : V V tal que Ker T = V 1 e Im T = W 2. 2.19 Considere a transformação linear T : R 3 R 3 dada por T (x, y, z) = (3x + y, 2x 4y + 3z, 5x + 4y 2z). Determine se T é invertível. Em caso armativo, encontre T 1. 2.20 Seja T : R n R n a transformação linear dada por T (x 1, x 2,..., x n ) = (a 1 x 1, a 2 x 2,..., a n x n ). (a) Sob quais condições sobre a 1, a 2,..., a n, a função T é invertível? (b) Supondo satisfeitas as condições determinadas em (a), encontre T 1. 2.21 Seja T : R 2 R 2 a transformação linear dada por T (x, y) = (x + ky, y). Prove que T é injetiva e que T 1 = T, para cada valor real de k. 2.22 Ache um isomorsmo entre o espaço vetorial V das matrizes simétricas n n e o espaço vetorial W das matrizes triangulares inferiores n n. 3 Operações com Transformações Lineares Nesta seção, apresentaremos as operações usuais com as transformações lineares, obtendo novas transformações lineares a partir de transformações lineares dadas.
3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 145 Sejam T : V W e S : V W transformações lineares. Denimos a soma de T e S, denotada por T + S, como a função T + S : V W dada por (T + S)(v) = T (v) + S(v), (1) para todo v V. Se k R, denimos o produto de k por T, denotando-o kt, como a função kt : V W dada por (kt )(v) = kt (v), (2) para todo v V. As funções T +S e kt são, de fato, transformações lineares, pois para qualquer a em R e para quaisquer v 1 e v 2 em V temos que (T + S)(v 1 + av 2 ) = T (v 1 + av 2 ) + S(v 1 + av 2 ) = T (v 1 ) + at (v 2 ) + S(v 1 ) + as(v 2 ) = [T (v 1 ) + S(v 1 )] + a[t (v 2 + S(v 2 )] = (T + S)(v 1 ) + a(t + S)(v 2 ) e (kt )(v 1 + av 2 ) = kt (v 1 + av 2 ) = k[t (v 1 ) + at (v 2 )] = kt (v 1 ) + akt (v 2 ) = (kt )(v 1 ) + a(kt )(v 2 ). Denotemos por (V, W ) o conjunto de todas as transformações lineares de V em W. As operações descritas em (1) e (2) denem uma adição e uma multiplicação por escalar em (V, W ), tornando-o um espaço vetorial (veja Problema 3.4). Se W = R, o espaço (V, R) é chamado espaço dual de V e seus elementos chamados de funcionais lineares em V. A composição de duas transformações lineares T : V W e S : W U é a composição usual de funções: (S T )(v) = S(T (v)), v V.
146 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES A função S T é também uma transformação linear. Com efeito, se v 1, v 2 V e se a R, então (S T )(v 1 + av 2 ) = S(T (v 1 + av 2 )) = S(T (v 1 ) + at (v 2 )) = S(T (v 1 )) + as(t (V 2 )) = (S T )(v 1 ) + a(s T )(v 2 ). Exemplo 1. Sejam T : R 3 R 3 e S : R 3 R 3 transformações lineares dadas por T (x, y, z) = (2x, x y, y + z) e S(x, y, z) = (x + 2z, y, z). Determinaremos T + S, 2S e T S. e Temos (T + S)(x, y, z) = T (x, y, z) + S((x, y, z)) = (2x, x y, y + z) + (x + 2z, y, z) = (3x + 2z, x, y), (2S)(x, y, z) = 2S(x, y, z) = 2(x + 2z, y, z) = (2x + 4z, 2y, 2z) (T S)(x, y, z) = T (S(x, y, z)) = T (x+2z, y, z) = (2x+4z, x y+2z, y z). Sejam T : V V uma transformação linear e n N \ {0}. Denimos a n-ésima potência de T, denotando-a por T n, como a função T n : V V dada por T n = } T {{ T}. n vezes Pelo que vimos anteriormente, T n é uma transformação linear. Denimos T 0 como a função identidade em V, ou seja, T 0 = I V. Se T : V V é um isomorsmo, a transformação linear T n : V V é denida por T n = T} 1 {{ T 1 }. n vezes
3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 147 O próximo resultado, cuja demonstração é deixada como exercício (veja Problema 3.9), relaciona a composição com a adição e a multiplicação por escalar de transformações lineares. Proposição 5.3.1. Sejam T e T transformações lineares de V em W e sejam S e S transformações lineares de W em U. Então: (a) S (T + T ) = S T + S T ; (b) (S + S ) T = S T + S T; (c) k(s T ) = (ks) T = S (kt ), onde k R. Problemas 3.1* Considere a transformação linear T : R 3 R 4 dada por T (x, y, z) = (x + y, z, x y, y + z). Calcule (T S)(x, y), onde S : R 2 R 3 é dada por S(x, y) = (2x + y, x y, x 3y). 3.2 Sejam T : V W e S : V W transformações lineares entre espaços vetoriais de mesma dimensão. Se S T = I V, prove que T S = I W e S = T 1. 3.3 Sejam T : R 2 R 2 e S : R 2 R 2 transformações lineares dadas por T (x, y) = (x + y, 0) e S(x, y) = ( y, x). Encontre expressões para denir: (a) T + S; (b) 5T 4S; (c) S T ; (d) T S; (e) T 3 ; (f) S 3. 3.4 Prove que (V, W ), com as operações dadas em (1) e (2), é um espaço vetorial. 3.5 Mostre que as seguintes transformações lineares T, S e Q são linearmente independentes: (a) T, S, Q (R 3, R 2 ), denidas por T (x, y, z) = (x+y+z, x+y), S(x, y, z) = (2x + z, x + y) e Q(x, y, z) = (2y, x); (b) T, S, Q (R 3, R), denidas por T (x, y, z) = x + y + z, S(x, y, z) = y + z e Q(x, y, z) = x z.
148 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES 3.6 Seja T : V V uma transformação linear. Prove que T 2 = 0 se, e somente se, Im T Ker T. 3.7 Prove que se T : V V e S : V V são transformações lineares não nulas tais que T S = 0, então T não é injetiva. 3.8 Dada a transformação linear T (x, y, z) = (ay + bz, cz, 0) de R 3 em R 3, mostre que T 3 = 0. 3.9 Prove a Proposição 5.3.1. 3.10 Dada a transformação linear T (x, y) = (ac + by, cx + dy) de R 2 em R 2, mostre que: (a) T 2 (a + d)t = (bc ad) I R 2; (b) Se ad bc 0, então existe uma transformação linear S de R 2 em R 2 tal que S T = T S = I R 2. 3.11 Seja T : W U uma transformação linear injetiva. Prove que se S 1, S 2 (V, W ) satisfazem a igualdade T S 1 = T S 2, então S 1 = S 2. 3.12 Seja T : V W uma transformação linear sobrejetiva. Prove que se S 1, S 2 (W, U) satisfazem a igualdade S 1 T = S 2 T, então S 1 = S 2. 3.13 Prove que se T : V V é uma transformação linear tal que T 2 = 0, então a transformação I V T é invertível. 3.14 Seja V um espaço vetorial. Suponhamos que V = W 1 W s. Considere a função T : V V denida por T (v) = w i, onde v = w 1 + + w i + + w s, com w i W i, para cada 1 i s. Mostre que: (a) T é uma transformação linear; (b) T 2 = T. A transformação T é chamada de projeção de V em seu subespaço vetorial W i. 3.15 Seja T : V V uma transformação linear tal que T 2 =T. Mostre que: (a) T (v) = v para todo v Im T ; (b) V = Ker T Im T ; (c) T é a projeção de V em sua imagem.
3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 149 3.16 Seja T : V V uma transformação linear. Mostre que T é uma projeção se, e somente se, T 2 = T. 3.17 Sejam T e S duas transformações lineares entre os espaços vetoriais de dimensão nita V e W. Mostre que: (a) Se Ker T = Ker S, então existe um isomorsmo T 1 : W W tal que S = T 1 T ; (b) Se Im T = Im S, então existe um isomorsmo T 2 : V V tal que S = T T 2.
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
6 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 6: Transformações Lineares e Matrizes Sumário 1 Matriz de uma Transformação Linear....... 151 2 Operações com Transformações Lineares e Matrizes........................... 158 3 Operadores Lineares em R 2 e em R 3........ 163 4 Mudança de Base e Matrizes Semelhantes.... 171 150
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 151 Neste capítulo, mostramos como associar matrizes a transformações lineares, reduzindo as operações com transformações lineares a operações com matrizes, o que permite ganhar computabilidade. 1 Matriz de uma Transformação Linear Nesta seção, veremos que se V e W são espaços vetoriais de dimensão nita, com bases xadas, então uma transformação linear T : V W pode ser representada por uma matriz. A vantagem de uma tal representação é que muitos problemas associados às transformações lineares entre espaços de dimensão nita podem ser resolvidos com a teoria das matrizes, como veremos na próxima seção e nos capítulos a seguir. Seja T : V W uma transformação linear, em que dim V =n e dim W =m. Sejam α = {v 1, v 2,..., v n } e β = {w 1, w 2,..., w m } bases de V e W, respectivamente. Como β é uma base de W, podemos determinar de modo único números reais a ij, com 1 i n, 1 j m, tais que T (v i ) = a 1i w 1 + + a ji w j + + a mi w m. (1) Tomemos agora v em V. Temos que v = k 1 v 1 + + k n v n, em que k i R para 1 i n. Pela linearidade de T e por (1), segue que T (v) = k 1 T (v 1 ) + + k n T (v n ) = k 1 (a 11 w 1 + + a m1 w m ) + + k n (a 1n w 1 + + a mn w m ) = (a 11 k 1 + + a 1n k n )w 1 + + (a m1 k 1 + + a mn k n )w m. Logo, [T (v)] β = a 11 k 1 + + a 1n k n. a m1 k 1 + + a mn k n a 11 a 1n k 1 =... = [T ] α β [v] α, (2) a m1 a mn k n
152 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES onde denimos [T ] α β = a 11 a 1n... a m1 a mn A matriz [T ] α β, que representa T em relação às bases α e β, é chamada a matriz de T nas bases α e β. Por (2), temos a expressão [T (v)] β = [T ] α β [v] α para todo v em V. (3) Observemos que [T ] α β é uma matriz de ordem m n tal que, para cada 1 i n, a i-ésima coluna de [T ] α β é dada pelas coordenadas de T (v i) na base β. Exemplo 1. Sejam α = {(1, 1), (0, 2)} e β = {(1, 0, 1), (0, 1, 0), (1, 2, 0)}, bases de R 2 e R 3, respectivamente. dada por T (x, y) = (2x, x y, 2y). Calculemos [T ] α β, onde T : R2 R 3 é Como T é uma transformação linear de R 2 em R 3, [T ] α β 3 2, digamos a 11 a 12 [T ] α β = a 21 a 22. a 31 a 32 é uma matriz Pelo que vimos, a 11, a 21 e a 31 são as coordenadas de T (1, 1) na base β e a 12, a 22 e a 32 são as coordenadas de T (0, 2) na base β. Ou seja, T (1, 1) = (2, 0, 2) = a 11 (1, 0, 1) + a 21 (0, 1, 0) + a 31 (1, 2, 0) e T (0, 2) = (0, 2, 4) = a 12 (1, 0, 1) + a 22 (0, 1, 0) + a 32 (1, 2, 0). Equivalentemente, a 11 + a 31 = 2 a 21 + 2a 31 = 0 a 11 = 2 e a 12 + a 32 = 0 a 22 + 2a 32 = 2 a 12 = 4.
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 153 Resolvendo os sistemas lineares acima, obtemos a 11 = 2, a 21 = 0, a 31 = 0, a 12 = 4, a 22 = 6 e a 32 = 4. Portanto, 2 4 [T ] α β = 0 6. 0 4 No exemplo anterior, determinamos [T ] α β a partir da transformação linear T. No próximo exemplo, vamos considerar o problema inverso: dada a matriz [T ] α β, determinar T a partir desta matriz. Exemplo 2. Sejam α e β as bases dadas no Exemplo 1. Determine a transformação linear T : R 2 R 3 tal que 1 0 [T ] α β = 1 2. 0 1 Para determinar T usaremos a expressão (3). Assim, computemos inicialmente [v] α. Ora, se (x, y) R 2, então ( ) y x (x, y) = x(1, 1) + (0, 2), 2 o que nos dá [(x, y)] α = x y x. 2 Portanto, 1 0 [T (x, y)] β = 1 2 x x y x = y y x 0 1 2 2 e, consequentemente,
154 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES ( ) y x T (x, y) = x(1, 0, 1) + y(0, 1, 0) + (1, 2, 0) 2 ( ) y + x =, 2y x, x. 2 O Exemplo 2 pode ser resolvido por um outro método. De fato, sabemos que, na base β, a primeira coluna de [T ] α β nos dá as coordenadas de T (1, 1) e a segunda coluna nos dá as coordenadas de T (0, 2). Assim, T (1, 1) = 1(1, 0, 1) + 1(0, 1, 0) + 0 (1, 2, 0) = (1, 1, 1) e T (0, 2) = 0 (1, 0, 1) + 2(0, 1, 0) + 1(1, 2, 0) = (1, 4, 0). Para (x, y) R 2 arbitrário, temos ( ) y x (x, y) = x(1, 1) + (0, 2). 2 Agora, pela linearidade de T, segue que ( ) y x T (x, y) = x(1, 1, 1) + (1, 4, 0) 2 ( ) y + x =, 2y x, x, 2 como encontrado anteriormente. Quando a transformação linear for de um espaço vetorial V nele mesmo, ela será chamada de operador em V. Exemplo 3. Consideremos o operador identidade em um espaço vetorial V ; isto é, o operador denido por I V (v) = v para todo v V. Tem-se que [I V ] α α é a matriz identidade de ordem n. De fato, para cada 1 j n, a j-ésima coluna de [I V ] α α é dada pelas coordenadas de I V (v j ) na base α. Mas, para cada 1 j n, I V (v j ) = v j = 0v 1 + + 0v j 1 + 1v j + 0v j+1 + + 0v n,
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 155 o que implica que [I V ] α α é a matriz identidade de ordem n: 1 0 0 0 0 0 [I V ] α... α =. 0 1 0... 0 0 1 coordenadas coordenadas coordenadas de I V (v 1 ) de I V (v j ) de I V (v n ) na base α na base α na base α Seja T : V W uma transformação linear entre espaços vetoriais de dimensão nita. Vimos que, uma vez xadas bases α e β de V e W, respectivamente, existe uma única matriz [T ] α β que representa T nessas bases. Uma pergunta natural é o que ocorre com a matriz [T ] α β se diferentes bases são escolhidas. Consideremos a transformação linear dada no Exemplo 1. Se α e β são as bases canônicas de R 2 e R 3, respectivamente, então 2 0 [T ] α β = 1 1. 0 2 Assim, podemos ter matrizes diferentes representando uma mesma transformação linear. Isto deixa bastante claro que, embora uma transformação linear T : V W não dependa de bases particulares escolhidas para V e W, a matriz associada depende dessas bases. Terminamos esta seção observando que escolhidas bases quaisquer α e β de R n e R m, respectivamente, uma matriz A M(m, n) dene uma transformação linear T : R n R m como segue: [T (v)] β = A [v] α, v R n.
156 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Mais ainda, tem-se que [T ] α β = A (veja Problema 1.2). Em particular, se α e β são as bases canônicas de R n e R m, respectivamente, então a transformação linear T é chamada transformação multiplicação por A, sendo representada por T A. Exemplo 4. Seja A = [a ij ] uma matriz de ordem m n. Temos que a 11 a 12... a 1n x 1 a T A (x 1,..., x n ) = 21 a 22... a 2n x 2.... a m1 a m2... a mn x n = a 11 x 1 + a 12 x 2 + + a 1n x n a 21 x 1 + a 22 x 2 + + a 2n x n. a m1 x 1 + a m2 x 2 + + a mn x n = x 1 w 1 + x 2 w 2 + + x n w n, onde w 1,..., w n são os vetores colunas da matriz A. Assim, temos que Im T A é o subespaço de R m gerado pelas colunas da matriz A, chamado espaço coluna de A e denotado por C(A). Por outro lado, o núcleo Ker T A de T A é o conjunto solução S h (A) do sistema linear homogêneo AX = 0. Problemas 1.1 Dadas duas transformações lineares T, T : V W e bases α e β de V e W, respectivamente, mostre que se [T ] α β = [T ] α β, então T = T. 1.2* Sejam dados dois espaços vetoriais V e W de dimensões n e m, respectivamente. Seja α uma base de V e β uma base de W. Dada uma matriz A M(m, n), considere a função T : V W denida por [T (v)] β = A[v] α, v V.
1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 157 Mostre que: (a) T é uma transformação linear; (b) [T ] α β = A. 1.3 Sejam A e B matrizes em M(m, n) e β uma base de um espaço vetorial V. Mostre que se A[v] β = B[v] β para todo v V, então A = B. 1.4* Sejam T : R n R m uma transformação linear e α e β bases de R n e de R m, respectivamente. Se r é o posto da matriz [T ] α β, mostre que dim Im T = r e dim Ker T = n r. 1.5 Dadas as bases α = {(1, 1, 1), (0, 1, 0), (0, 1, 1)} de R 3 e β = {(1, 2), (0, 1)} de R 2, ache a transformação linear T : R 3 R 2 tal que [ ] [T ] α 1 0 2 β =. 1 1 1 1.6 Dado o operador linear T : R 3 R 3, T (x, y, z) = (x y, y x, x z), encontre [T ] α β, onde α é a base canônica de R3 e β = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}. 1.7 Seja T : R 3 R 3 a multiplicação pela matriz 1 3 4 3 4 7. 2 2 0 (a) Mostre que Ker T é uma reta que passa pela origem e encontre as equações paramétricas desta reta. (b) Mostre que Im T é um plano que passa pela origem e encontre a equação cartesiana deste plano. 1.8 Dado o operador linear T (x, y, z) = (x 2y + z, x + 4y 2z, x) em R 3, com base α = {(1, 0, 1), (0, 1, 2), (1, 2, 0)}, encontre uma base β de R 3 tal
158 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES que 1 0 0 [T ] α β = 0 0 0. 0 0 1 1.9 Seja T : R[x] 2 R[x] 2 a transformação linear T (p(x)) = p(2x + 1) (veja Exemplo 6, Seção 1, Capítulo 5). Encontre [T ] β β em relação à base β = {1, x, x 2 }. 1.10 Suponha que V e W tenham dimensão nita. Mostre a matriz, em quaisquer bases de V e de W, da transformação nula 0: V W é a matriz nula. 1.11 Seja α = {v 1, v 2, v 3, v 4 } uma base de um espaço vetorial V. Encontre a matriz [T ] α α da transformação linear T : V V denida por T (v 1 ) = v 2, T (v 2 ) = v 3, T (v 3 ) = v 4 e T (v 4 ) = v 1. 1.12 Seja T : R 2 M(2, 2) a transformação linear denida por 1 2 [T ] α 1 0 β = 2 1 1 1 onde α e β são as bases canônicas de R 2 e M(2, 2), respectivamente. (a) Determine os vetores v R 2 tais que T (v) = I 2 ; (b) Determine T (3, 1). 2 Operações com Transformações Lineares e Matrizes Sejam T e T transformações lineares de V em W. Sejam α = {v 1,..., v n } e β = {w 1,..., w m } bases de V em W, respectivamente. Estamos interessados em vericar se existe alguma relação entre as matrizes [T + T ] α β, [T ]α β e
2. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES E MATRIZES 159 [T ] α β. Notemos que se 1 j n, então [(T + T )(v j )] β = [T (v j ) + T (v j )] β = [T (v j )] β + [T (v j )] β, mostrando que a j-ésima coluna de [T + T ] α β é a soma da j-ésima coluna de [T ] α β com a j-ésima coluna de [T ]α β. Demonstramos assim o seguinte resultado: Proposição 6.2.1. Sejam T e T transformações lineares de V em W, onde V e W são espaços vetoriais de dimensão nita. Se α e β são bases de V e W, respectivamente, então [T + T ] α β = [T ] α β + [T ] α β. Deixamos como exercício para o leitor (veja Problema 2.3) demonstrar a próxima proposição, que é um resultado análogo ao anterior para a multiplicação por escalar de transformações lineares. Proposição 6.2.2. Seja T : V W uma transformação linear, onde V e W são espaços vetoriais de dimensão nita. Se α e β são bases de V e W, respectivamente, então [kt ] α β = k[t ] α β, onde k é um número real arbitrário. Decorre, das duas proposições acima, que [T +kt ] α β = [T ]α β +k[t ] α β, o que mostra, em virtude dos Problemas 1.1 e 1.2, da Seção 1, que dados espaços vetoriais V e W, de dimensões respectivamente, n e m, e xadas bases α de V e β de W, a aplicação L(V, W ) M(m, n) T [T ] α β é um isomorsmo de espaços vetoriais. Portanto, temos que dim L(V, W ) = dim M(m, n) = nm. No próximo resultado veremos que a composta de duas transformações lineares pode ser representada por um produto de matrizes. Esta é uma das principais razões da importância do estudo de matrizes.
160 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Proposição 6.2.3. Sejam T : V W e S : W U transformações lineares, em que V, W e U são espaços vetoriais de dimensão nita. Se α, β e γ são bases de V, W e U, respectivamente, então Demonstração [S T ] α γ = [S] β γ [T ] α β. (1) Consideremos α = {v 1,..., v n }. Denotemos por C j (M) a j-ésima coluna de uma matriz M arbitrária. Se A e B são matrizes para as quais a matriz AB está denida, segue da denição de produto que C j (AB) = A C j (B). (2) Para demonstrar (1) basta provar que, para cada j, com 1 j n, tem-se que C j ([S T ] α γ ) = C j ([S] β γ [T ] α β ). Ora, xe um índice j. De (2), segue que C j ([S] β γ [T ] α β) = [S] β γ C j ([T ] α β) = [S] β γ [T (v j )] β. Por outro lado, de (3), da Seção 1, segue que C j ([S T ] α γ ) = [(S T )(v j )] γ = [S(T (v j ))] γ = [S] β γ [T (v j )] β, o que prova o desejado. Exemplo 1. Sejam T : R 2 R 3 e S : R 3 R 2 transformações lineares cujas matrizes são 1 0 [ ] [T ] α β = 2 1 e [S] β 1 0 1 γ =, 0 0 1 1 1 sendo α = {(1, 0), (1, 1)}, β = {(1, 1, 1), (1, 0, 1), (0, 0, 1)} e γ = {(1, 0), (0, 2)}. Vamos encontrar a transformação linear S T. Para determinarmos S T, vamos primeiramente determinar [S T ] α γ. Pela Proposição 6.2.3, [ ] 1 0 [ ] [S T ] α 1 0 1 0 1 γ = 2 1 =. 0 0 1 1 1 1 1
2. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES E MATRIZES 161 Agora por (3), da Seção 1, temos que, para qualquer (x, y) R 2, [ ] 0 1 [(S T )(x, y)] γ = [(x, y)] α 1 1 [ ] [ ] 0 1 x y = 1 1 y [ ] y = 2y x e, consequentemente, (S T )(x, y) = y(1, 0) + (2y x)(0, 2) = (y, 4y 2x). Vimos que se T é uma transformação linear bijetiva, T 1 é também uma transformação linear. O resultado a seguir, que é uma consequência da Proposição 6.2.3, nos apresenta uma relação entre as matrizes que representam T e T 1, quando xadas bases do domínio e do contradomínio de T. Teorema 6.2.4. Seja T : V W um isomorsmo, onde V e W são espaços vetoriais de dimensão nita. Se α é uma base de V e β é uma base de W, então [T 1 ] β α = ([T ] α β) 1. Demonstração Como T 1 é a inversa de T, temos que T 1 T é a função identidade em V, ou seja, Pela Proposição 6.2.3, T 1 T = I V. [I V ] α α = [T 1 T ] α α = [T 1 ] β α [T ] α β. (3) Se dim V = n, pelo Exemplo 3, da Seção 1, temos que [I V ] α α é a matriz identidade de ordem n. Assim, de (3), segue-se que [T ] α β é invertível e sua inversa é a matriz [T 1 ] β α. Corolário 6.2.5. Seja T : V W uma transformação linear, onde V e W são espaços vetoriais de mesma dimensão nita. Sejam α e β bases de V
162 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES e W, respectivamente. Temos que T é invertível se, e somente se, a matriz [T ] α β é invertível. Demonstração Uma implicação resulta de (3). A outra, do fato que a transformação linear L(V, W ) M(n, n), onde n = dim V = dim W, é sobrejetora e transforma composição de transformações lineares em produtos de matrizes. Exemplo 2. Seja T : R 2 R 2 a transformação linear dada por T (x, y) = (4x 3y, 2x + 2y). Vamos vericar que T é invertível e vamos encontrar T 1. Para vericarmos que T é invertível, podemos calcular Ker T e usar a Proposição 5.2.4, ou, ainda, podemos calcular [T ] α α, onde α é uma base qualquer de R 2, e usar o Corolário 6.2.5. Vamos aqui optar pelo segundo método. Ora, se α é a base canônica de R 2, então [ ] [T ] α 4 3 α =. 2 2 Utilizando a técnica exposta logo após a Proposição 2.1.7, podemos vericar que a matriz acima é invertível e a sua inversa é a matriz [ ] 1 3/2. 1 2 Portanto, devido ao Teorema 6.2.4, temos que [ ] [T 1 ] α α = ([T ] α α) 1 1 3/2 =. 1 2 A transformação linear T 1 é, então, determinada usando a fórmula (3) da Seção 1, como segue: [ ] [ ] [ ] [T 1 (x, y)] α = [T 1 ] α 1 3/2 x x + 3 α [(x, y)] α = = y 2, 1 2 y x + 2y
3. OPERADORES LINEARES EM R 2 E EM R 3 163 o que fornece T 1 (x, y) = (x + 3 y, x + 2y). 2 Problemas 2.1 Sejam 1 0 1 1 1 1 A = 0 2 1 e B = 0 0 1. 0 0 1 1 2 0 Determine a transformação linear T : R 3 R 3 tal que T A = T B T. 2.2 Considere as matrizes 1 2 1 1 1 A = 0 1 e B = 1 0 0. 1 1 1 2 1 Determine: (a) Ker T A ; (b) Im T A ; (c) Ker T B ; (d) Im T B ; (e) Ker(T B T A ); (f) Im(T B T A ). 2.3 Prove a Proposição 6.2.2. 3 Operadores Lineares em R 2 e em R 3 Dentre os operadores lineares mais importantes em R 2 e em R 3 estão os que produzem reexões, projeções e rotações. A seguir, passamos a estudar alguns destes operadores. Reexões Consideremos o operador linear T : R 2 R 2, chamado de reexão em torno do eixo Ox, que transforma cada vetor v = (x, y) R 2 em sua imagem simétrica em relação ao eixo Ox. Figura 10 Se escrevermos w = T (v) = (w 1, w 2 ), obtemos as equações w 1 = x = 1x + 0y, w 2 = y = 0x 1y.
164 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Assim, se α denota a base canônica de R 2, segue que [ ] 1 0 [T (v)] α = [v] α. 0 1 Em geral, os operadores lineares de R 2 ou de R 3 que levam cada vetor em seu simétrico em relação a alguma reta ou plano são chamados de reexões. Abaixo, apresentamos algumas das reexões mais comuns em R 2 e R 3. Fixamos a notação α para denotar a base canônica de R 2 ou de R 3.
3. OPERADORES LINEARES EM R 2 E EM R 3 165 Operador Equações Matriz [T ] α α Reexão em torno do eixo Oy { w 1 = x w 2 = y [ ] 1 0 0 1 Reexão em torno da reta y = x { w 1 w 2 = y = x [ ] 0 1 1 0 Reexão em torno do plano xoy Reexão em torno do plano yoz Reexão em torno do plano xoz w 1 = x w 2 = y w 3 = z w 1 = x w 2 = y = z w 3 w 1 = x w 2 = y = z w 3 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 Projeções Consideremos o operador linear T : R 2 R 2 que transforma cada vetor v = (x, y) R 2 em sua projeção ortogonal sobre o eixo Ox (Figura 11). Se escrevermos w = T (v) = (w 1, w 2 ), obteremos as equações w 1 = x = 1x + 0y, w 2 = 0 = 0x + 0y. Assim, se α denota a base canônica de R 2, temos [ ] 1 0 [T (v)] α = [v] α. 0 0 Figura 11 Em geral, uma projeção (ou, mais precisamente, uma projeção ortogonal ) de R 2 ou R 3 é um operador linear que transforma cada vetor em sua projeção
166 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES ortogonal sobre alguma reta ou algum plano que passa pela origem. A seguir, apresentamos algumas das projeções mais comuns. Operador Equações Matriz [T ] α α Projeção sobre o eixo Oy Projeção sobre o plano xoy Projeção sobre o plano yoz Projeção sobre o plano xoz { w 1 = 0 w 2 = y w 1 = x w 2 = y w 3 = 0 w 1 = 0 w 2 = y w 3 = z w 1 = x w 2 = 0 = z w 3 [ ] 0 0 0 1 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 1 1 0 0 0 0 0 0 0 1 Rotações Consideremos o operador linear T : R 2 R 2 que gira cada vetor v = (x, y) R 2 de um ângulo xado θ (Figura 12). T é chamado de rotação por θ em R 2. Figura 12
3. OPERADORES LINEARES EM R 2 E EM R 3 167 Se escrevermos w = T (v) = (w 1, w 2 ), segue da trigonometria que x = r cos φ, y = r sen φ (1) e w 1 = r cos(θ + φ), w 2 = r sen(θ + φ), (2) onde r denota o comprimento de v e φ denota o ângulo entre v e o eixo Ox positivo no sentido anti-horário. Aplicando identidades trigonométricas em (2), temos { w 1 = r cos θ cos φ r sen θ sen φ w 2 = r sen θ cos φ + r cos θ sen φ. Substituindo (1) nas expressões acima, obtemos as equações { w 1 = x cos θ y sen θ w 2 = x sen θ + y cos θ. (3) Assim, se α denota a base canônica de R 2, obtemos [ ] cos θ sen θ [T (v)] α = [v] α. sen θ cos θ Em geral, uma rotação de vetores em R 3 é feita em relação a uma reta partindo da origem, chamada eixo de rotação. À medida que um vetor gira em torno do eixo de rotação, ele varre uma porção de um cone (Figura 13).
168 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES O ângulo de rotação, que é medido na base do cone, é descrito no sentido horário ou anti-horário em relação a um ponto de vista ao longo do eixo de rotação olhando para a origem. Por exemplo, na Figura 13, o vetor T (v) resulta da rotação no sentido anti-horário do vetor v em torno do eixo Ox por um ângulo θ. Assim como em R 2, os ângulos são positivos se gerados por rotações no sentido anti-horário e negativos se gerados por rotações no sentido horário. Figura 13 Na tabela a seguir, apresentamos as rotações em R 3 cujos eixos de rotação são os eixos coordenados.
3. OPERADORES LINEARES EM R 2 E EM R 3 169 Operador Equações Matriz [T ] α α Rotação anti-horária em torno do eixo Ox por um ângulo θ Rotação anti-horária em torno do eixo Oy por um ângulo θ Rotação anti-horária em torno do eixo Oz por um ângulo θ w 1 = x w 2 = y cos θ z sen θ w 3 = y sen θ + z cos θ w 1 = x cos θ + z sen θ w 2 = y w 3 = x sen θ + z cos θ w 1 = x cos θ y sen θ w 2 = x sen θ + y cos θ w 3 = z 1 0 0 0 cos θ sen θ 0 sen θ cos θ cos θ 0 sen θ 0 1 0 sen θ 0 cos θ cos θ sen θ 0 sen θ cos θ 0 0 0 1 Para cada uma das rotações na tabela acima, uma das componentes do vetor permanece inalterada durante a rotação e a relação entre as duas outras componentes pode ser deduzida da mesma forma que deduzimos (3). Sabemos que a multiplicação por escalar de um vetor em R 2 e em R 3, dependendo do valor do escalar, produz no vetor uma dilatação, contração ou inversão. Podemos representar estes efeitos geométricos por meio de operadores lineares. De fato, o operador linear T a : R 2 R 2, dado por T a (v) = av, em que a R e v R 2, dilata v, se a 1; contrai v, se 0 a < 1; inverte o sentido de v, se a < 0. No caso particular de a = 1, o operador T a é chamado reexão em torno da origem. O que acabamos de ver vale também para R 3 (Figura 14). Figura 14 Exemplo 1. Determinemos se T 1 T 2 = T 2 T 1, onde T 1 : R 2 R 2 é a projeção ortogonal sobre o eixo Ox e T 2 : R 2 R 2 é a projeção ortogonal sobre o eixo Oy. Como vimos na Seção 2, compor transformações lineares é equivalente a multiplicar as matrizes que representam estas transformações. Seja α a base
170 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES canônica de R 2. Como [ ] [T 1 ] α 1 0 α = 0 0 [ ] e [T 2 ] α 0 0 α =, 0 1 segue que T 1 T 2 é dada pelo produto [ ] [ ] [ ] 1 0 0 0 0 0 = 0 0 0 1 0 0 (4) e que T 2 T 1 é dada pelo produto [ ] [ ] [ ] 0 0 1 0 0 0 =. (5) 0 1 0 0 0 0 De (4) e (5), obtemos que T 1 T 2 e T 2 T 1 são o operador nulo em R 2. Portanto, T 1 T 2 = T 2 T 1. Problemas 3.1* Encontre a matriz na base canônica para a composição de uma rotação de 90 seguida de uma reexão em torno da reta y = x, em R 2. 3.2* Determine a inversa do operador linear em R 3 dado por uma reexão em torno do plano xoy. 3.3 Sejam T : R 2 R 2 a reexão em torno do eixo Oy e S : R 2 R 2 a reexão em torno do eixo Ox. Mostre que S T = T S.
4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 171 3.4 Sejam T : R 2 R 2 a reexão em torno da reta y = x e S : R 2 R 2 a projeção ortogonal sobre o eixo Oy. Mostre que S T T S. 3.5 Mostre que se T : R 3 R 3 é uma projeção ortogonal sobre um dos eixos coordenados, então os vetores T (v) e v T (v) são ortogonais, para cada v em R 3. 3.6 Seja T : R 3 R 3 a projeção ortogonal sobre o plano xoy. Mostre que uma reta ortogonal ao plano xoy é levada por T a um mesmo ponto deste plano. 3.7 Determine a matriz na base canônica de T : R 2 R 2, em que (a) T dilata os vetores de R 2 por 3, em seguida reete estes vetores em torno da reta y = x e depois projeta estes vetores ortogonalmente sobre o eixo Oy; (b) T contrai os vetores de R 2 por 1, em seguida gira estes vetores pelo 2 ângulo π 4 e depois reete estes vetores em torno do eixo Ox. 4 Mudança de Base e Matrizes Semelhantes Um problema comum no estudo de espaços vetoriais de dimensão nita é conhecer as relações entre as coordenadas de um vetor em diferentes bases. Como a noção de base é a generalização para espaços vetoriais arbitrários da noção de sistemas de coordenadas em R 2 e R 3, mudar de base é análogo a mudar de eixos coordenados em R 2 ou R 3. Dado um espaço vetorial V arbitrário de dimensão nita e duas bases α e β de V, podemos obter uma relação entre as matrizes [v] α e [v] β de um vetor v em V, usando, para isto, o operador identidade em V. Com efeito, pela expressão (3) da Seção 1, para todo v V, temos que [v] β = [I V ] α β [v] α. (1) A matriz [I V ] α β é chamada matriz mudança de base de α para β, pois, pela igualdade (1), ela nos permite obter as coordenadas de um vetor v em V em relação à base β uma vez conhecidas suas coordenadas na base α.
172 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Exemplo 1. Considerando a base canônica α de R 2 e a outra base β = {(1, 1), (1, 2)}, temos que [ ] [I R 2] α a 1 b 1 β =, a 2 b 2 onde a 1, a 2, b 1, b 2 são números reais satisfazendo o sistema de equações (1, 0) = a 1 (1, 1) + a 2 (1, 2) (0, 1) = b 1 (1, 1) + b 2 (1, 2). Resolvendo as equações acima, obtemos a 1 = 2, a 2 = 1, b 1 = 1 e b 2 = 1. Portanto, [ ] [I R 2] α 2 1 β =. 1 1 Seja agora v = (x, y) em R 2. Se [ ] então [ x y [v] β = x y ] [ ] [ ] 2 1 x =, 1 1 y o que garante que x = 2x y e y = x + y são as coordenadas de v na base β. Ou seja, (x, y) = (2x y)(1, 1) + ( x + y)(1, 2). A Figura 15 ilustra como a determinação do par (2,3) em R 2 depende da base com a qual estamos trabalhando.,
4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 173 Figura 15 O próximo resultado mostra que uma matriz mudança de base é invertível e que sua inversa também é uma matriz mudança de base. Teorema 6.4.1. Sejam α e β duas bases de um espaço de dimensão nita V. Temos que a matriz [I V ] α β é invertível e sua inversa é a matriz [I V ] β α. Ou seja, ([I V ] α β) 1 = [I V ] β α. Demonstração Como I V é um isomorsmo e I 1 V do Teorema 6.2.4. = I V, o resultado segue Sejam α e β duas bases de um espaço vetorial de dimensão nita V e T um operador linear em V. Com as matrizes mudança de base podemos obter uma relação entre as matrizes [T ] α α e [T ]β β. De fato, como T = I V T I V, segue, da Proposição 6.2.3, que [T ] α α = [I V T T V ] α α = [I V ] β α [T ] β β [I V ] α β, ou seja [T ] α α = [I V ] β α [T ] β β [I V ] α β. (2) No entanto, pelo Teorema 6.4.1, temos que [I V ] β α é a inversa de [I V ] α β. Assim, se denotarmos [I V ] α β por P, a equação (2) pode ser reescrita como [T ] α α = P 1 [T ] β β P.
174 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES Com isto, demonstramos o seguinte resultado: Teorema 6.4.2. Sejam α e β duas bases de um espaço vetorial de dimensão nita V. Se T é um operador linear em V, então onde P = [I V ] α β. [T ] α α = P 1 [T ] β β P, (3) A relação dada na expressão (3) é de tal importância que existe uma terminologia associada a ela. Sejam A e B matrizes quadradas de mesma ordem. Dizemos que B é semelhante a A, quando existir uma matriz invertível P tal que B = P 1 A P. É fácil vericar que se uma matriz B é semelhante a uma matriz A, então A também é semelhante a B. Assim, dizemos simplesmente que A e B são semelhantes. Por (3), temos que [T ] α α e [T ]β β Exemplo 2. Para vericar se as matrizes [ ] [ ] 5 2 1 2 A = e B = 8 3 0 1 são semelhantes. são semelhantes, devemos encontrar uma matriz invertível P tal que P A = BP. Se tal matriz P existir, ela necessariamente é uma matriz quadrada de ordem 2; digamos P = [ x z ] y. t Assim, [ x z ] [ ] [ ] [ y 5 2 1 2 x = t 8 3 0 1 z o que é equivalente ao sistema linear homogêneo 4x 8y 2z = 0 2x 4y 2t = 0 4z 8t = 0, ] y, t
4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 175 que admite a solução não trivial (3, 1, 2, 1). invertível [ ] 3 1 P =, 2 1 Portanto, obtemos a matriz que satisfaz A = P 1 BP. Problemas 4.1 Sejam dadas as bases de R 2 α = {(1, 1), (0, 2)}, β = {(1, 2), (2, 1)} e γ = {(1, 0), (0, 1)}. [ ] (a) Determine I [ α ] R 2 β, I [ α ] R 2 γ, γ I R 2 β. (b) Se v = (4, 1), encontre [v] β usando uma matriz mudança de base. 4.2 [ ] ] α [ 1 Se I R 2 = 2 e β = {(3, 5), (1, 2)}, encontre a base α. β 4 11 4.3 [ ] β Determine I R 3, sabendo que α 0 1 0 [ ] α IR 3 = β 1 1 0. 1 1 1 4.4 Encontre três matrizes semelhantes à matriz [ ] 1 1. 1 2 4.5 Mostre que não são semelhantes as matrizes [ ] [ ] 3 1 1 2 e. 6 2 1 0 4.6 Sejam A e B matrizes semelhantes. Prove que: (a) A t e B t são semelhantes; (b) Se A e B são invertíveis, então A 1 e B 1 são semelhantes.
176 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES 4.7 Mostre que a semelhança de matrizes é uma relação de equivalência, ou seja: (i) A é semelhante a A; (ii) se A é semelhante a B, então B é semelhante a A; (iii) se A é semelhante a B e B a C, então A é semelhante a C. 4.8* Seja A = (a ij ) uma matriz quadrada de ordem n. Dene-se o traço de A como tr A = a 11 + + a nn. a) Mostre que tr: M(n, n) R é um funcional linear. b) Se A, B M(n, n), mostre que tr AB = tr BA. c) Seja T : V V um operador linear, onde V é um espaço n-dimensional, e seja α uma base de V. Dena tr T = tr[t ] α α. Mostre que esta denição independe da base de V escolhida; ou seja, se β é uma outra base de V, então tr[t ] α α = tr[t ] β β. Conclua que assim temos bem denido um funcional linear tr: L(V, V ) R, denido por T tr T.
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
7 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 7: Espaços com Produto Interno Sumário 1 Produto Interno.................... 178 2 Ângulos entre Vetores e Ortogonalidade...... 181 3 Bases Ortonormais................... 188 3.1 Conjuntos Ortogonais................ 188 3.2 Ortogonalização de Gram-Schmidt......... 192 4 Operadores em Espaços com Produto Interno.. 198 4.1 O Operador Adjunto................. 199 4.2 Operadores Ortogonais................ 202 177
178 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Neste capítulo, apresentaremos a noção de produto interno em espaços vetoriais. Esta noção, como veremos, generaliza a noção de produto escalar em R 2 e em R 3 e enriquece a estrutura de um espaço vetorial, permitindo denir vários conceitos de caráter geométrico previamente estudados em R 2 e R 3. 1 Produto Interno Seja V um espaço vetorial. Um produto interno em V é uma função que a cada par de vetores u e v em V associa um número real, denotado por u, v, que satisfaz as seguintes condições: Para quaisquer vetores u, v e w de V e qualquer número real k, PI 1 v, v 0; PI 2 v, v = 0 se, e somente se, v = 0; PI 3 u, v = v, u ; PI 4 u + v, w = u, w + v, w ; PI 5 ku, v = k u, v. Um espaço vetorial com um produto interno é chamado, abreviadamente, de espaço com produto interno. Exemplo 1. Sejam u = (x 1, x 2,..., x n ) e v = (y 1, y 2,..., y n ) vetores em R n. Denimos u, v = x 1 y 1 + x 2 y 2 + + x n y n. (1) Note que u, u = x 2 1 + + x 2 n 0, e que u, v = x 1 y 1 + x 2 y 2 + + x n y n = y 1 x 1 + y 2 x 2 + + y n x n = v, u, mostrando que as condições 1 e 3 da denição de produto interno são satisfeitas. A condição 2 também é satisfeita já que u, u = x 2 1 + + x 2 n = 0 x 1 = = x n = 0 u = 0.
1. PRODUTO INTERNO 179 Se w = (z 1, z 2,..., z n ), então u + v, w = (x 1 + y 1 )z 1 + (x 2 + y 2 )z 2 + + (x n + y n )z n = (x 1 z 1 + x 2 z 2 + + x n z n ) + (y 1 z 1 + y 2 z 2 + + y n z n ) = u, w + v, w, mostrando que a condição 4 é satisfeita. A condição 5 também é satisfeita, pois se k R, então ku, v = (kx 1 )y 1 +(kx 2 )y 2 + +(kx n )y n = k(x 1 y 1 +x 2 y 2 + +x n y n ) = k u, v. Assim, (1) dene um produto interno em R n, chamado de produto interno usual de R n ou produto escalar de R n, generalizando a noção de produto escalar de R 2 e de R 3. Exemplo 2. Sejam p(x) = a 0 + a 1 x + a 2 x 2 e q(x) = b 0 + b 1 x + b 2 x 2 vetores em R[x] 2. Dena p(x), q(x) = a 0 b 0 + a 1 b 1 + a 2 b 2. (2) Temos que (2) dene um produto interno em R[x] 2. De fato, por meio do isomorsmo de espaços vetoriais, T : R[x] 2 R 3 a 0 + a 1 x + a 2 x 2 (a 0, a 1, a 2 ) o produto p(x), q(x) não é outro que o produto interno usual de R 3. O próximo resultado apresenta algumas propriedades básicas dos produtos internos. Proposição 7.1.1. Seja V um espaço com produto interno. Se u, v, w V e se k R, então (i) 0, u = u, 0 = 0; (ii) u, v + w = u, v + u, w ; (iii) u, kv = k u, v ;
180 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO (iv) u, v w = u, v u, w. Demonstração Provaremos apenas (ii) e deixaremos os demais itens como exercício (ver Problema 1.3). De fato, pela condições PI 3 e PI 4 da denição de produto interno temos que u, v + w = v + w, u = v, u + w, u = u, v + u, w. Seja V um espaço com produto interno. Denimos a norma do vetor v de V, ou comprimento de v, denotado por v, como o número real v = v, v 1/2. Se v = 1, dizemos que v é um vetor unitário. A distância d(u, v) entre dois vetores u e v de V é denida como d(u, v) = u v = u v, u v. Por exemplo, se u = (x 1, x 2,..., x n ) e v = (y 1, y 2,..., y n ) são vetores de R n com o produto interno usual, então u = u, u 1/2 = x 2 1 + x 2 2 + + x 2 n e d(u, v) = u v = u v, u v 1/2 = (x 1 y 1 ) 2 + (x 2 y 2 ) 2 + + (x n y n ) 2. Observe que, no caso de R 2 e R 3, u e d(u, v) são precisamente a norma e a distância usuais de R 2 e de R 3. Problemas 1.1* Sejam u = (x 1, x 2 ) e v = (y 1, y 2 ) vetores em R 2.
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 181 (a) Mostre que u, v = 1 9 x 1y 1 + 1 4 x 2y 2 dene um produto interno em R 2. (b) Esboce o círculo unitário no sistema de coordenadas xy em R 2, usando a distância obtida a partir do produto interno em (a). (c) Esboce o círculo unitário no sistema de coordenadas xy em R 2, usando a distância obtida a partir do produto interno usual. (d) Você nota alguma diferença entre os círculos obtidos em (a) e em (b)? 1.2 Sejam u = (x 1, x 2 ) e v = (y 1, y 2 ) vetores em R 2. Mostre que as expressões a seguir denem produtos internos em R 2. (a) u, v = 3x 1 y 1 + 5x 2 y 2. (b) u, v = 4x 1 y 1 + x 2 y 1 x 1 y 2 + 4x 2 y 2. 1.3 Conclua a demonstração da Proposição 7.1.1. 1.4 Suponha que u, v e w sejam vetores tais que u, v = 2, u, w = 3, v, w = 5, u = 1, v = 2 e w = 1. Calcule o valor de cada uma das seguintes expressões: (a) u + v, v + w ; (b) 2v + w, 2u v ; (c) u + v + w. 2 Ângulos entre Vetores e Ortogonalidade Recordemos que no Capítulo 4 vimos que o ângulo θ, com 0 θ π, entre dois vetores não nulos u e v em R 3, dotado do produto escalar, satisfaz a igualdade cos θ = u v u v (1) Nosso primeiro objetivo nesta seção será o de denir o conceito de ângulo entre dois vetores não nulos de um espaço com produto interno, utilizando
182 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO (1), onde o produto escalar é substituído pelo produto interno. Para que uma tal denição faça sentido, devemos assegurar que u, v u v 1 para quaisquer dois vetores não nulos u e v de V. Veremos, no próximo resultado, que isto sempre ocorre. Teorema 7.2.1. (Desigualdade de Cauchy-Schwarz) Se u e v são vetores de um espaço com produto interno V, então u, v u v, (2) com igualdade valendo se, e somente se, u e v são linearmente dependentes. Demonstração A desigualdade é clara se u é o vetor nulo de V. Suponhamos, então, u diferente do vetor nulo. Para qualquer t R, temos que tu + v, tu + v 0, ou seja, para qualquer t R, u, u t 2 + 2 u, v t + v, v 0. (3) Denamos p(t) = u, u t 2 + 2 u, v t + v, v, t R. Por (3), p é uma função polinomial não negativa. Além disso, como o coeciente do termo quadrático é não negativo, segue que o discriminante de p(t) é um número real não positivo. Portanto, = 4 u, v 2 4 u, u v, v = 4 u, v 2 4 u 2 v 2 0, o que equivale a u, v 2 u 2 v 2. Extraindo a raiz quadrada em ambos os lados da desigualdade acima, obtemos (2). Deixaremos a parte que trata da igualdade em (2) como exercício (cf. Problema 2.3)
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 183 Cabe observar que o Teorema 7.2.1 foi provado, em 1821, por Augustin Cauchy (França, 1789-1857) para V = R n, com o produto interno usual. O resultado geral, para um espaço com produto interno arbitrário, foi provado em 1885, por Hermann Schwarz (Alemanha, 1843-1921). Vamos agora denir a noção de ângulo em espaços com produto interno arbitrários. Suponhamos que u e v são vetores não nulos de um espaço com produto interno V. Dividindo ambos os lados da desigualdade (2) por u v, obtemos ou, equivalentemente, 1 u, v u v 1 u, v u v 1. (4) Como cos θ assume, uma única vez, cada valor no intervalo [ 1, 1] quando θ varia no intervalo [0, π], segue de (4) que existe um único θ [0, π] tal que cos θ = u, v u v (5) Denimos o ângulo entre u e v como o número real θ acima mencionado. Parece estranho denir a norma de um vetor e o ângulo entre dois vetores em um espaço vetorial abstrato com produto interno, já que em geral não temos uma representação geométrica associada a estes espaços. Contudo, muitas denições e teoremas básicos da Geometria continuam valendo neste grau de generalidade. Por exemplo, sabemos da Geometria de R 2 que o comprimento de um lado de um triângulo não excede a soma dos comprimentos dos outros dois (Figura 16(a)). Veremos a seguir que este resultado vale em todos os espaços com produto interno (veja Proposição 7.2.2(iv)). Um outro resultado da Geometria arma que a soma dos quadrados das diagonais de um paralelogramo coincide com a soma dos quadrados dos quatro lados (Figura 16(b)). Este resultado também vale em qualquer espaço com produto interno (veja Problema 2.2). Figura 16(a) Figura 16(b)
184 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Assim, o produto interno é uma noção que enriquece a estrutura de um espaço vetorial, permitindo generalizar várias noções de caráter geométrico em R 2 e em R 3 para espaços vetoriais mais gerais. Proposição 7.2.2. (Propriedades da norma) Se u e v são vetores em um espaço V com produto interno e se k R, então: (i) u 0; (ii) u = 0 se, e somente se, u = 0; (iii) (iv) ku = k u ; u + v u + v (desigualdade triangular). Demonstração Provaremos o item (iv) e deixaremos os demais itens como exercícios (veja Problema 2.4). Temos u + v 2 = u + v, u + v = u, u + u, v + v, u + v, v = u 2 + 2 u, v + v 2 u 2 + 2 u, v + v 2, (6) pois x x para todo x R. Por (2), u 2 + 2 u, v + v 2 u 2 + 2 u v + v 2 = ( u + v ) 2. (7) De (6) e (7), segue que u + v 2 ( u + v ) 2. Extraindo as raízes quadradas em ambos os lados da desigualdade acima obtemos a desigualdade desejada.
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 185 No próximo resultado apresentamos algumas propriedades da noção de distância entre dois vetores de um espaço com produto interno. A vericação dessas propriedades é simples e usa a Proposição 7.2.2. Portanto, deixaremos a sua demonstração como exercício para o leitor (veja Problema 2.5). Proposição 7.2.3. (Propriedades da distância) Se u, v e w são vetores em um espaço com produto interno V, então: (i) d(u, v) 0; (ii) d(u, v) = 0 se, e somente se, u = v; (iii) (iv) d(u, v) = d(v, u); d(u, v) d(u, w) + d(w, v) (desigualdade triangular). O próximo objetivo desta seção é denir a noção de ortogonalidade em um espaço com produto interno. Comecemos com a noção de ortogonalidade entre dois vetores. Sejam u e v dois vetores não nulos de um espaço com produto interno V e seja θ o ângulo entre eles. Segue de (5) que cos θ = 0 se, e somente se, u, v = 0. Equivalentemente, temos θ = π/2 se, e somente se u, v = 0. Convencionamos que se u ou v é o vetor nulo, o ângulo entre eles é π/2. Assim, dizemos que dois vetores quaisquer u e v em V são ortogonais quando u, v = 0. A seguir, introduziremos a noção de ortogonalidade entre um vetor e um subespaço. Sejam v um vetor de V e W um subespaço de V. Dizemos que v é ortogonal a W se v é ortogonal a cada vetor de W. O conjunto de todos os vetores de V que são ortogonais a W é chamado complemento ortogonal de W e é denotado por W. Exemplo 1. Seja R 3 com o produto interno usual e seja W o plano de equação cartesiana x + y + z = 0. O vetor v = (1, 1, 1) é ortogonal a W, pois v é um vetor normal a este plano. Para determinarmos W, devemos
186 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO encontrar um vetor (a, b, c) em R 3 que seja ortogonal a todo vetor de W. Como um vetor de W é da forma ( y z, y, z), para y, z R, devemos encontrar (a, b, c) tal que ( y z, y, z) (a, b, c) = 0 Fazendo, na igualdade acima, y = 0 e z = 1, obtemos a = c; e, fazendo y = 1 e z = 0, obtemos a = b. Portanto, W = {(a, a, a); a R}, ou seja, W é a reta que passa pela origem que tem v como um vetor diretor. Terminamos esta seção apresentando algumas propriedades do complemento ortogonal. Proposição 7.2.4. Seja W um subespaço de um espaço com produto interno V. Então: (i) W é um subespaço de V ; (ii) W W = {0}; (iii) (W ) = W. Demonstração Provaremos apenas (i), deixando as demonstrações das demais propriedades para o leitor (veja Problema 2.10). Primeiramente, é claro que 0 W. Tomemos u e v em W e a em R. Se w W, então u + av, w = u, w + a v, w = 0 + a0 = 0, mostrando que u + av é ortogonal a w. Como w W foi tomado de modo arbitrário, temos que u + av é ortogonal a cada vetor de W, ou seja u + av está em W. Pelo Corolário 3.1.2, segue que W é um subespaço de V. No Capítulo 1 tivemos a oportunidade de mostrar que dois sistemas lineares homogêneos com matrizes associadas equivalentes possuem conjuntos de
2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 187 soluções iguais. Vamos, no exemplo a seguir, mostrar que vale uma recíproca dessa propriedade. Exemplo 2. Seja dado um sistema linear homogêneo AX = 0, com m equações e n incógnitas cujo espaço solução é denotado por S h (A). Chamemos de T A a transformação linear de R n para R m determinada por A e pelas bases canônicas dos dois espaços vetoriais (cf. Exemplo 4, Seção 1 do Capítulo 6). Como as soluções do sistema são os vetores de R n que são ortogonais aos vetores linhas de A, temos, pelo Problema 2.11, que S h (A) = (L(A)). Problemas 2.1 Suponha que R 3 e R 4 têm o produto interno usual. Em cada item abaixo, encontre o cosseno do ângulo entre u e v: (a) u = ( 1, 5, 2) e v = (2, 4, 9); (b) u = (1, 0, 1, 0) e v = (1, 1, 1, 1); (c) u = (2, 1, 0, 1) e v = (4, 0, 0, 0). 2.2* Mostre que a seguinte identidade vale para quaisquer vetores u e v de um espaço com produto interno: u + v 2 + u v 2 = 2 u 2 + 2 v 2. 2.3 Mostre que vale a igualdade na desigualdade de Cauchy-Schwarz se, e somente se, u e v são linearmente dependentes. 2.4 Conclua a demonstração da Proposição 7.2.2. 2.5 Prove a Proposição 7.2.3. 2.6 Use a desigualdade de Cauchy-Schwarz para mostrar, para quaisquer valores reais de a, b e θ, que (a cos θ + b sen θ) 2 a 2 + b 2. 2.7 Seja {v 1, v 2,..., v n } uma base de um espaço com produto interno V. Mostre que o vetor nulo de V é o único vetor de V que é ortogonal a todos os vetores da base.
188 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO 2.8 Seja V um espaço com produto interno. Mostre que se u e v são vetores ortogonais de V tais que u = v = 1, então u v = 2. 2.9* (Uma generalização do Teorema de Pitágoras) Seja {v 1, v 2,..., v n } um conjunto ortogonal de vetores de um espaço com produto interno. Então v 1 + v 2 + + v n 2 = v 1 2 + v 2 2 + + v n 2. 2.10 Conclua a demonstração da Proposição 7.2.4. 2.11 Seja β um conjunto de geradores de W, onde W é um subespaço de um espaço com produto interno V. Mostre que W consiste de todos os vetores de V que são ortogonais a cada vetor do conjunto β. 2.12* Seja W o subespaço de R 5 gerado pelos vetores u = (1, 2, 3, 1, 2) e v = (2, 1, 3, 2, 1). Determine uma base de W. 2.13 Suponha que R 4 tem o produto interno usual e seja v = (1, 1, 0, 2). Determine se v é ortogonal ao subespaço de R 4 gerado pelos vetores v 1 = ( 1, 1, 3, 0) e v 2 = (4, 0, 2, 2). 2.14 Seja W o plano de equação cartesiana x 2y 3z 1 = 0. Obtenha as equações paramétricas para W. 3 Bases Ortonormais Veremos nesta seção que um espaço vetorial, com produto interno, possui bases que se destacam das demais, chamadas de bases ortonormais. Trabalhar com este tipo de base torna V geometricamente muito parecido com o espaço R n, onde n = dim V. Ao longo desta seção, V será sempre um espaço com produto interno,, de dimensão nita n > 0. 3.1 Conjuntos Ortogonais Um conjunto de vetores em V é chamado conjunto ortogonal se quaisquer dois vetores distintos do conjunto são ortogonais.
3. BASES ORTONORMAIS 189 Por exemplo, o conjunto {(1, 2, 1), (2, 1, 4), (3, 2, 1)} é um conjunto ortogonal em R 3 com seu produto interno usual. Um conjunto ortogonal no qual cada vetor tem norma 1 é chamado conjunto ortonormal. Se v é um vetor não nulo em um espaço com produto interno, segue da Proposição 7.2.2(iii) que o vetor v 1 v tem norma 1. O processo de multiplicar um vetor não nulo pelo inverso de sua norma para obter um vetor de norma 1 é chamado de normalização. Assim, um conjunto ortogonal de vetores não nulos pode ser sempre transformado em um conjunto ortonormal, normalizando-se cada um de seus vetores. O próximo resultado relaciona a noção de ortogonalidade com a noção de independência linear. Proposição 7.3.1. Todo conjunto ortogonal de vetores não nulos de V é linearmente independente. Demonstração Seja {v 1,..., v r } um conjunto de vetores ortogonais de V com produto interno. Consideremos a equação a 1 v 1 + a 2 v 2 + + a r v r = 0. Vamos mostrar que a i = 0, para todo 1 i r. Fixe 1 i r. Então, a 1 v 1 + + a r v r, v i = a 1 v 1, v i + + a i v i, v i + a i+1 v i+1, v i + + a r v r, v i já que v j, v i = 0 sempre que j i. Por outro lado = a i v i, v i, (1) a 1 v 1 + a 2 v 2 + + a r v r, v i = 0, v i = 0. (2) De (1) e (2), segue que a i v i, v i = 0 e como v i é um vetor não nulo, temos necessariamente que a i = 0. Como i foi tomado de modo arbitrário em seu intervalo de variação, o resultado segue. A recíproca do resultado acima é obviamente falsa, pois, por exemplo, o conjunto {(1, 1), (1, 0)} de vetores em R 2 com o produto interno usual é linearmente independente, mas não é um conjunto ortogonal.
190 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Se α={v 1,..., v n } é um conjunto ortogonal de vetores não nulos de V, segue da proposição anterior que α é uma base de V. Uma base consistindo de vetores ortogonais é chamada base ortogonal e uma base consistindo de vetores ortonormais é chamada base ortonormal. Por exemplo, a base canônica de R n com o produto interno usual é uma base ortonormal. Vimos que se V é um espaço vetorial e α é uma base de V então, em geral, é necessário resolver um sistema linear a m de escrever um vetor de V em termos da base α. O próximo resultado mostra que quando V é um espaço com produto interno e α é uma base ortonormal de V, então é bastante simples encontrar as coordenadas de um vetor de V em relação a base α. Teorema 7.3.2. Se α={v 1, v 2,..., v n } é uma base ortonormal de V, então, para todo v V, podemos escrever v = v, v 1 v 1 + v, v 2 v 2 + + v, v n v n. Demonstração Seja v = a 1 v 1 + a 2 v 2 + + a n v n a escrita de v na base α. Fixe i, com 1 i n. Temos v, v i = a 1 v 1 + a 2 v 2 + + a n v n, v i = a 1 v 1, v i + + a i v i, v i + + a n v n, v i = a i, já que v j, v i = 0 se j i e v i, v i = v i 2 = 1. Como i foi tomado de modo arbitrário, a demonstração está completa. Se β = {v 1, v 2,..., v n } é uma base ortogonal de V, normalizando cada um dos vetores de β, obtemos a base ortonormal α de V, onde { } v1 α = v 1, v 2 v 2,..., v n. v n Pelo Teorema 7.3.2, para cada vetor v em V, temos que v 1 v = v, v 1 v 1 v 1 + + v, v n v n v n v n = v, v 1 v 1 v 2 1 + + v, v n v n v n. 2
3. BASES ORTONORMAIS 191 O número real a i = v, v i v i 2 é chamado de coeciente de Fourier 1 de v em relação ao vetor v i. Este escalar admite uma interpretação geométrica relacionada com a noção de projeção. Para apresentarmos esta interpretação geométrica, vamos precisar do seguinte resultado. Proposição 7.3.3. Seja w um vetor não nulo de V. Se v V, então k = v, w w, w = v, w w 2 (3) é o único número real tal que v = v kw é ortogonal a w. Demonstração Para que v seja ortogonal a w devemos ter v kw, w =0, v, ou seja, v, w = k w, w, mostrando que k = Reciprocamente, suponhamos que k = w, w v, w, w Então, v kw, w = v, w k w, w = v, w v, w w, w = 0, w, w o que mostra que v kw é ortogonal a w. O escalar k em (3) é o coeciente de Fourier de v em relação ao vetor w. A projeção de v ao longo de w (Figura 17) é denotada por proj w (v) e é denida por v, w proj w (v) = kw = w, w w. Figura 17 O próximo resultado, cuja demonstração é deixada como exercício (veja Problema 3.2), generaliza a Proposição 7.3.3. 1 Em homenagem a Jean-Baptiste Fourier (França, 1768-1830), conhecido na Matemática por iniciar a investigação sobre o desenvolvimento de funções periódicas em séries trigonométricas convergentes, chamadas séries de Fourier, e sua aplicação aos problemas de condução de calor.
192 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Proposição 7.3.4. Suponhamos que {w 1, w 2,..., w r } seja um conjunto ortogonal de vetores não nulos de V. Se v V, então k i = v, w i w i 2, 1 i r, são os únicos números reais tais que o vetor v = v k 1 w 1 k 2 w 2 k r w r é ortogonal aos vetores w 1, w 2,..., w r. 3.2 Ortogonalização de Gram-Schmidt Vimos na seção anterior que trabalhar com bases ortonormais é bastante conveniente. Veremos a seguir que todo espaço com produto interno, não nulo, de dimensão nita tem uma base ortonormal. A construção dada na prova do resultado abaixo é chamada de processo de ortogonalização de Gram-Schmidt, pois leva os nomes de Jorgen Pedersen Gram (Dinamarca, 1850-1916) e de Erhard Schmidt (Alemanha, 1876-1959). Cabe observar que a construção de Gram-Schmidt pode ser encontrada, de modo implícito, em trabalhos de Pierre Simon Laplace 2 e de Cauchy. 2 Pierre Simon Laplace (França 1749 1827) foi um importante matemático, físico e astrônomo, conhecido por suas contribuições à mecânica celeste à teoria de probabilidades, bem como por suas aplicações da matemática à física.
3. BASES ORTONORMAIS 193 Teorema 7.3.5. O espaço V possui uma base ortogonal. Demonstração Seja {v 1, v 2,..., v n } uma base de V. Tomemos (veja Figura 18) w 1 = v 1, w 2 = v 2 v 2, w 1 w 1 2 w 1, w 3 = v 3 v 3, w 1 w 1 2 w 1 v 3, w 2 w 2 2 w 2,. w n = v n v n, w 1 w 1 w 2 1 v n, w n 1 w n 1 w n 1. 2 Pela Proposição 7.3.4, o conjunto {w 1, w 2,..., w n } é um conjunto ortogonal. Além disso, como o conjunto {v 1, v 2,..., v n } é linearmente independente, cada vetor w i é não nulo. Assim, o conjunto {w 1, w 2,..., w n } é um conjunto ortogonal de vetores não nulos de V. Como, por denição, n = dim V, segue pela Proposição 7.3.1 que {w 1, w 2,..., w n } é uma base ortogonal de V. Figura 18 Decorre da proposição acima que se V tem uma base ortogonal, ele tem uma base ortonormal, pois os vetores de uma base ortogonal podem ser normalizados para produzir uma base ortonormal de V.
194 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Exemplo 1. Considere R 3 com o produto interno usual. Apliquemos o processo de Gram-Schmidt ao conjunto {(1, 0, 0), (1, 1, 1), (0, 0, 1)} para obtermos uma base ortogonal {w 1, w 2, w 3 } de R 3. Façamos w 1 = (1, 0, 0), w 2 = (1, 1, 1) w 3 = (0, 0, 1) (1, 1, 1), (1, 0, 0) (1, 0, 0) 2 (1, 0, 0) = (0, 1, 1), (0, 0, 1), (1, 0, 0) (0, 1, 1) 2 (1, 0, 0) ( (0, 0, 1), (0, 1, 1) (0, 1, 1) = 0, 1 (0, 1, 1) 2 2, 1 ). 2 Assim, {(1, 0, 0), (0, 1, 1), (0, 1, 1)} 2 2 é uma base ortogonal de R3. Uma consequência importante do Teorema 7.3.5, que demonstraremos a seguir, é o fato de que V =W W, onde W é um subespaço de V. Em outras palavras, cada vetor v de V pode ser escrito de modo único como v = w 1 + w 2, (4) onde w 1 W e w 2 W. O vetor w 1 é chamado projeção ortogonal de v em W e é denotado por proj W (v). O vetor w 2 é chamado componente de v ortogonal a W e é denotado por proj W (v) (Figura 19). Por (4), temos então que v = proj W (v) + proj W (v). Figura 19 Teorema 7.3.6. Se W é um subespaço de V, então Demonstração V = W W. Pela Proposição 7.2.4(ii), W W = {0}. Vejamos que V = W + W. Pelo processo de ortogonalização de Gram-Schmidt, existe
3. BASES ORTONORMAIS 195 uma base ortonormal {v 1, v 2,..., v n } de W. Tomemos v V. Dena w 1 = v, v 1 v 1 + v, v 2 v 2 + + v, v n v n, w 2 = v w 1. Note que w 1 + w 2 = w 1 + (v w 1 ) = v. Além disso, w 1 W, pois w 1 é uma combinação linear dos vetores da base de W. Portanto, resta mostrar que w 2 W, ou seja, w 2 é ortogonal a W. Para isto, seja w W. Pelo Teorema 7.3.2, w = w, v 1 v 1 + w, v 2 v 2 + + w, v n v n. Assim, w 2, w = v w 1, w = v, w w 1, w = w, v 1 v, v 1 + + w, v n v, v n ( v, v 1 v 1, w + + v, v n v n, w ) = 0. Como w W foi tomado de modo arbitrário, segue que w 2 é ortogonal a W. Exemplo 2. Retomemos o Exemplo 1 da Seção 2, onde V = R 3 e onde W = {(x, y, z); x + y + z = 0} e W = {(x, y, z); x = y = z}. Note que W W = {0}.
196 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Como dim(w + W ) = dim W + dim W dim(w W ), segue que dim(w + W ) = 3, já que temos dim W = 2, dim W = 1 e dim(w W ) = 0. Portanto, W + W = R 3. Consequentemente, temos que R 3 = W W, como aliás deveria ser pelo Teorema 7.3.6. Para cada (x, y, z) R 3, temos que (x, y, z) = ( ) 2x y z, x+2y z, x y+2z 3 3 3 + ( ) x+y+z, x+y+z, x+y+z 3 3 3 W + W. Mais ainda, a escrita acima é única. Em outras palavras, todo vetor de R 3 se expressa, de forma única, como a soma de um elemento e W com um elemento de W. A gura abaixo mostra a decomposição do vetor (0, 3, 0). Figura 20 Exemplo 3. Seja AX = 0 um sistema m n de equações lineares homogêneo, cujo conjunto solução denotamos por S h (A). Seja T A a transformação linear associada à matriz A. Sabemos (cf. Exemplo 2, Seção 2) que Ker T A = S h (A) = (L(A)). Por outro lado, pelo Exemplo 4, Seção 1, Capítulo 6, temos que Im T A = C(A).
3. BASES ORTONORMAIS 197 Pelo Teorema do Núcleo e da Imagem, temos que n = dim Ker T A + dim Im T A = dim(l(a)) + dim C(A). Pelo Teorema 7.3.6, temos que n = dim L(A) + dim(l(a)) = p A + dim S h (A). Daí decorre que e que dim S h (A) = n p A, dim C(A) = dim L(A). Assim, o posto por linhas de uma matriz A, que por denição é igual à dimensão do espaço linha L(A) de A, coincide com o posto de A por colunas, ou seja com a dimensão do espaço coluna C(A) da matriz A. Problemas 3.1* Seja V um espaço com produto interno de dimensão nita n. Se α é uma base ortonormal de V e se a 1 a [v] α = 2. e [w] b α = 2., b 1 a n b n então: (a) v = a 2 1 + a 2 2 + + a 2 n ; (b) d(v, w) = (a 1 b 1 ) 2 + (a 2 b 2 ) 2 + + (a n b n ) 2 ; (c) v, w = a 1 b 1 + a 2 b 2 + + a n b n. O exercício anterior mostra que trabalhando com bases ortonormais, o cálculo de normas e produtos internos arbitrários se reduz ao cálculo de normas e produtos internos das matrizes das coordenadas, como em R n com sua norma e produto interno usuais.
198 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO 3.2 Prove a Proposição 7.3.4. 3.3 Mostre que os vetores ( 4 v 1 = 5, 3 ) ( 5, 0, v 2 = 35, 45 ), 0 e v 3 = (0, 0, 1) formam uma base ortonormal para R 3 com o produto interno usual. seguida, expresse o vetor v = (1, 1, 2) nesta base. Em 3.4* Seja W um subespaço de dimensão nita de um espaço com produto interno V. Prove que: (a) Se {w 1, w 2,..., w n } é uma base ortonormal de W e v é um vetor qualquer de V, então proj W (v) = v, w 1 w 1 + v, w 2 w 2 + + v, w n w n ; (b) Se {w 1, w 2,..., w n } é uma base ortogonal de W e v é um vetor qualquer de V, então proj W (v) = v, w 1 w 1 2 w 1 + v, w 2 w 2 2 w 2 + + v, w n w n 2 w n. 3.5 Considere R 4 com o produto interno usual. Use o processo de Gram- Schmidt para transformar a base {v 1, v 2, v 3, v 4 } em uma base ortogonal, onde v 1 = (0, 2, 1, 0), v 2 = (1, 1, 0, 0), v 3 = (1, 2, 0, 1) e v 4 = (1, 0, 0, 1). 3.6 Seja W o subespaço de R 4 gerado pelos vetores v 1 = (1, 1, 1, 1), v 2 = (1, 1, 2, 2) e v 3 = ( 1, 5, 1, 7). Ache a projeção ortogonal de v = (1, 2, 3, 4) em W. 3.7 Construa, a partir do vetor v = (2, 1, 0), uma base ortonormal de R 3 com o produto interno usual. 4 Operadores em Espaços com Produto Interno Nesta seção, vamos denir importantes operadores em espaços com produto interno. Mais precisamente, mostraremos a existência do operador adjunto de um operador linear e, a partir deste, introduzir as noções de operadores simétricos e operadores ortogonais. Estes operadores estão relacionados
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 199 com o Teorema Espectral, um dos teoremas mais importantes da Álgebra Linear, conforme veremos no Capítulo 9. Nesta seção, continuaremos supondo que V é um espaço com produto interno de dimensão nita n > 0. 4.1 O Operador Adjunto Dado um vetor v V, a ele associamos de modo natural um funcional linear em V, como segue: φ v : V R u u, v. De fato, φ v é um funcional linear, pois, para todos u 1, u 2 a R, temos V e todo φ v (u 1 + au 2 ) = u 1 + au 2, v = u 1, v + a u 2, v = φ v (u 1 ) + aφ v (u 2 ). Assim, cada v em V dene um funcional linear φ v em V, ou seja, um elemento de (V, R). A recíproca deste fato é também verdadeira, como mostra o seguinte resultado. Teorema 7.4.1. Dado um funcional linear φ em V, existe um único vetor v V tal que φ = φ v. Demonstração Seja φ (V, R) e xe uma base ortonormal {v 1, v 2,..., v n } de V. Pelo Teorema 7.3.2, todo elemento u V se escreve como u = u, v 1 v 1 + u, v 2 v 2 + + u, v n v n. Existência: Tomemos v = φ(v 1 )v 1 + φ(v 2 )v 2 + + φ(v n )v n. Por um lado, temos φ(u) = φ ( ) u, v 1 v 1 + u, v 2 v 2 + + u, v n v n = u, v 1 φ(v 1 ) + u, v 2 φ(v 2 ) + + u, v n φ(v n ). (1)
200 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Por outro lado, u, v = u, φ(v 1 )v 1 + φ(v 2 )v 2 + + φ(v n )v n = φ(v 1 ) u, v 1 + φ(v 2 ) u, v 2 + + φ(v n ) u, v n. (2) Juntando (1) e (2) obtemos que φ(u) = u, v = φ v (u), para todo u V. Unicidade: Suponhamos que v tenha a propriedade u, v = u, v, para todo u V. Logo u, v v = 0, para todo u V. Portanto, v v é ortogonal a todos os vetores de V, o que, em virtude do Problema 2.7, acarreta que v = v. Observe que o Teorema 7.4.1 garante que a função v φ v, onde φ v (u) = u, v (u V ), é um isomorsmo entre V e (V, R) (cf. Problema 4.4). Teorema 7.4.2. Dado um operador linear T em V, existe um único operador linear T em V tal que T (v), w = v, T (w), para quaisquer v, w V. Demonstração Tome w V. Como a função denida por v T (v), w é um funcional linear em V (verique), segue, do Teorema 7.4.1, que existe um único vetor w V tal que T (v), w = v, w, para todo v V. Basta denir T (w) = w. A demonstração do Teorema 7.4.1 também nos mostra que se {v 1,..., v n } é uma base ortonormal de V, então T (w) = w = T (v 1 ), w v 1 + + T (v n ), w v n. Daí, vê-se claramente que T é linear. O operador T é chamado de operador adjunto de T. Assim, o Teorema 7.4.2 arma que todo operador linear T, em um espaço com produto interno de dimensão nita, possui um operador adjunto T. O próximo resultado mostra como podemos obter T a partir de uma representação matricial de T.
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 201 Proposição 7.4.3. Para toda base ortonormal α de V e para todo operador linear T em V, temos que [T ] α α = ([T ] α α) t. Para demonstrarmos a proposição acima, vamos precisar do seguinte resultado, cuja demonstração ca como exercício para o leitor (veja Problema 4.5). Lema 7.4.4. Seja α = {v 1,..., v n } uma base ortonormal de V. Se A = [a ij ] n n é a matriz que representa um oprerador T em V, com relação à base α (ou seja, A = [T ] α α ), então a ij = T (v j ), v i, para todos i, j, 1 i, j n. Demonstração da Proposição 7.4.3. Considere as matrizes [T ] α α = [a ij ] n n e [T ] α α = [b ij ] n n. Pelo Lema 7.4.4, a ij = T (v j ), v i e b ij = T (v j ), v i, para todos i, j, 1 i, j n. Logo, b ij = T (v j ), v i = v i, T (v j ) = T (v i ), v j = a ji, para todos i, j, com 1 i, j n, provando o resultado. Um operador linear T : V V é dito ser um operador simétrico quando T = T. Pela Proposição 7.4.3, observamos que se T é um operador simétrico em V, então para toda base ortonormal α de V temos [T ] α α = ([T ] α α) t. Assim, T : V V é simétrico se, e somente se, [T ] α α é uma matriz simétrica. Observemos que o fato de um operador ser simétrico não depende da base ortonormal escolhida. Portanto, se [T ] α α for uma matriz simétrica em
202 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO uma determinada base ortonormal α, então [T ] β β qualquer outra base ortonormal β. será também simétrica para Exemplo 1. Seja T : R 3 R 3 o operador linear denido por T (x, y, z) = (2x y + z, x + y + 3z, x + 3y). Se α é a base canônica de R 3, então 1 1 1 [T ] α α = 1 1 3 1 3 0 é uma matriz simétrica e, portanto, T é um operador simétrico. 4.2 Operadores Ortogonais Um operador linear T : V V é dito ser um operador ortogonal quando T T = T T = I V. Em outras palavras, T é um operador ortogonal quando T é invertível e T = T 1. Diremos que um operador T em V preserva norma, preserva distância, ou preserva produto interno, quando, para todos u, v V, se tenha T (v) = v, d(t (u), T (v)) = d(u, v), ou T (u), T (v) = u, v, respectivamente. O resultado a seguir caracteriza os operadores ortogonais. Teorema 7.4.5. Seja T : V V um operador linear. As seguintes armações são equivalentes: (i) T é ortogonal; (ii) T preserva a norma; (iii) T preserva a distância; (iv) T preserva o produto interno; (v) T transforma toda base ortonormal de V numa base ortonormal de V ;
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 203 (vi) T transforma alguma base ortonormal de V numa base ortonormal de V. Demonstração (i) (ii) Se v V, então pelo Teorema 7.4.2. T (v) 2 = T (v), T (v) = v, T (T (v)) = v, I V (v) = v, v = v 2. (ii) (iii) Se v, u V, então d(t (v), T (u)) = T (v) T (u) = T (v u) = v u = d(v, u). (iii) (iv) Se v, u V, então d(t (v + u), 0) = d(v + u, 0). Ou seja, Note que T (v + u) 2 = v + u 2. (3) T (v + u) 2 = T (v), T (v) + 2 T (v), T (u) + T (u), T (u) e Como v + u 2 = v, v + 2 v, u + u, u. (4) v, v = (d(v, 0)) 2 = (d(t (v), 0)) 2 = T (v), T (v), o mesmo valendo para u, temos de (3) e (4) que T (v), T (u) = v, u, como desejado. (iv) (i) Se v, u V, então pelo Teorema 7.4.2 v, u = T (v), T (u) = v, T (T (u)), mostrando que, para todos u, v V, v, (T T I V )(u) = 0. Pelo Problema 2.8, temos que (T T I V )(u) = 0, para todo u V, o que acarreta que T T = I V, logo T é ortogonal.
204 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO (i) (v) Seja {v 1, v 2,..., v n } uma base ortonormal de V. Então 0 se i j T (v i ), T (v j ) = v i, v j = 1 se i = j. Logo, o conjunto {T (v 1 ), T (v 2 ),..., T (v n )} é ortonormal e, consequentemente, linearmente independente (Proposição 7.3.1). Como dim V =n, concluímos que esse conjunto é uma base de V. (v) (vi) Esta implicação é óbvia. (vi) (iv) Seja {v 1, v 2,..., v n } uma base ortonormal de V tal que {T (v 1 ), T (v 2 ),..., T (v n )} também é uma base ortonormal de V. Sejam v e u em V. Se v = a 1 v 1 + a 2 v 2 + + a n v n e u = b 1 v 1 + b 2 b 2 + + b n v n, então v, u = Por outro lado, temos n n a i b j v i, v j = i=1 j=1 n n a i b j. (5) i=1 j=1 T (v) = a 1 T (v 1 ) + a 2 T (v 2 ) + + a n T (v n ) e T (u) = b 1 T (v 1 ) + b 2 T (v 2 ) + + b n T (v n ), donde T (v), T (u) = n n a i b j T (v i ), T (v j ) = i=1 j=1 n n a i b j. (6) i=1 j=1 Assim, de (5) e (6), concluímos que T (v), T (u) = v, u, como desejado. Exemplo 2. Consideremos o operador linear T : R 2 R 2 dado por T (x, y) = (x cos θ y sen θ, x sen θ+y cos θ). Lembremos da Seção 3, do Capítulo 6, que T é o operador rotação por um ângulo θ em R 2. Note que se α é a base canônica de R 2, o conjunto {T (1, 0), T (0, 1)} = {(cos θ, sen θ), ( sen θ, cos θ)} é
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 205 uma base ortonormal em R 2. Assim, pelo Teorema 7.4.5, T é um operador ortogonal em R 2. Para relacionarmos a propriedade de um operador ser ortogonal com propriedades de suas matrizes associadas, estabelecemos a denição a seguir. Uma matriz A M(n, n) é dita ser ortogonal quando A A t = A t A = I n. Em outras palavras, A é uma matriz ortogonal se A é invertível e A t = A 1. Segue imediatamente da denição que uma matriz A é ortogonal se, e somente se, a matriz A t é ortogonal. Por exemplo, a matriz de rotação em R 3 dada por cos θ sen θ 0 A = sen θ cos θ 0 0 0 1 é uma matriz ortogonal. Com o resultado a seguir podemos vericar mais facilmente se uma matriz é ortogonal ou não. Proposição 7.4.6. Para uma matriz A = [ a ij, as seguintes armações ]n n são equivalentes: (i) A é ortogonal; (ii) As colunas de A formam um conjunto ortonormal em R n ; (iii) As linhas de A formam um conjunto ortonormal em R n. Demonstração (i) (ii) Chamemos A t A = [ b ij. Pela denição de ]n n produto de matrizes, o elemento b ij é dado por b ij = a 1i a 1j + a 2i a 2j + + a ni a nj = (a 1i, a 2i,..., a ni ), (a 1j, a 2j,..., a nj ).
206 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Portanto, daí segue-se que A t A = I n se, e somente se, 0 se i j (a 1i, a 2i,..., a ni ), (a 1j, a 2j,..., a nj ) = 1 se i = j, provando o desejado. (i) (iii) Basta utilizar o fato que A é ortogonal se, e somente se, A t é ortogonal, que as linhas de A t são as colunas de A e aplicar o que foi provado acima. Teorema 7.4.7. Se α e β são bases ortonormais de V, então a matriz mudança de base [ ] α I V é uma matriz ortogonal. β Demonstração Sejam α = {v 1, v 2,..., v n } e β = {w 1, w 2,..., w n }. Suponhamos [I V ] α β = [a ij]. Para cada i, com 1 i n, temos que v i = a 1i w 1 + a 2i w 2 + + a ni w n. Ora, como v i e v j são ortogonais, quando i j, então 0 = v i, v j = a 1i a 1j + a 2i a 2j + + a ni a nj = (a 1i, a 2i,..., a ni ), (a 1j, a 2j,..., a nj ), (7) pois β é ortonormal. De (7) concluímos que as colunas de [I V ] α β formam vetores ortogonais em R n. Vejamos agora que cada coluna de [I V ] α β forma um vetor unitário em R n. De fato, se 1 i n, então 1 = v i, v i = a 2 1i + a 2 2i + + a 2 ni, já que β é ortonormal. Assim, as colunas de [I V ] α β formam vetores unitários em R n. Pela Proposição 7.4.6, [I V ] α β é uma matriz ortogonal. Terminaremos a seção mostrando a relação entre os operadores ortogonais e as matrizes ortogonais. Sejam dados um espaço vetorial, com uma base α = {v 1,..., v n }, e uma matriz quadrada A = [a ij ] de ordem n. Podemos, como feito na Seção 1
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 207 do Capítulo 6 para R n e a base canônica, associar à matriz A um operador linear T A, denido como segue: T A (v) = (a 11 x 1 + + a 1n x n,..., a n1 x 1 + + a nn x n ), onde x 1,..., x n são as coordenadas de v relativamente à base α, ou seja v = x 1 v 1 + + x n v n. Proposição 7.4.8. Sejam α uma base ortonormal de V e T um operador linear em V. Seja A M(n, n). (i) T é ortogonal se, e somente se, [T ] α α é ortogonal. (ii) A é ortogonal se, e somente se, T A é ortogonal. Demonstração Provaremos apenas o item (i), deixando a demonstração do item (ii) para o leitor (veja Problema 4.10). De fato, se α = {v 1, v 2,..., v n } é uma base ortonormal de V e se T é um o- perador ortogonal em V então, pelo Teorema 7.4.5, β = {T (v 1 ), T (v 2 ),..., T (v n )} é uma base ortonormal de V. Se [T ] α α = [a ij ], então, para todo i, com 1 i n, temos T (v i ) = a 1i v 1 + a 2i v 2 + + a ni v n. Como β é ortonormal, segue que T (v i ), T (v j ) = 0 se i j e T (v i ), T (v i ) =1. Por outro lado, sendo α é ortogonal, temos que a 1i a 1j + a 2i a 2j + + a ni a nj = a 1i v 1 + a 2i v 2 + + a ni v n, a 1j v 1 + a 2j v 2 + + a nj v n = 0 se i j T (v i ), T (v j ) = 1 se i = j, (8) mostrando assim que as colunas de [T ] α α formam um conjunto ortonormal em R n. Pela Proposição 7.4.6, [T ] α α é uma matriz ortogonal.
208 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO Suponhamos agora que [T ] α α = [a ij ] é uma matriz ortogonal. Para mostrarmos que T é ortogonal basta provarmos, pelo Teorema 7.4.5, que o conjunto {T (v 1 ), T (v 2 ),..., T (v n )} é ortonormal em V. Mas isto pode ser facilmente vericado a partir de (8). Problemas 4.1* Sejam S e T operadores lineares num espaço com produto interno de dimensão nita e seja k R. Prove que: (a) (S + T ) = S + T ; (b) (kt ) = kt ; (c) (ST ) = T S ; (d) (T ) = T. 4.2 Considere o funcional linear φ: R 3 R denido por φ(x, y, z) = x + 4y 5z. Encontre o vetor v em R 3 tal que φ = φ v. 4.3 Seja T : R 3 R 3 dado por T (x, y, z) = (2x + 2y, 3x 4z, y). Encontre T (x, y, z). 4.4 Mostre que a função V (V, R) v φ v onde φ v (u) = u, v, para todo u V, é um isomorsmo de espaços vetoriais. Mostre com isto que podemos transportar o produto interno de V para (V, R), do seguinte modo: φ u, φ v = u, v. 4.5 Demonstre o Lema 7.4.4. 4.6 Dentre os seguintes operadores lineares, vericar quais são ortogonais: (a) T : R 2 R 2, T (x, y) = ( y, x); (b) T : R 2 R 2, T (x, y) = (x + y, x y); (c) T : R 3 R 3, T (x, y, z) = (z, x, y); (d) T : R 3 R 3, T (x, y, z) = (x, y cos θ + z sen θ, y sen θ + z cos θ).
4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 209 4.7* Encontre uma matriz ortogonal [a ij ] de ordem 3 cuja primeira linha é dada por a 11 = 1 3, a 12 = 2 3, e a 13 = 2 3 4.8 Mostre que o produto de matrizes ortogonais é uma matriz ortogonal. 4.9 Construa uma matriz ortogonal A = [a ij ] cuja primeira coluna seja: (a) a 11 = 2, a 21 = 1 ; 5 5 (b) a 11 = 1 3, a 21 = 2 3 e a 31 = 2 3 4.10 Conclua a demonstração da Proposição 7.4.8.
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
8 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 8: Determinantes Sumário 1 Propriedades dos Determinantes.......... 211 1.1 Propriedades Características............. 211 1.2 Propriedades Adicionais das Funções D...... 212 1.3 Propriedade Multiplicativa.............. 215 2 Existência de Determinantes............. 218 3 Matriz Adjunta..................... 220 4 Regra de Cramer.................... 224 210
1. PROPRIEDADES DOS DETERMINANTES 211 1 Propriedades dos Determinantes Estudaremos nesta seção as propriedades dos determinantes de matrizes quadradas, dividindo-as em três categorias, a saber: 1) Propriedades características, aquelas que bastam para determinar as funções determinantes; 2) Propriedades adicionais, aquelas que seguem de modo quase direto das propriedades características; 3) Propriedade multiplicativa, que relaciona determinantes de produtos de matrizes com os determinantes dos fatores. Essa propriedade é consequência das propriedades características e de propriedades das matrizes anteriormente estudadas. 1.1 Propriedades Características Seja K um corpo 1 e seja n um número natural, com n 2. Denotaremos por M K (n), ou simplesmente por M(n), o espaço das matrizes quadradas de ordem n com entradas no corpo K. Nosso objetivo, neste capítulo, é estender a n > 3 a noção de determinante de uma matriz em M(n) que introduzimos no Capítulo 4 nos casos n = 2 e n = 3. Dada uma matriz A M(n), denotaremos por A 1,..., A n K n os seus vetores linhas e escrevemos A = A 1. A n. Queremos xar a nossa atenção sobre as funções D : M(n) K que possuem as seguintes propriedades: (D1) D é linear como função de cada linha separadamente. 1 O leitor pode xar sua atenção nos casos K = R ou K = C, se com isto se sentir mais confortável.
212 CAPÍTULO 8. DETERMINANTES Isto signica que se A j = A j + ta j, onde A j, A j K n e t K, então D A 1. A j + ta j. = D A 1. A j. + td A 1. A j.. A n A n A n (D2) Se duas linhas adjacentes A j e A j+1 de A são iguais, então D(A) = 0. (D3) Se I n representa a matriz identidade de M(n), então D(I n ) = 1. Estas propriedades são satisfeitas, por exemplo, pelas funções determinantes det: M(2) K e det: M(3) K introduzidas na Seção 3 do Capítulo 4 (veja Problemas 3.1 e 3.3 do Capítulo 4.) As Propriedades (D1) e (D2) de uma função D acarretam várias outras propriedades, como veremos a seguir. Essas propriedades, juntamente com a Propriedade (D3), determinam uma única função que chamaremos de função determinante, ou simplesmente, determinante, conforme veremos na Seção 2. D. Nas próximas subseções estudaremos mais propriedades de tais funções 1.2 Propriedades Adicionais das Funções D Nesta seção estudaremos as propriedades das funções D que decorrem das Propriedades (D1) e (D2) da seção anterior. Proposição 8.1.1. Seja j um número natural com 1 j n 1. Se A é a matriz obtida de A por meio de uma transformação elementar L j L j+1, então D(A ) = D(A). Demonstração B i = A i, se i j e i j + 1. Considere a matriz B tal que B j = B j+1 = A j + A j+1 e Da Propriedade (D2) temos que D(B) = 0. Da Propriedade (D1) (utili-
1. PROPRIEDADES DOS DETERMINANTES 213 zada duas vezes), obtemos a igualdade 0 = D(B) = D A 1. A j A j. + D A 1. A j A j+1. + D A 1. A j+1 A j. + D A 1. A j+1 A j+1., A n A n A n A n da qual segue-se o resultado, pois sabemos, por (D2), que D A 1. A j A j. = D A 1. A j+1 A j+1. = 0. A n A n Corolário 8.1.2. Se A é uma matriz com duas linhas iguais, então D(A) = 0. Demonstração Com uma troca de linhas, podemos transformar a matriz A em uma matriz A com duas linhas adjacentes iguais. Logo, pela proposição anterior e pela Propriedade (D2), temos que D(A) = ±D(A ) = 0. Corolário 8.1.3. Se A é uma matriz obtida de A por uma transformação elementar L i L j, i, j = 1,..., n, com i j, então D(A ) = D(A). Demonstração Usando a mesma ideia da prova da Proposição 8.1.1, considerando neste caso a matriz B tal que B i = B j = A i + A j e B k = A k, se k i, j, obtemos o resultado com auxílio do Corolário 8.1.2.
214 CAPÍTULO 8. DETERMINANTES Corolário 8.1.4. Se uma matriz A é obtida de uma matriz A na qual somamos a uma linha um múltiplo de outra, mantendo as demais inalteradas, então D(A ) = D(A). Demonstração Para i < j, sejam A 1.. A i A i + ta j A =., A =.. A j A j.. A 1 A n A n Temos da propriedade (D1) que D(A ) = D(A) + td(a ), (1) onde A 1. A j A =.. A j. Pelo Corolário 8.1.2, temos que D(A ) = 0, logo o resultado segue da igualdade (1), acima. Corolário 8.1.5. Se uma matriz A é obtida de uma matriz A na qual somamos a uma linha uma combinação linear de outras, mantendo as demais inalteradas, então D(A ) = D(A). Demonstração Use repetidamente o Corolário 8.1.4. A n
1. PROPRIEDADES DOS DETERMINANTES 215 Corolário 8.1.6. Se os vetores linhas de uma matriz A são linearmente dependentes, então D(A) = 0. Demonstração Se os vetores linhas da matriz são linearmente dependentes, então uma das linhas é combinação linear das demais, seguindo-se o resultado do Corolário 8.1.5. 1.3 Propriedade Multiplicativa Nesta subseção, mostraremos como funções D possuindo as Propriedades (D1), (D2) e (D3) da Seção 1 se comportam em relação à multiplicação de matrizes. Proposição 8.1.7. Sejam A e B elementos de M(n) e seja D : M(n) K uma função possuindo as Propriedades (D1), (D2) e (D3). (i) (ii) Se E é uma matriz elementar, então D(EA) = D(E)D(A). Se A e B são matrizes equivalentes por linhas, então D(A) 0 D(B) 0. (iii) A é invertível se, e somente se, D(A) 0. (iv) D(AB) = D(A)D(B). Demonstração (i) Seja E 1 a matriz elementar obtida operando sobre I n com L i L j. Temos que E 1 A é a matriz obtida de A mediante a operação L i L j, logo, pelo Corolário 8.1.3, temos que D(E 1 A) = D(A). Por outro lado, do Problema 1.3(a), temos que D(E 1 ) = 1, o que acarreta o resultado neste caso. Seja E 2 a matriz elementar obtida de I n mediante a operação L i L i + tl j. Temos, pelo Corolário 8.1.4, que D(E 2 A) = D(A) e pelo Problema 1.3(a) temos que D(E 2 ) = 1, daí obtendo o resultado neste caso também. Finalmente, se E 3 é a matriz elementar correspondente a L i cl i, temos de (D1) que D(E 3 A) = cd(a) e, pelo Problema 1.3(a), D(E 3 ) = c. Logo, D(E 3 A) = D(E 3 )D(A).
216 CAPÍTULO 8. DETERMINANTES ii) A e B são equivalentes se, e somente se, B = E r E 1 A, onde E 1,..., E r são matrizes elementares. De (i), por indução, temos que D(B) = D(E r ) D(E 1 )D(A). Como D(E) 0, para toda matriz elementar E, vale o resultado. iii) Se A é invertível, do Teorema 2.1.6, temos que A é equivalente a I n, logo por (ii) segue-se que D(A) 0, já que D(I n ) = 1 0. Reciprocamente, se D(A) 0, seja B a matriz equivalente a A na forma escalonada. Como por (ii) temos que D(B) 0, segue-se que B = I n. Daí, A é equivalente a I n, logo, pelo Teorema 2.1.6, tem-se que A é invertível. iv) Se A não é invertível, então AB é não invertível. Logo, por (iii), temos que D(AB) = 0 e D(A) = 0, seguindo-se o resultado neste caso. Se A é invertível, então, pelo Teorema 2.1.6, A = E 1 E r onde os E i 's são matrizes elementares. Portanto, por indução utilizando (i), temos que D(AB) = D(E 1 ) D(E r )D(B) = D(E 1 E r )D(B) = D(A)D(B). Teorema 8.1.8. Se existirem duas funções D : M(n) K e D : M(n) K satisfazendo as condições (D1), (D2) e (D3), então D = D. Demonstração Seja A M(n). Se A não é invertível, então da Proposição 8.1.7(iii) temos que D(A) = 0 = D (A). Se A é invertível, logo, A = E 1 E r, onde os E i 's são matrizes elementares. Pela Proposição 8.1.7(iv), temos que D(A) = D(E 1 ) D(E r ) e D (A) = D (E 1 ) D (E r ). Pelo Problema 1.3(b), temos que D(E i ) = D (E i ), para todo i = 1,..., r, logo D(A) = D (A). Assim, temos assegurada a unicidade de uma função D : M(n) K, possuindo as Propriedades (D1), (D2) e (D3), caso tal função exista. Vamos, na próxima seção, mostrar que tal função existe, a qual passaremos a denotar por det e a chamar de função determinante. Para n = 2 e n = 3, as funções det: M(2) K e det: M(3) K, que introduzimos no Capítulo 4, são as
1. PROPRIEDADES DOS DETERMINANTES 217 únicas funções que possuem as Propriedades (D1), (D2) e (D3), com domínios M(2) e M(3), respectivamente. Problemas 1.1 Mostre que se a matriz A M(n) possui uma linha nula, então D(A) = 0. 1.2 Seja D : M(n) K uma função que possui as Propriedades (D1) e (D2). Mostre que se A é a matriz diagonal Diag(a 11,..., a nn ) (com a notação do Problema 2.15, Capítulo 1), então D(Diag(a 11,..., a nn )) = a 11... a nn D(I n ). Em particular, conclua que D(c I n ) = c n D(I n ), onde c K. 1.3 Seja D : M(n) K, possuindo as Propriedades (D1) e (D2), e sejam E 1, E 2 e E 3 matrizes elementares obtidas da matriz identidade I n mediante, respectivamente, uma operação do tipo L i L j, L i L i + tl j, L i cl i, para i j. a) Mostre que D(E 1 ) = D(I n ), D(E 2 ) = D(I n ) e D(E 3 ) = cd(i n ). b) Se D, D : M(n) K possuem as propriedades (D1), (D2) e (D3), então D(E 1 ) = D (E 1 ) = 1, D(E 2 ) = D (E 2 ) = 1 e D(E 3 ) = D (E 3 ) = c. 1.4 Seja A uma matriz invertível de ordem n e suponha que exista a função det: M(n) K. Mostre que det(a 1 ) = 1 det A. 1.5 Seja E M(n) uma matriz elementar. Com a mesma hipótese do problema anterior, mostre que det(e t ) = det(e). Sugestão Utilize o Problema 2.1.9.
218 CAPÍTULO 8. DETERMINANTES 2 Existência de Determinantes Nesta seção, estabeleceremos a existência das funções determinantes para valores de n maiores do que 3, que já sabemos existirem para n = 2 e n = 3. A demonstração de tal existência será feita por indução sobre n. Mostraremos que se existe uma função D : M(n 1) K que possui as Propriedades (D1), (D2) e (D3), então existe uma função D : M(n) K que possui as mesmas propriedades. Na realidade, mostraremos que a função D pode ser obtida de vários modos possíveis a partir de D, o que permitirá certa exibilidade no cálculo de D(A), onde A é uma matriz quadrada de ordem n. Sejam n 2 e A M(n). Para cada par (i, j) N 2, com 1 i, j n, dene-se a matriz A(i j) como a matriz (n 1) (n 1) obtida de A suprimindo-se a i-ésima linha e a j-ésima coluna. Nosso resultado está contido no próximo teorema. Teorema 8.2.1. Sejam n 3 e D : M(n 1) K satisfazendo as condições (D1), (D2) e (D3). Dado j com 1 j n, a função D j : M(n) K denida por n D j (A) = ( 1) i+j a ij D (A(i j)), i=1 onde A = [a ij ] M(n), também satisfaz as condições (D1), (D2) e (D3). Demonstração Fixemos j. Para cada i, temos que D (A(i j)) é independente da linha i, ou seja, dos elementos a ik, k = 1,..., n, e é separadamente linear em cada uma das n 1 linhas restantes de A. Por outro lado, ( 1) i+j a ij é independente das entradas de A(i j) e é linear na linha i de A. É, portanto, fácil vericar que ( 1) i+j a ij D (A(i j)) é separadamente linear nas linhas de A. Logo, D j é uma soma de funções de A que são separadamente lineares na linhas de A, donde se conclui que D j possui a Propriedade (D1). Para provar que D j possui a Propriedade (D2), suponhamos que A M(n) tenha as linhas A k e A k+1 iguais. Se i k e i k + 1, a matriz A(i j) tem duas linhas iguais, logo
2. EXISTÊNCIA DE DETERMINANTES 219 D (A(i j)) = 0. Daí temos D j (A) = ( 1) k+j a kj D (A(k j)) + ( 1) k+j+1 a k+1,j D (A(k + 1 j)). Mas, a kj = a k+1,j e A(k j) = A(k + 1 j), logo D j (A) = 0, já que as duas parcelas que compõem D j (A) são uma simétrica da outra. Finalmente, sendo δ ij as entradas da matriz I n, temos que n D j (I n ) = ( 1) i+j δ ij D (I n (i j)) = δ jj D (I n (j j)) = D (I n 1 ) = 1, i=1 já que I n (j j) = I n 1 e D (I n 1 ) = 1, mostrando que D j possui a Propriedade (D3). Esse teorema nos mostra que para calcular o determinante de uma matriz A, escolhe-se uma coluna j qualquer de A, obtendo n det(a) = ( 1) i+j a ij det(a(i j)), i=1 que é usualmente chamado de desenvolvimento de Laplace de det(a) segundo os elementos da coluna j. Exemplo 1. Calculemos det(a), onde 2 3 1 0 0 1 3 2 A = 0 5 1 0. 1 2 1 1 Temos do Teorema 8.2.1, desenvolvendo segundo os elementos da primeira coluna, que 1 3 2 3 1 0 det(a) = 2 det 5 1 0 det 1 3 2. 2 1 1 5 1 0 Calculando os determinantes 3 3, acima, pela Regra de Sarrus, obtemos que det(a) = 36.
220 CAPÍTULO 8. DETERMINANTES Problemas 2.1 Mostre que se uma matriz A possui uma coluna nula, então det(a) = 0. 2.2* Prove que o determinante de uma matriz triangular superior (resp. inferior) é o produto dos elementos de sua diagonal principal. Mostre que uma tal matriz é invertível se, e somente se, suas entradas na diagonal principal são todas não nulas. 2.3* Seja a R. Prove que 1 1 1 1 1 a a 2 a 3 det 1 a 2 a 3 a 4 = 0. 1 a 3 a 4 a 5 2.4 Considere a matriz de Vandermonde 2 1 a 1 a 2 1... a n 1 1 1 a A = 2 a 2 2... a n 1 2.... 1 a n a 2 n... a n 1 n. Mostre que det(a) = i<j(a j a i ). 3 Matriz Adjunta Seja A = [a ij ] M(n). Dene-se o cofator do elemento a ij da matriz A como ij (A) = ( 1) i+j det(a(i j)). A matriz [ ij (A)] M(n) será chamada de matriz dos cofatores da matriz A e sua transposta será chamada de matriz adjunta de A e denotada adj(a). 2 Em homenagem a Alexandre-Theóphile Vandermonde (França 1735 1796).
3. MATRIZ ADJUNTA 221 Exemplo 1. Seja 1 0 0 A = 1 2 1. 0 0 1 Temos que 11 (A) = 2, 12 (A) = 1, 13 (A) = 21 (A) = 23 (A) = 31 (A) = 0, 22 (A) = 32 (A) = 1 e 33 (A) = 2. Logo, 2 1 0 [ ij (A)] = 0 1 0. 0 1 2 Portanto, 2 0 0 adj(a) = 1 1 1. 0 0 2 A seguir, veremos uma relação entre uma matriz e a sua adjunta. Proposição 8.3.1. Seja A uma matriz quadrada de ordem n. Então adj(a) A = det(a) I n. Demonstração Denotemos por B a matriz adj(a) A. Queremos mostrar que { det(a), se i = j b ij = 0, se i j. Denotando ij (A) por ij, temos que 11... n1 a 11... a 1j... a n1..... [b ij ] = 1i... ni a i1... a ij... a in...... 1n... nn a n1... a nj... a nn
222 CAPÍTULO 8. DETERMINANTES Logo, pelo Teorema 8.2.1, b jj = n a ij ij = det(a). i=1 Por outro lado, seja i j. Supondo, sem perda de generalidade, que i < j, temos b ij = n a kj ki = k=1 que é o determinante da matriz n ( 1) i+k a kj det(a(k i)), k=1 a 11... a 1j... a 1j... a n1...., a n1... a nj... a nj... a nn desenvolvido segundo os elementos da i-ésima coluna, o qual é nulo. Corolário 8.3.2. Se A é uma matriz invertível, então A 1 = 1 det(a) adj(a). Demonstração Se A é invertível, então det(a) 0 e, portanto, ( ) 1 det(a) adj(a) A = I n, o que implica que A 1 = 1 det(a) adj(a). A expressão acima para a inversa de uma matriz A de ordem n é muito interessante do ponto de vista teórico, mas pouco útil do ponto de vista prático, pois para utilizá-la para calcular a inversa de A seria necessário calcular n 2 determinantes de ordens n 1 (os cofatores dos elementos de A). Isto é computacionalmente impraticável se n é grande. Por outro lado, o
3. MATRIZ ADJUNTA 223 método de inversão por escalonamento apresentado na Seção 1 do Capítulo 2 é computacionalmente muito mais ecaz. Vamos, a seguir, relacionar o determinante de uma matriz com o de sua transposta. Sabemos do Problema 1.5 que se E é uma matriz elementar qualquer, então det(e t ) = det(e). Seja A uma matriz quadrada de ordem n, qualquer. Logo, existem matrizes elementares E 1,..., E r tais que E r E 1 A = B, onde ou B é uma matriz com a última linha nula, ou B = I n. Se B possui uma linha nula, B t terá uma coluna nula, logo det(b) = det(b t ) = 0 (cf. Problema 2.1). Se B = I n, então det(b) = det(b t ) = 1. Podemos escrever A = F 1 F r B, (1) onde F i = E 1 i, i = 1,..., n, são também matrizes elementares (cf. Corolário 2.1.5). Tomando transpostas em (1), obtemos A t = B t F t r F t 1. (2) Tomando, agora, determinantes em (1) e (2), obtemos det(a) = det(f 1 ) det(f r ) det(b) e det(a t ) = det(b t ) det(f t r) det(f t 1), o que acarreta que det(a t ) = det(a), pois det(b) = det(b t ) e det(f i ) = det(f t i ), para todo 1 i r. Assim, provamos o seguinte resultado: Proposição 8.3.3. O determinante de uma matriz quadrada é igual ao determinante de sua transposta. Portanto, toda armação sobre o determinante de uma matriz quadrada, relativamente a suas linhas, também vale para suas colunas e vice-versa. Assim, em particular, podemos calcular determinantes usando desenvolvimentos de Laplace segundo os elementos de uma linha L i, ou seja, n det(a) = ( 1) i+j a ij det(a(i j)). j=1
224 CAPÍTULO 8. DETERMINANTES Problemas 3.1 Mostre que a inversa de uma matriz triangular inferior é triangular inferior e a inversa de uma matriz triangular superior é triangular superior. 3.2 Mostre que se det(a) = 1 e todas as entradas de A são números inteiros, então todas as entradas de A 1 também são números inteiros. 3.3 Mostre que se A é invertível, então adj(a) é invertível e (adj(a)) 1 = adj(a 1 ). 3.4 Como é afetada a matriz inversa A 1 se a) permutarmos em A a i-ésima com a j-ésima linha? b) a i-ésima linha de A é multiplicada por uma constante k não nula? c) a i-ésima linha de A é somada à k vezes a j-ésima linha? 4 Regra de Cramer Nesta seção, mostraremos como expressar a solução única de um sistema de n equações com n incógnitas AX = B, onde A é uma matriz invertível. É a chamada Regra de Cramer, que apresentamos para n = 2 e n = 3 na Seção 3 do Capítulo 4, que se relaciona naturalmente com os determinantes e que serviu de motivação para a sua introdução e posterior estudo de suas propriedades. Teorema 8.4.1. (Regra de Cramer) Seja AX = B um sistema linear n n. Se det(a) 0, então o sistema tem uma única solução dada por x j = det(a(j) ), j = 1,..., n, det(a) onde A (j) denota a matriz obtida de A substituindo a sua j-ésima coluna pela única coluna de B.
4. REGRA DE CRAMER 225 Demonstração Como det(a) 0, segue-se da Proposição 8.1.7(iii) que A é invertível. Portanto, a solução do sistema é dada por X = A 1 B = = 1 det(a) 1 det(a) adj(a) B 11... n1 b 1 12... n2 b 2... 1n... nn b n = 1 det(a) b 1 11 + b 2 21 + + b n n1 b 1 12 + b 2 22 + + b n n2., b 1 1n + b 2 2n + + b n nn mostrando que o elemento da j-ésima linha da matriz X é x j = b 1 1j + b 2 2j + + b n nj. (1) det(a) Considerando a matriz a 11... a 1,j 1 b 1 a 1,j+1... a 1n A (j) =......., tem-se claramente que a n1... a n,j 1 b n a n,j+1... a nn b 1 1j + + b n nj = det(a (j) ), o que conclui a prova, em vista de (1). Exemplo 1. Usemos a regra de Cramer para resolver o sistema linear x 1 + 2x 2 + x 3 = 5 x 1 + 2x 2 + 2x 3 = 0 x 1 + 2x 2 + 3x 3 = 1.
226 CAPÍTULO 8. DETERMINANTES Temos que 1 2 1 5 2 1 1 5 1 A = 1 2 2, A (1) = 0 2 2, A (2) = 1 0 2 1 2 3 1 2 3 1 1 3 e 1 2 5 A (3) = 1 2 0. 1 2 1 Como det(a) = 8 0, det(a (1) ) = 8, det(a (2) ) = 28 e det(a (3) ) = 24, a Regra de Cramer nos dá x 1 = 1, x 2 = 7/2 e x 3 = 3. Problemas 4.1 Resolva pela regra de Cramer os seguintes sistemas lineares: 2x y + 2w = 1 2x + y + 3z = 0 3x + y 2z 2w = 0 (a) 4x + 2y + 2z = 0 (b) 4x y + 2z + 3w = 2 2x + 5y + 3z = 0 ; 3x + y z 2w = 1.
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
9 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 9: Diagonalização de Operadores Sumário 1 Autovalores e Autovetores.............. 228 2 Polinômio Característico............... 234 3 Diagonalização de Operadores............ 244 4 O Teorema Espectral para Operadores Simétricos 251 5 Reconhecimento de Cônicas............. 255 227
228 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Vimos no Capítulo 6 que um operador linear em V, onde V tem dimensão nita, pode ser representado por uma matriz. Sendo as matrizes diagonais as mais simples do ponto de vista das operações matriciais (cf. Problema 2.15, Capítulo 1), nos perguntamos se dado um operador linear T, é sempre possível representá-lo por uma matriz diagonal? Mais precisamente, queremos saber se para todo operador T existe uma base α de V tal que [T ] α α seja uma matriz diagonal. A resposta é que nem sempre existe uma tal base. Por exemplo, o operador T em R 2, cuja matriz na base canônica é dada por [ ] 0 0 A =, 1 0 não adimite uma tal representação. De fato, se fosse possível achar uma base α tal que a matriz de T nesta base é diagonal, teríamos P AP 1 = C, onde P é uma matriz 2 2 invertível e C uma matriz diagonal. Como A 2 = 0, isto acarretaria que C 2 = ( P AP 1) 2 = P A 2 P 1 = 0. Logo, C = 0, o que implicaria que A = 0; uma contradição. Diremos que operador denido sobre um espaço vetorial V de dimensão nita é diagonalizável, quando for possível representá-lo por uma matriz diagonal em alguma base de V. O resultado central deste capítulo é uma versão de um teorema chamado Teorema Espectral que garante que todo operador simétrico é diagonalizável. 1 Autovalores e Autovetores Seja T : V V um operador linear. Um número real c será dito um autovalor de T se existir um vetor não nulo v em V tal que T (v) = cv. O vetor v é chamado de autovetor de T associado a c.
1. AUTOVALORES E AUTOVETORES 229 Observemos que se v é um autovetor de um operador T associado a um autovalor c, então todo múltiplo por escalar de v é também um autovetor de T associado a c. Mais ainda, se A(c) = {v V ; T (v) = cv}, então A(c) é um subespaço vetorial de V (veja Problema 1.1), chamado autoespaço de T associado a c. Note que A(c) é formado pelo vetor nulo de V e por todos os autovetores de T associados a c. Vejamos a seguir alguns exemplos. Exemplo 1. Seja T : R 2 R 2 o operador linear dado por T (x, y) = (4x y, 2x + y). Queremos determinar c R e v = (x, y) R 2, não nulo, tais que T (x, y) = c(x, y), ou seja, tais que (4x y, 2x + y) = c(x, y). Equivalentemente, queremos determinar c R e v = (x, y) R 2, não nulo, tais que 4x y = cx (1) 2x + y = cy. Da primeira equação do sistema (1), temos y = 4x cx. Substituindo este valor de y na segunda equação do sistema, obtemos x(c 2 5c + 6) = 0, (2) que é satisfeita se x = 0 ou c 2 5c + 6 = 0. Se x = 0, então y = 0. Mas, v = (x, y) não é o vetor nulo. Assim, segue de (2) que c 2 5c + 6 = 0. Portanto, c = 2 e c = 3 são os autovalores de T. Vamos agora calcular os autovetores de T associados a c = 2. De (1) obtemos o sistema 4x y = 2x 2x + y = 2y, que equivale à equação 2x y = 0, cujo conjunto solução é dado por {(x, 2x) ; x R}. Assim, os autovetores de T associados a c = 2 são os vetores da forma (x, 2x), em que x R, x 0. Para calcularmos os autovetores de T associados a c = 3, devemos resolver o sistema 4x y = 3x 2x + y = 3y,
230 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES que equivale a resolver a equação x y = 0, cujo conjunto solução é dado por {(x, x) ; x R}. Assim, os autovetores de T associados a c = 3 são os vetores da forma (x, x), com x R, x 0. Exemplo 2. Seja T : R 2 R 2 o operador linear dado por T (x, y) = ( y, x). Se c R e v = (x, y) R 2, v 0, são tais que T (x, y) = c(x, y), então Equivalentemente, ( y, x) = c(x, y). cx = y cy = x, donde obtemos a equação (c 2 +1)y = 0. Como c R, a equação (c 2 +1)y = 0 é vericada somente se y = 0. Mas se y = 0, segue da segunda equação do sistema (3) que x = 0. Como v não é o vetor nulo, isso não pode ocorrer. Concluímos, então, que T não tem autovalores nem autovetores. Portanto, o exemplo acima nos mostra que: Nem todo operador linear possui autovalores e autovetores. O estudo de autovalores teve início com Cauchy no começo do século XIX em seu trabalho sobre formas quadráticas. Contudo, os primeiros problemas envolvendo autovalores apareceram, de forma implícita, durante o século XVIII, com o estudo de soluções de sistemas de equações diferenciais lineares com coecientes constantes. Jean le Rond d'alembert (França, 1717-1783), em seus trabalhos datando entre 1743 e 1758, e motivado pelo estudo do movimento de uma corda com um número nito de massas (aqui, por simplicidade, consideramos apenas três), chegou no seguinte sistema: d 2 y i 3 dt + a 2 ij y j = 0, i = 1, 2, 3. j=1 Para resolver este sistema, d'alembert decidiu multiplicar a i-ésima equação por uma constante v i, para cada i, e somar as equações, obtendo 3 d 2 y i 3 v i dt + v 2 i a ij y j = 0. i=1 i,j=1 (3)
1. AUTOVALORES E AUTOVETORES 231 Denotando B = [a ij ] t e se os v i 's são escolhidos de modo que, para alguma constante λ, 3 v i a ij + λv j = 0, para j = 1, 2, 3, i=1 isto é, se (v 1, v 2, v 3 ) é um autovetor correspondente ao autovalor λ do operador T B, a substituição u = v 1 y 1 + v 2 y 2 + v 3 y 3 reduz o sistema original a uma única equação diferencial d 2 u λu = 0, dt2 que é facilmente resolvida com métodos desenvolvidos por Euler 1. A seguinte proposição mostra que autovetores associados a autovalores distintos são linearmente independentes. Proposição 9.1.1. Seja T : V V um operador linear e sejam c 1, c 2,..., c r autovalores distintos de T. Se v 1, v 2,..., v r são autovetores associados aos autovalores c 1, c 2,..., c r, respectivamente, então {v 1, v 2,..., v r } é linearmente independente. Demonstração A prova será feita por indução sobre r. O resultado é válido para r = 1, pois se T : V V é um operador linear com autovalor c 1 e se v 1 é um autovetor de T associado a c 1, então {v 1 } é linearmente independente, pois v 1 0. Suponhamos agora o resultado válido para r 1 e vamos prová-lo para r, r 2. Para isto, consideremos a equação a 1 v 1 + a 2 v 2 + + a r v r = 0, (4) 1 Leonhard Paul Euler (Suíça, 1707-1783) é considerado o matemático mais prolífero de toda a história. Era também astrônomo, físico, engenheiro e químico. A coleção completa dos livros e trabalhos cientícos de Euler (mais de 870 artigos e livros) chega a mais de oitenta volumes. Ele deu grandes contribuições à geometria analítica, trigonometria, cálculo innitesimal e teoria dos números, continuando a trabalhar mesmo depois de ter cado quase cego em 1771. Sua prodigiosa memória permitia que realizasse complexos e longos cálculos mentais e, dessa forma, ditar seus artigos para seus lhos e outros, até a sua morte.
232 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES onde a 1, a 2,..., a r são números reais. Aplicando T em (4), obtemos a 1 (c 1 v 1 ) + a 2 (c 2 v 2 ) + + a r (c r v r ) = 0, (5) já que T (v j ) = c j v j, para todo 1 j r. Por outro lado, T possui pelo menos um autovalor não nulo. Sem perda de generalidade, suponhamos que c r 0. Multiplicando (4) por c r, obtemos a 1 (c r v 1 ) + a 2 (c r v 2 ) + + a r (c r v r ) = 0. (6) De (5) e (6), a 1 (c 1 c r )v 1 + a 2 (c 2 c r )v 2 + + a r 1 (c r 1 c r )v r 1 = 0. (7) Pela hipótese de indução, {v 1, v 2,..., v r 1 } é linearmente independente. Portanto, de (7), segue-se que a j (c j c r ) = 0 para todo 1 j r 1. (8) Como os autovalores c 1, c 2,..., c r são todos distintos, de (8) obtemos que a j = 0 para todo 1 j r 1. Substituindo estes valores em (4), concluímos que a r = 0 também, já que v r 0. Portanto, {v 1, v 2,..., v r } é independente. Corolário 9.1.2. Seja T : V V um operador linear. Se dim V = n e T possui n autovalores distintos, então V possui uma base formada por autovetores de T. Demonstração Pela Proposição 9.1.1, n autovalores distintos implicam na existência de um conjunto de autovetores {v 1, v 2,..., v n } linearmente independente. Como G(v 1, v 2,..., v n ) V e dim G(v 1, v 2,..., v n ) = n = dim V, temos que G(v 1, v 2,..., v n ) = V, logo {v 1, v 2,..., v n } é uma base de V. Na Seção 3, veremos que a existência de uma base de V formada por autovetores de um operador linear T : V V é equivalente à existência de uma representação deste operador por uma matriz diagonal. Antes, porém, na próxima seção, vamos introduzir a noção de polinômio característico que
1. AUTOVALORES E AUTOVETORES 233 nos permitirá determinar mais facilmente os autovalores e autovetores de um operador linear. Problemas 1.1* Seja T : V V um operador linear e c R um autovalor de T. Prove que o autoespaço A(c) de T associado a c é um subespaço vetorial de V. 1.2 Determine os autovalores e os autovetores das seguintes transformações lineares: (a) T : R 2 R 2 dada por T (x, y) = (x y, x); (b) T : R 3 R 3 dada por T (x, y, z) = (x, 2x y, 2x + y + 2z); (c) T : R[x] 2 R[x] 2 dada por T (ax 2 + bx + c) = ax 2 + cx + b; ([ ]) [ ] a b 2c a + c (d) T : M(2) M(2) dada por T =. c d b 2c d 1.3 Determine os autovalores e os autovetores dos seguintes operadores cujas matrizes na base canônica são: [ ] 4 0 2 0 1 0 0 2 2 0 2 0 0 (a) A = ; (b) A = 1 0 2 ; (c) A = 2 2 0 0 2 0. 1 1 3 0 1 0 0 1.4 Suponha que c é um autovalor de um operador invertível T. Mostre que c 1 é um autovalor de T 1. 1.5 Determine T (x, y, z) sabendo que T : R 3 R 3 é um operador linear com autoespaços, associados aos autovalores c 1 = 1 e c 2 = 3, dados por {(x, x + y, y) ; x, y R} e {(0, x, 2x) ; x R}, respectivamente. 1.6* Os autovalores de um operador linear T : R 3 R 3 são c 1 = 1, c 2 = 2 e c 3 = 1, sendo v 1 = (1, 1, 1), v 2 = (0, 1, 1) e v 3 = ( 1, 1, 0) os respectivos autovetores associados. Determine T (x, y, z). 1.7 Suponha que v é um autovetor dos operadores T e S. Mostre que v é também um autovetor do operador at +bs, onde a, b são escalares quaisquer.
234 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES 1.8 Encontre uma matriz 3 3 com autovalores c = 0, 1 e 1 e autovetores associados v 1 = (0, 1, 1), v 2 = (1, 1, 1) e v 3 = (0, 1, 1), respectivamente. 2 Polinômio Característico Seja A uma matriz quadrada de ordem n. A matriz t I n A, onde t é uma indeterminada, é chamada matriz característica de A. O determinante dessa matriz é um polinômio em t, chamado polinômio característico da matriz A e denotado por P A (t). [ ] 4 1 Exemplo 1. Seja A = a matriz, na base canônica, do operador do 2 1 Exemplo 1, da Seção 1. A matriz característica de A é a matriz [ ] t 4 1 ti 2 A = 2 t 1 e o polinômio característico de A é o polinômio [ ] t 4 1 P A (t) = det = t 2 5t + 6. 2 t 1 [ ] 0 1 Exemplo 2. Consideremos a matriz A =, na base canônica, do 1 0 operador do Exemplo 2, da Seção 2. A matriz característica de A é a matriz [ ] t 1 1 e o polinômio característico de A é o polinômio t P A (t) = t 2 + 1. Observemos que as raízes do polinômio do Exemplo 1, ou seja, os números reais t 0 tais que P A (t 0 ) = 0, são os autovalores do operador dado no Exemplo 1 da Seção 1. Note que o operador do Exemplo 2, da Seção 1, não tem
2. POLINÔMIO CARACTERÍSTICO 235 autovalores e o polinômio característico de sua matriz associada não tem raízes. Surge, então, naturalmente a seguinte pergunta: Existe uma relação entre os autovalores de um operador e as raízes do polinômio característico de alguma matriz associada a ele? A resposta é armativa e é dada pelo resultado a seguir. Teorema 9.2.1. Seja T : V V um operador linear e seja α = {v 1, v 2,..., v n } uma base de V. Então: (i) v é um autovetor de T associado a t 0 se, e somente se, [v] α é uma solução não trivial do sistema linear AX = 0, onde A = t 0 I n [T ] α α; (ii) t 0 R é um autovalor de T se, e somente se, t 0 é uma raiz do polinômio característico da matriz [T ] α α, ou seja, P [T ] α α (t 0 ) = 0. Demonstração (i): Seja t 0 um autovalor de T e v um autovetor de T associado a t 0. Como [T (v)] α = [T ] α α [v] α e T (v) = t 0 v, temos [t 0 v] α = [T ] α α [v] α, ou seja, t 0 I n [v] α = [T ] α α [v] α. Equivalentemente, (t 0 I n [T ] α α)[v] α = 0. (9) (ii): Consideremos o sistema linear AX = 0, onde A = t 0 I n [T ] α α. De (9), segue que AX = 0 tem uma solução não trivial, a saber [v] α, já que v não é o vetor nulo. Pelo Corolário 2.2.7, A não é invertível. Assim, pela Proposição 8.1.7(iii), P [T ] α α (t 0 ) = 0, provando que t 0 é uma raiz de P [T ] α α. Reciprocamente, se t 0 R é uma raiz de P [T ] α α, então P [T ] α α (t 0 ) = 0. Portanto, o sistema linear AX = 0, onde A = t 0 I n [T ] α α, tem uma solução [ ] t X 1 = x 1 x 2... x n não nula, pois det A = 0 (cf. Corolário 2.2.7 e Proposição 8.1.7(iii)). Vamos provar que t 0 é um autovalor de T e que v = x 1 v 1 + x 2 v 2 + + x n v n é um autovetor de T associado a t 0. De fato, como X 1 é uma solução do sistema AX = 0, temos AX 1 = 0. Equivalentemente, (t 0 I n [T ] α α)x 1 = t 0 X 1 [T ] α αx 1 = 0,
236 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES ou seja, [t 0 v] α = t 0 [v] α = [T ] α α[v] α = [T (v)] α, (10) pois, pela construção de v, X 1 = [v] α. De (10), obtemos que [T (v)] α = [t 0 v] α, isto é, as coordenadas dos vetores T (v) e t 0 v na base α são iguais. Consequentemente, estes vetores são iguais, ou seja, T (v) = t 0 v. Como por construção v 0, segue-se que t 0 é um autovalor de T e v é um autovetor de T associado a t 0. Exemplo 5. Vamos refazer o Exemplo 1 da Seção 1, utilizando o Teorema 9.2.1. Reconsidere o operador linear T : R 2 R 2 dado por T (x, y) = (4x y, 2x + y) e seja α a base canônica de R 2. Temos [ ] t 4 1 P [T ] α (t) = det = t 2 5t + 6. 2 t 1 Como t 2 5t + 6 = 0 somente para t 1 = 2 e t 2 = 3, o Teorema 9.2.1 nos mostra que t 1 e t 2 são os únicos autovalores de T. Para determinarmos os autovetores de T associados a t 1, devemos resolver o sistema linear [ ] [ ] [ ] t 1 4 1 x 1 0 =, 2 t 1 1 0 ou seja, [ ] [ 2 1 2 1 x 1 x 2 x 2 ] [ ] 0 =, 0 que equivale à equação linear 2x 1 + x 2 = 0. Assim, o autoespaço de T associado a t 1 é {(x, 2x) ; x R}. Agora, para determinarmos os autovetores de T associados a t 2, devemos resolver o sistema linear [ ] [ ] [ ] t 2 4 1 t 1 0 =, 2 t 2 1 0 ou seja, [ ] [ 1 1 2 2 t 1 t 2 t 2 ] [ ] 0 =, 0
2. POLINÔMIO CARACTERÍSTICO 237 que equivale à equação linear x 1 + x 2 = 0. Assim, o autoespaço de T associado a t 2 é {(x, x) ; x R}. Exemplo 4. Seja T : M(2) M(2) o operador linear dado por T (A) = A t, onde A M(2). Seja α a base canônica de M(2). Temos t 2 0 0 0 0 t 1 0 P [T ] α (t) = det 0 1 t 0 = (t 1)3 (t + 1). 0 0 0 t 1 Portanto, [ t 1 ] = 1 e t 2 = 1 são os autovalores de T. Pelo Teorema 9.2.1, x y M = é um autovetor associado a t 1 = 1 se, e somente se, z w Assim, {[ x 0 0 0 0 x 0 0 1 1 0 y 0 1 1 0 z = 0 0. 0 0 0 0 y w 0 ] } y ; x, y, w R w é o autoespaço [ ] associado a t 1 = 1. Agora, para calcularmos os autovetores x y M = associados a t 2 = 1, devemos resolver o sistema linear z w 2 0 0 0 x 0 0 1 1 0 y 0 1 1 0 z = 0 0. 0 0 0 2 Como o conjunto solução do sistema acima é dado por x = w = 0 e y = z, segue que {[ ] } 0 y ; y R y 0 w 0
238 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES é o autoespaço associado a t 2. Observemos que, nos exemplos acima, tomamos α sendo sempre a base canônica. Isto não representa nenhum problema, pois o método de cálculo dos autovalores e autovetores de um operador T, dado pelo Teorema 9.2.1, independe da base escolhida. O que não é totalmente claro é se o polinômio característico independe da base escolhida. De fato, o polinômio característico de T independe da escolha da base, pois dadas α e β bases do espaço vetorial V, temos que P [T ] α (t) = P [T ] β(t) (veja Problema 2.3). β O polinômio característico possui várias propriedades, das quais damos abaixo a mais básica. Lema 9.2.2. Seja B uma matriz quadrada de ordem n com entradas polinômiais, de graus 1, numa indeterminada t, tal que em cada linha e em cada coluna há no máximo um polinômio não constante, então det A é um polinômio de grau menor ou igual do que n. Demonstração A prova pode ser feita sem diculdade por indução sobre n, utilizando o desenvolvimento de Laplace com relação à primeira linha, por exemplo. Proposição 9.2.3. Dada uma matriz A M(n), o polinômio característico p A (t) de A é um polinômio mônico de grau n com coecientes em R e cujos coecientes de t n 1 e de t 0 são tr A e ( 1) n det A. Demonstração Escrevamos A = (a ij ), logo t a 11 a 12 a 1n a p A (t) = det 21 t a 22 a 2n.... a n1 a n2 t a nn Pelo Lema anterior, p A (t) é um polinômio de grau no máximo n. Desenvolvendo o determinate segundo os elementos da primeira linha e utilizando o
2. POLINÔMIO CARACTERÍSTICO 239 Lema 9.2.2 (repetidas vezes), temos que t a 22 a 2n p A (t) = (t a 11 ) det.. + polinômio de grau < n 1. a n2 t a nn Repetindo o procedimento, vemos que p A (t) = (t a 11 )(t a 22 ) (t a nn ) + polinômio de grau < n 1. Segue-se que p A (t) é um polinômio mônico de grau n em t e que o coeciente de t n 1 é tr A. Por outro lado, o coeciente de t 0 em p A (t) = det(t I n A) é precisamente P A (0) = det( A) = ( 1) n det A. Sejam dados um polinômio p(t) = a r t r + a r 1 t r 1 + + a 1 t + a 0, com coecientes reais, e uma matriz quadrada A de ordem n, dene-se p(a) = a r A r + a r 1 A r 1 + + a 1 A + a 0 I n, que é uma matriz quadrada de ordem n. A seguir, apresentamos um dos importantes Teoremas básicos da Álgebra Linear, o chamado Teorema de Cayley-Hamilton 2. Teorema 9.2.4. (Cayley-Hamilton) Seja A M(n) e seja P A (t) o polinômio característico de A. Então, P A (A) = 0, onde 0 é a matriz nula de M(n). 2 William Rowan Hamilton (Irlanda, 1805-1865) deu várias contribuições à Física e à Matemática. Com apenas 22 anos de idade, foi nomeado Royal Astronomer na Irlanda, diretor do Observatório de Dunsek e professor de Astronomia. Deu o primeiro exemplo de uma álgebra não comutativa com a criação dos quatérnios. Os métodos dos quatérnios, tempos depois, motivaram a introdução da análise vetorial. Hamilton escreveu também sobre ótica e dinâmica. De fato, Hamilton é atualmente mais conhecido por seus trabalhos em dinâmica do que por seus trabalhos em matemática.
240 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Demonstração Como P A (t) é um polinômio mônico de grau n em t, podemos escrever P A (t) = t n + b n 1 t n 1 + + b 1 t + b 0, (11) onde b 0,..., b n 1 são números reais. Seja C(t) a matriz adjunta da matriz t I n A. Como C(t) é, por denição, a transposta da matriz cujas entradas são os cofatores de t I n A, logo são polinômios em t de grau menor ou igual que n 1. Assim, podemos escrever C(t) = C n 1 t n 1 + + C 1 t + C 0, (12) onde C 0, C 1,..., C n 1 são matrizes quadradas de ordem n, que não dependem de t. Pela Proposição 8.3.1, temos (t I n A)C(t) = P A (t) I n, já que, por denição, P A (t) = det(t I n A). (12), Equivalentemente, por (11) e (t I n A)(C n 1 t n 1 + + C 1 t + C 0 ) = (t n + b n 1 t n 1 + + b 1 t + b 0 ) I n. Da igualdade anterior, obtemos C n 1 = I n C n 2 AC n 1 = b n 1 I n C n 3 AC n 2 = b n 2 I n. C 0 AC 1 = b 1 I n AC 0 = b 0 I n. Multiplicando cada uma das equações acima por A n, A n 1,..., A, I n, respec-
2. POLINÔMIO CARACTERÍSTICO 241 tivamente, temos A n C n 1 = A n A n 1 C n 2 A n C n 1 = b n 1 A n 1 A n 2 C n 3 A n 1 C n 2 = b n 2 A n 2. AC 0 A 2 C 1 = b 1 A AC 0 = b 0 I n. Somando membro a membro as equações acima, resulta P A (A) = A n + b n 1 A n 1 + + b 1 A + b 0 I n = 0. Exemplo 5. Consideremos a matriz [ ] 1 3 A =. 1 0 O polinômio característico de A é [ ] t 1 3 P A (t) = det(t I n A) = det = t 2 t + 3. 1 t Pelo Teorema de Cayley-Hamilton, P A (A) = 0. Vamos agora vericar esta igualdade diretamente. De fato, P A (A) = A 2 A + 3 I 2 = = = [ ] 2 [ ] [ ] 1 3 1 3 1 0 + 3 1 0 1 0 0 1 [ ] [ ] [ ] 2 3 1 3 3 0 + + 1 3 1 0 0 3 [ ] 0 0. 0 0
242 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Uma consequência imediata do Teorema de Cayley-Hamilton é que a potência A n, de uma matriz A M(n), pode ser escrita como uma combinação linear das potências de A com expoentes menores do que n, pois se P A (t) = t n + b n 1 t n 1 + + b 1 t + b 0, então P A (A) = 0, o que equivale a A n = b n 1 A n 1 b 1 A b 0 I n. Exemplo 6. Consideremos novamente a matriz [ ] 1 3 A = 1 0 do Exemplo 5. Vimos que A 2 A + 3 I 2 = 0; ou seja, A 2 = A 3 I 2. Para obtermos A 3, façamos A 3 = AA 2 = A(A 3 I 2 ) = A 2 3A = 2A 3 I 2. Para obtermos A 4, façamos A 4 = AA 2 = A( 2A 3 I 2 ) = 2A 2 3A = 2(A 3 I 2 ) 3A = 5A + 6 I 2. Este procedimento mostra que, em geral, se A M(2), então para todo m N \ {0}, a matriz A m se escreve como combinação linear de I 2 e A. Observamos nalmente que, dada uma matriz A M(n), calcular potências A k, k N, pode ser muito trabalhoso. O Teorema de Cayley-Hamilton nos dá uma forma de calcular estas potências. Veremos, no nal da Seção 3 deste capítulo, que o cálculo de A k ca bastante simplicado se a matriz A tiver a propriedade de ser diagonalizável. A leitura do restante desta seção é facultativa, pois não utilizaremos as informações aí contidas, exceto na Proposição 9.4.4, que também não será empregada em nenhuma outra parte do texto.
2. POLINÔMIO CARACTERÍSTICO 243 Um outro polinômio que desempenha papel fundamental é o polinômio mínimo de uma matriz A, ou de um operador T. Consideremos o conjunto I(A) = {p(t) R[t]; p(a) = 0}. Este conjunto possui um polinômio não identicamente nulo, pois pelo Teorema de Cayley-Hamilton, p A (t) I(A). Denimos o polinômio mínimo de A como o polinômio m A (t) mônico de menor grau em I(A). É fácil vericar (veja Problema 2.2) que se A é uma matriz quadrada, p R[t] tal que p(a) = 0 e P é uma matriz invertível de mesma ordem que A, então p(a) = 0 se, e somente se, p(p 1 AP ) = 0. Portanto, I(A) = I(P 1 AP ), mostrando que o conjunto I(T ) está bem denido para um operador T. Deduzimos daí que faz sentido falar do polinômio mínimo m T (t) de um operador T. O próximo resultado nos dará algumas informações importantes sobre polinômios mínimos. Proposição 9.2.5. Seja T : V V um operador linear sobre um espaço V de dimensão nita. Temos que: (i) Se p 1 (t), p 2 (t) I(T ), então p 1 (t) + p 2 (t) I(T ); (ii) Se p(t) I(T ) e q(t) R[t], então p(t)q(t) I(T ); (iii) Se p(t) I(T ), então m T (t) divide p(t). Demonstração As duas primeiras propriedades são de vericação imediata. Vamos provar (iii). Seja p(t) I(t). Pelo algoritmo da divisão euclidiana (cf. [4]), temos que existem polinômios h(t), r(t) R[t], com r(t) = 0, ou grau de r(t) menor do que o grau de m T (t) tais que p(t ) = m T (t)h(t) + r(t). Da igualdade r(t) = p(t) m T (t)h(t) = 0, tem-se que r(a) = 0 e r(t) I(T ). Como m T (t) é um polinômio de grau mínimo que se anula em A, precisamos ter r(t) = 0, o que mostra que m T (t) divide p(t).
244 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Note que o item (iii) prova a unicidade de m T (t). De fato, se m T (t) e m T (t) são dois polinômios mínimos, então cada um divide o outro, e como eles são mônicos, eles são necessariamente iguais. A propriedade (iii) também nos diz que o polinômio mínimo de um operador divide seu polinômio característico. Problemas 2.1* Determine os autovalores e os autovetores do operador cuja matriz na base canônica é dada por [ ] 2 3 A =. 1 4 2.2* Prove que uma matriz quadrada A é invertível se, e somente se, c = 0 não é raiz do polinômio característico de A. 2.3 Sejam A e P duas matrizes quadradas de mesma ordem, com P invertível. Mostre que se p(t) R[t], então p(p 1 AP ) = P 1 p(a)p. 2.4 Prove que matrizes semelhantes têm os mesmos polinômios característicos. 2.5 Seja A uma matriz quadrada de ordem n semelhante a uma matriz triangular inferior B. Mostre que os autovalores de A são exatamente os elementos da diagonal principal de B. 3 Diagonalização de Operadores Dado um operador linear T : V V, nosso objetivo é obter, se possível, uma base α de V na qual a matriz [T ] α α seja uma matriz diagonal. O resultado a seguir caracterizará tais bases associadas ao operador que se quer diagonalizar. Teorema 9.3.1. Um operador linear T : V V admite uma base β em relação à qual a matriz [T ] β β é diagonal se, e somente se, essa base β for formada por autovetores de T.
3. DIAGONALIZAÇÃO DE OPERADORES 245 Demonstração Suponhamos que β = {v 1, v 2,..., v n } é uma base de V tal que [T ] β β é diagonal, digamos a 1 0 0 [T ] β β = 0 a 2 0....... 0 0 a n Como, para cada 1 j n, T (v j ) = 0v 1 + + 0v j 1 + a j v j + 0v j+1 + + 0v n = a j v j, segue que a j é um autovalor de T e v j é um autovetor de T associado a a j. Portanto, β é uma base formada de autovetores de T. Suponhamos agora que β = {u 1, u 2,..., u n } é uma base de V formada por autovetores de T. Existem, então, números reais b 1, b 2,..., b n tais que, para cada 1 j n, T (u j ) = b j u j. Observamos que os b j 's não são necessariamente todos distintos. Pela denição de [T ] β β, temos b 1 0 0 [T ] β β = 0 b 2 0..., 0 0 b n ou seja, [T ] β β é uma matriz diagonal. Na demonstração do Teorema 9.3.1 ca claro que, se um operador linear T tem uma representação por uma mariz diagonal [T ] β β, então as entradas da diagonal principal de [T ] β β são dadas pelos autovalores de T. Mais ainda, a ordem em que os autovalores aparecem na diagonal principal da matriz é a mesma em que seus respectivos autovetores são dados na base β. Se T é um operador linear em um espaço V de dimensão n, o Teorema 9.3.1 nos diz que T é diagonalizável se, e somente se, T tem n autovetores linearmente independentes. Em particular, pelo Corolário 9.1.2, se T tem n autovalores distintos, então T é diagonalizável.
246 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Vejamos a seguir alguns exemplos. Exemplo 1. O operador linear T do Exemplo 1 da Seção 1 é diagonalizável. Uma representação diagonal para T é dada por [ ] [T ] α 2 0 α =, 0 3 onde α = {(1, 2), (1, 1)}. Uma outra representação diagonal para T é dada por [ ] [T ] β β = 3 0, 0 2 sendo β = {(1, 1), (1, 2)}. Exemplo 2. O operador linear T do Exemplo 4 da Seção 2 é diagonalizável. Uma representação diagonal para T é dada por 1 0 0 0 [T ] α 0 1 0 0 α 0 0 1 0, 0 0 0 1 com {[ ] [ ] [ ] [ ]} 1 0 0 1 0 0 0 1 α =,,,. 0 0 1 0 0 1 1 0 Exemplo 3. Consideremos o operador linear T : R 3 R 3 dado por T (x, y, z) = (x + y, y, z). O operador T não é diagonalizável, pois o autoespaço associado a seu único autovalor, k = 1, é dado por {(x, 0, z) ; x, z R}. Vimos na Seção 1 do Capítulo 6 que toda matriz A M(m, n) dene uma transformação linear T A : R n R m. Em particular, se A é uma matriz quadrada de ordem n, então A dene um operador linear T A em R n. Dizemos que a matriz A é diagonalizável quando T A é diagonalizável. No caso de T A ser diagonalizável, pelo Teorema 9.3.1, existe uma base β de R n formada de autovetores de T A. Ou seja, existe uma representação diagonal D, a saber
3. DIAGONALIZAÇÃO DE OPERADORES 247 D = [T A ] β β, para o operador T A. canônica de R n, segue, do Teorema 6.4.2, que Como [T A ] α α = A, onde α denota a base D = P 1 A P, com P = [I R n] β α. Isto motiva a seguinte versão matricial do Teorema 9.3.1, cuja condição necessária acabamos de demonstrar. Teorema 9.3.2. Uma matriz A M(n) é diagonalizável se, e somente se, existe uma matriz P invertível de ordem n tal que P 1 A P é uma matriz diagonal. Demonstração Para provarmos a condição suciente, tomemos que β = {v 1, v 2,..., v n }, onde v j é o vetor j-ésima coluna de P. Seja α a base canônica de R n. Pelo Teorema 6.3.2, temos [T A ] β β = [I R n]α β [T A ] α α [I R n] β α. Equivalentemente, [T A ] β β = P 1 A P, já que [I R n] β α = P pela maneira como β foi construída. Como P 1 A P é uma matriz diagonal, segue-se que [T A ] β β é uma matriz diagonal. Portanto, T A é diagonalizável e, então, A também o é. No Teorema 9.3.2, a matriz P é chamada de matriz que diagonaliza A. Vejamos a seguir alguns exemplos. Exemplo 4. A matriz 1 0 2 A = 0 1 3 0 0 1 é diagonalizável. De fato, seja α a base canônica de R 3. Então t 1 0 2 P [TA ] α(t) = P A(t) = det 0 t 1 3 = 0 para t = 1 ou t = 1. 0 0 t + 1
248 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES O autoespaço associado ao autovalor t = 1 é o conjunto solução do sistema linear 0 0 2 x 0 0 0 3 y = 0, 0 0 2 z 0 ou seja, é o conjunto {(x, y, 0) ; x, y R}. autovalor t = 1 é o conjunto solução do sistema linear 2 0 2 x 0 0 2 3 y = 0, 0 0 0 z 0 Já o autoespaço associado ao ou seja, é o conjunto {( z, 3/2z, z) ; z R}. Tome β = {(1, 1, 0), (1, 0, 0), (1, 3/2, 1)}. Temos que β é uma base de R 3 formada de autovetores de T A. Assim, T A é diagonalizável e, portanto, A é diagonalizável. A matriz 1 1 1 P = 1 0 3/2 0 0 1 é uma matriz que diagonaliza A e a matriz 1 0 0 D = 0 1 0 0 0 1 é uma representação diagonal para T A. Exemplo 5. Consideremos a matriz 1 1 2 B = 0 1 3. 0 0 1 A matriz B não é diagonalizável, pois T B não é diagonalizável. Note que T B e T A têm os mesmos autovalores. Porém, o autoespaço de T B associado a
3. DIAGONALIZAÇÃO DE OPERADORES 249 t = 1 é dado por {(x, 0, 0) ; x R} e o autoespaço de T B associado a t = 1 é dado por {( 7/4z, 3/2z, z) ; z R}. Assim, não é possível obter uma base de R 3 formada por autovetores de T B. Terminamos esta seção, observando que o cálculo de potências de matrizes é uma tarefa de custo computacional muito elevado, pois é necessário calcular m 1 produtos de matrizes para calcular A m. Entretanto, se soubermos que A é uma matriz diagonalizável, o cálculo de A m ca bastante simplicado. De fato, se A M(n) e se P M(n) é invertível, então é fácil vericar que (P 1 AP ) m = P 1 A m P. Logo, se A é diagonalizável e se P 1 AP = D é uma matriz diagonal, temos que D m = P 1 A m P, ou equivalentemente, A m = P D m P 1, que é calculável (cf. Problema 2.15, Capítulo 1) com apenas duas multiplicações de matrizes. Exemplo 6. Determinemos a matriz A 50, sendo [ ] 1 2 A =. 0 1 Veriquemos que A é diagonalizável e encontremos uma matriz P que diagonaliza A. Ora, det(t I A) = det [ t 1 2 0 t + 1 ] = (t 1)(t + 1), que se anula para t = 1 e para t = 1. Logo, estes são os autovalores de A. Resolvendo as equações matriciais [ ] [ ] [ ] 0 2 x 0 = 0 2 y 0
250 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES e [ ] [ ] [ ] 2 2 x 0 =, 0 0 y 0 obtemos os autoespaços associados aos autovalores 1 e 1, respectivamente. Tomemos, então, v 1 = (1, 0) um autovetor para t = 1 e v 2 = (1, 1) um autovetor para t = 1. Temos, D = P 1 A P, com D = [ 1 0 0 1 ] e P = [ 1 1 0 1 ]. Como D 50 = I 2, segue-se que A 50 = P 1 D 50 P = P 1 I 2 P = I 2. Problemas 3.1* Seja T : R 3 R 3 o operador linear dado por 1 2 0 [T ] α α = 1 1 0, 1 0 2 onde α = {(1, 1, 1), (0, 1, 0), (0, 0, 1)} é uma base de R 3. Verique que T é diagonalizável. 3.2 Seja A M(n). Verdadeiro ou falso? Justique a resposta. (a) Se A é diagonalizável e A é invertível, então A 1 é diagonalizável. (b) A e A t têm os mesmos autovalores. (c) A e A t têm os mesmos autovetores. (d) Se A é diagonalizável, então existe uma única matriz P tal que P 1 AP é uma matriz diagonal.
4. O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS 251 3.3 Determine nos itens abaixo se A é diagonalizável. Em caso armativo, encontre uma matriz P que diagonaliza A e determine P 1 AP. 4 0 0 [ ] 1 2 2 2 4 (a) A = 1 4 0. (b) A =. (c) A = 0 1 0. 3 1 0 1 4 0 2 3 3.4 Para quais valores de c as matrizes abaixo são diagonalizáveis? [ ] 1 1 (a) A =. 0 c [ ] 1 c (b) A =. 0 1 1 2 8 3.5 Seja A = 0 1 0. Calcule: 0 0 1 (a) A 100 ; (b) A 1321 ; (c) A 100. 3.6* Seja T : R 2 R 2 o operador linear dado por T (x, y) = (2x 2y, x + 3y). Determine uma base de R 2 em relação à qual a matriz do operador T é diagonal. 3.7 Seja T : V V um operador simétrico. Sejam c 1 e c 2 autovalores distintos de T. Se v 1 e v 2 são autovetores associados a c 1 e c 2 respectivamente, prove que v 1 e v 2 são ortogonais. 4 O Teorema Espectral para Operadores Simétricos Vimos na seção anterior que se T : V V é um operador diagonalizável, então existe uma base de V formada por autovetores de T. Nesta seção, veremos que se V é um espaço com produto interno e se T : V V é um operador simétrico, então existe uma base ortonormal de V formada por autovetores de T. Em particular, todo operador simétrico é
252 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES diagonalizável. Este resultado é conhecido como Teorema Espectral e é um dos resultados mais importantes da Álgebra Linear. Antes de prosseguir, faremos algumas observações importantes sobre a possibilidade de estendermos a maioria das noções e resultados estabelecidos sobre o corpo R ao corpo C. Em particular, todos os resultados que foram provados até o momento que envolvem sistemas lineares e determinantes são válidos sobre um corpo arbitrário K. Utilizamos K = R, apenas para que o leitor trabalhasse em um contexto concreto que lhe é familiar. Neste ponto precisaremos considerar K = C também. Do mesmo modo que denimos transformações lineares entre espaços vetoriais sobre o corpo R, poderíamos tê-lo feito sobre um corpo qualquer K. Neste contexto mais geral, faz todo o sentido deninir autovalores e autovetores, para os quais podemos utilizar um análogo do Teorema 9.2.1. Continua valendo também neste contexto o Teorema de Cayley-Hamilton. Dado um operador linear T : R n R n, podemos estendê-lo a um operador T C : C n C n do seguinte modo: se z = x + iy C n, onde x, y R n, dene-se T C (z) = T (x) + it (y). polinômios característicos de T e de T C coincidem, mas T C pode possuir mais autovalores e autovetores do que T. Proposição 9.4.1. Seja V um espaço vetorial de dimensão nita sobre R. Se T : V V é um operador simétrico e α uma base de V, então, todas as raízes do polinômio característico P [T ] α em C são números reais. Demonstração Seja A = [T ] α α. O Teorema Fundamental da Álgebra (cf. [4]) garante que o polinômio característico P A tem pelo menos uma raiz complexa; digamos λ. Logo, o sistema (t I n A)Z = 0 possui uma solução [ ] t, não trivial Z = z 1... z n com coecientes complexos. Sendo A uma matriz simétrica real, temos que (veja Problema 4.1) Os (AZ) t Z = Z t AZ, e como AZ = λz, temos, da igualdade acima, que λ Z t Z = (λz) t Z = (AZ) t Z = Z t AZ = Z t λz = λz t Z.
4. O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS 253 Como Z t Z = z 1 z 1 + + z n z n = z 1 2 + + z n 2 0. segue que λ = λ, logo λ R. Falta ainda mostrar que associado a λ existe um autovetor em R n. Escrevamos Z = X +iy, onde X e Y têm entradas reais, com X 0 ou Y 0 (recorde que Z 0). Da equação AZ = λz, temos que AX +iay = λx +iλy, o que implica que AX = λx e AY = λy. Logo, temos que X ou Y é um autovetor associado a λ com entradas reais. Teorema 9.4.2. (Teorema Espectral) Seja V um espaço vetorial de dimensão nita sobre R. Se T : V V é um operador simétrico, então existe uma base ortonormal β de V tal que [T ] β β é diagonal. Demonstração Faremos a prova por indução sobre a dimensão de V. Denotaremos a matriz [T ] α α por A. Se dim V = 1, o resultado é óbvio. Suponhamos que n 1 e que o resultado é válido para espaços de dimensão n. Seja V um espaço vetorial tal que dim V = n + 1. Seja α uma base de V e seja c uma raiz complexa do polinômio P A. Pela Proposição 9.4.1, c R. Portanto, c é um autovalor de T. Seja v um autovetor unitário de T associado a c. Consideremos o subespaço W = {w V ; w, v = 0}. Note que W = G(v). Armamos que T (W ) W. De fato, seja w W. Como T é um operador simétrico, temos que T (w), v = w, T (v) = w, cv = c w, v = c 0 = 0, donde T (w) W. Assim, podemos considerar o operador restrição S = T W L(W, W ), que é também um operador simétrico. Além disso, como dim G(u) = 1, segue do Teorema 7.3.6 que dim W = n. Assim, podemos aplicar a hipótese
254 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES de indução ao operador S para garantir a existência de uma base ortonormal {v 1, v 2,..., v n } de W formada por autovetores de S (logo de T ). Consequentemente, β = {v, v 1,..., v n } é uma base ortonormal de V formada por autovetores de T. Daí, [T ] β β é diagonal. O próximo resultado é a versão matricial do Teorema 9.4.2. Teorema 9.4.3. (Teorema Espectral, versão matricial) Se A M R (n) é simétrica, então existe uma matriz ortogonal P M R (n) tal que P 1 AP (= P t AP ) é diagonal. Demonstração Seja A M R (n) uma matriz simétrica. Então o operador T A L(R n, R n ) também é simétrico. Pelo Teorema 9.4.2, existe uma base ortonormal β de R n tal que [T A ] β β = D é diagonal. Se α é a base canônica de R n, então sendo P = [I R n] β α. D = [T A ] β β = [I R n]α β [T A ] α α [I R n] β α = P 1 A P, Como α e β são bases ortonormais, segue do Teorema 7.4.7 que P é uma matriz ortogonal, ou seja, P 1 = P t. Quando existe uma matriz ortogonal P M R (n) tal que P 1 AP é diagonal, dizemos que A é ortogonalmente diagonalizável e que P diagonaliza A ortogonalmente. A seguir daremos uma propriedade que relaciona as raízes do polinômio mínimo e do polinômio característico de uma matriz (ou de um operador). Proposição 9.4.4 Se T é um operador sobre um espaço vetorial de dimensão nita, então as raízes do polinômio característico p T (t) e as do polinômio mínimo m T (t) são as mesmas (podendo ter multiplicidades distintas). Demonstração É óbvio que as raízes do polinômio mínimo são raízes do polinômio característico, pois o polinômio mínimo divide o polinômio característico (cf. Proposição 9.2.5). Reciprocamente, vamos provar que toda raiz de p T (t) em C é raiz de qualquer polinômio p(t) tal que p(t ) = 0. De fato, seja t 0 uma raiz de p T (t), logo existe v C n \ {0} tal que T v = t 0 v. Mas, 0 = p(t )v = p(t 0 )v.
5. RECONHECIMENTO DE CÔNICAS 255 Como v 0, segue que p(t 0 ) = 0. Problemas 4.1 Seja A = [a ij ] M C (m, n). Dene-se A = [a ij ]. Mostre que (a) λa = λ A, para todo λ C. (b) AB = A B, para todo B M C (n, p). 4.2 Prove a recíproca do Teorema Espectral. Mais precisamente, prove que se V é um espaço sobre R com produto interno e se β é uma base ortonormal de V formada por autovetores do operador T : V V, então o operador T é simétrico. 4.3 Prove a recíproca da versão matricial do Teorema Espectral. Mais precisamente, prove que se A M R (n) é uma matriz ortogonalmente diagonalizável, então a matriz A é simétrica. 5 Reconhecimento de Cônicas Nesta seção mostraremos como por meio do teorema Espectral é possível fazer o reconhecimento de cônicas. Como nosso objetivo aqui não é o de introduzir cônicas, indicamos o livro [8] como referência para o leitor. Consideremos a equação geral do segundo grau nas duas variáveis x e y: ax 2 + bxy + cy 2 + dx + ey + f = 0, (1) onde a, b, c, d, e e f são números reais dados. É possível mostrar que a equação acima representa uma cônica ou uma reta ou duas retas ou um ponto ou nenhum lugar geométrico em R 2. Como exemplo, vejamos que lugar geométrico em R 2 cada uma das equações abaixo representa. 1. x 2 + y 2 + 1 = 0; 2. 2x 2 + 4y 2 = 0; 3. x 2 9 = 0;
256 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES 4. 4x 2 + 9y 2 8x 36y + 4 = 0; 5. y 2 + 6y 2 8x + 1 = 0. 1. Esta equação representa nenhum lugar geométrico em R 2, pois {(x, y) R 2 ; x 2 + y 2 + 1 = 0} = {(x, y) R 2 : x 2 + y 2 = 1} = ; 2. Esta equação representa a origem do plano cartesiano, pois 2x 2 + 4y 2 = 0 equivale à equação x 2 = 2y 2, que é vericada somente para x = y = 0; 3. Esta equação representa duas retas em R 2. Mais precisamente, as retas x = 3 e x = 3; 4. Esta equação representa uma elipse. De fato, seja (x, y) R 2 tal que 4x 2 + 9y 2 8x 36y + 4 = 0. Note que esta equação é equivalente à equação 4(x 2 2x) + 9(y 2 4y) = 4. Completando os quadrados da equação anterior, obtemos 4(x 1) 2 + 9(y 2) 2 = 36, ou seja, (x 1) 2 9 + (y 2)2 4 = 1, que é a equação reduzida de uma elipse de centro (1,2) e eixos maior e menor medindo 6 e 4, respectivamente (Figura 21). Figura 21 5. Esta equação representa uma parábola. De fato, seja (x, y) R 2 tal que y 2 + 6y 8x + 1 = 0. Note que esta equação é equivalente à equação (y 2 + 6y) = 8x 1.
5. RECONHECIMENTO DE CÔNICAS 257 Completando o quadrado da equação acima, obtemos (y + 3) 2 = 8(x + 1), que é a equação reduzida de uma parábola de vértice ( 1, 3) e parâmetro 2 (Figura 22).
258 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Figura 22 Observemos que em todos os exemplos anteriores o termo xy da equação (2), chamado termo misto da equação, não aparece. A técnica usualmente utilizada nesse caso é a técnica de completar quadrados. Porém, em equações em que o termo misto aparece, precisamos de uma álgebra mais avançada para reduzirmos a equação dada. Por exemplo, como determinar o lugar geométrico em R 2 representado pela equação 2x 2 + 2xy + 2y 2 + 7 2x + 5 2y + 10 = 0? (2) Para respondermos esta pergunta, vamos usar o Teorema Espectral. Primeiramente, note que a equação (2) equivale a equação matricial [ ] [ ] 2 1 x [x y] + [7 2 5 [ ] x 2] + [10] = [0]. (3) 1 2 y y [ ] 2 1 Chame A =. Como A é uma matriz simétrica, pelo Teorema 1 2 Espectral, A é ortogonalmente diagonalizável. De( fato, os ) autovalores de 1 A são t 1 = 3 e t 2 = 1. O vetor unitário v 1 = 1 2, 2 e o vetor unitário v 2 = 1 1 ( ) 2, 2 são autovetores de t 1 e t 2, respectivamente. Assim, β = {v 1, v 2 } é uma base ortonormal de R 2 formada por autovetores de T A.
5. RECONHECIMENTO DE CÔNICAS 259 Seja P = [I R 2] β α, onde α é a base canônica de R2. Chame D = P 1 A P. Temos P = [ 1 2 1 2 1 2 1 2 ] [ ] 3 0 e D =. 0 1 Como A = P D P t, já que P 1 = P t, segue de (3) que [ ] [ ] 3 0 [x y]p P t x + [7 2 5 [ ] x 2] + [10] = [0]. (4) 0 1 y y [ ] Observemos que o produto matricial P t x é a matriz das coordenadas de y um vetor v = (x, y) R 2 em relação à base β, pois [ ] P t x = [I R 2] α β[v] α. y Chamemos [v] β de [ x y [ ] [ [x y 3 0 ] 0 1 ] x y. Substituindo em (4), obtemos ] + [7 2 5 2] [ 1 2 1 2 1 2 1 2 ] [ x y ] + [10] = [0] ou seja, 3x 2 + y 2 + 12x 2y + 10 = 0. (5) Com a mudança da base canônica α para a base β, reduzimos a equação (2) à equação (5), que não apresenta o termo misto x y. Agora, vamos reduzir (5) completando quadrados. Ora, 3x 2 + y 2 + 12x 2y + 10 = 0 equivale à equação ou seja, 3(x + 2) 2 + (y 1) 2 = 3, (x + 2) 2 + (y 1) 2 = 1. 3
260 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Portanto, a equação (2) representa uma elipse. Para esboçarmos o gráco dessa elipse, precisamos considerar as novas coordenadas x e y. Assim, nesse sistema de coordenadas, a elipse tem centro ( 2, 1), semi-eixo menor medindo 1 e semi-eixo maior medindo 3, sendo este semi-eixo paralelo ao eixo y (Figura 23). Figura 23 Generalizaremos este procedimento a seguir. Seja dada a equação ax 2 + bxy + cy 2 + dx + ey + f = 0. Esta é equivalente à equação matricial [ ] [ ] [ ] a b/2 x x [x y] + [d e] + [f] = [0]. (6) b/2 c y y [ ] a b/2 Seja A =. Como A é uma matriz simétrica, pelo Teorema Espectral, existe uma base ortonormal β de R 2 formada de autovetores de T A. b/2 c Assim, se t 1 e t 2 são autovalores de T A (pode ser que t 1 = t 2 ), existem autovetores v 1 e v 2 associados a t 1 e t 2, respectivamente, tais que β = {v 1, v 2 } é
5. RECONHECIMENTO DE CÔNICAS 261 uma base ortonormal de R 2. A matriz P = [I R 2] β α, onde α é a base canônica de R 2, diagonaliza A ortogonalmente, já que é a matriz diagonal D = P 1 A P [ ] k 1 0 com P 1 = P t. Portanto, 0 k 2 A = P D P t. (7) Substituindo (7) em (6), obtemos a equação matricial [ ]) [ ] ([x y]p ) D (P t x x + [d e] + [f] = [0]. (8) y y [ ] O produto matricial P t x, que aparece na equação (8), é a matriz das y coordenadas de um vetor v = (x, y) R 2 em relação à base β, pois [ ] P t x = [I R 2] α β [v] α. y [ ] Chamemos [v] β de x y [x y ] D. Substituindo em (8), obtemos [ x y uma vez que [ ] + [d e] P x y [ x y ] ] [ ] = P t x implica que [ ]) t [ ] t [x y ] = (P t x x = (P t ) t = [x y]p y y e [ P x y y + [f] = [0] (9) ] [ ]) [ ] [ ] = P (P t x = (P P 1 x x ) =. y y y
262 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES Se v 1 = (x 1, y 1 ) e v v = (x 2, y 2 ), obtemos de (9) a equação [ ] [ ] [ ] [ ] [x y k 1 0 x x 1 x 2 x ] + [d e] + [f] = [0], 0 k 2 y y 1 y 2 y ou seja, obtemos a equação k 1 x 2 + k 2 y 2 + (dx 1 + ey 1 )x + (dx 2 + ey 2 )y + f = 0. (10) Como a equação (10) não apresenta o termo misto x y, podemos completar os quadrados, e assim determinar o lugar geométrico em R 2 dado por ax 2 + bxy + cy 2 + dx + ey + f = 0. Problemas 5.1* Que lugar geométrico em R 2 as equações abaixo representam? (a) x 2 4x 2y + 4 = 0. (b) 4x 2 3y 2 + 24xy 156 = 0. 5.2 Que lugar geométrico de R 2 as equações abaixo representam? Esboce o gráco, quando possível. (a) x 2 + y 2 2x 2y + 4 = 0. (b) 16x 2 + 9y 2 96x + 72y + 144 = 0. (c) 2x 2 + 2 2xy + y 2 12 = 0. (d) x 2 + 2xy + y 2 = 0. (e) 7x 2 8xy + y 2 17 5x + 11 5y + 41 = 0. (f) x 2 + xy + y 2 + 5 2x + 4 2y + 1 = 0. (g) 16x 2 24xy + 9y 2 15x 20y + 50 = 0. (h) 5x 2 + 4xy + 2y 2 12 = 0. (i) 2x 2 + 2 6xy + y 2 16 = 0.
Bibliograa [1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Universitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos, Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros, Coleção Matemática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios, Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra, 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear, 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear, 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300
10 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 10: Soluções e Respostas 263
264 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Capítulo 1 2.1* Temos [ ] [ ] 2 4 6 3 6 0 2A =, 3B = 8 2 0 3 6 0 [ ] 5 10 6 e 2A 3B =. 5 8 0 2.2 x = 10, y = 3 e z = 1. 2.3 [ ] 2 [ ] 1 5 4 3 (a). (b) 2. (c). 2 1 2 1 6 1 1 [ ] 5 (d) 1 1. (e). (f) 2 3 3 [ ] 3 4 1. 2.4* (a) Não. Porque para se determinar c 63, a matriz A deveria ter, no mínimo, 6 linhas. (b) Por denição, Assim, c 36 = c 36 = 5 a 3k b k6. k=1 5 (3 k)6 = k=1 5 (18 6k) = 0. 2.6* Se X é uma matriz que comuta com A, então X é uma matriz quadrada k=1 de ordem 2. Assim, vamos determinar as matrizes [ ] a b X = c d tais que AX = XA. Ora, [ a c ] [ ] [ ] b 1 0 1 0 = d 0 3 0 3 [ a c ] b, d
265 se, e somente se, [ a Portanto, c ] 3b = 3d X = [ a [ a c 3c ] b d ] b. 3d comuta com A se, e somente se, b = c = 0 e a e d são números reais quaisquer. [ ] x y 2.7 (b) M =, com x e y números reais quaisquer. 0 x 2.10* (a) 1 0 A t = 2 1. 3 4 (b) Seja A = (a ij ) n n uma matriz triangular superior e seja A t = [b ij ] n n a transposta de A. Por denição, b ij = a ji, para todo 1 i, j n. Mas, se j > i, segue que a ji = 0, já que A é uma matriz triangular superior. Portanto, b ij = 0 sempre que i < j, ou seja, A t é uma matriz triangular inferior. (c) Sejam A = [a ij ] m n e B = [b ij ] m n. Seja k R. Então, (A + B) t = [a ji + b ji ] n m = [a ji ] n m + [b ji ] n m = A t + B t e (ka) t = [ka ji ] n m = k[a ji ] n m = ka t. (d) Sejam A = [a ij ] m n e B = [b ij ] n p. Então, AB = [c ij ] m p, com c ij = n a ik b kj, k=1
266 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS para todo 1 i m e 1 j p, e B t A t = [d ij ] p m, com d ij = n b ki a jk, k=1 para todo 1 i p e 1 j m. Como (AB) t = [e ij ] p m onde, para todo 1 i p e 1 j m, e ij = c ji, segue que e ij = n a jk b ki = n b ki a jk = d ij, k=1 k=1 para todo 1 i p e 1 j m. Portanto, (AB) t = B t A t. (e) Seja A = [a ij ] m n. Então A t = [a ji ] n m, portanto, (A t ) t = [a ij ] n m = A. 2.11* (a) Pelo Problema 2.10, itens (c) e (e), temos (B +B t ) t = B t +(B t ) t = B t + B = B + B t, onde na última igualdade usamos o fato que a adição de matrizes é comutativa. Agora pelo itens (d) e (e) do problema 2.10, temos (B B t ) t = (B t ) t B t = B B t. (b) Pelo Problema 2.10, item (c), segue que (B B t ) t = B t + ( B t ) t = B t B = (B B t ). (c) Segue imediatamente de (a) e (b). (d) Seja B uma matriz quadrada que se escreve com B = B 1 + B 2, onde B 1 é simétrica e B 2 é antissimétrica. Então, B1 t = B 1 e B2 t = B 2. Como B t = B1 t + B2 t, segue que Bt = B 1 B 2. Assim, B = B 1 + B 2 e B t = B 1 B 2 implicam que B 1 = B + Bt 2 e B 2 = B Bt. 2 2.16 (a) X = C 1 B. (b) X = (A 1 ) t. (c) X = B 1 A 1 C.
267 Capítulo 2 1.1* (a) [ ] 2 1 1 3 e 1 : L 1 L 2 [ ] 1 3 2 1 [ ] [ ] 1 3 1 3 0 7 e 4 : L 2 1 7 L 2 0 1 e 2 : L 1 L 1 e 5 : L 1 L 1 +3L 2 [ ] 1 3 2 1 [ ] 1 0. 0 1 e 3 : L 2 L 2 2L 1 (b) Sim. Porque a forma escalonada de A é a matriz identidade de ordem 2. (c) Temos A 1 = E 5 E 4 E 3 E 2 E 1, onde E 1 = e 1 (I), E 2 = e 2 (I), E 3 = e 3 (I), E 4 = e 4 (I) e E 5 = e 5 (I). Assim, [ ] [ ] [ ] [ ] [ ] A 1 1 3 1 0 1 0 1 0 0 1 =. 0 1 0 1/7 2 1 0 1 1 0 Computando o produto acima, obtemos [ ] A 1 3/7 1/7 =. 1/7 2/7 [ ] 1 1 0 1.2 (a) A 1 3 7 =. (b) B 1 = 0 1 1. 5 12 1 1 3 1 1 0 2 (c) C 1 1 2 2 0 = 0 1 0 1. 1.4 (a) 1 0 1 2 1 0 7/2 5/2 0 1 3 2. (b) 0 0 0 0 1 2 0 0 4/3 0 0 1 0 0. 0 0 0 1 1/6
268 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS (c) 1 0 4/11 13/11 0 1 5/11 3/11 0 0 0 0. 0 0 0 0 1.8* (a) Sejam A e B matrizes quadradas de mesma ordem n tais que AB = I. Suponhamos que A não é invertível. Então, pelo Corolário 2.1.7, A não tem posto n, logo A é equivalente por linhas a uma matriz com uma linha nula, ou seja, existem matrizes elementares E 1,..., E s tais que E s... E 2 E 1 A tem uma linha nula. Portanto, temos E s E 2 E 1 AB = C, onde C também é uma matriz com uma linha nula (cf. Problema 2.13(a), Capítulo 1). Dessa forma, AB = (E 1 1... E 1 1 )C e, portanto, também AB é uma matriz com uma linha nula. Mas isso contradiz o fato de que AB = I. Portanto, A é invertível. Consequentemente, A 1 = A 1 I = A 1 (AB) = (A 1 A)B = IB = B. Assim AB = I se, e somente se, BA = I, pois se AB = I, pelo o que vimos acima B = A 1 e, então, BA = A 1 A = I. E reciprocamente, se BA = I, pelo o que vimos acima A = B 1 e, então, AB = B 1 B = I. (b) Se A e B são invertíveis, temos da Proposição 1.2.4(b) que AB é invertível. Reciprocamente, se AB é invertível, então existe C tal (AB)C = C(AB) = I. Logo, como A(BC) = (AB)C = I, pelo item (a), temos que A é invertível. Por outro lado, como (CA)B = C(AB) = I, pelo item (a), tem-se que B é invertível. 2.1* Como os termos independentes do sistema são todos iguais a zero, estes não se alteram por transformações elementares. Por isso, para resolvermos um sistema linear homogêneo pelo método de escalonamento, basta considerarmos a matriz dos coecientes. Ora, 0 1 3 2 2 3 2 1 2 1 4 3 2 3 2 1 2 1 4 3 L 2 L 2 L 1 L 1 L 3 0 1 3 2 L 4 L 4 + 2L 1 4 3 5 4 4 3 5 4
2 3 2 1 2 0 7 5 0 2 6 4 0 2 6 4 L 1 1/2L 2 0 1 3 2 L 1 L 1 L 4 0 1 3 2 L 2 L 2 + 2L 3 0 3 9 6 0 3 9 6 L 4 L 4 3L 3 1 0 7/2 5/2 1 0 7/2 5/2 0 0 0 0 0 1 3 2 0 1 3 2 L 2 L 3 0 0 0 0, 0 0 0 0 0 0 0 0 269 donde concluímos que x = 7/2z 5/2t e que y = 3z + 2t. Fazendo z = a e t = b, onde a e b R, obtemos que o conjunto solução do sistema dado é 2.2* Note que S = {( 7 2 a 5 b, 3a + 2b, a, b) ; a, b R}. 2 1 2 3 m 1 2 3 m 2 6 11 n L 2 L 2 2L 1 0 2 5 n 2m 1 2 7 p L 3 L 3 L 1 0 4 10 p m 1 2 3 m 0 2 5 n 2m, L 3 L 3 + 2L 2 0 0 0 p + 2n 5m o que implica que o sistema dado é possível se, e somente se, p+2n 5m = 0. Assim, por exemplo, para m = 1, n = 2 e p = 1 o sistema tem solução. Note que se p + 2n 5m = 0 o sistema terá, de fato, mais de uma solução. Em outras palavras, o sistema não pode ter solução única. 2.3 2.4 [ ] 1 0 1 X =. 3 2 1 1 0. 1
270 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 2.5 (a) Sejam S 1 e S 2 os conjuntos soluções de AX = B 1 e AX = B 2, respectivamente. Então S 1 = {(1/2 + 7/8t, 1/2 + 1/4t, 1/2 11/8t) t R} e S 2 = {(1/4 + 7/8t, 1/4t, 3/4 11/8t) ; t R}. (b) {(5/4 + 7/8t, 3/2 + 1/4t, 3/4 11/8t) ; t R}. 2.8 a = 2, b = 1, c = 1. 2.9 (a) (i) k 3; {(3k + 6, 2k 4, 1)}. (ii) Não existe k R. (iii) k = 3; {(5 10z, 3 + 7z, z) z R}. (b) (i) k 1 e k 2; {(1/(k + 2), 1/(k + 2), 1/(k + 2) )}. (ii) k = 2. (iii) k = 1; {(1 y z, y, z) y, z R}. (c) (i) k 1 e k 1; {(0, 0, 0)}. (ii) Não existe k R. (iii) k = ±1; {( z, 0, z) : z R} para k = 1 e {(z, 0, z) : z R} para k = 1. 2.10 5a + 2b + c = 0. 2.11 (a) a = 3. (b) a = 2. (c) a 3 e a 2.
271 Capítulo 3 1.1* Seja W um subconjunto não vazio de um espaço vetorial V. Queremos mostrar que W é um subespaço vetorial se, e somente se, au + bv W para quaisquer a, b R e para quaisquer u, v W. ( ) Como W é um espaço vetorial, temos au, bv W. Logo a soma au + bv é um elemento de W. ( ) Temos que tanto a adição como a multiplicação por escalar denidas em V quando restritas a W são fechadas, ou seja, se u, v W e a R então u + v = 1u + 1v W e au = au + 0v W. Como a adição e a multiplicação por escalar satisfazem as condições (ii), (iii), (vii), (viii), (ix) e (x) para quaisquer a, b R e para quaisquer u, v V, elas continuam satisfazendo estas propriedades para quaisquer a, b R e para quaisquer u, v W. Resta só vericar as condições (iv) e (v). Seja w W. Então temos o = 0w + 0w W e w = ( 1)w + 0w W. 1.2 (a) É. (b) Não é. Note que (0, 0) / W. (c) Não é. Temos (1, 1) W, mas 2(1, 1) / W. (d) É. 1.3 (a) É. (b) Não é. Note que (1, 0, 0) W, mas 1(1, 0, 0) / W. (c), (d), (e) É. 1.4 (a), (b), (c) É. (d) Não é. Temos I 3 W, mas 2I 3 / W. (e) Não é. A matriz nula não pertence a W. 1.5 (a) Não é. Temos p(x) = 1 + x + x 2 W, mas 1 p(x) / W. 2 (b), (c) É. (d) Não é. Temos p(x) = x 2 W, mas 1p(x) / W. 1.6 (a) V W = W e V + W = V. (b) V W = {[a ij ] 2 2 ; a 11 = a 12 = a 21 = a 22 }; V + W = {[a ij ] 2 2 ; a 11 = a 12 + a 21 + a 22 }. (c) V W = {(0, 0, 0)} e V + W = R 3. (d) V W = {(0, 0, 0, 0)} e V + W = R 4. (e) V W = {(0, 0, 0)} e V + W = {(x, x, y) ; x, y R}. As somas dadas em (c) e (d) são somas diretas.
272 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 1.11* Queremos determinar a, b, c R de modo que o vetor w = (a, b, c) seja combinação linear de u = (2, 6, 4) e v = (2, 1, 1). Para w ser uma combinação linear de u e v devem existir dois números reais x e y tais que (a, b, c) = xu + yv = (2x + 2y, 6x y, 4x + y). Equivalentemente, (x, y) deve ser uma solução do sistema linear 2x + 2y = a 6x y = b 4x + y = c. Somando as três equações, obtemos 2y = a+b+c e somando as duas últimas, temos b + c = 2x. Assim as coordenadas a, b, c devem satisfazer a equação a = 3b + 5c. 1.12* (a) Dado α = {( 1, 3, 1), (1, 2, 4)}, o espaço gerado por α, G(α), é por denição o conjunto de todas as combinações lineares de ( 1, 3, 1) e (1, 2, 4). Assim G(α) = {a( 1, 3, 1) + b(1, 2, 4) ; a, b R} = {( a + b, 3a 2b, a + 4b) ; a, b R}. Geometricamente, G(α) é um plano que passa pela origem. Se (x, y, z) R 3 é um elemento de G(α), então x = a + b, y = 3a 2b, z = a + 4b, (1) onde a, b R. As equações em (1) são as equações paramétricas de G(α). (b) O vetor (5, k, 11) G(α), se 5 = a + b k = 3a 2b 11 = a + 4b,
273 para certos a e b em R. Resolvendo o sistema a + b = 5 a + 4b = 11, obtemos a = a 5 e b = 16 5. Portanto, k = 3a 2b = 59 5. 1.13 (a) {(2, 1, 0), ( 3, 0, 1)}. (b) {(1, 1, 0, 1), (0, 0, 1, 0)}. (c) {1 + x 2, x 1 2 x2 }. (d) {[ ] [ ]} 1 0 0 0,. 1 0 1 1 1.15 (a), (c) e (d). 1.16 (a) 1p 1 (x) 2p 2 (x) + 2p 3 (x). (b) 3p 1 (x) + 0p 2 (x) 2p 3 (x). (c) 2p 1 (x) 1p 2 (x) + 0p 3 (x). 2.1* Sejam f(x) = x 3 + 4x 2 2x + 3, g(x) = x 3 + 6x 2 x + 4 e h(x) = 2x 3 + 8x 2 8x + 7 e sejam a, b, c R tais que af(x) + bg(x) + ch(x) = 0. Temos a + b + 2c = 0 4a + 6b + 8c = 0 2a + b + 8c = 0 3a + 4b + 7c = 0. Resolvendo o sitema, obtemos a = b = c = 0, Assim, os três polinômios são linearmente independentes. 2.2 (a) e (b) independentes, (c) dependente. 2.3 (a), (b) e (c) independentes. 2.4 a = 1 ou a = 2. 3.1* Seja V um espaço vetorial de dimensão n. Queremos mostrar que qualquer conjunto linearmente independente com n vetores forma uma base de
274 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS V. Sejam v 1, v 2,..., v n vetores linearmente independentes. Se estes vetores não geram V, então existe um vetor w V que não pode ser escrito como combinação linear deles. Sejam α 1,..., α n, β R tais que Observemos que se β = 0, então α i α 1 v 1 + + α n v n + βw = 0. = 0 para todo i = 1,..., n, pois os vetores v 1, v 2,..., v n são linearmente independentes. Se β 0, então 1 β (α 1v 1 + + α n v n ) = w, o que contradiz a escolha de w. Assim, β = α 1 = = α n = 0. Como temos que o conjunto com n + 1 vetores formado por v 1, v 2,..., v n, w é linearmente independente, então a dimensão de V é pelo menos n + 1. Absurdo. Agora vamos provar que todo conjunto formado por n geradores não nulos é linearmente independente. Sejam v 1, v 2,..., v n vetores não nulos que geram o espaço V. Sabemos que sempre é possível extrair dentre eles um subconjunto linearmente independente, digamos v 1,..., v k. Armamos que estes k vetores ainda geram V. De fato, como v 1,..., v k, v k+1 é linearmente dependente, devemos ter que α 1 v 1 + + α k v k + βv k+1 = 0, onde os escalares não são todos nulos. Mais ainda, note que β 0. Assim, v k+1 pode ser escrito como uma combinação linear dos vetores v 1,..., v k. Analogamente, mostramos que cada v k+j, com 1 j n k, também pode ser escrito como uma combinação linear dos vetores v 1,..., v k. Desta forma, pela Proposição 3.1.7, concluímos a prova da armação. Portanto, os vetores v 1,..., v k formam uma base de V. Como dim V = n, segue que k = n, ou seja, o conjunto original já era linearmente independente. 3.2* Seja V o espaço das matrizes simétricas 2 2, ou seja, {[ ] } a b V = a, b, c R. b c
275 Vejamos que o conjunto β é uma base de V, onde {[ ] [ ] [ ]} 1 0 0 1 0 0 β =,,. 0 0 1 0 0 1 De fato, β gera V, uma vez que todo elemento de V é da forma [ ] [ ] [ ] [ ] a b 1 0 0 1 0 0 = a + b + c. b c 0 0 1 0 0 1 Sejam a, b, c R tais que [ ] [ ] [ ] [ ] 1 0 0 1 0 0 0 0 a + b + c =. 0 0 1 0 0 1 0 0 Temos que a = b = c = 0, o que mostra que β é linearmente independente. 3.3* (a) Temos que U = {(a, b, c, d) ; b + c + d = 0)} = {(a, b, c, (b + c)) ; a, b, c R}. Armamos que B U = {(1, 0, 0, 0), (0, 1, 0, 1), (0, 0, 1, 1)} é uma base de U. De fato, se (a, b, c, d) U, então (a, b, c, d) = a(1, 0, 0, 0) + b(0, 1, 0, 1) + c(0, 0, 1, 1) e se α, β, γ R são tais que α(1, 0, 0, 0) + β(0, 1, 0, 1) + γ(0, 0, 1, 1) = 0, segue que α = β = γ = 0. Portanto, B U é uma base de U e a dimensão de U é três. (b) Temos que W = {(a, b, c, d) ; a + b = 0, c = 2d} = {(a, a, 2d, d) ; a, d R}. Armamos que B W = {(1, 1, 0, 0), (0, 0, 0, 2, 1)} é uma base de W. Seja (a, b, c, d) W. Então (a, b, c, d) = a(1, 1, 0, 0) + d(0, 0, 2, 1)
276 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS e se α, β R são tais que α(1, 1, 0, 0) + β(0, 0, 2, 1) = (α, α, 2β, β) = 0, segue que α = β = 0. Portanto, B W é uma base de W e a dimensão de W é dois. (c) Temos que U W = {(a, b, c, d) ; b+c+d = 0, a+b = 0, c = 2d} = {(3d, 3d, 2d, d) ; d R}. Armamos que B = {(3, 3, 2, 1)} é uma base de U W. (a, b, c, d) U W, então De fato, se (a, b, c, d) = (3d, 3d, 2d, d) = d(3, 3, 2, 1). Portanto, B é uma base de U W e a dimensão de U W é um. (d) Observe que dim(u + W ) = dim U + dim W dim(u W ) = 4. Logo, U + W = R 4. Assim, podemos escolher como base de U + W qualquer base de R 4. Por exemplo, a base canônica {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}. 3.4 (a) dependente, já que v 3 = 2v 1 2v 2. (b) β = {(1, 1, 0), (0, 1, 1)}. (c) dim(g(α)) = 2, porque β é uma base para G(α). 3.6 Os vetores formam uma base para M(2, 2). 3.9 4. 3.10 (a) 2. (b) Não. Porque [ ] 2 1 3 4 / W. 3.11 (a) {( 3, 1, 3, 5)}, 1. (b) {( 1, 1,, 0, 0), (2, 0, 1, 0), ( 1, 0, 0, 1)}, 3.
277 3.13 (a) 11/28, 1/14. (b) 1, 1. (c) 2, 0, 1. 4.1* Seja U R 4 gerado pelos vetores (1, 2, 3, 3), (2, 3, 1, 4), (3, 8, 3, 5). (a) Sejam a, b, c R tais que a(1, 2, 3, 3) + b(2, 3, 1, 4) + c(3, 8, 3, 5) = 0. Temos que a, b, c devem satisfazer o sistema linear a + 2b + 3c = 0 2a + 3b + 8c = 0 3a + b 3c = 0 3a 4b 5c = 0. Somando as duas últimas equações obtemos 3b = 8c e substituindo na segunda equação obtemos 2a = 0. Assim, a = b = c = 0. Logo, (1, 2, 3, 3), (2, 3, 1, 4), (3, 8, 3, 5) é uma base de U e sua dimensão é três. (b) Chamemos u 1 = (1, 2, 3, 3), u 2 = (2, 3, 1, 4) e u 3 = (3, 8, 3, 5). Devemos achar um vetor v R 4 de modo que o conjunto B = {u 1, u 2, u 3, v} seja linearmente independente, ou seja, devemos achar um vetor v que não seja combinação linear dos vetores u 1, u 2 e u 3. Ora, U é o espaço gerado por u 1, u 2 e u 3. Equivalentemente, U é o espaço linha da matriz 1 2 3 3 A = 2 3 1 4. 3 8 3 5 Reduzindo a matriz A a sua forma escalonada obtemos a matriz 1 0 0 3 R = 0 1 0 0. 0 0 1 0
278 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Os vetores linha não nulos da matriz R são w 1 = (1, 0, 0, 3), w 2 = (0, 1, 0, 0) e w 3 = (0, 0, 1, 0). Assim, U = G(u 1, u 2, u 3 ) = G(w 1, w 2, w 3 ) = {a(1, 0, 0, 3) + b(0, 1, 0, 0) + c(0, 0, 1, 0) ; a, b, c R} = {(a, b, c, 3a) ; a, b, c R}. Portanto, para um vetor v R 4 não ser combinação linear dos vetores u 1, u 2 e u 3, basta v não ser da forma (a, b, c, 3a), onde a, b, c R. Desse modo, tomemos v = (1, 0, 0, 0). O conjunto B = {u 1, u 2, u 3, v} é linearmente independente e, portanto, é uma base de R 4. 4.2* Seja U R 4 gerado pelos vetores u 1 = (2, 4, 2, 6), u 2 = (1, 2, 1/2, 1) e u 3 = (3, 6, 3, 5) e seja W R 4 gerado pelos vetores w 1 = (1, 2, 4, 11) e w 2 = (2, 4, 5, 14). Para mostrarmos que U = W, basta mostrar, pela Proposição 3.1.7, que cada vetor u i é combinação linear dos vetores w 1 e w 2 para i = 1, 2, 3 e que, para j = 1, 2, cada vetor w j é combinação linear dos vetores u 1, u 2 e u 3. Vamos mostrar que u 1 é combinação linear dos vetores w 1 e w 2. Para isto, temos que achar a, b, R tais que u 1 = aw 1 + bw 2. Como u 1 = 2w 1 + 2w 2, mostramos o que queríamos. Analogamente podemos ver que u 2 = 2w 1 + (3/2)w 2, u 3 = 7w 1 (5/7)w 2, w 1 = (5/4)u 1 + 0u 2 (1/2)u 3, w 2 = (13/8)u 1 + 1u 2 (3/4)u 3. 4.3 Os vetores formam uma base para R 3. 4.4 {w 1, w 2 } é uma base para W, pois {w 1, w 2 } é independente e w 3 G(w 1, w 2 ) já que w 3 = 2w 1 + 6w 2. Portanto, dim W = 2.
279 de R 4. O conjunto {w 1, w 2, (0, 0, 1, 0), (0, 0, 0, 1)} estende {w 1, w 2 } a uma base 4.5 (0, 0, 0, 1, 0) e (0, 0, 0, 0, 1). Capítulo 4 1.2* Sejam u, v e w três vetores quaisquer em R 3. Podemos supor que u e v são não nulos. ( ) Se u, v e w são dependentes, existem a, b, c R não simultaneamente nulos tais que au + bv + cw = 0. Se a 0, temos que u = (b/a)v (c/a)w, o que mostra que u, v e w pertencem ao plano que passa pela origem que tem v e w como vetores base. ( ) Suponhamos que u, v e w pertencem a um plano π que passa pela origem. Sabemos que π é um subespaço de R 3 de dimensão dois. Assim, qualquer conjunto com mais de dois elementos de π será dependente, em particular, {u, v, w} é dependente. 1.3* Consideremos v 1 = B A = (3, 3, 1) e v 2 = C A = (0, 3, 1). Seja π o plano que passa pelos pontos A, B e C. Um vetor normal n ao plano π é dado pelo produto vetorial de v 1 e v 2. Logo, n = v 1 v 2 = (0, 3, 6) é um tal vetor. Assim, 3y + 6z + d = 0 é uma equação geral do plano π, onde d é um número real a se determinar. Como A π, segue que 3(2) + 6(0) + d = 0, o que nos dá que d = 6. Assim, 3y + 6y 6 = 0 é a equação geral do plano π. 1.4 (a) {(1, 0, 3), (0, 1, 4)}. (b) {(2, 1, 3)}. (c) {(1, 1, 0), (0, 0, 1)}. 1.5 x 2 4 = y + 4 = z 7 8. 1.7 x 2 = y 3 = z. 1.8 x = 2z+1 3, y = 1 z. 1.9 k = 5.
280 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 1.11 k = 21/7. 1.13 x = 4/3t 2s, y = t, z = 2+s, sendo t e s números reais quaisquer. 1.14 x = 2 7t + 3s, y = 1 + t + s, z = 5t + 2s, sendo t e s números reais quaisquer. 1.15 (2, 1, 0), (0, 3, 2), (3/2, 0, 1/2), respectivamente. 2.1* (a) (b): Suponhamos que r 1 e r 2 estejam num mesmo plano, digamos π(q, u 1, u 2 ). Ora, como r 1 π e r 2 π, segue que A 1 π e A 2 π. Assim, existem m, n, t, s R tais que A 1 = Q + mu 1 + nu 2 (1) e A 2 = Q + tu 1 + su 2. (2) Consequentemente, v G(u 1, u 2 ). Como A 1 + v 1 r 1 e A 2 + v 2 r 2, segue que existem a, b, c, d R tais que A 1 + v 1 = Q + au 1 + bu 2 (3) e A 2 + v 2 = Q + cu 1 + du 2, (4) já que A 1 + v 1, A 2 + v 2 π. Substituindo (1) em (3) e substituindo (2) em (4), concluímos que v 1 G(u 1, u 2 ) e v 2 G(u 1, u 2 ). Mostramos, então, que {v, v 1, v 2 } G(u 1, u 2 ). Como dim(g(u 1, u 2 )) = 2, qualquer conjunto com mais de dois vetores é dependente. Portanto, {v, v 1, v 2 } é dependente. (b) (a): Os vetores v, v 1 e v 2 pertencem a um mesmo plano que passa pela origem, digamos π = π(0, w 1, w 2 ). Assim, existem a, b, c, d, e, f R tais que v = aw 1 + bw 2, v 1 = cw 1 + dw 2, v 2 = ew 1 + fw 2.
281 Tome P r 1. Então, existe t R tal que P = A 1 + tv 1 = A 1 + (tc)w 1 + (td)w 2, mostrando que r 1 π(a 1, w 1, w 2 ). Armamos que r 2 π(a 1, w 1, w 2 ) também. Ora, se P r 2, então existe t R tal que P = A 2 + tv 2 = A 1 + aw 1 + bw 2 + (te)w 1 + (tf)w 2 = A 1 + (a + te)w 1 + (b + tf)w 2, mostrando que P π(a 1, w 1, w 2 ). Portanto, ambas as retas r 1 e r 2 pertencem ao plano π(a 1, w 1, w 2 ). 2.2* Note que r 1 = {(0, 3, 0) + t(1, 2, 1) ; t R} e r 2 = {(1, 4, 0) + t( 36, 6, 3) ; t R}. Devemos vericar se o conjunto {(1, 2, 1), ( 36, 6, 3), v}, em que v = (1, 7, 0), é linearmente independente ou não. É fácil vericar que é linearmente independente. Assim, as retas são reversas. 2.3 Concorrentes. 2.5 a = 1, b = 2, c = 4. 2.6 a = 4, b = 3. 3.5 x = 10. 3.6* Devemos resolver pela regra de Cramer o sistema linear AX = B, onde [ ] [ ] [ ] cos θ sen θ x x A =, X = sen θ cos θ y e B =. y Como det A = 1, segue pela regra de Cramer que em que Portanto, x = det A 1 det A = det A 1 e y = det A 2 det A = det A 2, A 1 = [ x y ] sen θ cos θ e A 2 = [ cos θ sen θ ] x. y x = x cos θ + y sen θ e y = x sen θ + y cos θ.
282 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Capítulo 5 1.4* Sejam A, C V e sejam a, c R. Temos T (aa + cc) = (aa + cc)b + B(aA + cc) = aab + ccb + aba + cbc = a(ab + BA) + c(cb + BC) = at (A) + ct (C), mostrando que T é uma transformação linear. 1.6 (a) T (u + v) = 3u + v. (b) T (3v) = 3u + 3v. (c) T ( 3u) = 6u. (d) T (u 5v) = 3u 5v. 1.7 (a), (c) e (e) são transformações lineares. (b) Não, pois T (2(1, 1)) 2T (1, 1). (d) Não, pois T ( 1(1, 1)) 1T (1, 1). (f) É linear somente se a = 0. 1.8 (a) n = 2, m = 3 e T (x, y) = ( x + 2y, 3x + 2y, y x). (b) n = m = 3 e T (x, y, z) = ( x + 4y z, 5x 5y z, x + 3z). 2.1* Para mostrarmos que a imagem de T é um subespaço vetorial de W, devemos mostrar que se w 1, w 2 Im T e a R, então w 1 + w 2, aw 1 Im T. Ora, como w 1, w 2 Im T, existem v 1, v 2 V tais que T (v 1 ) = w 1 e T (v 2 ) = w 2. Assim w 1 +w 2 = T (v 1 )+T (v 2 ) = T (v 1 +v 2 ) e, portanto, w 1 +w 2 Im T. Como aw 1 = at (v 1 ) = T (av 1 ), temos que aw 1 Im T. 2.2* (a) Pela denição, (x, y, z) Ker T quando (x, y, z) é solução do sistema linear x + 2y z = 0 y + 2z = 0 x + 3y + z = 0. Resolvendo o sistema acima, obtemos x = 5z e y = 2z, com z R. Assim, Ker T = {(5z, 2z, z) ; z R}. Como Ker T é um subespaço de R 3 e sua dimensão é 1, Ker T é uma reta que passa pela origem.
283 (b) x = 5t y = 2t, z = t t R. (c) Como dim Ker T = 1, segue do teorema do núcleo e da imagem que dim Im T = 2. Portanto, Im T é um plano que passa pela origem. (d) Ora, Im T = G(T (1, 0, 0), T (0, 1, 0), T (0, 0, 1)) = G(((1, 0, 1), (2, 1, 3), ( 1, 2, 1)) = G((1, 0, 1), (2, 1, 3)), já que ( 1, 2, 1) = 5(1, 0, 1) + 2(2, 1, 3). Portanto, Im T = π(0, v 1, v 2 ), onde v 1 = (1, 0, 1) e v 2 = (2, 1, 3). Assim, x = m + 2n y = n, z = m + 3n m, n R são as equações paramétricas procuradas. 2.4* Se {v 1,..., v n } é uma base de V, então {T (v 1 ),..., T (v n )} gera Im T. Como dim Im T = n, segue que {T (v 1 ),..., T (v n )} é uma base de Im T e, consequentemente, uma base de W, já que Im T = W. Suponhamos agora que {T (v 1 ),..., T (v n )} é uma base de W. Para provarmos que {v 1,..., v n } é uma base de V, basta mostrar que este conjunto é independente. Sejam a 1,..., a n R tais que a 1 v 1 + +a n v n = 0. Temos a 1 T (v 1 )+ +a n T (v n ) = 0, portanto, a i = 0 para todo 1 i n. 2.6* Vamos resolver este exercício de dois modos:
284 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 1 o ) Usando R[x] 3 : se p(x)=ax 3 + bx 2 + cx + d W, então a b + c d=0. Assim, p(x) = (b c + d)x 3 + bx 2 + cx + d = b(x 3 + x 2 ) + c( x 3 + x) + d(x 3 + 1). Chamando q 1 (x) = x 3 + x 2, q 2 (x) = x 3 e q 3 (x) = x 3 + 1 temos, por (1), que W = G(q 1 (x), q 2 (x), q 3 (x)). Como {q 1 (x), q 2 (x), q 3 (x)} é independente, segue que este conjunto é uma base de W. Portanto, dim W = 3. 2 o ) Usando o fato que R[x] 3 é isomorfo ao R 4 : a função T : R[x] 3 R 4 dada por T (ax 3 + bx 2 + cx + d) = (a, b, c, d) é um isomorsmo. Como T (W ) = {(b c + d, b, c, d) ; b, c, d R}, para determinarmos a dimensão de W, basta determinarmos a dimensão de T (W ). Consideremos v 1 = (1, 1, 0, 0), v 2 = ( 1, 0, 1, 0) v 3 = (1, 0, 0, 1). Como {v 1, v 2, v 3 } é independente e gera T (W ), já que (b c, d, b, c, d) = bv 1 + cv 2 + dv 3, segue que {v 1, v 2, v 3 } é uma base para T (W ). Portanto, dim T (W ) = 3 e, consequentemente, dim W = 3. 2.7 (a) Ker T = {(x, x, x) ; x R}, Im T = R 2. (b) Ker T = {(0, 1/2w, 3/2w, w) ; w R}, Im T = R 3. (c) Ker T = {0}, Im T = {p(x) = ax 3 + bx 2 + cx ; a, b, c R}. {[ ] } {[ ] } a b a b (d) Ker T = ; a, b R, Im T = ; a, b R. a b 4a 4b (e) Ker T = {0}, Im T = {(a + b, 2b + c, a + 2b c, c) ; a, b, c R}. 2.8 injetivas: (c) e (e); sobrejetivas: (a) e (b). 2.10 T (x, y, z) = (0, 0, x+y+3z 3 ). 2.11 T (x, y, z, t) = ( x y + z, t 2x y, 0). 2.12 T (x, y, z) = (x, 2x + y, 3x y). 2.13 T (x, y, z) = (y + z, 3y, y + z, 2y z). 2.16 (a) T (x, y, z) = (x, y). (b) Não é possível. (1)
285 (c) T (x, y, z) = (0, 0, 0). (d) T (x, y, z) = (x + z, 0, 0, 0). 2.19 É invertível; T 1 (x, y, z) = (4x 2y 3z, 11x + 6y + 9z, 12x + 7y + 10z). 2.20 (a) a i 0 para todo 1 i n. (b) T 1 (x 1, x 2,..., x n ) = (a 1 1 x 1, a 1 2 x 2,..., a 1 n x n ). 2.22 T : V W dada por T ([a ij ]) = [b ij ], com b ij = a ij se i > j e b ij = 0 se i < j. 3.1* Como T : R 3 R 4 está dada por T (x, y, z) = (x + y, z, x y, y + z) e S : R 2 R 3 está dada por S(x, y) = (2x + y, x y, x 3y), obtemos (T S)(x, y) = T (2x + y, x y, x 3y) 3.3 (a) (T + S)(x, y) = (x, x). = ((2x + y) + (x y), x 3y, (2x + y) (x y), (x y) + (x 3y)) = (3x, x 3y, x + 2y, 2x 4y). (b) (5T 4S)(x, y) = (5x + 9y, 4x). (c) (S T )(x, y) = (0, x + y). (d) (T S)(x, y) = (x y, 0). (e) T 3 (x, y) = T (x, y). (f) S 3 (x, y) = ( y, x). Capítulo 6 1.2* (a) Sejam α = {v 1,..., v n } uma base de R n e β = {w 1,..., w m } uma base de R m. Sejam u, v R n e a R. Digamos que u = x 1 v 1 + + x n v n e v = y 1 v 1 + + y n v n. Logo, u + av = (x 1 + ay 1 )v 1 + + (x n + ay n )v n. Pela denição de T, [T (u + av)] β = A[u + av] α = A[u] α + aa[v] α = [T (u)] β + a[t (v)] β,
286 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS onde a segunda igualdade segue das propriedades do produto de matrizes. Logo, T é uma transformação linear. (b) Pela denição da matriz [T ] α β, sabemos que a primeira coluna desta matriz é [T (v 1 )] β e usando a denição de T vemos que [T (v 1 )] β é precisamente a primeira coluna de A. colunas. Procedemos de maneira análoga para as outras 1.4* Basta mostrar que dim Im T = r, pois dim Ker T = dim V dim Im T. O posto da matriz nos diz que temos r colunas linearmente independentes e que qualquer conjunto com mais de r colunas será linearmente dependente. Por outro lado, sabemos que as colunas da matriz geram a imagem e que podemos obter a partir delas uma base para Im T escolhendo um subconjunto linearmente independente maximal. Assim pelo visto acima, este conjunto conterá exatamente r colunas. 1.5 T (x, y, z) = ( x + 2z, 4x y + 6z). 1.6 3/2 1 1/2 [T ] α β = 1/2 1 1/2. 1/2 0 1/2 1.8 β = {(0, 1, 1), (1, 0, 0), ( 3, 7, 1)}. 1.9 1 1 1 [T ] β β = 0 2 4. 0 0 4 1.11 0 0 0 1 [T ] α 1 0 0 0 α = 0 1 0 0. 0 0 1 0
287 1.12 a) Não existe v R 2 tal que T (v) = I 2. [ ] 5 3 (b) T (3, 1) =. 5 4 2.1 T (x, y, z) = ( 2x + 4y 1z, 1x + 2y + 1 z, 2y z)}. 3 3 3 3 3 3 2.2 (a) Ker T A = {0}. (b) Im T A = G((1, 0, 1), (2, 1, 1)). (c) Ker T B = {0}. (d) Im T B = R 3. (e) Ker(T B T A ) = {0}. (f) Im (T B T A ) = G((2, 1, 2), (2, 2, 3)). 3.1* Vejamos qual é a imagem de cada vetor da base canônica de R 2. O vetor (1, 0) se transforma no vetor (0, 1) pela rotação e depois no vetor (0, 1) pela reexão. Já o vetor (0, 1) se transforma no vetor ( 1, 0) pela rotação e depois no vetor (0, 1). Assim, a matriz desta transformação na base canônica é [ ] 1 0 A =. 0 1 3.2* Vamos determinar a matriz da transformação na base canônica, pois sabemos que a inversa desta matriz é a matriz da transformação inversa. Temos 1 0 0 A = 0 1 0. 0 0 1 Neste caso, a matriz inversa é igual à matriz. Assim a transformação inversa é a própria transformação. [ ] [ 0 0 2 ] 2 4 4 3.7 (a). (b) 3 0 2. 2 4 4 [ ] [ ] [ ] [ ] 1 4 1 0 1 0 2 3 3 4.1 (a),,. (b) [v] β =. 1 2 3 1 3 2 3 4.2 α = {(1, 3), ( 5, 12)}. 1 1 0 4.3 1 0 0. 0 1 1 1 2 1 2
288 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 4.8* A demonstração de (a) não apresenta diculdade. Vamos provar (b). Escrevamos A = (a ij ) e B = (b lk ). Temos que (AB) ii = n j=1 a ijb ji e (BA) jj = n i=1 b jia ij. Assim, tr AB = n n i=1 j=1 a ijb ji = n n j=1 i=1 a ijb ji = n n j=1 i=1 b jia ij = tr BA. Vamos provar (c). De fato, existe uma matriz invertível P tal que [T ] α α = P 1 [T ] β β P, logo tr[t ] α α = tr P 1 [T ] β β P = tr[t ]β β P 1 P = tr[t ] β β. Capítulo 7 1.1* (a) Sejam u = (x 1, x 2 ), v = (y 1, y 2 ) e w = (z 1, z 2 ) em R 2 e seja c em R. Temos: 1. u, u = 1 9 x2 1 + 1 4 x2 2 0; 2. u, u = 1 9 x2 1 + 1 4 x2 2 = 0 se, e somente se x 1 = x 2 = 0, ou equivalentemente u = 0; 3. u, v = 1 9 x 1y 1 + 1 4 x 2y 2 = 1 9 y 1x 1 + 1 4 y 2x 2 = v, u ; 4. u + v, w = 1 9 (x 1 + y 1 )z 1 + 1 4 (x 2 + y 2 )z 2 = ( 1 9 x 1z 1 + 1 4 x 2z 2 ) + ( 1 9 y 1z 1 + 1 4 y 2z 2 ) = u, w + v, w ; 5. cu, v = 1 9 (cx 1)y 1 + 1 4 (cx 2)y 2 = c( 1 9 x 1y 1 + 1 4 x 2y 2 ) = c u, v. Portanto, a expressão dada dene um produto interno em R 2. (b) Se V é um espaço com produto interno, então o conjunto dos vetores v de V que satisfazem v = 1 é chamado de círculo unitário de V. Assim, o círculo unitário de R 2 usando o produto interno em (a) é dado pelo conjunto dos vetores v = (x, y) em R 2 tais que v = v, v 1/2 = 1 9 x2 + 1 4 y2 = 1,
289 ou equivalentemente, x 2 9 + y2 4 = 1. A equação acima representa uma elipse de centro na origem e eixos maior e menor paralelos aos eixos coordenados (Figura 24). (c) Se v = (x, y) R 2, então v = v, v 1/2 = x 2 + y 2 = 1, se, e somente se x 2 + y 2 = 1. A equação acima representa um círculo de centro na origem e raio 1 (Figura 24). (d) Sim. O círculo unitário com a norma dada pelo produto interno em (a) tem um formato elíptico. Figura 24 1.4 (a) 8. (b) 11. (c) 14. 2.1 (a) 0. (b) 2 2. (c) 6 3.
290 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 2.2* Sejam u e v dois vetores de um espaço com produto interno. Então u + v 2 + u v 2 = u + v, u + v + u v, u v = u, u + 2 u, v + v, v + u, u 2 u, v + v, v = 2 u, u + 2 v, v = 2 u 2 + 2 v 2. 2.9* Faremos a prova por indução sobre n. Se n = 2, então v 1 + v 2 2 = v 1 + v 2, v 1 + v 2 = v 1, v 1 + 2 v 1, v 2 + v 2, v 2 = v 1 2 + v 2 2, já que v 1, v 2 = 0. Suponhamos agora o resultado válido para n = k 1. Vamos mostrar que ele é válido para n = k. De fato, pelo caso n = 2 e pela hipótese de indução, segue que v 1 + + v k 1 + v k 2 = v 1 + + v k 1 2 + v k 2 = v 1 2 + + v k 1 2 + v k 2, pois v 1 + + v k 1, v k = v 1, v k + + v k 1, v k = 0. resultado vale para todo n N \ {0}. Por indução, o 2.12* O conjunto {u, v} é uma base de W. Para mostrar que um vetor ṽ em R 5 W, ou seja, que ṽ, w = 0 para todo w W, basta mostrar que ṽ, u = ṽ, v = 0. Tomemos ṽ = (x, y, z, w, t) R 5. Temos que ṽ, u = ṽ, v = 0 se, e somente se, x + 2y + 3z w + 2t = 0 2x + y + 3z 2w t = 0.
291 Equivalentemente, x = 5z + w + 4 3 t e y = z 5 3 t, onde z, w, t R. Portanto, W = {(5z + w + 4 3 t, z 5 t, z, w, t) ; z, w, t R}. 3 Assim, α = {(5, 1, 1, 0, 0), (1, 0, 0, 1, 0), (4/3, 5/3, 0, 0, 1)} é uma base para W. 2.13 Basta vericar que v, v 1 = 0 e v, v 2 = 0, pois v, av 1 + bv 2 = a v, v 1 + b v, v 2 = 0, para quaisquer a e b em R. 2.14 x = 1 + t, y = 2t, z = 3t, sendo t R. 3.1 (a) Suponhamos que α = {v 1, v 2,..., v n }. Então v = a 1 v 1 + a 2 v 2 + + a n v n, já que a 1, a 2,..., a n são as coordenadas de v na base α. Como α é um conjunto ortogonal, segue pelo Problema 2.9 que v 2 = a 1 v 1 + a 2 v 2 + + a n v n 2 = a 1 v 1 2 + a 2 v 2 2 + + a n v n 2. Pela Proposição 7.2.2(c), temos a 1 v 1 2 + a 2 v 2 2 + + a n v n 2 = a 1 2 v 1 2 + a 2 2 v 2 2 + + a 2 n v n 2 = a 2 1 + a 2 2 + + a 2 n, pois v 1 = v 2 = = v n = 1. Portanto, v 2 = a 2 1 + a 2 2 + + a 2 n.
292 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS Extraindo as raízes quadradas de ambos os lados da igualdade acima obtemos v = a 2 1 + a 2 2 + + a 2 n. (b) Por denição, d(v, w) = v w. Como segue do item (a) que v w = (a 1 b 1 )v 1 + (a 2 b 2 )v 2 + + (a n b n )v n, d(v, w) = (a 1 b 1 ) 2 + (a 2 b 2 ) 2 + + (a n b n ) 2. (c) Ora, v, w = a 1 v 1 + a 2 v 2 + + a n v n, b 1 v 1 + b 2 v 2 + + b n v n = a 1 b 1 v 1, v 1 + a 1 b 2 v 1, v 2 + + a 1 b n v 1, v n + a 2 b 1 v 2, v 1 + a 2 b 2 v 2, v 2 + + a 2 b n 2, v n + + a n b 1 v n, v 1 + a n b 2 v n, v 2 + + a n b n v n, v n = a 1 b 1 + a 2 b 2 + + a n b n, já que v i, v j = 0 sempre que i j e v i, v i = 1 para todo i. 3.4* (a) Pelo Teorema 14, v = v 1 +v 2 onde v 1 = proj W v W e v 2 = v v 1 W. Como v 1 W e {w 1, w 2,..., w n } é uma base de W, v 1 se escreve de modo único como combinação linear dos vetores w 1, w 2,..., w n, digamos v 1 = a 1 w 1 + a 2 w 2 + + a n w n. (1) Vamos mostrar que, para cada 1 i n, a i = v, w i. Ora como v v 1 W, segue que v v 1, w = 0 para todo w W. Em particular, v v 1, w i = 0 para todo 1 i n. Consequentemente, v, w i = v 1, w i para todo 1 i n. Fixemos agora 1 i n. Temos v, w i = v 1, w i = a 1 w 1 + a 2 w 2 + + a n w n, w i = a i, (2)
293 pois {w 1, w 2,..., w n } é um conjunto ortonormal. Substituindo (2) em (1), obtemos proj W v = v, w 1 w 1 + v, w 2 w 2 + + v, w n w n. (b) A demonstração é análoga à prova acima, sendo que, neste caso, para cada 1 i n v, w i = a i w i, w i = a i w i 2 e, consequentemente, a i = v, w i w i 2. 3.5 {w 1, w 2, w 3, w 4 }, sendo w 1 = (0, 2, 1, 0), w 2 = (1, 1/5, 2/5, 0), w 3 = (1/2, 1/2, 1, 1) e w 4 = ( 4 15, 4 15, 8 15, 4 5 ). 3.6 ( 1/2, 5/2, 2, 4). 3.7 {(2/ 5, 1/ 5, 0), ( 1/ 5, 2/ 5, 0), (0, 0, 1)}. 4.1* Sejam S e T operadores lineares num espaço com produto interno de dimensão nita V e seja k R. Sejam u, v V quaisquer. (a) (S + T )(u), v = S(u), v + T (u), v = u, S (v) + u, T (u) = u, (S + T )(v) ; Assim, (T + S) = T + S. (b) (kt )(u), v = k T (u), v = u, T (v) = u, kt (v) ; Logo, (kt ) = kt. (c) (ST )(u), v = T (u), S (v) = u, T (S (v)) ; Assim, (ST ) = T S. (d) T (u), v = v, T (u) = T (v), u = u, T (v). Logo, (T ) = T. 4.2 u = (1, 4, 5). 4.3 T (x, y, z) = (2x + 3y, 2x + z, 4y).
294 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS 4.6 (a), (c) e (d) são operadores ortogonais. 4.7* A segunda linha (a, b, c) deve satisfazer duas condições: a 2 +b 2 +c 2 = 1 e a+2b+2c = 0. Assim, 5b 2 +5c 2 +8bc = 1. Escolhendo c = 0, obtemos b = 5 5 e a = 2 5 5. Para a terceira linha (d, e, f), queremos que d2 + e 2 + f 2 = 1, d + 2e + 2f = 0 e que 2e + f = 0, ou seja, devemos ter que d = 2 5 15, e = 4 5 15 e f = 5 5 4.9 (a) 15. [ 5 2 5 1 1 5 2 5 ]. (b) 1 3 2 3 2 3 2 2 1 3 3 3. 2 3 1 3 2 3 Capítulo 8 2.2* Por indução sobre n. Para n = 2, o resultado é óbvio. Suponhamos o resultado válido para n 1 e seja A = [a ij ] uma matriz triangular superior de ordem n. Então a ij = 0 para todo j < i. Pelo Teorema 8.2.1, det A = a 11 det(a(1 1)), já que a i1 = 0 para todo 2 i n. Como a matriz A(1 1) é uma matriz triangular superior de ordem n 1, com a 22,..., a nn como elementos da diagonal principal, temos, pela hipótese de indução, que det A(1 1) = a 22... a nn, o que termina a prova o resultado. 2.3* Seja a R. Fazendo o desenvolvimento de Laplace pela primeira linha
295 obtemos a a 2 a 3 det A = det a 2 a 3 a 4 a 3 a 4 a 5 1 a a 3 + det 1 a 2 a 4 1 a 3 a 5 1 a 2 a 3 det 1 a 3 a 4 1 a 4 a 5 1 a a 2 det 1 a 2 a 3 1 a 3 a 4 a a a 3 1 a 2 a 2 = a det a 2 a 2 a 4 a det 1 a 3 a 3 a 3 a 3 a 5 1 a 4 a 4 1 a a 1 a a +a 2 det 1 a 2 a 2 det 1 a 2 a 2. 1 a 3 a 3 1 a 3 a 3 Note que cada uma das matrizes anteriores tem duas colunas iguais e, portanto, cada uma delas tem determinante nulo. Consequentemente, det A = 0. 4.1 (a) {(0, 0, 0)}. (b) {( 1, 3, 1, 1)}. Capítulo 9 1.1* A(c) = {v V ; T (v) = cv}. Tomemos v e w em A(c) e tomemos a e b em R. Pela linearidade de T, T (av + bw) = at (v) + bt (w). Como T (v) = cv e T (w) = cw, segue que T (av +bw) = a(cv)+b(cw) = c(av +bw), mostrando que av + bw A(c). Portanto, A(c) é um subespaço vetorial de V. 1.2 (a) Não tem autovalores e autovetores. (b) 1, {(x, x, x) ; x 0}; 1, {(0, 3x, x) ; x 0}; 2, {(0, 0, x) ; x 0}. (c) 1, {ax 2 + bx + b ; a 0 ou b 0}; 1, {ax a ; a 0}.
296 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS {[ ] } 0 0 (d) 1, ; a 0 ; 0 a {[ ] } 2a a 1, ; a 0 ; a 0 {[ ] } a 0 2, ; a 0. a 0 1.3 (a) c = 0, {(x, x) ; x 0}; c = 4, {(x, x) ; x 0}. (b) c = 1, {( y 2z, y, z) ; y 0 ou z 0}; c = 2, {(0, y, y) ; y 0}. (c) c = 0, {(0, 0, 0, x) ; x 0}; c = 2, {( x, 2y, x, y) ; x 0 ou y 0}; c = 4, {(x, 0, 0, 0) ; x 0}. 1.5 T (x, y, z) = (x, 2x y + 2z, 4x 4y + 5z). 1.6* Seja (x, y, z) em R 3. Então, (x, y, z) = (x + y z)(1, 1, 1) + ( x y + 2z)(0, 1, 1) + (y z)( 1, 1, 0), o que pela linearidade de T nos dá que T (x, y, z) = (x+y z)t (1, 1, 1)+( x y +2z)T (0, 1, 1)+(y z)t ( 1, 1, 0). Como T (1, 1, 1) = (1, 1, 1), T (0, 1, 1) = (0, 2, 2) e T ( 1, 1, 0) = (1, 1, 0), segue que T (x, y, z) = (x + y z)(1, 1, 1) + ( x y + 2z)(0, 2, 2) + (y z)(1, 1, 0) = (x + 2y 2z), x 2y + 4z, x y + 3z). 1.8 1 0 0 1 1 1 2 2. 1 1 1 2 2
297 2.1* Calcular os autovalores e os autovetores de uma matriz A nada mais é do que calcular os autovalores e os autovetores de T A. Assim, [ ] c 2 3 det = c 2 6c + 5, 1 c 4 nos dando que c = 1 e c = 5 são os autovalores de A. O conjunto solução do sistema linear [ ] [ ] [ ] 1 3 x 0 = 1 3 y 0 é dado por {(3x, x) ; x R} e o conjunto solução do sistema linear [ ] [ ] [ ] 3 3 x 0 = 1 1 y 0 é dado por {(x, x) ; x R}. Assim, os autovetores associados a c = 1 são os vetores da forma (3x, x), x 0 e os autovetores associados a c = 4 são os vetores da forma (x, x), x 0. 2.2* Seja A M(n). A matriz A é invertível se, e somente se, Ker T A = {0}. Agora, Ker T A = {0} se, e somente se, não existe v R n, não nulo, tal que T A (v) = 0 = 0 v. Portanto, A é invertível se, e somente se, c = 0 não é um autovalor de A. 3.1* Sabemos que o cálculo dos autovalores de T independe da base considerada em R 3. Assim, t 1 2 0 det 1 t + 1 0 = (t 2)(t 3)(t + 3). 1 0 t 2 Portanto, T tem três autovalores distintos. Como dim R 3 = 3, existe uma base de R 3 formada de autovetores de T e, assim, T é diagonalizável. 3.2 (a) verdadeiro (b) verdadeiro (c) falso (d) falso 3.3 (a) Não é diagonalizável.
298 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS [ ] 0 1 1 1 4 (b) P =. (c) P = 1 0 0. 1 3 1 0 1 3.4 (a) c 1. (b) c = 0. 3.5 (a) I 3. (b) A. (c) I 3. 3.6* Seja α a base canônica de R 2. Então, [ ] t 2 2 P [T ] α (t) = det = t 2 5t + 4, 1 t 3 o que nos dá que c 1 = 1 e c 2 = 4 são os autovalores de T. O conjunto solução do sistema linear [ ] [ ] [ ] 1 2 x 0 = 1 2 y 0 e o conjunto solução do sistema linear [ ] [ ] [ ] 2 2 x 0 = 1 1 y 0 é o autoespaço associado a c 1 = 1 e o autoespaço associado a c 2 = 4, respectivamente. Assim, (2, 1) é um autovetor associado a c 1 = 1 e (1, 1) é um autovetor associado a c 2 = 4. Portanto, β = {(2, 1), (1, 1)} é uma base de R 2 tal que [T ] β β 5.1* (a) Temos que é uma matriz diagonal. x 2 4x 2y + 4 = 0 (x 2) 2 = 2y y = 1 2 (x 2)2. Portanto, a equação representa uma parábola. (b) A equação 4x 2 3y 2 + 24xy 156 = 0 equivale a equação matricial [ x ] [ ] [ ] 4 12 x y + [ 156] = [0]. (1) 12 3 y
299 A matriz [ ] 4 12 A = 12 3 é simétrica. Logo, pelo Teorema Espectral, A é ortogonalmente diagonalizável. De fato, c 1 = 13 e c 2 = 12 são os autovalores de A. O vetor v 1 = (4/5, 3/5) é um autovetor associado a c 1 = 13 e o vetor v 2 = ( 3/5, 4/5) é um autovetor associado a c 2 = 12. Logo, a base β = {v 1, v 2 } é uma base ortonormal de R 2 formada por autovetores. Seja P = [I R 2] β α, onde α é a base canônica de R 2. Chame D = P 1 AP. Temos [ ] [ ] 4 3 13 0 5 5 P = e D =. (2) 0 12 Chamando [v] β de matricial [ x y ] que equivale a equação ou seja, 3 5 4 5, onde v = (x, y) R 2, de (1) e (2) obtemos a equação [ ] [ ] [ 13 0 x y 0 12 x y ] 13x 2 12y 2 156 = 0, x 2 12 y 2 13 = 1. + [ 156] = [0], Portanto, a equação 4x 2 3y 2 + 24xy 156 = 0 representa uma hipérbole. 5.2 (a). (b) elipse. (c) duas retas paralelas. (d) uma reta. (e) hipérbole. (f) elipse. (g) parábola. (h) elipse. (i) hipérbole.