ÁLGEBRA LINEAR MATRICIAL Reginaldo J. Santos Departamento de Matemática Instituto de Ciências Exatas Universidade Federal de Minas Gerais http://www.mat.ufmg.br/~regi regi@mat.ufmg.br 19 de agosto de 2000
Álgebra Linear Matricial Copyright c 2000 by Reginaldo de Jesus Santos Nenhuma parte desta publicação poderá ser reproduzida por qualquer meio sem a prévia autorização, por escrito, do autor. Editor, Coordenador de Revisão, Supervisor de Produção, Capa e Ilustrações: Reginaldo J. Santos Ficha Catalográfica S237a Santos, Reginaldo J. Álgebra Linear Matricial / Reginaldo J. Santos - Belo Horizonte: Imprensa Universitária da UFMG, 2000. 1. Álgebra Linear 2. Geometria Anaĺıtica I. Título CDD: 512.5 516.3
Conteúdo Prefácio vii 1 Matrizes e Sistemas Lineares 1 1.1 Matrizes........................................ 1 1.1.1 Operações com Matrizes............................ 3 1.1.2 Propriedades da Álgebra Matricial....................... 7 Apêndice I: Notação de Somatório.......................... 22 1.2 Sistemas de Equações Lineares............................ 24 1.2.1 Método de Gauss-Jordan........................... 27 1.2.2 Matrizes Equivalentes por Linhas....................... 36 1.2.3 Sistemas Lineares Homogêneos........................ 38 1.2.4 Matrizes Elementares (opcional)........................ 40 2 Inversão de Matrizes e Determinantes 55 2.1 Matriz Inversa..................................... 55 iii
iv Conteúdo 2.1.1 Propriedades da Inversa............................ 57 2.1.2 Matrizes Elementares e Inversão (opcional).................. 59 2.1.3 Método para Inversão de Matrizes....................... 62 2.2 Determinantes..................................... 76 2.2.1 Propriedades do Determinante......................... 84 2.2.2 Matrizes Elementares e o Determinante.................... 90 2.2.3 Matriz Adjunta e Inversão........................... 91 Apêndice II: Demonstração do Teorema 2.12..................... 103 2.3 Matrizes Particionadas em Blocos (opcional)..................... 105 2.3.1 Operações Matriciais em Blocos........................ 105 2.3.2 Inversa de Matrizes em Blocos........................ 108 2.3.3 Determinante de Matrizes em Blocos..................... 109 3 Espaços Euclidianos 115 3.1 Vetores no Plano e no Espaço............................. 115 3.1.1 Soma de Vetores e Multiplicação por Escalar................. 116 3.1.2 Norma e Produto Escalar........................... 131 3.2 Equações de Retas e Planos.............................. 147 3.2.1 Equação do Plano............................... 147 3.2.2 Equações da Reta............................... 153 3.3 Os Espaços R-n.................................... 161 3.3.1 Independência Linear.............................. 161 3.3.2 Combinação Linear............................... 164 3.3.3 Independência Linear.............................. 168 4 Subespaços do R-n 179 4.1 Definição e Exemplos................................. 179 4.1.1 Vetores Geradores............................... 185 Álgebra Linear Matricial 19 de agosto de 2000
Conteúdo v 4.1.2 Soma Direta de Subespaços.......................... 190 4.2 Base e Dimensão.................................... 195 4.2.1 Base de Subespaços.............................. 195 4.2.2 Dimensão de Subespaços........................... 201 4.3 Espaço Linha e Espaço Coluna............................ 207 4.3.1 Posto e Nulidade................................ 208 4.3.2 Aplicação a Sistemas Lineares......................... 211 4.3.3 A Imagem de uma Matriz........................... 215 5 Ortogonalidade 221 5.1 Produto Escalar em R-n................................ 221 5.1.1 Produto Interno................................ 221 5.1.2 Bases Ortonormais............................... 225 5.2 Subespaços Ortogonais................................ 234 5.2.1 Subespaços Fundamentais........................... 237 5.2.2 Distância de um Ponto a um Subespaço................... 238 5.2.3 Problema de Quadrados Mínimos....................... 241 6 Diagonalização 250 6.1 Diagonalização de Matrizes.............................. 250 6.1.1 Motivação................................... 250 6.1.2 Matrizes Semelhantes............................. 252 6.1.3 Autovalores e Autovetores........................... 254 6.2 Diagonalização de Matrizes Simétricas........................ 271 6.2.1 Motivação................................... 271 6.2.2 Matrizes Ortogonais.............................. 273 Apêndice III: Demonstração do Teorema 6.6..................... 280 19 de agosto de 2000 Reginaldo J. Santos
vi Conteúdo Respostas dos Exercícios 284 Bibliografia 330 Índice Alfabético 334 Álgebra Linear Matricial 19 de agosto de 2000
Prefácio Este texto cobre o material para um curso de um semestre de Álgebra Linear Matricial. O texto pode, mas não é necessário, ser acompanhado do programa MATLAB. O conteúdo é dividido em seis capítulos. O Capítulo 1 trata das matrizes e sistemas lineares. Aqui todas as propriedades da álgebra matricial são demonstradas. A resolução de sistemas lineares é feita usando somente o método de Gauss-Jordan (transformando a matriz até que ela esteja na forma escalonada reduzida). Este método requer mais trabalho do que o método de Gauss (transformando a matriz, apenas, até que ela esteja na forma escalonada). Ele foi o escolhido, por que também é usado no estudo da inversão de matrizes no Capítulo 2. Neste Capítulo é também estudado o determinante, que é definido usando cofatores. As demonstrações dos resultados deste capítulo podem ser, a critério do leitor, feitas somente para matrizes 3 3. O Capítulo 3 trata de vetores no plano, no espaço e no R n. Os vetores são definidos inicialmente de forma geométrica, assim como a soma e a multiplicação por escalar. São provadas algumas propriedades geometricamente. Depois são introduzidos sistemas de coordenadas de forma natural sem a necessidade da definição de base. O produto escalar é definido também geometricamente. São MATLAB é marca registrada de The Mathworks, Inc. vii
viii Conteúdo estudados também retas e planos no espaço. Depois, o conceito de vetor é generalizado para o R n. O conceito de dependência e independência linear é introduzido de forma algébrica, acompanhado da interpretação geométrica para os casos de R 2 e R 3. No Capítulo 4 são tratados os conceitos de subespaços e de base de subespaços. São estudados os espaços linha e coluna de uma matriz e o seu posto. No Capítulo 5 são abordados o produto escalar e bases ortonormais. Além de subespaços ortogonais e quadrados mínimos. O Capítulo 6 traz um estudo da diagonalização de matrizes em geral e a diagonalização de matrizes simétricas através de um matriz ortogonal. É feita uma aplicação ao estudo das seções cônicas. Os exercícios estão agrupados em três classes. Os Exercícios Numéricos, que contém exercícios que são resolvidos fazendo cálculos, que podem ser realizados sem a ajuda de um computador ou de uma máquina de calcular. Os Exercícios Teóricos, que contém exercícios que requerem demonstrações. Alguns são simples, outros são mais complexos. Os mais difíceis complementam a teoria e geralmente são acompanhados de sugestões. Os Exercícios usando o MATLAB, que contém exercícios para serem resolvidos usando o MATLAB ou outro software. Os comandos necessários a resolução destes exercícios são também fornecidos juntamente com uma explicação rápida do uso. Os exercícios numéricos são imprescindíveis, enquanto a resolução dos outros, depende do nível e dos objetivos pretendidos para o curso. O MATLAB é um software destinado a fazer cálculos com matrizes (MATLAB = MATrix LA- Boratory). Os comandos do MATLAB são muito próximos da forma como escrevemos expressões algébricas, tornando mais simples o seu uso. Podem ser incorporados às rotinas pré-definidas, pacotes para cálculos específicos. Um pacote chamado gaal com funções que são direcionadas para o estudo de Geometria Anaĺıtica e Álgebra Linear pode ser obtido através da internet no endereço http://www.mat.ufmg.br/~regi, assim como um texto com uma introdução ao MATLAB e instruções de como instalar o pacote gaal. Mais informações sobre o que o MATLAB é capaz, podem ser obtidas em [4, 27]. No fim de cada capítulo temos um Teste do Capítulo, onde o aluno pode avaliar os seus Álgebra Linear Matricial 19 de agosto de 2000
Prefácio ix conhecimentos. Os Exercícios Numéricos e os Exercícios usando o MATLAB estão resolvidos após o último capítulo utilizando o MATLAB. Desta forma o leitor que não estiver interessado em usar o software pode obter apenas as respostas dos exercícios, enquanto aquele que tiver algum interesse, pode ficar sabendo como os exercícios poderiam ser resolvidos fazendo uso do MATLAB e do pacote gaal. O programa MATLAB pode ser adquirido gratuitamente na compra do Guia do Usuário [27]. Por exemplo, o Guia do Usuário já foi adquirido, através da internet, na livraria Blackwell s na Inglaterra (http://bookshop.blackwell.co.uk), por US$ 61,00, acompanhado de um CD com o programa. Gostaria de agradecer a todos os professores que nos últimos três anos adotaram edições anteriores deste texto em particular aos professores Renato Pedrosa da UNICAMP, Rosa Maria S. B. Chaves da USP-SP, Lana Mara R. dos Santos da UFV e Ana Tucci de Carvalho da PUC-MG. Gostaria de agradecer também aos professores que colaboraram apresentando correções, críticas e sugestões, entre eles Dan Avritzer, Joana Darc A. S. da Cruz, Francisco Dutenhefner, Jorge Sabatucci, Seme Gebara, Alexandre Washington, Vivaldo R. Filho, Hamilton P. Bueno, Paulo A. F. Machado, Helder C. Rodrigues, Flaviana A. Ribeiro, Cristina Marques, Rogério S. Mol, Denise Burgarelli, Maria Laura M. Gomes, Maria Cristina C. Ferreira, Paulo C. de Lima, José Barbosa Gomes, Moacir G. dos Anjos e Daniel C. de Morais Filho. 19 de agosto de 2000 Reginaldo J. Santos
x Prefácio Sugestão de Cronograma Capítulo 1 Capítulo 2 Capítulo 3 Capítulo 4 Capítulo 5 Capítulo 6 Total 4 aulas 4 aulas 6 aulas 6 aulas 6 aulas 4 aulas 30 aulas Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 1 Matrizes e Sistemas Lineares 1.1 Matrizes Operando com matrizes estamos utilizando uma forma compacta de fazermos operações com vários números simultaneamente. Vamos definir operações matriciais análogas às operações com números e provar as propriedades que são válidas para essas operações. Depois disto, o estudo envolvendo operações com vários números pode ser simplificado fazendo operações com as matrizes e usando as propriedades que já foram demonstradas. Por exemplo, veremos que um sistema de várias equações lineares pode ser escrito em termos de uma única equação matricial. Uma matriz A, m n (m por n), é uma tabela de mn números dispostos em m linhas e n 1
2 Matrizes e Sistemas Lineares colunas A i-ésima linha de A é A = a 11 a 12... a 1n a 21 a 22... a 2n..... a m1 a m2... a mn [ ai1 a i2... a in ],. para i = 1,..., m e a j-ésima coluna de A é a 1j a 2j. a mj, para j = 1,..., n. Usamos também a notação A = (a ij ) m n. Dizemos que a ij ou [A] ij é o elemento ou a entrada de posição i, j da matriz A. Se m = n, dizemos que A é uma matriz quadrada de ordem n e os elementos a 11, a 22,..., a nn formam a chamada diagonal (principal) de A. Exemplo 1.1. Considere as seguintes matrizes: [ ] [ 1 2 2 1 A =, B = 3 4 0 3 ], C = D = [ 1 3 2 ], E = 1 4 3 [ 1 3 0 2 4 2 e F = [ 3 ]. Álgebra Linear Matricial 19 de agosto de 2000 ],
1.1 Matrizes 3 As matrizes A e B são 2 2. A matriz C é 2 3, D é 1 3, E é 3 1 e F é 1 1. De acordo com a notação que introduzimos, exemplos de elementos de algumas das matrizes dadas acima são a 12 = 2, c 23 = 2, e 21 = 4, [A] 22 = 4, [D] 12 = 3. Duas matrizes são consideradas iguais se elas têm o mesmo tamanho e os elementos correspondentes são iguais, ou seja, A = (a ij ) m n e B = (b ij ) p q são iguais se m = p, n = q e a ij = b ij para i = 1,..., m e j = 1,..., n. Vamos, agora, introduzir as operações matriciais. 1.1.1 Operações com Matrizes Definição 1.1. A soma de duas matrizes de mesmo tamanho A = (a ij ) m n e B = (b ij ) m n é definida como sendo a matriz C = (c ij ) m n obtida somando-se os elementos correspondentes de A e B, ou seja, c ij = a ij + b ij, para i = 1,..., m e j = 1,..., n. Escrevemos C = A + B e [A + B] ij = a ij + b ij. Exemplo 1.2. Considere as matrizes: [ ] 1 2 3 A =, B = 3 4 0 [ 2 1 5 0 3 4 19 de agosto de 2000 Reginaldo J. Santos ]
4 Matrizes e Sistemas Lineares Se chamamos de C a soma das duas matrizes A e B, então [ ] 1 + ( 2) 2 + 1 3 + 5 C = A + B = = 3 + 0 4 + 3 0 + ( 4) [ 1 3 2 3 7 4 ] Definição 1.2. A multiplicação de uma matriz A = (a ij ) m n por um escalar (número) α é definida pela matriz B = (b ij ) m n obtida multiplicando-se cada elemento da matriz pelo escalar, ou seja, b ij = α a ij, para i = 1,..., m e j = 1,..., n. Escrevemos B = αa e [αa] ij = α a ij. Dizemos que a matriz B é um múltiplo escalar da matriz A. Exemplo 1.3. O produto da matriz A = 2 1 0 3 5 4 ( 3)( 2) ( 3) 1 3 A = ( 3) 0 ( 3) 3 = ( 3) 5 ( 3)( 4) pelo escalar 3 é dado por 6 3 0 9 15 12. Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 5 Definição 1.3. O produto de duas matrizes, tais que o número de colunas da primeira matriz é igual ao número de linhas da segunda, A = (a ij ) m p e B = (b ij ) p n é definido pela matriz C = (c ij ) m n obtida da seguinte forma: c ij = a i1 b 1j + a i2 b 2j +... + a ip b pj (1.1) p = a ik b kj, (1.2) k=1 para i = 1,..., m e j = 1,..., n. Escrevemos C = AB e [AB] ij = p a ik b kj. k=1 A equação (1.1) está dizendo que o elemento i, j do produto é igual à soma dos produtos dos elementos da i-ésima linha de A pelos elementos correspondentes da j-ésima coluna de B. a 11 a 12... a 1p..... a i1 a i2... a ip..... b 11 b 21. b p1............ b 1j b 2j. b pj............ b 1n b 2n. b pn c 11... c 1n =. c ij. c m1... c mn a m1 a m2... a mp Na equação (1.2) estamos usando a notação de somatório para escrever a equação (1.1) de p forma compacta. O símbolo significa que estamos fazendo uma soma em que o índice k está variando de k = 1 até k = p. k=1 19 de agosto de 2000 Reginaldo J. Santos
6 Matrizes e Sistemas Lineares Exemplo 1.4. Considere as matrizes: A = [ 1 2 3 3 4 0 ], B = 2 1 0 0 3 0 5 4 0. Se chamamos de C o produto das duas matrizes A e B, então [ ] 1 ( 2) + 2 0 + ( 3) 5 1 1 + 2 3 + ( 3) ( 4) 0 C = AB = = 3 ( 2) + 4 0 + 0 5 3 1 + 4 3 + 0 ( 4) 0 [ 17 19 0 6 15 0 Observação. No exemplo anterior o produto BA não está definido (por que?). Entretanto, mesmo quando ele está definido, BA pode não ser igual a AB, ou seja, o produto de matrizes não é comutativo, como mostra o exemplo seguinte. [ ] [ 1 2 2 1 Exemplo 1.5. Sejam A = e B = 3 4 0 3 [ ] 2 7 AB = e BA = 6 15 ]. Então, [ 1 0 9 12 ]. ]. Definição 1.4. A transposta de uma matriz A = (a ij ) m n é definida pela matriz B = (b ij ) n m obtida trocando-se as linhas com as colunas, ou seja, b ij = a ji, para i = 1,..., n e j = 1,..., m. Escrevemos B = A t e [A t ] ij = a ji. Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 7 Exemplo 1.6. As transpostas das matrizes [ ] [ 1 2 2 1 A =, B = 3 4 0 3 A t = [ 1 3 2 4 ], B t = ] [ 2 0 1 3 e C = ] [ 1 3 0 2 4 2 e C t = ] 1 2 3 4 0 2. são A seguir, mostraremos as propriedades que são válidas para a álgebra matricial. Várias propriedades são semelhantes àquelas que são válidas para os números reais, mas deve-se tomar cuidado com as diferenças. Uma propriedade importante que é válida para os números reais, mas não é válida para as matrizes é a comutatividade do produto, como foi mostrado no Exemplo 1.5. Por ser compacta, usaremos a notação de somatório na demonstração de várias propriedades. Algumas propriedades desta notação estão explicadas no Apêndice I na página 22. 1.1.2 Propriedades da Álgebra Matricial Teorema 1.1. Sejam A, B e C matrizes com tamanhos apropriados, α e β escalares. São válidas as seguintes propriedades para as operações matriciais: (a) (comutatividade da soma) A + B = B + A; (b) (associatividade da soma) A + (B + C) = (A + B) + C; 19 de agosto de 2000 Reginaldo J. Santos
8 Matrizes e Sistemas Lineares (c) (elemento neutro da soma) Existe uma única matriz 0, m n, tal que A + 0 = A, para toda matriz A, m n. A matriz 0 é chamada matriz nula m n. (d) (elemento simétrico) Para cada matriz A, existe uma única matriz B, tal que A + B = 0. Representamos B por A. (e) (associatividade) α(βa) = (αβ)a; (f) (distributividade) (α + β)a = αa + βa; (g) (distributividade) α(a + B) = αa + αb; (h) (associatividade do produto) A(BC) = (AB)C; (i) (distributividade) A(B + C) = AB + AC e (B + C)A = BA + CA; (j) α(ab) = (αa)b = A(αB); (k) (A t ) t = A; (l) (A + B) t = A t + B t ; (m) (AB) t = B t A t ; (n) (αa) t = α A t ; Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 9 (o) A matriz, n n, I n = chamada matriz identidade é tal que 1 0... 0 0 1... 0..... 0 0... 1, A I n = A, para toda matriz A = (a ij ) m n e I n B = B, para toda matriz B = (b ij ) n m. Demonstração. Para provar as igualdades acima, devemos mostrar que os elementos da matriz do lado esquerdo são iguais aos elementos correspondentes da matriz do lado direito. Serão usadas várias propriedades dos números sem citá-las explicitamente. (a) [A + B] ij = a ij + b ij = b ij + a ij = [B + A] ij ; (b) [A + (B + C)] ij = a ij + [B + C] ij = a ij + (b ij + c ij ) = (a ij + b ij ) + c ij = [A + B] ij + c ij = [(A + B) + C] ij ; (c) Seja X uma matriz m n tal que A + X = A (1.3) para qualquer matriz A, m n. Comparando os elementos correspondentes, temos que a ij + x ij = a ij, ou seja, x ij = 0, para i = 1..., m e j = 1..., n. Portanto, a única matriz que satisfaz (1.3) é a matriz em que todos os seus elementos são iguais a zero. Denotamos a matriz X por 0. 19 de agosto de 2000 Reginaldo J. Santos
10 Matrizes e Sistemas Lineares (d) Dada uma matriz A, m n, seja X uma matriz m n, tal que Comparando os elementos correspondentes, temos que A + X = 0. (1.4) a ij + x ij = 0, ou seja, x ij = a ij, para i = 1..., m e j = 1..., n. Portanto, a única matriz que satisfaz (1.4) é a matriz em que todos os seus elementos são iguais aos simétricos dos elementos de A. Denotamos a matriz X por A. (e) [α(βa)] ij = α[βa] ij = α(βa ij ) = (αβ)a ij = [(αβ)a] ij. (f) [(α + β)a] ij = (α + β)a ij = (αa ij ) + (βa ij ) = [αa] ij + [βa] ij = [αa + βa] ij. (g) [α(a + B)] ij = α[a + B] ij = α(a ij + b ij ) = αa ij + αb ij = [αa] ij + [αb] ij = [αa + αb] ij. (h) A demonstração deste item é a mais trabalhosa. Sejam A, B e C matrizes m p, p q e q n respectivamente. A notação de somatório aqui pode ser muito útil, pelo fato de ser compacta. p p q p q [A(BC)] ij = a ik [BC] kj = a ik ( b kl c lj ) = a ik (b kl c lj ) = = = k=1 p k=1 k=1 q (a ik b kl )c lj = l=1 q l=1 l=1 k=1 p (a ik b kl )c lj = k=1 q [AB] il c lj = [(AB)C] ij. l=1 l=1 q ( l=1 p a ik b kl )c lj = Álgebra Linear Matricial 19 de agosto de 2000 k=1
1.1 Matrizes 11 (i) [A(B + C)] ij = = p p p a ik [B + C] kj = a ik (b kj + c kj ) = (a ik b kj + a ik c kj ) = k=1 p a ik b kj + k=1 k=1 k=1 k=1 p a ik c kj = [AB] ij + [AC] ij = [AB + AC] ij. A outra igualdade é inteiramente análoga a anterior e deixamos como exercício. (j) [α(ab)] ij = α [α(ab)] ij = α p a ik b kj = k=1 p a ik b kj = k=1 p (αa ik )b kj = [(αa)b] ij e k=1 p a ik (αb kj ) = [A(αB)] ij. k=1 (k) [(A t ) t ] ij = [A t ] ji = a ij. (l) [(A + B) t ] ij = [A + B] ji = a ji + b ji = [A t ] ij + [B t ] ij. (m) [(AB) t ] ij = [AB] ji = p a jk b ki = p [A t ] kj [B t ] ik = p [B t ] ik [A t ] kj = [B t A t ] ij. k=1 k=1 k=1 (n) [(αa) t ] ij = [αa] ji = αa ji = α[a t ] ij = [αa t ] ij. (o) A demonstração deste item é simples e deixamos como exercício. A diferença entre duas matrizes de mesmo tamanho A e B é definida por A B = A + ( B), 19 de agosto de 2000 Reginaldo J. Santos
12 Matrizes e Sistemas Lineares ou seja, é a soma da matriz A com a simétrica da matriz B. Sejam A uma matriz n n e p um inteiro positivo. Definimos a potência p de A, por A p = A }.{{.. A}. E para p = 0, definimos A 0 = I n. p vezes Exemplo 1.7. Vamos verificar se para matrizes A e B, quadradas, vale a igualdade Usando a propriedade (i) do teorema anterior obtemos (A + B)(A B) = A 2 B 2. (1.5) (A + B)(A B) = (A + B)A + (A + B)( B) = AA + BA AB BB = A 2 + BA AB B 2 Assim, (A + B)(A B) = A 2 B 2 se, e somente se, BA AB = 0, ou seja, se, e somente se, AB = BA. Como o produto de matrizes não é comutativo, a conclusão é que a igualdade (1.5), não vale para matrizes em geral. Como contra-exemplo basta tomarmos duas matrizes que não comutem entre si. Sejam Para estas matrizes [ 1 0 A + B = 2 1 A = [ 0 0 1 1 ] [ 1 0, A B = 0 1 ] e B = [ 1 0 1 0 ]. ] [ 0 0, A 2 = A = 1 1 ] [ 1 0, B 2 = B = 1 0 ]. Assim, (A + B)(A B) = [ 1 0 2 1 ] [ 1 0 0 1 ] = A 2 B 2. Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 13 Exercícios Numéricos (respostas na página 284) 1.1.1. Considere as seguintes matrizes [ ] [ ] [ ] 2 0 0 4 6 9 7 A = 6 7, B = 2 8, C = 7 3 2, 6 4 0 6 9 9 D = 1 1 4 e E = 1 0 4. 6 0 6 6 0 1 1.1.2. Sejam Se for possível, calcule: (a) AB BA; (b) 2C D; (c) (2D t 3E t ) t ; (d) D 2 DE. A = [ 1 3 0 0 4 2 ] e X = Verifique que 3A 1 + 2A 2 + 5A 3 = AX, onde A j é a j-ésima coluna de A. 1.1.3. Encontre um valor de x tal que AB t = 0, onde 1.1.4. Sejam A = 3 2 5. A = [ x 4 2 ] e B = [ 2 3 5 ]. Encontre: (a) a 1 ạ linha de AB; (b) a 3 ạ coluna de AB; 4 3 9 9 2 2 4 5 5 e B = 9 3 7 4 8 4 5 2 1. (c) a 2 ạ linha de A t B t ; (d) a 2 ạ coluna de A t B t. 19 de agosto de 2000 Reginaldo J. Santos
14 Matrizes e Sistemas Lineares 1.1.5. Mostre que as matrizes A = equação X 2 = 2X. [ 1 1/y y 1 ], onde y é uma número real não nulo, verificam a 1.1.6. Mostre que se A e B são matrizes que comutam com a matriz M = AB = BA. Exercícios usando o MATLAB [ 0 1 1 0 ], então Uma vez inicializado o MATLAB, aparecerá na janela de comandos um prompt >> ou EDU>>. O prompt significa que o MATLAB está esperando um comando. Todo comando deve ser finalizado teclando-se Enter. Comandos que foram dados anteriormente podem ser obtidos novamente usando as teclas e. Enquanto se estiver escrevendo um comando, este pode ser corrigido usando as teclas,, Delete e Backspace. O MATLAB faz diferença entre letras maiúsculas e minúsculas. No MATLAB, pode-se obter ajuda sobre qualquer comando ou função. O comando >> help (sem o prompt >>) mostra uma listagem de todos os pacotes disponíveis. Ajuda sobre um pacote específico ou sobre um comando ou função específica pode ser obtida com o comando >> help nome, (sem a vírgula e sem o prompt >>) onde nome pode ser o nome de um pacote ou o nome de um comando ou função. Além dos comandos e funções pré-definidas, escrevemos um pacote chamado gaal com funções específicas para a aprendizagem de Geometria Anaĺıtica e Álgebra Linear. Este pacote pode ser obtido gratuitamente através da internet no endereço http://www.mat.ufmg.br/~regi, assim como um texto com uma introdução ao MATLAB e instruções de como instalar o pacote gaal. Depois deste pacote ser devidamente instalado, Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 15 o comando help gaal no prompt do MATLAB dá informações sobre este pacote. Mais informações sobre as capacidades do MATLAB podem ser obtidas em [4, 27]. Vamos descrever aqui alguns comandos que podem ser usados para a manipulação de matrizes. Outros comandos serão introduzidos a medida que forem necessários. >> syms x y z diz ao MATLAB que as variáveis x y e z são simbólicas. >> A=[a11,a12,...,a1n;a21,a22,...;...,amn] cria uma matriz, m por n, usando os elementos a11, a12,..., amn e a [ armazena numa ] variável de nome A. Por exemplo, >> 1 2 3 A=[1,2,3;4,5,6] cria a matriz A = ; 4 5 6 >> I=eye(n) cria a matriz identidade n por n e a armazena numa variável I; >> O=zeros(n) ou >> O=zeros(m,n) cria a matriz nula n por n ou m por n, respectivamente, e a armazena numa variável O; >> A+B é a soma de A e B, >> A*B é o produto de A por B, >> A. é a transposta de A, >> A-B é a diferença A menos B, >> num*a é o produto do escalar num por A, >> A^k é a potência A elevado a k. >> A(:,j) é a coluna j da matriz A, >> A(i,:) é a linha i da matriz A. >> diag([d1,...,dn]) cria uma matriz diagonal, cujos elementos da diagonal são iguais aos elementos da matriz [d1,...,dn], ou seja, são d1,...,dn. >> format rat muda a exibição dos números para o formato racional. O comando help format mostra outras possibilidades. >> solve(expr) determina a solução da equação expr=0. Por exemplo, >> solve(x^2-4) determina as soluções da equação x 2 4 = 0; Comando do pacote GAAL: 19 de agosto de 2000 Reginaldo J. Santos
16 Matrizes e Sistemas Lineares >> A=randi(n) ou >> A=randi(m,n) cria uma matriz n por n ou m por n, respectivamente, com elementos inteiros aleatórios entre 5 e 5. 1.1.7. Use o MATLAB para calcular alguns membros da seqüência A, A 2,..., A k,..., para [ ] [ ] 1 1/2 1/2 1/3 (a) A = ; (b) A =. 0 1/3 0 1/5 A seqüência parece estar convergindo para alguma matriz? Se estiver, para qual? 1.1.8. Use o formato racional de exibição de números, >> format rat. Calcule as potências das matrizes dadas a seguir e encontre experimentalmente (por tentativa!) o menor inteiro k > 1 tal que: (a) A k = I 3, onde 0 0 1 A = 1 0 0 ; 0 1 0 (b) A k = A, onde A = 0 1 0 0 1 0 0 0 0 0 0 1 0 0 1 0 ; (c) A k = 0, onde A = 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1.1.9. Vamos fazer um experimento no MATLAB para tentar ter uma idéia do quão comum é encontrar matrizes cujo produto comuta. No prompt do MATLAB digite a seguinte linha: >> c=0; for n=1:1000,a=randi(3);b=randi(3);if(a*b==b*a),c=c+1;end,end,c (não esqueça das vírgulas e pontos e vírgulas!). O que esta linha está mandando o MATLAB fazer é o seguinte: Criar um contador c e atribuir a ele o valor zero. Atribuir às variáveis A e B, 1000 matrizes 3 3 com entradas inteiras e aleatórias entre 5 e 5. Se AB=BA, ou seja, A e B comutarem, então o contador c é acrescido de 1. Álgebra Linear Matricial 19 de agosto de 2000.
1.1 Matrizes 17 No final o valor existente na variável c é escrito. Qual a conclusão que você tira do valor obtido na variável c? 1.1.10. Faça um experimento semelhante ao anterior, mas para o caso em que cada uma das matrizes é diagonal, isto é, os elementos que estão fora da diagonal são iguais a zero. Use a seta para cima para obter novamente a linha digitada e edite a linha no prompt do MATLAB de forma a obter algo semelhante à linha: >> c=0; for n=1:1000,a=diag(randi(1,3));b=diag(randi(1,3));if(... Qual a conclusão que você tira do valor obtido na variável c? 1.1.11. Faça um experimento semelhante ao anterior, mas para o caso em que uma das matrizes é diagonal. Use a seta para cima para obter novamente a linha digitada e edite a linha no prompt do MATLAB de forma a obter a seguinte linha: >> c=0; for n=1:1000,a=diag(randi(1,3));b=randi(3);if(a*b==b*a),c=c+1;a,b,end,end,c Aqui são impressas as matrizes A e B quando elas comutarem. Qual a conclusão que você tira deste experimento? Qual a probabilidade de um tal par de matrizes comutarem? 1.1.12. Use o MATLAB para resolver os Exercícios Numéricos. Exercícios Teóricos 1.1.13. Seja D = (d ij ) n n uma matriz diagonal, isto é, os elementos que estão fora da diagonal são iguais a zero. Sejam d ii = λ i os elementos da diagonal de D. Seja A = (a ij ) n n. 19 de agosto de 2000 Reginaldo J. Santos
18 Matrizes e Sistemas Lineares (a) Mostre que o produto AD é obtido da matriz A multiplicando-se cada coluna j por λ j, ou seja, se A = [ A 1 A 2... A n ], onde A j = AD = [ λ 1 A 1 λ 2 A 2... λ n A n ]. seja, se A = a 1j. a nj é a coluna j de A, então (b) Mostre que o produto DA é obtido da matriz A multiplicando-se cada linha i por λ i, ou A 1 λ 1 A 1 A 2 λ 2 A 2. A n, onde A i = [ a i1... a in ] é a linha i de A, então DA = 1.1.14. Sejam A e B matrizes m p e p n, respectivamente. (a) Mostre que a j-ésima coluna do produto AB é igual ao produto AB j, onde B j =.. λ n A n é a j-ésima coluna de B, ou seja, se B = [ B 1... B n ], então AB = [ AB 1... AB n ]; (b) Mostre que a i-ésima linha do produto AB é igual ao produto A i B, onde A i = A 1 A 1 B A 2 A 2 B [ a i1... a ip ] é a i-ésima linha de A, ou seja, se A = 1.1.15. Seja A uma matriz m n e X = x 1. x n. A m, então AB = b 1j. b pj. A m B. uma matriz n 1. Prove que Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 19 AX = j=1 n x j A j, onde A j é a j-ésima coluna de A. (Sugestão: Desenvolva o lado direito e chegue ao lado esquerdo.) 1.1.16. Sejam X = n 1. x 1. x n, Y = y 1. y n, E 1 = (a) Mostre que X t Y = x 1 y 1 +... + x n y n = 1 0. 0 0, E 2 = 1. 0 0,..., E n = 0. 1 matrizes n x i y i. Em particular, X t E i = x i, EiE t j = 0, i=1 se i j e EiE t i = 1, para i, j = 1,..., n. x 1 y 1... x 1 y n (b) Mostre que XY t =...... Em particular, E i Y t é uma matriz n n, x n y 1... x n y n cuja única linha possivelmente não nula é a linha i, que é igual a Y t e E i Ej t é a matriz n n cujo único elemento não nulo é o elemento i, j, que é igual a 1, para i, j = 1,..., n. (c) Mostre que se A é uma matriz m n, então AE j é igual à coluna j da matriz A e se A é uma matriz n m, então E t ia é igual à linha i da matriz A. 1.1.17. (a) Mostre que se A é uma matriz m n tal que AX = 0, para toda matriz X, n 1, então A = 0. (Sugestão: Use o item (c) do exercício anterior.) (b) Sejam B e C matrizes m n, tais BX = CX, para todo X, n 1. Mostre que B = C. (Sugestão: Use o item anterior.) 19 de agosto de 2000 Reginaldo J. Santos
20 Matrizes e Sistemas Lineares 1.1.18. Mostre que a matriz identidade I n é a única matriz tal que A I n = I n A = A para qualquer matriz A, n n. (Sugestão: Seja J n uma matriz tal que A J n = J n A = A. Mostre que J n = I n.) 1.1.19. Se AB = BA e p é um inteiro positivo, mostre que (AB) p = A p B p. 1.1.20. Sejam A, B e C matrizes n n. (a) (A + B) 2 = A 2 + 2AB + B 2? E se AB = BA? Justifique. (b) (AB)C = C(AB)? E se AC = CA e BC = CB? Justifique. (Sugestão: Veja o Exemplo 1.7 na página 12.) 1.1.21. (a) Se A e B são duas matrizes tais que AB = 0, então A = 0 ou B = 0? Justifique. (b) Se AB = 0, então BA = 0? Justifique. (c) Se A é uma matriz tal que A 2 = 0, então A = 0? Justifique. 1.1.22. Dizemos que uma matriz A, n n, é simétrica se A t = A e é anti-simétrica se A t = A. (a) Mostre que se A é simétrica, então a ij = a ji, para i, j = 1,... n e que se A é antisimétrica, então a ij = a ji, para i, j = 1,... n. Portanto, os elementos da diagonal principal de uma matriz anti-simétrica são iguais a zero. (b) Mostre que se A e B são simétricas, então A + B e αa são simétricas, para todo escalar α. (c) Mostre que se A e B são simétricas, então AB é simétrica se, e somente se, AB = BA. (d) Mostre que se A e B são anti-simétricas, então A + B e αa são anti-simétricas, para todo escalar α. Álgebra Linear Matricial 19 de agosto de 2000
1.1 Matrizes 21 (e) Mostre que para toda matriz A, n n, A + A t é simétrica e A A t é anti-simétrica. (f) Mostre que toda matriz quadrada A pode ser escrita como a soma de uma matriz simétrica e uma anti-simétrica. (Sugestão: Observe o resultado da soma de A + A t com A A t.) 1.1.23. Para matrizes quadradas A = (a ij ) n n definimos o traço de A como sendo a soma dos n elementos da diagonal (principal) de A, ou seja, tr(a) = a ii. (a) Mostre que tr(a + B) = tr(a) + tr(b). (b) Mostre que tr(αa) = αtr(a). (c) Mostre que tr(a t ) = tr(a). (d) Mostre que tr(ab) = tr(ba). (Sugestão: Prove inicialmente para matrizes 2 2.) 1.1.24. Seja A uma matriz n n. Mostre que se AA t = 0, então A = 0. (Sugestão: Use o traço.) E se a matriz A for m n, com m n? 1.1.25. Já vimos que o produto de matrizes não é comutativo. Entretanto, certos conjuntos de matrizes são comutativos. Mostre que: (a) Se D 1 e D 2 são matrizes diagonais n n, então D 1 D 2 = D 2 D 1. (b) Se A é uma matriz n n e i=1 B = a 0 I n + a 1 A + a 2 A 2 +... + a k A k, onde a 0,..., a k são escalares, então AB = BA. 19 de agosto de 2000 Reginaldo J. Santos
22 Matrizes e Sistemas Lineares 1.1.26. (a) Determine todas as matrizes A, 2 2, diagonais que comutam com toda matriz B, 2 2, ou seja, tais que AB = BA, para toda matriz B, 2 2. (b) Determine todas as matrizes A, 2 2, que comutam com toda matriz B, 2 2, ou seja, tais que AB = BA, para toda matriz B, 2 2. Apêndice I: Notação de Somatório São válidas algumas propriedades para a notação de somatório: (a) O índice do somatório é uma variável muda que pode ser substituída por qualquer letra: n f i = i=1 n f j. j=1 (b) O somatório de uma soma pode ser escrito como uma soma de dois somatórios: n (f i + g i ) = i=1 n f i + i=1 n g i. i=1 Pois, n (f i + g i ) = (f 1 + g 1 ) +... + (f n + g n ) = (f 1 +... + f n ) + (g 1 +... + g n ) = i=1 n f i + Aqui foram aplicadas as propriedades associativa e comutativa da soma de números. i=1 n g i. (c) Se no termo geral do somatório aparece um produto, em que um fator não depende do índice do somatório, então este fator pode sair do somatório: Álgebra Linear Matricial 19 de agosto de 2000 i=1
1.1 Matrizes 23 n n f i g k = g k f i. i=1 i=1 Pois, n n f i g k = f 1 g k +... + f n g k = g k (f 1 +... + f n ) = g k f i. Aqui foram aplicadas as i=1 propriedades distributiva e comutativa do produto em relação a soma de números. (d) Num somatório duplo, a ordem dos somatórios pode ser trocada: i=1 n m f ij = i=1 j=1 m n f ij. j=1 i=1 Pois, n i=1 m f ij = j=1 n (f i1 +... + f im ) = (f 11 +... + f 1m ) +... + (f n1 +... + f nm ) = (f 11 +... + i=1 f n1 ) +... + (f 1m +... + f nm ) = m (f 1j +... + f nj ) = j=1 propriedades comutativa e associativa da soma de números. m j=1 n f ij. Aqui foram aplicadas as i=1 19 de agosto de 2000 Reginaldo J. Santos
24 Matrizes e Sistemas Lineares 1.2 Sistemas de Equações Lineares Muitos problemas em várias áreas da Ciência recaem na solução de sistemas lineares. Vamos ver como a álgebra matricial pode simplificar o estudo dos sistemas lineares. Uma equação linear em n variáveis x 1, x 2,..., x n é uma equação da forma a 1 x 1 + a 2 x 2 +... + a n x n = b, onde a 1, a 2,..., a n e b são constantes reais; Um sistema de equações lineares ou simplesmente sistema linear é um conjunto de equações lineares, ou seja, é um conjunto de equações da forma a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2.. =. a m1 x 1 + a m2 x 2 +... + a mn x n = b m onde a ij e b k são constantes reais, para i, k = 1,..., m e j = 1,..., n. Usando as operações matriciais que definimos na seção anterior, o sistema linear acima pode ser escrito como uma equação matricial A X = B, onde A = a 11 a 12... a 1n a 21 a 22... a 2n..... a m1 a m2... a mn, X = x 1 x 2. x n e B = b 1 b 2. b m. Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 25 Uma solução de um sistema linear é uma matriz S = s 1 s 2. s n tal que as equações do sistema são satisfeitas quando substituimos x 1 = s 1, x 2 = s 2,..., x n = s n. O conjunto de todas as soluções do sistema é chamado conjunto solução ou solução geral do sistema. A matriz A é chamada matriz do sistema linear. Exemplo 1.8. O sistema linear de duas equações e duas incógnitas { x + 2y = 1 2x + y = 0 pode ser escrito como [ 1 2 2 1 ] [ x y ] = [ 1 0 A solução (geral) do sistema acima é x = 1/3 e y = 2/3 (verifique!) ou [ ] 1/3 X =. 2/3 Uma forma de resolver um sistema linear é substituir o sistema inicial por outro que tenha o mesmo conjunto solução do primeiro, mas que seja mais fácil de resolver. O outro sistema é obtido depois de aplicar sucessivamente uma série de operações sobre as equações. As operações que são usadas são: Trocar a posição de duas equações do sistema; 19 de agosto de 2000 Reginaldo J. Santos ].
26 Matrizes e Sistemas Lineares Multiplicar uma equação por um escalar diferente de zero; Somar a uma equação outra equação multiplicada por um escalar. Estas operações são chamadas de operações elementares. Quando aplicamos operações elementares sobre as equações de um sistema linear somente os coeficientes do sistema são alterados, assim podemos aplicar as operações sobre a matriz de coeficientes do sistema, que chamamos de matriz aumentada, ou seja, a matriz [A B] = a 11 a 12... a 1n b 1 a 21 a 22... a 2n b 2...... a m1 a m2... a mn b m. Definição 1.5. Uma operação elementar sobre as linhas de uma matriz é uma das seguintes operações: (a) Trocar a posição de duas linhas da matriz; (b) Multiplicar uma linha da matriz por um escalar diferente de zero; (c) Somar a uma linha da matriz um múltiplo escalar de outra linha. O próximo teorema garante que ao aplicarmos operações elementares às equações de um sistema o conjunto solução não é alterado. Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 27 Teorema 1.2. Se dois sistemas lineares AX = B e CX = D, são tais que a matriz aumentada [C D] é obtida de [A B] aplicando-se uma operação elementar, então os dois sistemas possuem as mesmas soluções. Demonstração. A demonstração deste teorema segue de duas observações: (a) Se X é solução de um sistema, então X também é solução do sistema obtido aplicando-se uma operação elementar sobre suas equações (verifique!). (b) Se o sistema CX = D, pode ser obtido de AX = B aplicando-se uma operação elementar às suas equações (ou equivalentemente às linhas da matriz aumentada), então o sistema AX = B também pode ser obtido de CX = D aplicando-se uma operação elementar, pois cada operação elementar possui uma operação elementar inversa do mesmo tipo, que desfaz o que a anterior fez (verifique!). Pela observação (b), AX = B e CX = D podem ser obtidos um do outro aplicando-se uma operação elementar sobre as suas equações. E pela observação (a), os dois possuem as mesmas soluções. Dois sistemas que possuem o mesmo conjunto solução são chamados sistemas equivalentes. Portanto, segue do Teorema 1.2 que aplicando-se operações elementares às equações de um sistema linear obtemos sistemas equivalentes. 1.2.1 Método de Gauss-Jordan O método que vamos usar para resolver sistemas lineares consiste na aplicação de operações elementares às linhas da matriz aumentada do sistema até que obtenhamos uma matriz numa forma 19 de agosto de 2000 Reginaldo J. Santos
28 Matrizes e Sistemas Lineares em que o sistema associado a esta matriz seja de fácil resolução. Vamos procurar obter uma matriz numa forma em que todas as linhas não nulas possuam como primeiro elemento não nulo o número 1 (chamado de pivô). Além disso, se uma coluna contém um pivô, então todos os seus outros elementos terão que ser iguais a zero. Vamos ver no exemplo seguinte como conseguimos isso. Exemplo 1.9. Considere o seguinte sistema 5x + 5y = 15 2x + 4y + z = 10 3x + 4y = 11 A sua matriz aumentada é 5 5 0 15 2 4 1 10 3 4 0 11 1 ạ eliminação: Vamos procurar para pivô da 1 ạ linha um elemento não nulo da primeira coluna não nula (se for o caso, podemos usar a troca de linhas para trazê-lo para a primeira linha). Precisamos fazê-lo igual a um, para isto, multiplicamos a 1 ạ linha por 1/5. 1 1 0 3 1/5 1 ạ linha 2 ạ linha 2 4 1 10 3 4 0 11 Agora, precisamos zerar os outros elementos da 1 ạ coluna, que é a coluna do pivô, para isto, adicionamos à 2 ạ linha, 2 vezes a 1 ạ linha e adicionamos à 3 ạ linha, 3 vezes a 1 ạ linha. 1 1 0 3 2 1 ạ linha + 2 ạ linha 1 ạ linha 3 1 ạ linha + 3 ạ linha 3 ạ 0 2 1 4 linha 0 1 0 2 Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 29 2 ạ eliminação: Olhamos para a sub-matriz obtida eliminando-se a 1 ạ linha. Escolhemos para pivô um elemento diferente de zero na 1 ạ coluna não nula desta sub-matriz. Como temos que fazer o pivô igual a um, vamos escolher o elemento de posição 3,2. Precisamos colocá-lo na 2 ạ linha, para isto, trocamos a 3 ạ linha com a 2 ạ. 1 1 0 3 2 ạ linha 3 ạ linha 0 1 0 2 0 2 1 4 Agora, precisamos zerar os outros elementos da 2 ạ coluna, que é a coluna do pivô, para isto, somamos à 3 ạ linha, 2 vezes a 2 ạ e somamos à 1 ạ linha, 1 vezes a 2 ạ. 2 2 ạ linha + 3 ạ linha 3 ạ 1 0 0 1 linha 1 2 ạ linha + 1 ạ linha 1 ạ 0 1 0 2 linha 0 0 1 0 Portanto o sistema dado é equivalente ao sistema x = 1 y = 2 z = 0 que possui solução geral dada por X = x y z = 1 2 0. A última matriz que obtivemos está na forma que chamamos de escalonada reduzida. 19 de agosto de 2000 Reginaldo J. Santos
30 Matrizes e Sistemas Lineares Definição 1.6. Uma matriz A = (a ij ) m n está na forma escalonada reduzida quando satisfaz as seguintes condições: (a) Todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das linhas não nulas; (b) O primeiro elemento não nulo de cada linha não nula, chamado pivô, é igual a 1; (c) O pivô da linha i + 1 ocorre à direita do pivô da linha i, para i = 1,..., m 1. (d) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero. Se uma matriz satisfaz as propriedades (a) e (c), mas não necessariamente (b) e (d), dizemos que ela está na forma escalonada. Exemplo 1.10. As matrizes 1 3 0 0 5 0 0 1 0 2 0 0 0 1 2, 0 1 0 0 3 0 0 1 0 1 0 0 0 1 5 e 1 0 0 0 1 0 0 0 1 são escalonadas reduzidas, enquanto 2 3 0 1 5 0 0 1 4 2 0 0 0 1 2, 0 5 4 0 3 0 0 1 0 1 0 0 0 1 5 e 4 0 3 0 3 0 0 0 2 são escalonadas, mas não são escalonadas reduzidas. Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 31 Este método de resolução de sistemas, que consiste em aplicar operações elementares às linhas da matriz aumentada até que ela esteja na forma escalonada reduzida, é conhecido como método de Gauss-Jordan. Exemplo 1.11. Considere o seguinte sistema 3z 9w = 6 5x + 15y 10z + 40w = 45 4x + 12y 2z + 14w = 24 x + 3y z + 5w = 7 A sua matriz aumentada é 0 0 3 9 6 5 15 10 40 45 4 12 2 14 24 1 3 1 5 7 1 ạ eliminação: Como temos que fazer o pivô igual a um, escolhemos para pivô o elemento de posição 4,1. Precisamos colocá-lo na primeira linha, para isto, trocamos a 4 ạ linha com a 1 ạ. 1 ạ linha 4 ạ linha 1 3 1 5 7 5 15 10 40 45 4 12 2 14 24 0 0 3 9 6 Agora, precisamos zerar os outros elementos da 1 ạ coluna, que é a coluna do pivô, para isto, adicionamos à 2 ạ linha, 5 vezes a 1 ạ e adicionamos à 3 ạ linha, 4 vezes a 1 ạ. 19 de agosto de 2000 Reginaldo J. Santos
32 Matrizes e Sistemas Lineares 5 1 ạ linha + 2 ạ linha 2 ạ linha 4 1 ạ linha + 3 ạ linha 3 ạ linha 1 3 1 5 7 0 0 5 15 10 0 0 2 6 4 0 0 3 9 6 2 ạ eliminação: Olhamos para a sub-matriz obtida eliminando-se a 1 ạ linha. Escolhemos para pivô um elemento diferente de zero na 1 ạ coluna não nula desta sub-matriz. Escolhemos o elemento 2,3. Como temos que fazer o pivô igual a 1, multiplicamos a 2 ạ linha por 1/5. (1/5) 2 ạ linha 2 ạ linha 1 3 1 5 7 0 0 1 3 2 0 0 2 6 4 0 0 3 9 6 Agora, precisamos zerar os outros elementos da 2 ạ coluna, que é a coluna do pivô, para isto, adicionamos à 1 ạ linha a 2 ạ, adicionamos à 3 ạ linha, 2 vezes a 2 ạ e à 4 ạ linha, 3 vezes a 2 ạ. 2 ạ linha + 1 ạ linha 1 ạ 1 3 0 2 5 linha 2 2 ạ linha + 3 ạ linha 3 ạ linha 0 0 1 3 2 3 2 ạ linha + 4 ạ linha 4 ạ 0 0 0 0 0 linha 0 0 0 0 0 Esta matriz é escalonada reduzida. Portanto o sistema dado é equivalente ao sistema seguinte { x + 3y + 2w = 5 z 3w = 2. A matriz deste sistema possui duas colunas sem pivôs. As variáveis que não estão associadas a pivôs podem ser consideradas variáveis livres, isto é, podem assumir valores arbitrários. Vamos Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 33 considerar as variáveis y e w variáveis livres. Sejam w = α e y = β. As variáveis associadas aos pivôs terão os seus valores dependentes das variáveis livres, z = 2 + 3α, x = 5 2α 3β. Assim, a solução geral do sistema é X = x y z w = 5 2α 3β β 2 + 3α α para todos os valores de α e β reais. Exemplo 1.12. Considere o seguinte sistema x + 3y + 13z = 9 y + 5z = 2 2y 10z = 8 A sua matriz aumentada é 1 3 13 9 0 1 5 2 0 2 10 8 1 ạ eliminação: Como o pivô da 1 ạ linha é igual a 1 e os outros elementos da 1 ạ coluna são iguais a zero, não há nada o que fazer na 1 ạ eliminação. 1 3 13 9 0 1 5 2 0 2 10 8 19 de agosto de 2000 Reginaldo J. Santos
34 Matrizes e Sistemas Lineares 2 ạ eliminação: Olhamos para submatriz obtida eliminando-se a 1 ạ linha. Escolhemos para pivô um elemento não nulo da 1 ạ coluna não nula da submatriz. Escolhemos o elemento de posição 2,2. Como ele é igual a 1, precisamos, agora, zerar os outros elementos da coluna do pivô. Para isto somamos à 1 ạ linha, 3 vezes a 2 ạ e somamos à 3 ạ linha, 2 vezes a 2 ạ. 3 2 ạ linha + 1 ạ linha 1 ạ linha 2 2 ạ linha + 3 ạ linha 3 ạ linha 1 0 2 3 0 1 5 2 0 0 0 4 Portanto o sistema dado é equivalente ao sistema x 2z = 3 y + 5z = 2 0 = 4 que não possui solução. Em geral, um sistema linear não tem solução se, e somente se, a última linha não nula da forma escalonada reduzida da sua matriz aumentada for da forma [ 0... 0 b m ], com b m 0. Observação. Para se encontrar a solução de um sistema linear não é necessário transformar a matriz aumentada do sistema na sua forma escalonada reduzida, mas se a matriz está nesta forma, o sistema associado é o mais simples possível. Um outro método de resolver sistemas lineares consiste em, através da aplicação de operações elementares à matriz aumentada do sistema, se chegar a uma matriz que é somente escalonada (isto é, uma matriz que satisfaz as condições (a) e (c), mas não necessariamente (b) e (d) da Definição 1.6). Este método é conhecido como método de Gauss. Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 35 Proposição 1.3. Sejam A uma matriz m n e B uma matriz m 1. Se o sistema linear A X = B possui duas soluções distintas X 0 X 1, então ele tem infinitas soluções. Demonstração. Seja X λ = (1 λ)x 0 + λx 1, para λ R. Vamos mostrar que X λ é solução do sistema A X = B, para qualquer λ R. Para isto vamos mostrar que A X λ = B. Aplicando as propriedades (i), (j) das operações matriciais (Teorema 1.1 na página 7) obtemos A X λ = A[(1 λ)x 0 + λx 1 ] = A(1 λ)x 0 + AλX 1 = (1 λ)a X 0 + λa X 1 Como X 0 e X 1 são soluções de A X = B, então A X 0 = B e A X 1 = B, portanto A X λ = (1 λ)b + λb = [(1 λ) + λ]b = B, pela propriedade (f) do Teorema 1.1. Assim o sistema A X = B tem infinitas soluções, pois para todo valor de λ R, X λ é solução e X λ X λ = (λ λ )(X 1 X 0 ), ou seja, X λ X λ, para λ λ. Observe que para λ = 0, X λ = X 0, para λ = 1, X λ = X 1, para λ = 1/2, X λ = 1 2 X 0 + 1 2 X 1, para λ = 3, X λ = 2X 0 + 3X 1 e para λ = 2, X λ = 3X 0 2X 1. Para resolver sistemas lineares vimos aplicando operações elementares à matriz aumentada do sistema linear. Isto pode ser feito com quaisquer matrizes. 19 de agosto de 2000 Reginaldo J. Santos
36 Matrizes e Sistemas Lineares 1.2.2 Matrizes Equivalentes por Linhas Definição 1.7. Uma matriz A = (a ij ) m n é equivalente por linhas a uma matriz B = (b ij ) m n, se B pode ser obtida de A aplicando-se uma seqüência de operações elementares sobre as suas linhas. Exemplo 1.13. Observando os Exemplos 1.9, 1.11 e 1.12, vemos que as matrizes 0 0 3 9 6 5 5 0 15 2 4 1 10, 5 15 10 40 45 1 3 13 9 4 12 2 14 24, 0 1 5 2 3 4 0 11 0 2 10 8 1 3 1 5 7 são equivalentes por linhas às matrizes 1 0 0 1 0 1 0 2, 0 0 1 0 1 3 0 2 5 0 0 1 3 2 0 0 0 0 0 0 0 0 0 0, 1 0 2 3 0 1 5 2 0 0 0 4, respectivamente. Matrizes estas que são escalonadas reduzidas. Cuidado: elas são equivalentes por linhas, não são iguais! A relação ser equivalente por linha satisfaz as seguintes propriedades, cuja verificação deixamos como exercício para o leitor: Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 37 Toda matriz é equivalente por linhas a ela mesma (reflexividade); Se A é equivalente por linhas a B, então B é equivalente por linhas a A (simetria); Se A é equivalente por linhas a B e B é equivalente por linhas a C, então A é equivalente por linhas a C (transitividade). Em geral, qualquer matriz é equivalente por linhas a uma matriz escalonada reduzida e a demonstração, que omitiremos, pode ser feita da mesma forma que fizemos no caso particular das matrizes aumentadas dos Exemplos 1.9, 1.11 e 1.12. Além disso, a forma escalonada reduzida de uma matriz é única, pois se existissem duas, pelas propriedades da equivalência por linhas apresentadas acima, as duas seriam equivalentes por linha, ou seja, poderíamos obter uma da outra aplicando-se operações elementares. Mas, se aplicarmos qualquer operação elementar, que modifique uma matriz escalonada reduzida, a matriz obtida não será mais escalonada reduzida. Portanto, a forma escalonada reduzida é única. Teorema 1.4. Toda matriz A = (a ij ) m n é equivalente por linhas a uma única matriz escalonada reduzida R = (r ij ) m n. O próximo resultado será de utilidade no estudo da inversão de matrizes. Proposição 1.5. Seja R uma matriz n n, na forma escalonada reduzida. Se R I n, então R tem uma linha nula. 19 de agosto de 2000 Reginaldo J. Santos
38 Matrizes e Sistemas Lineares Demonstração. Observe que o pivô de uma linha i está sempre numa coluna j com j i. Portanto, ou a última linha de R é nula ou o pivô da linha n está na posição n, n. Mas, neste caso todas as linhas anteriores são não nulas e os pivôs de cada linha i está na coluna i, ou seja, R = I n. 1.2.3 Sistemas Lineares Homogêneos Um sistema linear da forma a 11 x 1 + a 12 x 2 +... + a 1n x n = 0 a 21 x 1 + a 22 x 2 +... + a 2n x n = 0.. =. a m1 x 1 + a m2 x 2 +... + a mn x n = 0 (1.6) é chamado sistema homogêneo. O sistema (1.6) pode serescrito como A X = 0. Todo sistema x 1 0 x 2 homogêneo admite pelo menos a solução X =. = chamada de solução trivial. 0. x n 0 Portanto, todo sistema homogêneo tem solução. Observação. Para resolver um sistema linear homogêneo A X = 0, basta escalonarmos a matriz A do sistema, já que sob a ação de uma operação elementar a coluna de zeros não é alterada. Mas, é preciso ficar atento quando se escreve o sistema linear associado à matriz resultante das operações elementares, para se levar em consideração esta coluna de zeros que não vimos escrevendo. Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 39 Teorema 1.6. Se A = (a ij ) m n, é tal que m < n, então o sistema homogêneo AX = 0 tem solução diferente da solução trivial, ou seja, todo sistema homogêneo com menos equações do que incógnitas tem infinitas soluções. Demonstração. Como o sistema tem menos equações do que incógnitas (m < n), o número de linhas não nulas r da forma escalonada reduzida da matriz aumentada do sistema também é tal que r < n. Assim, temos r pivôs e n r incógnitas livres, que podem assumir todos os valores reais. Logo, o sistema admite solução não trivial. Exemplo 1.14. O conjunto solução de um sistema linear homogêneo satisfaz duas propriedades interessantes: (a) Se X e Y são soluções do sistema homogêneo AX = 0, então AX = 0 e AY = 0 e portanto X + Y também é solução pois, A(X + Y ) = AX + AY = 0 + 0 = 0; (b) Se X é solução do sistema homogêneo AX = 0, então αx também o é, pois A(αX) = αax = α 0 = 0. Portanto, se X e Y são soluções de um sistema homogêneo, então X+Y e αx também o são. Estas propriedades não são válidas para sistemas lineares em geral. Por exemplo, considere o sistema linear A X = B, onde A = [1] e B = [1]. A solução deste sistema é X = [1]. Mas, X + X = 2 X = 2, não é solução do sistema. 19 de agosto de 2000 Reginaldo J. Santos
40 Matrizes e Sistemas Lineares 1.2.4 Matrizes Elementares (opcional) Definição 1.8. Uma matriz elementar n n é uma matriz obtida da matriz identidade I n aplicando-se uma, e somente uma, operação elementar. Vamos denotar por E ij a matriz elementar obtida trocando-se a linha i com a linha j da matriz I n, E i (α) a matriz elementar obtida multiplicando-se a linha i da matriz I n pelo escalar α 0 e E i,j (α) a matriz elementar obtida da matriz I n, somando-se à linha j, α vezes a linha i. 1 0 0 1 0 0 E i,j =. 0.. 1 0... 1.. i..... 1... 0 j 1... 0 0 0 1 0... 1, E i (α) = α i 1... 0 0 0 1 1 0 0 0... 1 i e E i,j (α) =.... α... 1 j... 0 0 0 1 Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 41 Exemplo 1.15. As matrizes seguintes são as matrizes elementares 2 2: [ ] [ ] [ ] 0 1 α 0 1 0 E 1,2 = E 2,1 =, E 1 0 1 (α) =, E 0 1 2 (α) =, com α 0, 0 α [ ] [ ] 1 0 1 α E 1,2 (α) = e E α 1 2,1 (α) =. 0 1 1 0 0 Sejam E 1 = 0., E 2 = 1.,..., E n = matrizes m 1. 0. 0 0 1 As matrizes elementares podem ser escritas em termos das matrizes E i como E i,j = E t 1. E t j. E t i. i, E i (α) = j E t 1. αe t i. E t m i e E i,j (α) = E t 1. E t i i. Ej t + αei t j. E t m E t m Aplicar uma operação elementar em uma matriz, corresponde a multiplicar a matriz à esquerda por uma matriz elementar, como mostra o resultado a seguir. Teorema 1.7. Sejam E uma matriz elementar m m e A uma matriz qualquer m n. Então, EA é igual à matriz obtida aplicando-se na matriz A a mesma operação elementar que originou E. 19 de agosto de 2000 Reginaldo J. Santos
42 Matrizes e Sistemas Lineares Demonstração. Como a i-ésima linha de um produto de matrizes BA é igual a B i A, onde B i é a i-ésima linha da matriz B (Exercício 1.1.14 na página 18) e E t ia = A i, onde A i é a linha i da matriz A (Exercício 1.1.16 (c) na página 19), então: E i,j A = i j E t 1. E t j. E t i. E t m A = E t 1A. E t ja. E t ia. E t ma i j = A 1. A j. A i. A m i j E i (α)a = i E t 1. αe t i. E t m A = E t 1A. αe t ia. E t ma i = A 1. αa i. A m i Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 43 E i,j (α)a = i j E t 1. E t i. Ej t + αei t. E t m A = E t 1A. E t ia. E t ja + αe t ia. E t ma i j = A 1. A i. A j + αa i. A m i j Assim, aplicar uma seqüência de operações elementares em uma matriz, corresponde a multiplicar a matriz à esquerda por um produto de matrizes elementares. Exemplo 1.16. Quando usamos o método de Gauss-Jordan para resolver o sistema do Exemplo 1.9 na página 28, aplicamos uma seqüência de operações elementares na matriz aumentada do sistema. Isto corresponde a multiplicar a matriz aumentada [ A B ] = à esquerda pelas matrizes elementares 1 0 0 5 E 1 (1/5) = 0 1 0, E 1,2 ( 2) = 0 0 1 5 5 0 15 2 4 1 10 3 4 0 11 1 0 0 2 1 0 0 0 1, E 1,3 ( 3) = 1 0 0 0 1 0 3 0 1 19 de agosto de 2000 Reginaldo J. Santos,
44 Matrizes e Sistemas Lineares E 2,3 = 1 0 0 0 0 1 0 1 0, E 2,3 ( 2) = 1 0 0 0 1 0 0 2 1, E 2,1 ( 1) = 1 1 0 0 1 0 0 0 1, ou seja, E 2,1 ( 1) E 2,3 ( 2) E 2,3 E 1,3 ( 3) E 1,2 ( 2) E 1 (1/5) [ A B ] = 1 0 0 1 0 1 0 2 0 0 1 0. Exercícios Numéricos (respostas na página 286) 1.2.1. Quais das seguintes matrizes estão na forma escalonada reduzida: 1 0 0 0 3 0 1 0 0 4 A = 0 0 1 0 4, B = 0 0 1 0 5 0 0 0 1 2 0 0 0 1 2 C = 1 0 0 0 3 0 0 1 0 0 0 0 0 1 2 0 0 0 0 0, D = 0 0 0 0 0 0 0 1 2 4 0 0 0 1 0 0 0 0 0 0 1.2.2. Em cada item suponha que a matriz aumentada de um sistema foi transformada usando operações elementares na matriz escalonada reduzida dada. Resolva o sistema correspondente. Álgebra Linear Matricial 19 de agosto de 2000,.
1.2 Sistemas de Equações Lineares 45 (a) (b) 1 0 0 7 8 0 1 0 3 2 0 0 1 1 5 ; 1 6 0 0 3 2 0 0 1 0 4 7 0 0 0 1 5 8 0 0 0 0 0 0 ; (c) (d) 1 0 0 0 6 0 1 0 0 3 0 0 1 1 2 ; 1 7 0 0 8 3 0 0 1 0 6 5 0 0 0 1 3 9 0 0 0 0 0 0. 1.2.3. Resolva, usando o método de Gauss-Jordan, os seguintes sistemas: (a) (b) (c) x 1 + x 2 + 2x 3 = 8 x 1 2x 2 + 3x 3 = 1 3x 1 7x 2 + 4x 3 = 10 2x 1 + 2x 2 + 2x 3 = 0 2x 1 + 5x 2 + 2x 3 = 1 8x 1 + x 2 + 4x 3 = 1 2x 2 + 3x 3 = 1 3x 1 + 6x 2 3x 3 = 2 6x 1 + 6x 2 + 3x 3 = 5 ;. ; 1.2.4. Os sistemas lineares seguintes possuem a mesma matriz A. Resolva-os usando o método de Gauss-Jordan. Observe que os dois sistemas podem ser resolvidos ao mesmo tempo escalonando a matriz aumentada [ A B 1 B 2 ]. (a) x 1 2x 2 + x 3 = 1 2x 1 5x 2 + x 3 = 2 3x 1 7x 2 + 2x 3 = 1 ; (b) x 1 2x 2 + x 3 = 2 2x 1 5x 2 + x 3 = 1 3x 1 7x 2 + 2x 3 = 2. 19 de agosto de 2000 Reginaldo J. Santos
46 Matrizes e Sistemas Lineares 1.2.5. Seja A = 1 0 5 1 1 1 0 1 4. (a) Encontre a solução geral do sistema ( 4I 3 A)X = 0; (b) Encontre a solução geral do sistema (2I 3 A)X = 0. 1.2.6. Para cada sistema linear dado, encontre todos os valores de a para os quais o sistema não tem solução, tem solução única e tem infinitas soluções: (a) (b) x + 2y 3z = 4 3x y + 5z = 2 4x + y + (a 2 14)z = a + 2 x + y + z = 2 2x + 3y + 2z = 5 2x + 3y + (a 2 1)z = a + 1 1.2.7. Uma indústria produz três produtos, A, B e C, utilizando dois tipos de insumo, X e Y. Para a manufatura de cada kg de A são utilizados 1 grama do insumo X e 2 gramas do insumo Y; para cada kg de B, 1 grama de insumo X e 1 grama de insumo Y e, para cada kg de C, 1 grama de X e 4 gramas de Y. O preço de venda do kg de cada um dos produtos A, B e C é R$ 2,00, R$ 3,00 e R$ 5,00, respectivamente. Com a venda de toda a produção de A, B e C manufaturada com 1 kg de X e 2 kg de Y, essa indústria arrecadou R$ 2500,00. Determine quantos kg de cada um dos produtos A, B e C foram vendidos. 1.2.8. Determine os coeficientes a, b, c e d da função polinomial p(x) = ax 3 + bx 2 + cx + d, cujo gráfico passa pelos pontos P 1 = (0, 10), P 2 = (1, 7), P 3 = (3, 11) e P 4 = (4, 14). Álgebra Linear Matricial 19 de agosto de 2000. ;
1.2 Sistemas de Equações Lineares 47 30 y 20 10 0 x 10 20 30 2 1 0 1 2 3 4 5 6 1.2.9. Determine coeficientes a, b e c da equação do círculo, x 2 + y 2 + ax + by + c = 0, que passa pelos pontos P 1 = ( 2, 7), P 2 = ( 4, 5) e P 3 = (4, 3). 8 y 6 4 2 0 x 2 4 6 4 2 0 2 4 6 8 1.2.10. Encontre condições sobre os b i s para que cada um dos sistemas seja consistente (isto é, tenha solução): (a) x 1 2x 2 + 5x 3 = b 1 4x 1 5x 2 + 8x 3 = b 2 ; (b) 3x 1 + 3x 2 3x 3 = b 3 x 1 2x 2 x 3 = b 1 4x 1 + 5x 2 + 2x 3 = b 2. 4x 1 + 7x 2 + 4x 3 = b 3 19 de agosto de 2000 Reginaldo J. Santos
48 Matrizes e Sistemas Lineares 1.2.11. (Relativo à sub-seção 1.2.4) Considere a matriz 0 1 7 8 A = 1 3 3 8. 2 5 1 8 Encontre matrizes elementares E, F, G e H tais que R = EF GHA é uma matriz escalonada reduzida. (Sugestão: veja o Exemplo 1.16 na página 43.) Exercícios usando o MATLAB Comandos do MATLAB: >> A=[A1,...,An] cria uma matriz A formada pelas matrizes, definidas anteriormente, A1,..., An colocadas uma ao lado da outra; >> expr=subs(expr,x,num) substitui na expressão expr a variável x por num. >> clf limpa a figura ativa. Comandos do pacote GAAL: >> B=opel(alpha,i,A) ou >> oe(alpha,i,a)faz a operação elementar alpha linha i ==> linha i da matriz A e armazena a matriz resultante em B. >> B=opel(alpha,i,j,A) ou >> oe(alpha,i,j,a) faz a operação elementar alpha linha i + linha j ==> linha j da matriz A e armazena em B. >> B=opel(A,i,j) ou >> oe(a,i,j) faz a troca da linha i com a linha j da matriz A e armazena a matriz resultante em B. >> B=escalona(A) calcula passo a passo a forma escalonada reduzida da matriz A e armazena a matriz resultante na variável B. Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 49 >> matvand(p,k) obtem a matriz de Vandermonde de ordem k, se P=[x1;...;xn] e a matriz de Vandermonde generalizada no caso em que P=[x1,y1;...;xn,yn]. >> po([x1,y1;x2,y2;...xk,yk]) desenha os pontos (x1,y1),...,(xk,yk). >> plotf1(f,[a,b]) desenha o gráfico da função dada pela expressão simbólica f no intervalo [a,b]. >> plotci(f,[a,b],[c,d]) desenha o gráfico da curva dada implicitamente pela expressão f(x,y)=0 na região do plano [a,b]x[c,d]. >> eixos desenha os eixos coordenados. 1.2.12. Resolva, usando o método de Gauss-Jordan, os seguintes sistemas: (a) (b) 1.2.13. Considere a matriz A = x 1 + 2x 2 3x 4 + x 5 = 2 x 1 + 2x 2 + x 3 3x 4 + x 5 + 2x 6 = 3 x 1 + 2x 2 3x 4 + 2x 5 + x 6 = 4 3x 1 + 6x 2 + x 3 9x 4 + 4x 5 + 3x 6 = 9 x 1 + 3x 2 2x 3 + 2x 5 = 0 2x 1 + 6x 2 5x 3 2x 4 + 4x 5 3x 6 = 1 5x 3 + 10x 4 + 15x 6 = 5 2x 1 + 6x 2 + 8x 4 + 4x 5 + 18x 6 = 6 1 1 1 1 1 3 2 a 2 2 a 2 a 2 3 a 1 3 a + 2 3 2 a + 1 sistema AX = B, onde B = [ 4 3 1 6 ] t, para todos os valores de a. 1.2.14. Resolva os sistemas lineares cujas matrizes aumentadas são: ; ;. Determine o conjunto solução do 19 de agosto de 2000 Reginaldo J. Santos
50 Matrizes e Sistemas Lineares (a) (b) 1 2 3 1 8 1 3 0 1 7 1 0 2 1 3 ; 1 1 3 3 0 0 2 1 3 3 1 0 2 1 1 ; (c) 1 2 3 0 1 1 1 0 1 1 2 0 1 3 3 0 ; 1.2.15. (a) Use o comando P=randi(4,2), para gerar 4 pontos com entradas inteiras e aleatórias entre 5 e 5. Os pontos estão armazenados nas linhas da matriz P. (b) Use o MATLAB para tentar encontrar os coeficientes a, b, c e d da função polinomial p(x) = ax 3 +bx 2 +cx+d cujo gráfico passa pelos pontos dados pelas linhas da matriz P. A matriz A=matvand(P(:,1),3) pode ser útil na solução deste problema, assim como a matriz B=P(:,2). Se não conseguiu, repita o passo anterior. Por que pode não ser possível? (c) Desenhe os pontos e o gráfico do polinômio com os comandos clf,po(p) syms x, plotf1(a*x^3+b*x^2+c*x+d,[-5,5]), onde a,b,c e d são os coeficientes encontrados no item anterior. (d) Desenhe os eixos coordenados com o comando eixos. 1.2.16. (a) Use o comando P=randi(5,2), para gerar 5 pontos com entradas inteiras e aleatórias entre 5 e 5. Os pontos estão armazenados nas linhas da matriz P. (b) Use o MATLAB para tentar encontrar os coeficientes a, b, c, d, e e f da cônica, curva de equação ax 2 + bxy + cy 2 + dx + ey + f = 0, cujo gráfico passa pelos pontos cujas coordenadas são dadas pelas linhas da matriz P. A matriz A=matvand(P,2) pode ser útil na solução deste problema. Se não conseguiu, repita o passo anterior. Por que pode não ser possível? Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 51 (c) Desenhe os pontos e a cônica com os comandos clf,po(p), syms x y, plotci(a*x^2+b*x*y+c*y^2+d*x+e*y+f,[-5,5],[-5,5]), onde a,b,c,d,e e f são os coeficientes encontrados no item anterior. (d) Desenhe os eixos coordenados com o comando eixos. 1.2.17. Use o MATLAB e resolva os Exercícios Numéricos a partir do Exercício 1.2.3. Exercícios Teóricos 1.2.18. Suponha que [C D] é obtida de [A B] aplicando-se uma operação elementar sobre suas linhas. Mostre que X é solução do sistema linear A X = B se, e somente se, X também é solução de C X = D, 1.2.19. Mostre que toda operação elementar possui inversa, do mesmo tipo, ou seja, para cada operação elementar existe uma outra operação elementar do mesmo tipo que desfaz o que a operação anterior fez. 1.2.20. Prove que: (a)toda matriz é equivalente por linhas a ela mesma; (b)se A é equivalente por linhas a B, então B é equivalente por linhas a A; (c)se A é equivalente por linhas a B e B é equivalente por linhas a C, então A é equivalente por linhas a C. 1.2.21. Sejam X 1 e X 2 soluções do sistema homogêneo A X = 0. Mostre que αx 1 + βx 2 é solução, para quaisquer escalares α e β. Mostre que a afirmação anterior não é verdadeira para sistemas lineares em geral. (Sugestão: Ver o Exemplo 1.14.) 1.2.22. Sejam A uma matriz m n e B uma matriz m 1. (a) Mostre que se X 1 é uma solução do sistema AX = B e Y 1 é uma solução do sistema homogêneo associado AX = 0, então X 1 + Y 1 é solução de AX = B. 19 de agosto de 2000 Reginaldo J. Santos
52 Matrizes e Sistemas Lineares (b) Seja X 0 solução particular do sistema AX = B. Mostre que toda solução X do sistema AX = B, pode ser escrita como X = X 0 + Y, onde Y é uma solução do sistema homogêneo associado, AX = 0. Assim, a solução geral do sistema AX = B é a soma de uma solução particular de AX = B com a solução geral do sistema homogêneo associado AX = 0. (Sugestão: Escreva X = X 0 + (X X 0 ) e mostre que X X 0 é solução do sistema homogêneo AX = 0.) Álgebra Linear Matricial 19 de agosto de 2000
1.2 Sistemas de Equações Lineares 53 Teste do Capítulo 1. Para o sistema linear dado, encontre todos os valores de a para os quais o sistema não tem solução, tem solução única e tem infinitas soluções: x + 2y + z = 3 x + y z = 2 x + y + (a 2 5)z = a 2. Se possível, encontre os valores de x, y e z tais que: 1 2 3 40 16 x 2 5 3 13 5 y = 1 0 8 5 2 z 1 0 0 0 1 0 0 0 1 3. Sejam D = [ 1 0 0 1 ] [. e P = Sabendo-se que A = P t DP, calcule D 2, P P t e A 2. 4. Responda Verdadeiro ou Falso, justificando: (a) Se A 2 = 2A 4, então (I n + A 2 )(I n 2A 2 ) = I n ; cos θ sen θ sen θ cos θ ]. 19 de agosto de 2000 Reginaldo J. Santos
54 Matrizes e Sistemas Lineares (b) Se A = P t DP, onde D é uma matriz diagonal, então A t = A; (c) Se D é uma matriz diagonal, então DA = AD, para toda matriz A, n n; (d) Se B = AA t, então B = B t. (e) Se B e A são tais que A = A t e B = B t, então C = AB, é tal que C t = C. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 2 Inversão de Matrizes e Determinantes 2.1 Matriz Inversa Todo número real a, não nulo, possui um inverso (multiplicativo), ou seja, existe um número b, tal que a b = b a = 1. Este número é único e o denotamos por a 1. Apesar da álgebra matricial ser semelhante à álgebra dos números reais, nem todas as matrizes A não nulas possuem inversa, ou seja, nem sempre existe uma matriz B tal que A B = B A = I n. De início, para que os produtos AB e BA estejam definidos e sejam iguais é preciso que as matrizes A e B sejam quadradas. Portanto, somente as matrizes quadradas podem ter inversa, o que já diferencia do caso dos números reais, onde todo número não nulo tem inverso. Mesmo entre as matrizes quadradas, muitas não possuem inversa. 55
56 Inversão de Matrizes e Determinantes Definição 2.1. Uma matriz quadrada A = (a ij ) n n é invertível ou não singular, se existe uma matriz B = (b ij ) n n tal que A B = B A = I n, (2.1) onde I n é a matriz identidade. A matriz B é chamada de inversa de A. Se A não tem inversa, dizemos que A é singular ou não invertível. Exemplo 2.1. Considere as matrizes [ ] 2 1 A = 0 3 e B = [ 1/2 1/6 0 1/3 ]. A matriz B é a inversa da matriz A, pois A B = B A = I 2. Teorema 2.1. Se uma matriz A = (a ij ) n n possui inversa, então a inversa é única. Demonstração. Suponhamos que B e C sejam inversas de A. Então, AB = BA = I n = AC = CA e assim, B = B I n = B(AC) = (BA)C = I n C = C. Denotamos a inversa de A, quando ela existe, por A 1. Devemos chamar atenção para o fato de que o índice superior 1, aqui, não significa uma potência, tão pouco uma divisão. Assim como no caso da transposta, em que A t significa a transposta de A, aqui, A 1 significa a inversa de A. Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 57 2.1.1 Propriedades da Inversa Teorema 2.2. (a) Se A é invertível, então A 1 também o é e (A 1 ) 1 = A ; (b) Se A = (a ij ) n n e B = (b ij ) n n são matrizes invertíveis, então AB é invertível e (AB) 1 = B 1 A 1 ; (c) Se A = (a ij ) n n é invertível, então A t também é invertível e (A t ) 1 = (A 1 ) t. Demonstração. Se queremos mostrar que uma matriz é a inversa de uma outra, temos que mostrar que os produtos das duas matrizes são iguais à matriz identidade. (a) Uma matriz B é a inversa de A 1 se Mas, como A 1 é a inversa de A, então A 1 B = BA 1 = I n. AA 1 = A 1 A = I n. Como a inversa é única, então B = A é a inversa de A 1, ou seja, (A 1 ) 1 = A. 19 de agosto de 2000 Reginaldo J. Santos
58 Inversão de Matrizes e Determinantes (b) Temos que mostrar que a inversa de AB é B 1 A 1, ou seja, mostrar que os produtos (AB)(B 1 A 1 ) e (B 1 A 1 )AB são iguais à matriz identidade. Mas, (AB)(B 1 A 1 ) = A(BB 1 )A 1 = AI n A 1 = AA 1 = I n, (B 1 A 1 )AB = B 1 (A 1 A)B = B 1 I n B = B 1 B = I n. (c) Queremos mostrar que a inversa de A t é (A 1 ) t. Assim, A t (A 1 ) t = (A 1 A) t = I t n = I n, (A 1 ) t A t = (AA 1 ) t = I t n = I n. O teorema seguinte, cuja demonstração será omitida no momento (Subseção 2.1.2), garante que basta verificarmos uma das duas igualdades em (2.1) para sabermos se uma matriz é a inversa de outra. Teorema 2.3. Sejam A e B matrizes n n. (a) Se BA = I n, então AB = I n ; (b) Se AB = I n, então BA = I n ; Assim, para verificar que uma matriz A é invertível, quando temos uma matriz B que é candidata a inversa de A, basta fazer um dos produtos AB ou BA e verificar se um deles é igual a I n. O próximo exemplo ilustra este fato. Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 59 Exemplo 2.2. Seja A = (a ij ) n n uma matriz tal que A 3 = 0 (A pode não ser a matriz nula!). Vamos mostrar que a inversa de I n A é I n + A + A 2. Para provar isto, devemos multiplicar a matriz I n A, pela matriz que possivelmente seja a inversa dela, aqui I + A + A 2, e verificar se o produto das duas é igual a matriz identidade I n. (I n A)(I n + A + A 2 ) = I n (I n + A + A 2 ) A(I n + A + A 2 ) = I n + A + A 2 A A 2 A 3 = I n. Aqui foram usadas as propriedades (i) e (o) do Teorema 1.1 na página 7. 2.1.2 Matrizes Elementares e Inversão (opcional) As matrizes elementares têm um papel importante no estudo da inversão de matrizes e da solução de sistemas lineares. Proposição 2.4. Toda matriz elementar é invertível e sua inversa é também uma matriz elementar. Usando a notação introduzida na página 40, temos: (a) E 1 i,j = E j,i = E i,j ; (b) E i (α) 1 = E i (1/α), para α 0; (c) E i,j (α) 1 = E i,j ( α). Demonstração. Seja E uma matriz elementar. Esta matriz é obtida de I n aplicando-se uma operação elementar. Seja F a matriz elementar correspondente a operação que transforma E de volta em I n. Agora, pelo Teorema 1.7 na página 41, temos que F E = E F = I n. Portanto, F é a inversa de E. 19 de agosto de 2000 Reginaldo J. Santos
60 Inversão de Matrizes e Determinantes Teorema 2.5. Sejam A e B matrizes n n. As seguintes afirmações são equivalentes: (a) BA = I n. (b) A matriz A é equivalente por linhas à matriz identidade, I n. (c) A matriz A é invertível e B é a sua inversa. Demonstração. (a) (b) Se BA = I n, então o sistema A X = 0 tem somente a solução trivial, pois X = I n X = BAX = B 0 = 0. Isto implica que a matriz A é equivalente por linhas à matriz identidade I n, pois caso contrário a forma escalonada reduzida de A teria uma linha nula (Proposição 1.5 na página 37). (b) (c) A matriz A ser equivalente por linhas à I n significa, pelo Teorema 1.7 na página 41, que existem matrizes elementares E 1,..., E k, tais que E k... E 1 A = I n (2.2) (E1 1... E 1 k )E k... E 1 A = E1 1... E 1 k A = E1 1... E 1 k. (2.3) Aqui, usamos o fato de que as matrizes elementares são invertíveis (Proposição 2.4). Portanto, A é invertível como o produto de matrizes invertíveis. (c) (a) Claramente. Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 61 Se A é invertível, então multiplicando-se ambos os membros de (2.2) à direita por A 1 obtemos E k... E 1 I n = A 1. Assim, a mesma seqüência de operações elementares que transforma a matriz A na matriz identidade I n transforma também I n em A 1. A demonstração do Teorema 2.3 na página 58, agora, é uma simples conseqüência do Teorema anterior. Demonstração do Teorema 2.3. Vamos mostrar que se vale uma das relações BA = I n AB = I n, então A é invertível e B = A 1. ou (a) Se BA = I n, então pelo Teorema 2.5, A é invertível e B = BI n = BAA 1 = I n A 1 = A 1. (b) Se AB = I n, então pelo item anterior B é invertível e B 1 = A. Portanto A é invertível, pois A = I n (B 1 ) e A 1 = (B 1 ) 1 = B (Teorema 2.2 (b) e (a) na página 57). Segue da demonstração, do Teorema 2.5 (equação (2.3)) o resultado seguinte. Teorema 2.6. Uma matriz A é invertível se, e somente se, ela é o produto de matrizes elementares. Exemplo 2.3. Vamos escrever a matriz A do Exemplo 2.5 na página 65 como o produto de matrizes elementares. Quando encontramos a inversa da matriz A, aplicamos uma seqüência de operações elementares em [ A I 3 ] até que encontramos a matriz [ I 3 A 1 ]. Como as operações são por linha, 19 de agosto de 2000 Reginaldo J. Santos
62 Inversão de Matrizes e Determinantes esta mesma seqüência de operações elementares transforma A em I n. Isto corresponde a multiplicar 1 2 3 a matriz A = 1 1 2 à esquerda pelas matrizes elementares 0 1 2 1 0 0 1 0 0 1 2 0 E 1,2 ( 1) = 1 1 0, E 2 ( 1) = 0 1 0, E 2,1 ( 2) = 0 1 0, 0 0 1 0 0 1 0 0 1 E 2,3 ( 1) = ou seja, 1 0 0 0 1 0 0 1 1, E 3,1 ( 1) = 1 0 1 0 1 0 0 0 1, E 3,2 ( 1) = E 3,2 ( 1) E 3,1 ( 1) E 2,3 ( 1) E 2,1 ( 2) E 2 ( 1) E 1,2 ( 1) A = I 3. 1 0 0 0 1 1 0 0 1 Multiplicando à esquerda pelas inversas das matrizes elementares correspondentes obtemos A = E 3,2 (1) E 3,1 (1) E 2,3 (1) E 2,1 (2) E 2 ( 1) E 1,2 (1). 2.1.3 Método para Inversão de Matrizes A demonstração do próximo teorema fornece uma maneira de encontrar a inversa de uma matriz, se ela existir. O exemplo seguinte faz o mesmo no caso particular em que a matriz é 2 2. [ ] [ ] a b x y Exemplo 2.4. Seja A =. Devemos procurar uma matriz B = tal que AB = I c d z w 2, ou seja, ax + bz = 1 cx + dz = 0 ay + bw = 0 cy + dw = 1 Álgebra Linear Matricial 19 de agosto de 2000,
2.1 Matriz Inversa 63 Este sistema pode ser desacoplado em dois sistemas independentes que possuem a mesma matriz, que é a matriz A. Podemos resolvê-los simultaneamente. Para isto, basta escalonarmos a matriz aumentada [ ] a b 1 0 = [ A I c d 0 1 2 ]. Os dois sistemas têm solução [ única se, ] e somente se, a forma escalonada reduzida da matriz [ A I 2 ] 1 0 s t for da forma [ I 2 S ] = (verifique, observando o que acontece se a forma escalonada 0 1 u v reduzida da matriz A não for igual a I[ 2 ). Neste ] caso, x = s, z = u e y = t, w = v, ou seja, a matriz s t A possuirá inversa, A 1 = B = S =. u v Teorema 2.7. Uma matriz A, n n, é invertível se, e somente se, A é equivalente por linhas à matriz identidade I n. Demonstração. Pelo Teorema 2.3, para verificarmos se uma matriz A, n n, é invertível, basta verificarmos se existe uma matriz B, tal que A B = I n. Vamos denotar as colunas de B por X 1, X 2,..., X n, ou seja, B = [ X 1... X n ], onde x 11 x 12 x 1n x 21 X 1 =., X x 22 2 =.,..., X x 2n n =.. x n1 x n2 19 de agosto de 2000 Reginaldo J. Santos x nn
64 Inversão de Matrizes e Determinantes Vamos denotar as colunas da matriz identidade I n, por E 1, E 2,..., E n. Desta forma, 1 0 0 E 1 = 0., E 2 = 1.,..., E n = 0.. 0 0 1 A j-ésima coluna do produto AB é igual a AX j (Exercício 1.1.14 na página 18). Assim, analisando coluna a coluna a igualdade matricial A B = I n vemos que encontrar B é equivalente a resolver n sistemas lineares A X j = E j para j = 1..., n. Cada um dos sistemas pode ser resolvido usando o método de Gauss-Jordan. Para isso, formaríamos as matrizes aumentadas [A E 1 ], [A E 2 ],..., [A E n ]. Entretanto, como as matrizes dos sistemas são todas iguais à A, podemos resolver todos os sistemas simultaneamente formando a matriz n 2n [ A E 1 E 2... E n ] = [ A I n ]. Transformando [ A I n ] na sua forma escalonada reduzida, que vamos denotar por [ R S ], vamos chegar a duas situações possíveis: ou a matriz R é a matriz identidade, ou não é. Se R = I n, então a forma escalonada reduzida da matriz [ A I n ] é da forma [ I n S ]. Se escrevemos a matriz S em termos das suas colunas S = [ S 1 S 2... S n ], então as soluções dos sistemas A X j = E j são X j = S j e assim B = S é tal que A B = I n e pelo Teorema 2.3 A é invertível. Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 65 Se R I n, então a matriz A não é equivalente por linhas à matriz identidade I n. Então, pela Proposição 1.5 na página 37 a matriz R tem uma linha nula. O que implica que os sistemas A X j = E j não tenham solução única. Isto implica que a matriz A não tem inversa, pois as colunas da (única) inversa seriam X j, para j = 1,... n. Observação. Da demonstração do Teorema 2.7 obtemos não somente uma forma de descobrir se uma matriz A tem inversa mas também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [A I n ] e encontramos a sua forma escalonada reduzida [R S]. Se R = I n, então a matriz A é invertível e a inversa A 1 = S. Caso contrário, a matriz A não é invertível. Vejamos os exemplos seguintes. Exemplo 2.5. Vamos encontrar, se existir, a inversa de A = 1 2 3 1 1 2 0 1 2 Para isso devemos escalonar a matriz aumentada 1 2 3 1 0 0 [A I 3 ] = 1 1 2 0 1 0 0 1 2 0 0 1 1 ạ eliminação: O pivô da 1 ạ linha é igual a 1. Logo, precisamos apenas zerar os outros elementos da coluna do pivô. Para isto, somamos à 2 ạ linha, 1 vezes a 1 ạ linha. 19 de agosto de 2000 Reginaldo J. Santos.
66 Inversão de Matrizes e Determinantes 1 1 ạ linha + 2 ạ linha 2 ạ linha 1 2 3 1 0 0 0 1 1 1 1 0 0 1 2 0 0 1 2 ạ eliminação: Olhamos para a submatriz obtida eliminando-se a 1 ạ linha da matriz. Escolhemos como pivô um elemento não nulo da 1 ạ coluna não nula da submatriz. Escolhemos o elemento de posição 2,2. Como temos que fazê-lo igual a 1, multiplicamos a 2 ạ linha por 1. 1 2 3 1 0 0 1 2 ạ linha 2 ạ linha 0 1 1 1 1 0 0 1 2 0 0 1 Precisamos zerar os outros elementos da coluna do pivô. Para isto, somamos à 1 ạ linha, 2 vezes a 2 ạ e à 3 ạ linha, somamos 1 vezes a 2 ạ. 2 2 ạ linha + 1 ạ linha 1 ạ linha 1 2 ạ linha + 3 ạ linha 3 ạ linha 1 0 1 1 2 0 0 1 1 1 1 0 0 0 1 1 1 1 3 ạ eliminação: Olhamos para a submatriz obtida eliminando-se as duas primeiras linhas. Escolhemos para pivô um elemento não nulo da primeira coluna não nula da submatriz. Este elemento é o elemento de posição 3,3. Como ele é igual a 1, precisamos apenas zerar os outros elementos da coluna do pivô. Para isto, somamos à 1 ạ linha, 1 vezes a 3 ạ linha e somamos à 2 ạ linha, 1 vezes a 3 ạ. 1 3 ạ linha + 1 ạ linha 1 ạ linha 1 3 ạ linha + 2 ạ linha 2 ạ linha 1 0 0 0 1 1 0 1 0 2 2 1 0 0 1 1 1 1 Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 67 Assim, a matriz [A I 3 ] é equivalente por linhas à matriz acima, que é da forma [I 3 S], portanto a matriz A é invertível e a sua inversa é a matriz S, ou seja, 0 1 1 A 1 = 2 2 1 1 1 1 Exemplo 2.6. Vamos determinar, se existir, a inversa da matriz 1 2 3 A = 1 1 2. 0 1 1 Para isso devemos escalonar a matriz aumentada 1 2 3 1 0 0 [A I 3 ] = 1 1 2 0 1 0 0 1 1 0 0 1 1 ạ eliminação: O pivô da 1 ạ linha é igual a 1. Logo, precisamos apenas zerar os outros elementos da coluna do pivô. Para isto, somamos à 2 ạ linha, 1 vezes a 1 ạ linha. 1 1 ạ linha + 2 ạ linha 2 ạ linha 1 2 3 1 0 0 0 1 1 1 1 0 0 1 1 0 0 1 2 ạ eliminação: Olhamos para a submatriz obtida eliminando-se a 1 ạ linha da matriz. Escolhemos como pivô um elemento não nulo da 1 ạ coluna não nula da submatriz. Escolhemos o elemento de posição 2,2. Como temos que fazê-lo igual a 1, multiplicamos a 2 ạ linha por 1. 19 de agosto de 2000 Reginaldo J. Santos
68 Inversão de Matrizes e Determinantes 1 2 3 1 0 0 1 2 ạ linha 2 ạ linha 0 1 1 1 1 0 0 1 1 0 0 1 Precisamos zerar os outros elementos da coluna do pivô. Para isto, somamos à 1 ạ linha, 2 vezes a 2 ạ e à 3 ạ linha, somamos 1 vezes a 2 ạ. 2 2 ạ linha + 1 ạ linha 1 ạ linha 1 2 ạ linha + 3 ạ linha 3 ạ linha 1 0 1 1 2 0 0 1 1 1 1 0 0 0 0 1 1 1 Assim, a matriz [A I 3 ] é equivalente por linhas à matriz acima, que é da forma [R S], com R I 3. Assim, a matriz A não é equivalente por linhas à matriz identidade e portanto não é invertível. Se um sistema linear A X = B tem o número de equações igual ao número de incógnitas, então o conhecimento da inversa da matriz do sistema A 1, reduz o problema de resolver o sistema a simplesmente fazer um produto de matrizes, como está enunciado no próximo teorema. Teorema 2.8. Seja A uma matriz n n. (a) O sistema associado AX = B tem solução única se, e somente se, A é invertível. Neste caso a solução é X = A 1 B; (b) O sistema homogêneo A X = 0 tem solução não trivial se, e somente se, A é singular. Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 69 Demonstração. (a) Se a matriz A é invertível, então multiplicando A X = B por A 1 à esquerda em ambos os membros obtemos A 1 (A X) = A 1 B (A 1 A)X = A 1 B I n X = A 1 B X = A 1 B. Aqui foram usadas as proprideades (h) e (o) do Teorema 1.1 na página 7. Portanto, X = A 1 B é a única solução do sistema A X = B. Por outro lado, se o sistema A X = B possui solução única, então a forma escalonada reduzida da matriz aumentada do sistema [A B] é da forma [R C], onde R = I n. Pois a matriz A é quadrada e caso R fosse diferente da identidade possuiria uma linha de zeros (Proposição 1.5 na página 37) o que levaria a que o sistema A X = B ou não tivesse solução ou tivesse infinitas soluções. Logo, a matriz A é equivalente por linhas à matriz identidade o que pelo Teorema 2.7 na página 63 implica que A é invertível. (b) Todo sistema homogêneo possui pelo menos a solução trivial. Pelo item anterior, esta será a única solução se, e somente se, A é invertível. Exemplo 2.7. Suponha que temos um processo em que para uma matriz de saída B, a matriz de entrada X é obtida pela solução do sistema A X = B. 1 2 Se a matriz A é a do Exemplo 2.5 e as matrizes de saída são B = 2 e C = 5, então 3 3 19 de agosto de 2000 Reginaldo J. Santos
70 Inversão de Matrizes e Determinantes as matrizes de entrada serão X = A 1 B = Y = A 1 C = 0 1 1 2 2 1 1 1 1 0 1 1 2 2 1 1 1 1 1 2 3 = 2 5 3 1 5 4 = Exemplo 2.8 (Interpolação Polinomial). Sejam P 1 = (x 1, y 1 ),..., P n = (x n, y n ), com x 1,..., x n números distintos. Considere o problema de encontrar um polinômio de grau n 1 p(x) = a 1 x n 1 + a 2 x n 2 +... + a n, que interpola os dados, no sentido de que p(x i ) = y i, para i = 1,..., n. O Exercício 1.2.8 na página 46 é um caso particular deste problema em que os pontos são P 1 = (0, 10), P 2 = (1, 7), P 3 = (3, 11), P 4 = (4, 14) e o polinômio é de grau 3. Vamos mostrar que existe, um e somente um, polinômio de grau no máximo igual a n 1, que interpola n pontos, com abscissas distintas. Substituindo os pontos no polinômio p(x), obtemos um sistema linear AX = B, onde X = a 1 a 2. a n, B = y 1 y 2. y n e A = 8 11 4. x n 1 1 x n 2 1... x 1 1 x n 1 2 x n 2 2... x 2 1. x n 1 n e.. n... x n 1 A matriz A é chamada matriz de Vandermonde. Pelo Teorema 2.8 na página 68, um sistema de n equações e n incógnitas AX = B tem solução única se, e somente se, o sistema homogêneo Álgebra Linear Matricial 19 de agosto de 2000 x n 2.
2.1 Matriz Inversa 71 associado, AX = 0, tem somente a solução trivial. Vamos mostrar que AX = 0 tem somente a solução trivial. X é solução do sistema homogêneo se, e somente se, o polinômio de grau n 1 se anula em n pontos distintos. O que implica que o polinômio p(x) é o polinômio com todos os seus coeficientes iguais a zero. Portanto, o sistema homogêneo A X = 0 tem somente a solução trivial. Isto prova que existe, um e somente um, polinômio de grau no máximo igual a n 1, que interpola n pontos, com abscissas distintas. Vamos mostrar a recíproca do item (b) do Teorema 2.2 na página 57. Proposição 2.9. Se A e B são matrizes n n, com AB invertível, então A e B são invertíveis. Demonstração. Considere o sistema (AB)X = 0. Se B não fosse invertível, então existiria X 0, tal que B X = 0 (Teorema 2.8 na página 68). Multiplicando-se por A, teríamos AB X = 0, o que, novamente pelo Teorema 2.8 na página 68, contradiz o fato de AB ser invertível. Portanto, B é invertível. Agora, se B e AB são invertíveis, então A também é invertível, pois A = (AB)B 1, que é o produto de duas matrizes invertíveis. Exercícios Numéricos (respostas página 294) 1 2.1.1. Seja A uma matriz 3 3. Suponha que X = 2 3 A X = 0. A matriz A é singular ou não? Justifique. é solução do sistema homogêneo 19 de agosto de 2000 Reginaldo J. Santos
72 Inversão de Matrizes e Determinantes 2.1.2. Se possível, encontre as inversas das seguintes matrizes: 1 2 3 (a) 1 1 2 ; (d) 0 1 2 1 2 2 (b) 1 3 1 ; (e) 1 3 2 1 1 1 1 (c) 1 2 1 2 1 1 2 1 ; (f) 1 3 3 2 2.1.3. Encontre todos os valores de a para os quais a matriz A = 2.1.4. Se encontre (A B) 1. A 1 = [ 3 2 1 3 2.1.5. Resolva o sistema A X = B, se A 1 = ] [ 2 3 4 1 e B 1 = ] e B = 1 2 3 0 2 3 1 2 4 1 2 3 1 1 2 0 1 1 ; ; 1 1 1 1 1 3 1 2 1 2 1 1 5 9 1 6 [ 2 5 3 2 [ 5 3 1 1 0 1 0 0 1 2 a ]. ], ; tem inversa. 2.1.6. (Relativo à Subseção 2.1.2) Encontre matrizes elementares E 1,..., E k tais que A = E 1... E k, para 1 2 3 A = 2 1 2. 0 1 2 Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 73 Exercícios usando o MATLAB >> M=[A,B] atribui à matriz M a matriz obtida colocando lado a lado as matrizes A e B. >> A=[A1,...,An] cria uma matriz A formada pelas matrizes, definidas anteriormente, A1,..., An colocadas uma ao lado da outra; >> M=A(:,k:l) atribui à matriz M a submatriz da matriz A obtida da coluna l à coluna k da matriz A. Comandos do pacote GAAL: >> B=opel(alpha,i,A) ou B=oe(alpha,i,A)faz a operação elementar alpha*linha i ==> linha i da matriz A e armazena a matriz resultante em B. >> B=opel(alpha,i,j,A) ou B=oe(alpha,i,j,A) faz a operação elementar alpha*linha i + linha j ==> linha j da matriz A e armazena a matriz resultante na variável B. >> B=opel(A,i,j) ou B=oe(A,i,j) faz a troca da linha i com a linha j da matriz A e armazena a matriz resultante na variável B. >> B=escalona(A) calcula passo a passo a forma escalonada reduzida da matriz A e armazena a matriz resultante na variável B. 2.1.7. Resolva os Exercícios Numéricos a partir do Exercício 1.2 usando o MATLAB. Exercícios Teóricos [ ] a b 2.1.8. Mostre que a matriz A = é invertível se, e somente se, ad bc 0 e neste caso a c d inversa é dada por [ ] A 1 1 d b =. ad bc c a 19 de agosto de 2000 Reginaldo J. Santos
74 Inversão de Matrizes e Determinantes (Sugestão: encontre a forma escalonada reduzida da matriz [ A I 2 ].) Sugestão para os próximos 4 exercícios: Para verificar que uma matriz A é invertível, quando temos uma matriz B que é candidata a inversa de A, basta fazer um dos produtos AB ou BA e verificar se um deles é igual a I n. 2.1.9. Se A é uma matriz n n e A k = 0, para k um inteiro positivo, mostre que (I n A) 1 = I n + A + A 2 +... + A k 1. 2.1.10. Seja A uma matriz diagonal, isto é, os elementos que estão fora da diagonal são iguais a zero (a ij = 0, para i j). Se a ii 0, para i = 1,..., n, mostre que A é invertível e a sua inversa é também uma matriz diagonal com elementos na diagonal dados por 1/a 11, 1/a 22,..., 1/a nn. 2.1.11. Sejam A e B matrizes quadradas. Mostre que se A + B e A forem invertíveis, então (A + B) 1 = A 1 (I n + BA 1 ) 1. 2.1.12. Seja J n a matriz n n, cujas entradas são iguais a 1. Mostre que se n > 1, então (Sugestão: Observe que J 2 n = nj n.) (I n J n ) 1 = I n 1 n 1 J n. 2.1.13. Mostre que se B é uma matriz invertível, então AB 1 = B 1 A se, e somente se, AB = BA. (Sugestão: multiplique a equação AB = BA por B 1.) 2.1.14. Mostre que se A é uma matriz invertível, então A + B e I n + BA 1 são ambas invertíveis ou ambas não invertíveis. (Sugestão: multiplique A + B por A 1.) Álgebra Linear Matricial 19 de agosto de 2000
2.1 Matriz Inversa 75 2.1.15. Mostre que se A não é invertível, então AB também não o é. 2.1.16. Mostre que se A e B são matrizes n n, invertíveis, então A e B são equivalentes por linhas. 2.1.17. Sejam A uma matriz m n e B uma matriz n m, com n < m. Mostre que AB não é invertível. (Sugestão: Mostre que o sistema (AB)X = 0 tem solução não trivial.) 19 de agosto de 2000 Reginaldo J. Santos
76 Inversão de Matrizes e Determinantes 2.2 Determinantes Vamos inicialmente definir o determinante de matrizes 1 1. Para cada matriz A = [a] definimos o determinante de A, indicado por det(a), por det(a) = a. Vamos, agora, definir o determinante de matrizes 2 2 e a partir daí definir para matrizes de ordem maior. A cada matriz A, 2 2, associamos um número real, denominado determinante de A, por: [ a11 a det(a) = det 12 a 21 a 22 ] = a 11 a 22 a 12 a 21. Para definir o determinante de matrizes quadradas maiores, precisamos definir o que são os menores de uma matriz. Dada uma matriz A = (a ij ) n n, o menor do elemento a ij, denotado por à ij, é a submatriz (n 1) (n 1) de A obtida eliminando-se a i-ésima linha e a j-ésima coluna de A, que tem o seguinte aspecto: à ij = a 11..... a n1... j... a 1n. a ij.... a nn i Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 77 Exemplo 2.9. Para uma matriz A = (a ij ) 3 3, a 11 a 12 a 13 Ã 23 = a 21 a 22 a 23 a 31 a 32 a 33 [ = a11 a 12 a 31 a 32 ] Agora, vamos definir os cofatores de uma matriz quadrada A = (a ij ) 3 3. O cofator do elemento a ij, denotado por A ij, é definido por A ij = ( 1) i+j det(ãij), ou seja, o cofator A ij, do elemento a ij é igual a mais ou menos o determinante do menor Ãij, sendo o mais e o menos determinados pela seguinte disposição: + + + + + Exemplo 2.10. Para uma matriz A = (a ij ) 3 3, a 11 a 12 a 13 A 23 = ( 1) 2+3 det(ã23) = det a 21 a 22 a 23 a 31 a 32 a 33 [ = det a11 a 12 a 31 a 32 ] = a 31 a 12 a 11 a 32 Vamos, agora, definir o determinante de uma matriz 3 3. Se a 11 a 12 a 13 A = a 21 a 22 a 23, a 31 a 32 a 33 19 de agosto de 2000 Reginaldo J. Santos
78 Inversão de Matrizes e Determinantes então, o determinante de A é igual à soma dos produtos dos elementos da 1 ạ linha pelos seus cofatores. det(a) = a 11 A 11 + a 12 A 12 + a 13 A [ ] 13 [ ] [ ] a22 a = a 11 det 23 a21 a a a 32 a 12 det 23 a21 a + a 33 a 31 a 13 det 22 33 a 31 a 32 = a 11 a 22 a 33 a 11 a 32 a 23 a 12 a 21 a 33 a 12 a 31 a 23 + a 13 a 21 a 32 a 13 a 31 a 22. Da mesma forma que a partir do determinante de matrizes 2 2, definimos o determinante de matrizes 3 3, podemos definir o determinante de matrizes quadradas de ordem maior. Supondo que sabemos como calcular o determinante de matrizes (n 1) (n 1) vamos definir o determinante de matrizes n n. Vamos definir, agora, os cofatores de uma matriz quadrada A = (a ij ) n n. O cofator do elemento a ij, denotado por A ij, é definido por A ij = ( 1) i+j det(ãij), ou seja, o cofator A ij, do elemento a ij é igual a mais ou menos o determinante do menor Ãij, sendo o mais e o menos determinados pela seguinte disposição: + +... + +... + +............ Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 79 Definição 2.2. Seja A = (a ij ) n n. O determinante de A, denotado por det(a), é definido por n det(a) = a 11 A 11 + a 12 A 12 +... + a 1n A 1n = a 1j A 1j, (2.4) em que A 1j = ( 1) 1+j det(ã1j) é o cofator do elemento a 1j. A expressão (2.4) é chamada desenvolvimento em cofatores do determinante de A em termos da 1 ạ linha. j=1 Exemplo 2.11. Seja A = 0 0 0 3 1 2 3 4 1 3 2 5 2 1 2 0. Desenvolvendo-se o determinante de A em cofatores, obtemos det(a) = 0A 11 + 0A 12 + 0A 13 + ( 3)( 1) 1+4 det(b), em que B = Mas o det(b) também pode ser calculado usando cofatores, 1 2 3 1 3 2 2 1 2. det(b) = 1B 11 + 2B 12 + 3B 13 = 1( 1) 1+1 det( B 11 ) + 2( 1) 1+2 det( B 12 ) + 3( 1) 1+3 det( B 13 ) [ ] [ ] [ ] 3 2 1 2 1 3 = det 2 det + 3 det 1 2 2 2 2 1 = 8 2 ( 2) + 3 ( 7) = 25 19 de agosto de 2000 Reginaldo J. Santos
80 Inversão de Matrizes e Determinantes Portanto, det(a) = 3 det(b) = 75. Exemplo 2.12. Usando a definição de determinante, vamos mostrar que o determinante de uma matriz triangular inferior (isto é, os elementos situados acima da diagonal principal são iguais a zero) é o produto dos elementos da diagonal principal. Vamos mostrar inicialmente para matrizes 3 3. Seja a 11 0 0 A = a 21 a 22 0 a 31 a 32 a 33 Desenvolvendo-se o determinante de A em cofatores, obtemos [ ] a22 0 det(a) = a 11 det = a a 32 a 11 a 22 a 33. 33 Vamos supor termos provado que para qualquer matriz (n 1) (n 1) triangular inferior, o determinante é o produto dos elementos da diagonal principal. Então vamos provar que isto também vale para matrizes n n. Seja a 11 0...... 0 A = a 21 a 22 0..... 0 a n1... a nn Desenvolvendo-se o determinante de A em cofatores, obtemos a 22 0...... 0 a det(a) = a 11 det 32 a 33 0..... 0 = a 11a 22... a nn, a n2... a nn Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 81 pois o determinante acima é de uma matriz (n 1) (n 1) triangular inferior. Em particular, o determinante da matriz identidade I n é igual a 1 (det(i n ) = 1). Teorema 2.10. Seja A = (a ij ) n n escrita em termos das suas linhas, denotadas por A i, ou seja, A i = [ a i1 a i2... a in ]. Se para algum k, a linha A k = αx + βy, em que X = [ x 1... x n ], Y = [ y 1... y n ] e α e β são escalares, então: det A 1. A k 1 αx + βy A k+1. A n = α det A 1. A k 1 X A k+1. A n + β det A 1. A k 1 Y A k+1. A n. Aqui, A k = αx + βy = [ αx 1 + βy 1... αx n + βy n ]. Demonstração. É fácil ver que para matrizes 2 2 o resultado é verdadeiro (verifique!). Supondo que o resultado seja verdadeiro para matrizes (n 1) (n 1), vamos provar para matrizes n n. 19 de agosto de 2000 Reginaldo J. Santos
82 Inversão de Matrizes e Determinantes Sejam A = A 1. A k 1 αx + βy A k+1. A n, B = A 1. A k 1 X A k+1. A n e C = A 1. A k 1 Y A k+1. A n. Deixamos como exercício o caso em que k = 1. Suponha que k = 2,..., n. As matrizes Ã1j, B1j e C 1j só diferem na (k 1)-ésima linha (lembre-se que a primeira linha é retirada!). Além disso, a (k 1)-ésima linha de Ã1j é igual a α vezes a linha correspondente de B 1j mais β vezes a linha correspondente de C 1j (esta é a relação que vale para a k-ésima linha de A). Como estamos supondo o resultado verdadeiro para matrizes (n 1) (n 1), então det(ã1j) = α det( B 1j ) + β det( C 1j ). Assim, det(a) = = = α n ( 1) 1+j a 1j det(ã1j) j=1 n ( 1) 1+j a 1j [α det( B 1j ) + β det( C ] 1j ) j=1 n ( 1) 1+j b 1j det( B 1j ) + β j=1 = α det(b) + β det(c), pois a 1j = b 1j = c 1j, para j = 1,..., n. n ( 1) 1+j c 1j det( C 1j ) j=1 Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 83 Exemplo 2.13. O cálculo do determinante da matriz a seguir pode ser feito da seguinte forma: a 0 0 a 0 0 a 0 0 det b c d = det b c d + 3 det b c d = a(cg df) e + 3h f + 3c g + 3d e f g h c d Corolário 2.11. Se uma matriz A, n n, possui uma linha formada inteiramente por zeros, então det(a) = 0. Demonstração. Seja A uma matriz que tem uma linha nula. Multiplicando-se a linha nula por qualquer escalar α, obtemos pelo Teorema 2.10 que det(a) = α det(a), para qualquer escalar α, ou seja, det(a) = 0. Pela definição de determinante, o determinante deve ser calculado fazendo-se o desenvolvimento em cofatores segundo a 1 ạ linha. O próximo resultado, que não vamos provar neste momento (Apêndice II na página 103), afirma que o determinante pode ser calculado fazendo-se o desenvolvimento em cofatores segundo qualquer linha. Teorema 2.12. Seja A uma matriz n n. O determinante de A pode ser calculado fazendo-se o desenvolvimento em cofatores segundo qualquer linha. Ou seja, para i = 1,..., n, n det(a) = a i1 A i1 + a i2 A i2 +... + a in A in = a ij A ij, (2.5) em que A ij = ( 1) i+j det(ãij) é o cofator do elemento a ij. A expressão (2.4) é chamada desenvolvimento em cofatores do determinante de A em termos da i-ésima linha. 19 de agosto de 2000 Reginaldo J. Santos j=1
84 Inversão de Matrizes e Determinantes Corolário 2.13. Seja A uma matriz n n. Se A possui duas linhas iguais, então det(a) = 0. Demonstração. O resultado é claramente verdadeiro para matrizes 2 2. Supondo que o resultado seja verdadeiro para matrizes (n 1) (n 1), vamos provar que ele é verdadeiro para matrizes n n. Suponhamos que as linhas k e l sejam iguais, para k l. Desenvolvendo o determinante de A em termos de uma linha i, com i k, l, obtemos det(a) = n a ij A ij = j=1 n ( 1) i+j a ij det(ãij). j=1 Mas, cada Ãij é uma matriz (n 1) (n 1) com duas linhas iguais. Como estamos supondo que o resultado seja verdadeiro para estas matrizes, então det(ãij) = 0. Isto implica que det(a) = 0. 2.2.1 Propriedades do Determinante Teorema 2.14. Sejam A e B matrizes n n. (a) Se B é obtida de A multiplicando-se uma linha por um escalar α, então det(b) = α det(a) ; Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 85 (b) Se B resulta de A pela troca da posição relativa de duas linhas, então det(b) = det(a) ; (c) Se B é obtida de A substituindo a linha i por ela somada a um múltiplo escalar de uma linha j, j i, então det(b) = det(a) ; (d) Os determinantes de A e de sua transposta A t são iguais, det(a) = det(a t ) ; (e) O determinante do produto de A por B é igual ao produto dos seus determinantes, det(ab) = det(a) det(b). Demonstração. Vamos demonstrar, agora, apenas os itens (a), (b) e (c) deste teorema. (a) Segue diretamente do Teorema 2.10 na página 81. (b) Sejam A = A 1. A k. A l. A n e B = A 1. A l. A k. A n. 19 de agosto de 2000 Reginaldo J. Santos
86 Inversão de Matrizes e Determinantes Agora, pelo Teorema 2.10 na página 81 e o Corolário 2.13, temos que 0 = det A 1. A k + A l. A k + A l. A n = det A 1. A k. A k. A n + det A 1. A k. A l. A n + det A 1. A l. A k. A n + det A 1. A l. A l. A n = 0 + det(a) + det(b) + 0. Portanto, det(a) = det(b). (c) Novamente, pelo Teorema 2.10 na página 81, temos que det A 1. A k. A l + αa k. A n = det A 1. A k. A l. A n + α det A 1. A k. A k. A n = det A 1. A k. A l. A n. Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 87 Observação. Como o determinante de uma matriz é igual ao determinante da sua transposta (Teorema 2.14 (d)), segue que todas as propriedades que se referem a linhas são válidas com relação às colunas. Exemplo 2.14. Vamos calcular o determinante da matriz 0 1 5 A = 3 6 9 2 6 1 usando operações elementares para transformá-la numa matriz triangular superior e aplicando o Teorema 2.14 na página 84. 3 6 9 det(a) = det 0 1 5 1 ạ linha 2 ạ linha 2 6 1 1 2 3 = 3 det 0 1 5 1/3 1 ạ linha 1 ạ linha 2 6 1 1 2 3 = 3 det 0 1 5 2 1 ạ linha+3 ạ linha 3 ạ linha 0 10 5 1 2 3 = 3 det 0 1 5 10 2 ạ linha+3 ạ linha 3 ạ linha 0 0 55 = ( 3)( 55) = 165 19 de agosto de 2000 Reginaldo J. Santos
88 Inversão de Matrizes e Determinantes Para se calcular o determinante de uma matriz n n pela expansão em cofatores, precisamos fazer n produtos e calcular n determinantes de matrizes (n 1) (n 1), que por sua vez vai precisar de n 1 produtos e assim por diante. Portanto, ao todo são necessários n! produtos. Para se calcular o determinante de uma matriz 20 20, é necessário se realizar 20! 10 18 produtos. Os computadores pessoais realizam da ordem de 10 8 produtos por segundo. Portanto, um computador pessoal precisaria de cerca de 10 10 segundos ou 10 3 anos para calcular o determinante de uma matriz 20 20 usando a expansão em cofatores. Enquanto, o cálculo do determinante pelo método apresentado no exemplo anterior é necessário apenas da ordem de n 3 produtos para se calcular o determinante. O resultado seguinte caracteriza em termos do determinante as matrizes invertíveis e os sistemas lineares homogêneos que possuem solução não trivial. Teorema 2.15. Seja A uma matriz n n. (a) A matriz A é invertível se, e somente se, det(a) 0. (b) O sistema homogêneo AX = 0 tem solução não trivial se, e somente se, det(a) = 0. Demonstração. (a) Seja R a forma escalonada reduzida da matriz A. A demonstração deste item segue de três observações: Pelo Teorema 2.14 na página 84, det(a) 0 se, e somente se, det(r) 0. Pela Proposição 1.5 da página 37, ou R = I n ou a matriz R tem uma linha nula. Assim, det(a) 0 se, e somente se, R = I n. Pelo Teorema 2.7 na página 63, R = I n se, e somente se, A é invertível. Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 89 (b) Pelo Teorema 2.8 na página 68, o sistema homogêneo AX = 0 tem solução não trivial se, e somente se, a matriz A não é invertível. E pelo item anterior, a matriz A é não invertível se, e somente se, det(a) = 0. Exemplo 2.15. Seja A = (a ij ) n n. Vamos mostrar que se A é invertível, então det(a 1 ) = 1 det(a). Como A A 1 = I n, aplicando-se o determinante a ambos os membros desta igualdade e usando a propriedade (e) do Teorema 2.14 na página 84, obtemos det(a) det(a 1 ) = det(i n ). Mas, det(i n ) = 1 (Exemplo 2.12 na página 80, a matriz identidade também é triangular inferior!). Logo, det(a 1 1 ) = det(a). Exemplo 2.16. Se uma matriz quadrada é tal que A 2 = A 1, então vamos mostrar que det(a) = 1. Aplicando-se o determinante a ambos os membros da igualdade acima, e usando novamente a propriedade (e) do Teorema 2.14 e o resultado do exemplo anterior, obtemos Logo, (det(a)) 3 = 1. Portanto, det(a) = 1. (det(a)) 2 = 1 det(a). 19 de agosto de 2000 Reginaldo J. Santos
90 Inversão de Matrizes e Determinantes 2.2.2 Matrizes Elementares e o Determinante Relembramos que uma matriz elementar é uma matriz que se obtem aplicando-se uma operação elementar na matriz identidade. Assim, aplicando-se os itens (a), (b) e (c) do Teorema 2.14 na página 84 obtemos o resultado seguinte. Proposição 2.16. (a) Se E i,j é a matriz elementar obtida trocando-se as linhas i e j da matriz identidade, então det(e i,j ) = 1. (b) Se E i (α) é a matriz elementar obtida da matriz identidade, multiplicando-se a linha i por α, então det(e i (α)) = α. (c) Se E i,j (α) é a matriz elementar obtida da matriz identidade, somando-se à linha j, α vezes a linha i, então det(e i,j (α)) = 1. Lembramos também que uma matriz é invertível se, e somente se, ela é o produto de matrizes elementares (Teorema 2.6 na página 61). Além disso, o resultado da aplicação de uma operação elementar em uma matriz é o mesmo que multiplicar a matriz à esquerda pela matriz elementar correspondente. Usando matrizes elementares podemos provar os itens (d) (det(a t ) = det(a)) e (e) (det(ab) = det(a) det(b)) do Teorema 2.14 na página 84. Demonstração dos itens (d) e (e) do Teorema 2.14. (e) Vamos dividir a demonstração deste item em três casos: Caso 1: Se A = E é uma matriz elementar. Este caso segue diretamente da proposição anterior e dos itens (a), (b) e (c) do Teorema 2.14 na página 84. Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 91 Caso 2: Se A é invertível, então pelo Teorema 2.6 na página 61 ela é o produto de matrizes elementares, A = E 1... E k. Aplicando-se o caso anterior sucessivas vezes, obtemos det(ab) = det(e 1 )... det(e k ) det(b) = det(e 1... E k ) det(b) = det(a) det(b). Caso 3: Se A é singular, pela Proposição 2.9 na página 71, AB também é singular. Logo, det(ab) = 0 = 0 det(b) = det(a) det(b). (d) Vamos dividir a demonstração deste item em dois casos. Caso 1: Se A é uma matriz invertível, pelo Teorema 2.6 na página 61 ela é o produto de matrizes elementares, A = E 1... E k. É fácil ver que se E é uma matriz elementar, então det(e) = det(e t ) (verifique!). Assim, det(a t ) = det(e t k)... det(e t 1) = det(e k )... det(e 1 ) = det(e 1... E k ) = det(a). Caso 2: Se A não é invertível, então A t também não o é, pois caso contrário, pelo Teorema 2.2 na página 57, também A = (A t ) t seria invertível. Assim neste caso, det(a t ) = 0 = det(a). 2.2.3 Matriz Adjunta e Inversão Vamos definir a adjunta de uma matriz quadrada e em seguida enunciar e provar um teorema sobre a adjunta que permite provar vários resultados sobre matrizes, entre eles um que fornece uma fórmula para a inversa de uma matriz e também a regra de Cramer. Tanto a adjunta quanto os resultados que vem a seguir são de importância teórica. 19 de agosto de 2000 Reginaldo J. Santos
92 Inversão de Matrizes e Determinantes Definição 2.3. Seja A uma matriz n n. Definimos a matriz adjunta (clássica) de A, denotada por adj(a), como a transposta da matriz formada pelos cofatores de A, ou seja, adj(a) = A 11 A 12... A 1n A 21 A 22... A 2n..... A n1 A n2... A nn t = A 11 A 21... A n1 A 12 A 22... A n2..... A 1n A 2n... A nn em que, A ij = ( 1) i+j det(ãij) é o cofator do elemento a ij, para i, j = 1,..., n., Exemplo 2.17. Seja B = Vamos calcular a adjunta de B. [ ] 3 2 B 11 = ( 1) 1+1 det 1 2 [ ] 1 3 B 13 = ( 1) 1+3 det 2 1 [ ] 1 3 B 22 = ( 1) 2+2 det 2 2 [ 2 3 B 31 = ( 1) 3+1 det 3 2 ] 1 2 3 1 3 2 2 1 2. [ 1 2 = 8 ; B 12 = ( 1) 1+2 det 2 2 [ 2 3 = 7 ; B 21 = ( 1) 2+1 det 1 2 [ 1 2 = 8 ; B 23 = ( 1) 2+3 det 2 1 [ = 5 ; B 32 = ( 1) 3+2 det 1 3 1 2 ] = 2 ; ] = 7 ; ] = 3 ; ] = 5 ; Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 93 Assim, a adjunta de B é adj(b) = [ B 33 = ( 1) 3+3 det 8 2 7 7 8 3 5 5 5 1 2 1 3 t = ] = 5 ; 8 7 5 2 8 5 7 3 5 Na definição do determinante são multiplicados os elementos de uma linha pelos cofatores da mesma linha. O teorema seguinte diz o que acontece se somamos os produtos dos elementos de uma linha com os cofatores de outra linha ou se somamos os produtos dos elementos de uma coluna com os cofatores de outra coluna. Lema 2.17. Se A é uma matriz n n, então a k1 A i1 + a k2 A i2 +... + a kn A in = 0 se k i; (2.6) a 1k A 1j + a 2k A 2j +... + a nk A nj = 0 se k j; (2.7) em que, A ij = ( 1) i+j det(ãij) é o cofator do elemento a ij, para i, j = 1,..., n. Demonstração. Para demonstrar a equação (2.6), definimos a matriz A como sendo a matriz 19 de agosto de 2000 Reginaldo J. Santos
94 Inversão de Matrizes e Determinantes obtida de A substituindo a i-ésima linha de A por sua k-ésima linha, ou seja, A = A 1. A i. A k. A n i k e A = A 1. A k. A k. A n i k Assim, A possui duas linhas iguais e pelo Corolário 2.13 na página 84, det(a ) = 0. Mas, o determinante de A desenvolvido segundo a sua i-ésima linha é exatamente a equação (2.6). A demonstração de (2.7) é feita de forma análoga, mas usando o item (d) do Teorema 2.14, ou seja, que det(a) = det(a t ).. Teorema 2.18. Se A é uma matriz n n, então A(adj(A)) = (adj(a))a = det(a)i n Demonstração. O produto da matriz A pela matriz adjunta de A é dada por a 11 a 12... a 1n A..... 11... A j1... A n1 a i1 a i2... a in A 12... A j2... A n2.............. A 1n... A jp... A nn a n1 a n2... a np Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 95 O elemento de posição i, j de A adj(a) é (A adj(a)) ij = n a ik A jk = a i1 A j1 + a i2 A j2 +... a in A jn. k=1 Pelo Lema 2.17, equação (2.6) e do Teorema 2.12 na página 83 segue que { det(a) se i = j (A adj(a)) ij = 0 se i j. Assim, A adj(a) = det(a) 0... 0 0 det(a)... 0..... 0 0... det(a) = det(a)i n. Analogamente, usando Lema 2.17, equação (2.7), se prova que adj(a) A = det(a)i n. Exemplo 2.18. Vamos mostrar que se uma matriz A é singular, então adj(a) também é singular. Vamos separar em dois casos. (a) Se A = 0, então adj(a) também é a matriz nula, que é singular. (b) Se A 0, então pelo Teorema 2.18 na página 94, adj(a) A = 0. Mas, então, se adj(a) fosse invertível, então A seria igual à matriz nula (por que?), que estamos assumindo não ser este o caso. Portanto, adj(a) tem que ser singular. 19 de agosto de 2000 Reginaldo J. Santos
96 Inversão de Matrizes e Determinantes Corolário 2.19. Seja A uma matriz n n. Se det(a) 0, então A 1 = 1 det(a) adj(a) ; Demonstração. Se det(a) 0, então definindo B = que 1 adj(a), pelo Teorema 2.18 temos det(a) 1 A B = A( det(a) adj(a)) = 1 det(a) (A adj(a)) = 1 det(a) det(a)i n = I n. Aqui, usamos a propriedade (j) do Teorema 1.1 na página 7. Portanto, A é invertível e B é a inversa de A. Exemplo 2.19. Vamos calcular a inversa da matriz do Exemplo 2.11, B = sua adjunta foi calculada no Exemplo 2.17. Assim, B 1 = 1 det(b) adj(b) = 1 25 8 7 5 2 8 5 7 3 5 = 1 2 3 1 3 2 2 1 2 8/25 7/25 1/5 2/25 8/25 1/5 7/25 3/25 1/5.. A Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 97 Corolário 2.20 (Regra de Cramer). Se o sistema linear AX = B é tal que a matriz A é n n e invertível, então a solução do sistema é dada por x 1 = det(a 1) det(a), x 2 = det(a 2) det(a),..., x n = det(a n) det(a), em que A j é a matriz que se obtem de A substituindo-se a sua j-ésima coluna por B, para j = 1,..., n. Demonstração. Como A é invertível, pelo Corolário 2.19 A entrada x j é dada por x j = X = A 1 B = 1 det(a) adj(a)b. 1 det(a) (A 1jb 1 +... + A nj b n ) = det(a j) det(a), em que A j é a matriz que se obtem de A substituindo-se a sua j-ésima coluna por B, para j = 1,..., n e det(a j ) foi calculado fazendo o desenvolvimento em cofatores em relação a j-ésima coluna de A j. Se a matriz A não é invertível, então a regra de Cramer não pode ser aplicada. Pode ocorrer que det(a) = det(a j ) = 0, para j = 1,..., n e o sistema não tenha solução (verifique!). A regra de Cramer tem um valor teórico, por fornecer uma fórmula para a solução de um sistema linear, quando a matriz do sistema é quadrada e invertível. Exercícios Numéricos (respostas na página 294) 19 de agosto de 2000 Reginaldo J. Santos
98 Inversão de Matrizes e Determinantes 2.2.1. Se det(a) = 3, encontre (a) det(a 2 ); (b) det(a 3 ); (c) det(a 1 ); (d) det(a t ); 2.2.2. Se A e B são matrizes n n tais que det(a) = 2 e det(b) = 3, calcule det(a t B 1 ). 2.2.3. Seja A = (a ij ) 3 3 tal que det(a) = 3. Calcule o determinante das matrizes a seguir: a 11 a 12 a 13 + a 12 a 11 + a 12 a 11 a 12 a 13 (a) a 21 a 22 a 23 + a 22 ; (b) a 21 + a 22 a 21 a 22 a 23 ; a 31 a 32 a 33 + a 32 a 31 + a 32 a 31 a 32 a 33 2.2.4. Calcule o determinante de cada uma das matrizes seguintes usando operações elementares para transformá-las em matrizes triangulares superiores. 1 2 3 1 2 1 3 1 (a) 5 9 6 3 1 2 6 2 ; (b) 1 0 1 1 0 2 1 0. 2 8 6 1 0 1 2 3 2.2.5. Determine todos os valores de λ para os quais det(a λi n ) = 0, em que 0 1 2 1 0 0 (a) A = 0 0 3 (b) A = 1 3 0 0 0 0 3 2 2 (c) A = 2 2 3 0 3 2 0 1 2 (d) A = 2 2 3 1 2 1 2 2 1 2.2.6. Ache os valores de λ, para os quais o sistema linear (A λi n )X = 0 tem solução não trivial, em que Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 99 (a) A = (c) A = 2 0 0 3 1 0 0 4 3 1 2 3 4 0 1 3 2 0 0 3 3 0 0 0 2 ; (b) A = ; (d) A = 2 3 0 0 1 0 0 0 2 ; 2 2 3 4 0 2 3 2 0 0 1 1 0 0 0 1 2.2.7. Para as matrizes do exercício anterior, e os valores de λ encontrados, encontre a solução geral do sistema homogêneo (A λi n )X = 0. Exercícios usando o MATLAB Comandos do MATLAB: >> det(a) calcula o determinante da matriz A. Comando do pacote GAAL: >> detopelp(a) calcula o determinante de A aplicando operações elementares até que a matriz esteja na forma triangular superior. 2.2.8. Vamos fazer um experimento no MATLAB para tentar ter uma idéia do quão comum é encontrar matrizes invertíveis. No prompt do MATLAB digite a seguinte linha: >> c=0; for n=1:1000,a=randi(2);if(det(a)~=0),c=c+1;end,end,c (não esqueça das vírgulas e pontos e vírgulas!). O que esta linha está mandando o MATLAB fazer é o seguinte: Criar um contador c e atribuir a ele o valor zero. Atribuir à variável A, 1000 matrizes 2 2 com entradas inteiras aleatórias entre 5 e 5. 19 de agosto de 2000 Reginaldo J. Santos.
100 Inversão de Matrizes e Determinantes Se det(a) 0, então o contador c é acrescido de 1. No final o valor existente na variável c é escrito. Qual a conclusão que você tira do valor obtido na variável c? 2.2.9. O pacote gaal contem alguns arquivos com mensagens criptografadas e uma chave para decifrá-las. Use os comandos a seguir para ler dos arquivos e atribuir às variáveis correspondentes, uma mensagem criptografada e a uma chave para decifrá-la. >> menc=lerarq( menc1 ), key=lerarq( key ) Aqui são lidos os arquivos menc1 e key. Para converter a mensagem criptografada e a chave para matrizes numéricas use os comandos do pacote gaal: >> y=char2num(menc), M=char2num(key) A mensagem criptografada, y, foi obtida multiplicando-se a matriz M pela mensagem original (convertida para números), x. Determine x. Descubra a mensagem usando o comando do pacote gaal, num2char(x). Decifre as mensagens que estão nos arquivos menc2 e menc3. Como deve ser a matriz M para que ela possa ser uma matriz chave na criptografia? 2.2.10. Resolva, com o MATLAB, os Exercícios Numéricos a partir do Exercício 2.2.4. Exercícios Teóricos 2.2.11. Mostre que se det(ab) = 0, então ou A é singular ou B é singular. 2.2.12. O determinante de AB é igual ao determinante de BA? Justifique. 2.2.13. Mostre que se A é uma matriz não singular tal que A 2 = A, então det(a) = 1. 2.2.14. Mostre que se A k = 0, para algum k inteiro positivo, então A é singular. 2.2.15. Mostre que se A t = A 1, então det(a) = ±1; Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 101 2.2.16. Mostre que se α é um escalar e A é uma matriz n n, então det(αa) = α n det(a). 2.2.17. Mostre que A, n n, é invertível se, e somente se, A t A é invertível. 2.2.18. Sejam A e P matrizes n n, sendo P invertível. Mostre que det(p 1 AP ) = det(a). 2.2.19. Mostre que se uma matriz A = (a ij ) n n é triangular superior, (isto é, os elementos situados abaixo da diagonal são iguais a zero) então det(a) = a 11 a 22... a nn. [ ] a b 2.2.20. (a) Mostre que se A =, então det(a) = 0 se, e somente se, uma linha é múltiplo c d escalar da outra. E se A for uma matriz n n? (b) Mostre que se uma linha A i de uma matriz A = (a ij ) n n, é tal que A i = αa k + βa l, para α e β escalares e i k, l, então det(a) = 0. (c) Mostre que se uma linha A i de uma matriz A = (a ij ) n n, é tal que A i = k i α ka k, para α 1,..., α k escalares, então det(a) = 0. 2.2.21. Mostre que o determinante de Vandermonde é dado por 1 x 1 x 2 1... x n 1 1 1 x 2 x 2 2... x n 1 2 V n = det... = (x i x j ). 1 x n x 2 n... x n 1 i>j n A expressão à direita significa o produto de todos os termos x i x j tais que i > j e i, j = 1,..., n. (Sugestão: Mostre primeiro que V 3 = (x 3 x 2 )(x 2 x 1 )(x 3 x 1 ). Supondo que o resultado é verdadeiro para matrizes de Vandermonde de ordem n 1, mostre que o resultado é verdadeiro para matrizes de Vandermonde de ordem n. Faça as seguintes operações nas colunas da matriz, x 1 C i 1 + C i C i, para i = n,..., 2. Obtenha V n = (x n x 1 )... (x 2 x 1 )V n 1.) 19 de agosto de 2000 Reginaldo J. Santos
102 Inversão de Matrizes e Determinantes 2.2.22. Sejam A, B e D matrizes p p, p (n p) e (n p) (n p), respectivamente. Mostre que [ ] A B det = det(a) det(d). 0 D (Sugestão: O resultado é claramente verdadeiro para n = 2. Suponha que o resultado seja verdadeiro para matrizes de ordem n 1. Desenvolva o determinante da matriz em termos da 1 ạ coluna, escreva o resultado em termos de determinantes de ordem n 1 e mostre que o resultado é verdadeiro para matrizes de ordem n.) [ ] a b 2.2.23. (Relativo à Subseção 2.2.3) Mostre, usando determinantes, que a matriz A = é c d invertível se, e somente se, ad bc 0 e neste caso a inversa é dada por A 1 = [ 1 ad bc d c ] b. a 2.2.24. (Relativo à Subseção 2.2.3) Seja A uma matriz n n. (a) Prove que det(adj(a)) = [det(a)] n 1. (Sugestão: separe em dois casos, det(a) = 0 e det(a) 0, e use o Teorema 2.18 na página 94.) (b) Prove que se A é invertível e n 2, então adj(adj(a)) = det(a) n 2 A. 2.2.25. (Relativo à sub-seção 2.2.3) Dê um exemplo de sistema linear de 3 equações e 3 incógnitas, AX = B, em que det(a) = det(a 1 ) = det(a 2 ) = det(a 3 ) = 0 e o sistema não tenha solução, em que A j é a matriz que se obtem de A substituindo-se a sua j-ésima coluna por B, para j = 1,..., n. Álgebra Linear Matricial 19 de agosto de 2000
2.2 Determinantes 103 Apêndice II: Demonstração do Teorema 2.12 na página 83 Lema 2.21. Sejam E 1 = [ 1 0... 0 ] t, E 2 = [ 0 1 0... 0 ] t,..., E n = [ 0... 0 1 ] t. Se A é uma matriz n n, cuja i-ésima linha é igual a Ek t, para algum k (1 k n), então det(a) = ( 1) i+k det(ãik). Demonstração. É fácil ver que para matrizes 2 2 o lema é verdadeiro. Suponha que ele seja verdadeiro para matrizes (n 1) (n 1) e vamos provar que ele é verdadeiro para matrizes n n. Podemos supor que 1 < i n. Seja B j a matriz (n 2) (n 2) obtida de A eliminando-se as linhas 1 e i e as colunas j e k, para 1 j n. Para j < k, a matriz Ã1j é uma matriz (n 1) (n 1) cuja (i 1)-ésima linha é igual a Ek 1 t. Para j > k, a matriz Ã1j é uma matriz (n 1) (n 1) cuja (i 1)-ésima linha é igual a Ek t. Como estamos supondo o lema verdadeiro para estas matrizes e como pelo Corolário 2.11 na página 83 det(ã1k) = 0, segue que ( 1) (i 1)+(k 1) det(b j ) se j < k, det(ã1j) = 0 se j = k, (2.8) ( 1) (i 1)+k det(b j ) se j > k. Usando (2.8), obtemos det(a) = n ( 1) 1+j a 1j det(ãij) j=1 19 de agosto de 2000 Reginaldo J. Santos
104 Inversão de Matrizes e Determinantes = n n ( 1) 1+j a 1j ( 1) (i 1)+(k 1) det(b j ) + ( 1) 1+j a 1j ( 1) (i 1)+k det(b j ) j<k j>k Por outro lado, temos que ( 1) i+k det(ãik) = ( 1) i+k [ n j<k( 1) 1+j a 1j det(b j ) + É simples a verificação de que as duas expressões acima são iguais. ] n ( 1) 1+(j 1) a 1j det(b j ) Demonstração do Teorema 2.12 na página 83. Sejam E 1 = [1 0... 0] t, E 2 = [0 1 0... 0] t,..., E n = [0... 0 1] t. Observe que a linha i de A pode ser escrita como A i = n j=1 a ijej. t Seja B j a matriz obtida de A substituindo-se a linha i por Ej. t Pelo Teorema 2.10 na página 81 e o Lema 2.21 segue que n n det(a) = a ij det(b j ) = ( 1) i+j a ij det(ãij). j=1 j=1 j>k Álgebra Linear Matricial 19 de agosto de 2000
2.3 Matrizes Particionadas em Blocos 105 2.3 Matrizes Particionadas em Blocos (opcional) 2.3.1 Operações Matriciais em Blocos As matrizes podem ser subdivididas em blocos, por exemplo a matriz 5 4 3 4 4 A = 3 3 1 2 4 1 0 1 3 1 0 5 3 1 4 pode ser dividida em quatro submatrizes, A 11, A 12, A 21 e A 22, [ ] A11 A A = 12 = A 21 A 22 5 4 3 4 4 3 3 1 2 4 1 0 1 3 1 0 5 3 1 4 Dependendo das subdivisões feitas, as matrizes podem ser operadas em termos dos seus blocos. Com relação à soma, duas matrizes podem ser somadas por blocos se os blocos correspondentes nas matrizes forem do mesmo tamanho, ou seja, se os blocos correspondentes podem ser somados. Vamos analisar a seguir quando podemos fazer o produto de matrizes em termos dos seus blocos. Seja A uma matriz m p e B uma matriz p n. Podemos particionar A e B em blocos e expressar o produto em termos de submatrizes de A e B. Considere os seguintes casos: Caso 1: Se B = [ B 1 B 2 ], onde B 1 é uma matriz p t e B 2 é uma matriz p (n t), então AB = A [ B 1 B 2 ] = [ AB 1 AB 2 ]. 19 de agosto de 2000 Reginaldo J. Santos.
106 Inversão de Matrizes e Determinantes Caso 2: Se A = [ A1 A 2 ], onde A 1 é uma matriz t p e A 2 é uma matriz (m t) p, então AB = [ A1 A 2 ] [ A1 B B = A 2 B ]. Caso 3: Se A = [ A 1 A 2 ], onde A 1 é uma matriz m t e A 2 é uma matriz m (p t) e B = onde B 1 é uma matriz t n e B 2 é uma matriz (p t) n, então [ B1 B 2 ], [AB] ij = p a ik b kj = k=1 t p a ik b kj + a ik b kj = [A 1 B 1 ] ij + [A 2 B 2 ] ij. k=1 k=t+1 Portanto, [ B1 AB = [ A 1 A 2 ] B 2 ] = A 1 B 1 + A 2 B 2. Caso 4: Sejam as matrizes A e B particionadas em blocos como segue: A = [ A11 A 12 A 21 A 22 t p t ] r m r, B = [ B11 B 12 ] B 21 B 22 s n s t p t Álgebra Linear Matricial 19 de agosto de 2000
2.3 Matrizes Particionadas em Blocos 107 Sejam A 1 = [ A11 Segue do Caso 3 que A 21 ] [ A12, A 2 = A 22 [ B1 AB = [ A 1 A 2 ] B 2 ], B 1 = [ B 11 B 12 ] e B 2 = [ B 21 B 22 ]. ] = A 1 B 1 + A 2 B 2. Agora, segue dos Casos 1 e 2, que [ ] [ ] [ ] A11 A11 B A 1 B 1 = B A 1 = 1 A11 B = 11 A 11 B 12 21 A 21 B 1 A 21 B 11 A 21 B 12 [ ] [ ] [ ] A12 A12 B A 2 B 2 = B 2 = 2 A12 B = 21 A 12 B 22. A 22 B 2 A 22 B 21 A 22 B 22 A 22 Portanto, [ ] [ ] [ A11 A AB = 12 B11 B 12 A11 B = 11 + A 12 B 21 A 11 B 12 + A 12 B 22 A 21 A 22 B 21 B 22 A 21 B 11 + A 22 B 21 A 21 B 12 + A 22 B 22 Observe que para que seja possível fazer o produto por blocos é necessário que o número de colunas dos blocos da primeira matriz seja igual ao número de linhas dos blocos correspondentes da segunda matriz. O que fizemos acima pode ser generalizado para um número qualquer de blocos. Se os blocos possuem os tamanhos adequados, a multiplicação por blocos pode ser feita da mesma forma como é feita a multiplicação usual de matrizes. Exemplo 2.20. Sejam A = 0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 0 e B = 2 1 3 4 5 0 2 1 19 de agosto de 2000 Reginaldo J. Santos. ].
108 Inversão de Matrizes e Determinantes Usando o particionamento das matrizes em blocos é mais simples fazer o produto AB. [ ] [ ] [ ] [ ] 2 5 1 0 5 0 0 2 + I AB = 3 2 0 2 2 + I 4 2 [ ] 1 [ ] [ ] [ ] 2 5 1 0 I 2 + 0 3 2 I 2 2 + 0 = 2 1 2 1. 4 2 1 3 4 2.3.2 Inversa de Matrizes em Blocos Proposição 2.22. Sejam A e D matrizes p p e (n p) (n p), respectivamente. A matriz [ ] A 0 M = 0 D é invertível se, e somente se, A e D são invertíveis. No caso em que M é invertível, então [ ] A M 1 1 0 = 0 D 1 (2.9) Demonstração. Se A e D são invertíveis é fácil verificar que a matriz dada em (2.9) é a inversa de M. Reciprocamente, suponha que M é invertível. Seja N = M 1. Vamos particionar a matriz N da mesma maneira que M, ou seja, [ ] E F N =. G H Álgebra Linear Matricial 19 de agosto de 2000
2.3 Matrizes Particionadas em Blocos 109 Como M N = N M = I n, então [ ] [ A 0 E F 0 D G H ] = [ ] [ Ip 0 E F = 0 I n p G H ] [ A 0 0 D ]. De onde segue que, DH = I n p = HD e assim D é invertível. Além disso, AE = I p = EA e portanto A é invertível. 2.3.3 Determinante de Matrizes em Blocos Proposição [ 2.23. Sejam ] A, B e D matrizes p p, p (n p) e (n p) (n p), respectivamente. A B Seja M =. Então, 0 D [ ] A B det(m) = det = det(a) det(d). 0 D Demonstração. O resultado é claramente verdadeiro para n = 4. Supondo que o resultado seja verdadeiro para matrizes (n 1) (n 1), vamos provar para matrizes n n. Expandindo o determinante em termos da 1 ạ coluna da matriz [ ] A B M =, 0 D obtemos det(m) = p ( 1) i+1 a i1 det( M i1 ) i=1 19 de agosto de 2000 Reginaldo J. Santos
110 Inversão de Matrizes e Determinantes Como estamos supondo o resultado verdadeiro para matrizes (n 1) (n 1), então det(m) = = p ( 1) i+1 a i1 (det(ãi1) det(d)) i=1 ( p ) ( 1) i+1 a i1 det(ãi1) det(d) = det(a) det(d). i=1 Exercícios Numéricos 3.1. Sejam e E = [ 0 1 1 0 ] [, F = [ ] B11 B B = 12 = B 21 B 22 1 0 1 1 ] 1 1 1 1 1 2 1 1 3 1 1 1 3 2 1 2 Realize [ os seguintes ] [ produtos ] em blocos: [ ] [ 0 (a) 2 I 2 B11 B 12 E 0 ; (b) 2 B11 B 12 [ I 2 0 2 ] [ B 21 B 22 ] [ 0 2 I 2 ] [ B 21 B 22 I2 F B11 B (c) 12 I2 0 ; (d) 2 B11 B 12 0 2 I 2 B 21 B 22 E I 2 B 21 B 22 ] ; ]. Álgebra Linear Matricial 19 de agosto de 2000
2.3 Matrizes Particionadas em Blocos 111 Exercícios Teóricos 3.2. Seja A uma matriz invertível n n. Faça os seguintes produtos: (a) A[ 1 [ A] I n ]. (b) [ A I n ] t [ A I n ]. (c) [ A I n ][] A I n ] t. A A (d) A 1 1. (e) [ A I n ]. I n 3.3. Seja A uma matriz m n, e suponha que A = XY t, onde X é uma matriz m k e Y é uma matriz n k. Escreva X = [ X 1... X k ] e Y = [ Y 1... Y k ]. Escreva A como uma soma de k matrizes definidas em termos das colunas de X e de Y. 3.4. Sejam A, B e D matrizes p p, p (n p) e (n p) (n p), respectivamente. Mostre que a matriz [ ] A B M = 0 D é invertível se, e somente se, A e D são invertíveis. No caso em que M é invertível, então [ ] A M 1 1 A = 1 BD 1 0 D 1 (2.10) I n [ A B 3.5. Sejam A, B, C e D matrizes n n, com A invertível. Seja M = C D [ ] A B det(m) = det = det(ad ACA 1 B) C D ]. Mostre que 3.6. Seja [ A11 A A = 12 A 21 A 22 ], 19 de agosto de 2000 Reginaldo J. Santos
112 Inversão de Matrizes e Determinantes onde A 11 é uma matriz k k invertível. Mostre que A pode ser fatorada no produto [ ] [ ] Ik 0 A11 A A = 12, B 0 C I n k onde B = A 21 A 1 11 e C = A 22 A 21 A 1 11 A 12. Álgebra Linear Matricial 19 de agosto de 2000
2.3 Matrizes Particionadas em Blocos 113 Teste do Capítulo 1. Calcule o determinante da matriz seguinte usando operações elementares para transformá-la em uma matriz triangular superior. 1 3 9 7 2 3 2 5 0 3 4 1 4 6 9 1 2. Se possível, encontre a inversa da seguinte matriz: 1 0 0 2 0 1 0 0 0 0 1 0 2 0 0 2 3. Encontre todos os valores de λ para os quais a matriz A λi 4 tem inversa, onde 2 0 0 0 A = 2 0 0 0 1 2 1 0 3 2 1 2 19 de agosto de 2000 Reginaldo J. Santos
114 Inversão de Matrizes e Determinantes 4. Responda Verdadeiro ou Falso, justificando: (a) Se A 2 = 2A 4, então (I + A 2 ) 1 = I 2A 2 ; (b) Se A t = A 2 e A é não singular, então determinante de A é -1; (c) Se B = AA t A 1, então det(a) = det(b). (d) det(a + B) = det A + det B Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 3 Espaços Euclidianos 3.1 Vetores no Plano e no Espaço Muitas grandezas físicas, como velocidade, força, deslocamento e impulso, para serem completamente identificadas, precisam, além da magnitude, da direção e do sentido. Estas grandezas são chamadas grandezas vetoriais ou simplesmente vetores. Geometricamente, vetores são representados por segmentos (de retas) orientados (segmentos de retas com um sentido de percurso) no plano ou no espaço. A ponta da seta do segmento orientado é chamada ponto final ou extremidade e o outro ponto extremo é chamado de ponto inicial ou origem do segmento orientado. A direção e o sentido do segmento orientado identifica a direção e o sentido do vetor. O comprimento do segmento orientado representa a magnitude do vetor. Um vetor poder ser representado por vários segmentos orientados. Este fato é análogo ao que ocorre com os números racionais e as frações. Duas frações representam o mesmo número racional 115
116 Espaços Euclidianos se o numerador e o denominador de cada uma delas estiverem na mesma proporção. Por exemplo, as frações 1/2, 2/4 e 3/6 representam o mesmo número racional. De forma análoga, dizemos que dois segmentos orientados representam o mesmo vetor se possuem o mesmo comprimento, a mesma direção e o mesmo sentido. A definição de igualdade de vetores também é análoga a igualdade de números racionais. Dois números racionais a/b e c/d são iguais, quando ad = bc. Analogamente, dizemos que dois vetores são iguais se eles possuem o mesmo comprimento, a mesma direção e o mesmo sentido. Na Figura 3.1 temos 4 segmentos orientados, com origens em pontos diferentes, que representam o mesmo vetor, ou seja, são considerados como vetores iguais, pois possuem a mesma direção, mesmo sentido e o mesmo comprimento. Se o ponto inicial de um representante de um vetor V é A e o ponto final é B, então escrevemos V = AB AB A B 3.1.1 Soma de Vetores e Multiplicação por Escalar A soma, V + W, de dois vetores V e W é determinada da seguinte forma: tome um segmento orientado que representa V ; tome um segmento orientado que representa W, com origem na extremidade de V ; o vetor V + W é representado pelo segmento orientado que vai da origem de V até a extremidade de W. Da Figura 3.2, deduzimos que a soma de vetores é comutativa, ou seja, V + W = W + V, (3.1) Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 117 para quaisquer vetores V e W. Observamos também que a soma V + W está na diagonal do paralelogramo determinado por V e W, quando estão representados com a mesma origem. Da Figura 3.3, deduzimos que a soma de vetores é associativa, ou seja, V + (W + U) = (V + W ) + U, (3.2) para quaisquer vetores V, W e U. O vetor que tem a sua origem coincidindo com a sua extremidade é chamado vetor nulo e denotado por 0. Segue então, que V + 0 = 0 + V = V, (3.3) para todo vetor V. Para qualquer vetor V, o simétrico de V, denotado por V, é o vetor que tem mesmo comprimento, mesma direção e sentido contrário ao de V. Segue então, que Definimos a diferença W menos V, por V + ( V ) = 0. (3.4) W V = W + ( V ). Segue desta definição, de (3.1), (3.2), (3.4) e de (3.3) que W + (V W ) = (V W ) + W = V + ( W + W ) = V + 0 = V. Assim, a diferença V W é um vetor que somado a W dá V, portanto ele vai da extremidade de W até a extremidade de V, desde que V e W estejam representados por segmentos orientados com a mesma origem. A multiplicação de um vetor V por um escalar α, α V, é determinada pelo vetor que possui as seguintes características: 19 de agosto de 2000 Reginaldo J. Santos
118 Espaços Euclidianos (a) é o vetor nulo, se α = 0 ou V = 0, (b) caso contrário, (i) tem comprimento α vezes o comprimento de V, (ii) a direção é a mesma de V (neste caso, dizemos que eles são paralelos), (iii) tem o mesmo sentido de V, se α > 0 e tem o sentido contrário ao de V, se α < 0. As propriedades da multiplicação por escalar serão apresentadas mais a frente. Se W = α V, dizemos que W é um múltiplo escalar de V. É fácil ver que dois vetores não nulos são paralelos (ou colineares) se, e somente se, um é um múltiplo escalar do outro. As operações com vetores podem ser definidas utilizando um sistema de coordenadas retangulares. Em primeiro lugar, vamos considerar os vetores no plano. Seja V um vetor no plano. Definimos as componentes de V como sendo as coordenadas (v 1, v 2 ) do ponto final do representante de V que tem ponto inicial na origem. Escrevemos simplesmente V = (v 1, v 2 ). Assim, as coordenadas de um ponto P são iguais as componentes do vetor OP, que vai da origem do sistema de coordenadas ao ponto P. Em particular, o vetor nulo, 0 = (0, 0). Em termos das componentes, podemos realizar facilmente as operações: soma de vetores e multiplicação de vetor por escalar. Como ilustrado na Figura 3.8, a soma de dois vetores V = (v 1, v 2 ) e W = (w 1, w 2 ) é dada por V + W = (v 1 + w 1, v 2 + w 2 ); Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 119 Como ilustrado na Figura 3.9, a multiplicação de um vetor V = (v 1, v 2 ) por um escalar α é dada por α V = (α v 1, α v 2 ). Definimos as componentes de um vetor no espaço de forma análoga a que fizemos com vetores no plano. Vamos inicialmente introduzir um sistema de coordenadas retangulares no espaço. Para isto, escolhemos um ponto como origem O e como eixos coordenados, três retas orientadas (com sentido de percurso definido), passando pela origem, perpendiculares entre si. Estes serão os eixos x, y e z. O eixo z é o eixo vertical. Os eixos x e y são horizontais e satisfazem a seguinte propriedade. Suponha que giramos o eixo x pelo menor ângulo até que coincida com o eixo y. Se os dedos da mão direita apontam na direção do semi-eixo x positivo de forma que o semi-eixo y positivo esteja do lado da palma da mão, então o polegar aponta no sentido do semi-eixo z positivo. Cada par de eixos determina um plano chamado de plano coordenado. Portanto os três planos coordenados são: xy, yz e xz. A cada ponto P no espaço associamos um terno de números (x, y, z), chamado de coordenadas do ponto P como segue. Passe três planos por P paralelos aos planos coordenados. A interseção do plano paralelo ao plano xy, passando por P, com o eixo z determina a coordenada z. A interseção do plano paralelo ao plano xz, passando por P, com o eixo y determina a coordenada y A interseção do plano paralelo ao plano yz, passando por P, com o eixo x determina a coordenada x. Alternativamente, podemos encontrar as coordenadas de um ponto P como segue. 19 de agosto de 2000 Reginaldo J. Santos
120 Espaços Euclidianos Trace uma reta paralela ao eixo z, passando por P ; A interseção da reta paralela ao eixo z, passando por P, com o plano xy é o ponto P. As coordenadas de P, (x, y), no sistema de coordenadas xy são as duas primeiras coordenadas de P. A terceira coordenada é igual ao comprimento do segmento P P, se P estiver acima do plano xy e ao comprimento do segmento P P com o sinal negativo, se P estiver abaixo do plano xy. Agora, estamos prontos para utilizarmos um sistema de coordenadas cartesianas também nas operações de vetores no espaço. Seja V um vetor no espaço. Como no caso de vetores do plano, definimos as componentes de V como sendo as coordenadas (v 1, v 2, v 3 ) do ponto final do representante de V que tem ponto inicial na origem. Escrevemos simplesmente V = (v 1, v 2, v 3 ). Assim, as coordenadas de um ponto P são iguais as componentes do vetor OP que vai da origem do sistema de coordenadas ao ponto P. Em particular, o vetor nulo, 0 = (0, 0, 0). Assim como fizemos para vetores no plano, para vetores no espaço a soma de vetores e a multiplicação de vetor por escalar podem ser realizadas em termos das componentes. Se V = (v 1, v 2, v 3 ) e W = (w 1, w 2, w 3 ), então a adição de V com W é dada por V + W = (v 1 + w 1, v 2 + w 2, v 3 + w 3 ); Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 121 Se V = (v 1, v 2, v 3 ) e α é um escalar, então a multiplicação de V por α é dada por α V = (α v 1, α v 2, α v 3 ). Exemplo 3.1. Se V = (1, 2, 3), W = (2, 4, 1), então V + W = (1 + 2, 2 + 4, 3 + ( 1)) = (3, 2, 2), 3V = (3 1, 3 ( 2), 3 3) = (3, 6, 9). Quando um vetor V está representado por um segmento orientado com ponto inicial fora da origem (Figura 3.13), digamos em P = (x 1, y 1, z 1 ), e ponto final em Q = (x 2, y 2, z 2 ), então as componentes do vetor V são dadas por V = P Q= OQ OP = (x 2 x 1, y 2 y 1, z 2 z 1 ). Portanto, as componentes de V são obtidas subtraindo-se as coordenadas do ponto Q (extremidade) das do ponto P (origem). O mesmo se aplica a vetores no plano. Exemplo 3.2. As componentes do vetor V que tem um representante com ponto inicial P = (5/2, 1, 2) e ponto final Q = (0, 5/2, 5/2) são dadas por V = P Q= (0 5/2, 5/2 1, 5/2 2) = ( 5/2, 3/2, 1/2). Observação. O vetor é livre, ele não tem posição fixa, ao contrário do ponto e do segmento orientado. Por exemplo, o vetor V = ( 5/2, 3/2, 1/2), no exemplo acima, estava representado por 19 de agosto de 2000 Reginaldo J. Santos
122 Espaços Euclidianos um segmento orientado com a origem no ponto P = (5/2, 1, 2). Mas, poderia ser representado por um segmento orientado cujo ponto inicial poderia estar em qualquer outro ponto. Um vetor no espaço V = (v 1, v 2, v 3 ) pode também ser escrito na notação matricial como uma matriz linha ou como uma matriz coluna: v 1 V = v 2 ou V = [ ] v 1 v 2 v 3. v 3 ou Estas notações podem ser justificadas pelo fato de que as operações matriciais v 1 w 1 V + W = v 2 v 3 + w 2 w 3 =, αv = α = v 1 + w 1 v 2 + w 2 v 3 + w 3 v 1 v 2 v 3 αv 1 αv 2 αv 3 V + W = [ v 1 v 2 v 3 ] + [ w1 w 2 w 3 ] = [ v1 + w 1 v 2 + w 2 v 3 + w 3 ], αv = α [ v 1 v 2 v 3 ] = [ αv1 αv 2 αv 3 ] produzem os mesmos resultados que as operações vetoriais V + W = (v 1, v 2, v 3 ) + (w 1, w 2, w 3 ) = (v 1 + w 1, v 2 + w 2, v 3 + w 3 ), αv = α(v 1, v 2, v 3 ) = (αv 1, αv 2, αv 3 ). O mesmo vale, naturalmente, para vetores no plano. No teorema seguinte enunciamos as propriedades mais importantes da soma de vetores e multiplicação de vetores por escalar. Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 123 Teorema 3.1. Sejam U, V e W vetores e α e β escalares. São válidas as seguintes propriedades: (a) U + V = V + U; (e) α(βu) = (αβ)u; (b) (U + V ) + W = U + (V + W ); (f) α(u + V ) = αu + αv ; (c) U + 0 = U; (g) (α + β)u = αu + βu; (d) U + ( U) = 0; (h) 1U = U. Demonstração. Segue diretamente das propriedades da álgebra matricial (Teorema 1.1 na página 7). Exemplo 3.3. Vamos usar vetores e as suas propriedades para provar um resultado conhecido de geometria plana. Seja um triângulo ABC e sejam M e N os pontos médios de AC e BC, respectivamente. Vamos provar que MN é paralelo a AB e tem comprimento igual a metade do comprimento de AB. Devemos provar que MN= 1 2 AB. Agora, a partir da figura ao lado temos que MN= MC + CN. Como M é ponto médio de AC e N é ponto médio de BC, então C M A N B MC= 1 2 AC e CN= 1 2 CB. 19 de agosto de 2000 Reginaldo J. Santos
124 Espaços Euclidianos Logo, MN= 1 2 AC + 1 2 CB= 1 2 ( AC + CB) = 1 2 AB. Exemplo 3.4. Dados quatro pontos A, B, C e X tais que AX= λ AB, vamos escrever CX como uma soma de múltiplos escalares de CA e CB, chamada de combinação linear de CA e CB. Como AX= λ AB, então os vetores AX e AB são paralelos e portanto o ponto X só pode estar na reta definida por A e B. Vamos desenhá-lo entre A e B, mas isto não vai representar nenhuma restrição. O vetor que vai de C para X, pode ser escrito como uma soma de um vetor que vai de C para A com um vetor que vai de A para X, CX= CA + AX. C Agora, por hipótese AX= λ AB, o que implica que CX= CA +λ AB. Mas, AB= CB CA, portanto CX= CA +λ( CB CA). Logo, Observe que para λ = 0, CX= CA, para λ = 1, para λ = 1/3, CX= 2 CA + 1 CB. 3 3 CX= (1 λ) CA +λ CB. CX= CB, para λ = 1/2, A X CX= 1 2 B CA + 1 2 CB, Exemplo 3.5. Vamos mostrar, usando vetores, que o ponto médio de um segmento que une os pontos A = (x 1, y 1, z 1 ) e B = (x 1, y 2, z 2 ) é M = ( x 1 +x 2, y 1+y 2, z 1+z 2 ) 2 2 2. Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 125 O ponto M é o ponto médio de AB se, e somente se, AM= 1 AB. Então, aplicando o 2 exemplo anterior (com o ponto C sendo a origem O), OM= 1 OA + 1 OB. Como as coordenadas 2 2 de um ponto são iguais as componentes do ( vetor que vai da origem até aquele ponto, segue que OM= 1(x 2 1, y 1, z 1 ) + 1(x x1 + x 2 2 2, y 2, z 2 ) e M =, y 1 + y 2, z ) 1 + z 2. 2 2 2 19 de agosto de 2000 Reginaldo J. Santos
126 Espaços Euclidianos Figura 3.1: Segmentos orientados representando o mesmo vetor Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 127 W V W V + W W + V V V V + W W U W + U (V + W ) + U V + (W + U) Figura 3.2: V + W = W + V Figura 3.3: V + (W + U) = (V + W ) + U V W V V V W W W W Figura 3.4: A diferença V W 19 de agosto de 2000 Reginaldo J. Santos
128 Espaços Euclidianos V 2V 3V 1 2 V Figura 3.5: Multiplicação de vetor por escalar y y v 2 V = (v 1, v 2 ) y OP P = (x, y) O v 1 x O x x Figura 3.6: As componentes do vetor V no plano Figura 3.7: As coordenadas de P são iguais as componentes de OP Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 129 y y v 2 +w 2 v 2 w 2 V V +W αv 2 αv v 2 V w 2 W v 1 v 1 w 1 v 1 +w 1 x v 1 αv 1 x Figura 3.8: plano A soma de dois vetores no Figura 3.9: A multiplicação de vetor por escalar no plano z z z P = (x, y, z) P = (x, y, z) z x x y y x x P y y Figura 3.10: As coordenadas de um ponto no espaço 19 de agosto de 2000 Reginaldo J. Santos
130 Espaços Euclidianos z z v 3 z V = (v 1, v 2, v 3 ) P = (x, y, z) OP v 1 v 2 x O y x y x y Figura 3.11: As componentes de um vetor no espaço Figura 3.12: As coordenadas de P são iguais as componentes de OP z V Q P O x y Figura 3.13: V = OQ OP Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 131 3.1.2 Norma e Produto Escalar Já vimos que o comprimento de um vetor V é definido como sendo o comprimento de qualquer um dos segmentos orientados que o representam. O comprimento do vetor V também é chamado de norma de V e é denotado(a) por V. Segue do Teorema de Pitágoras que a norma de um vetor é dada por V = v 2 1 + v 2 2, no caso em que V = (v 1, v 2 ) é um vetor no plano, e por V = v 2 1 + v 2 2 + v 2 3, no caso em que V = (v 1, v 2, v 3 ) é um vetor no espaço (verifique usando as Figuras 3.14 e 3.15). y z v 3 V = (v 1, v 2 ) V = (v 1, v 2, v 3 ) V v 2 V v 1 x x v 1 v 2 y Figura 3.14: A norma de um vetor V no plano Figura 3.15: A norma de um vetor V no espaço 19 de agosto de 2000 Reginaldo J. Santos
132 Espaços Euclidianos Um vetor de norma igual a 1 é chamado de vetor unitário. A distância entre dois pontos P = (x 1, y 1, z 1 ) e Q = (x 2, y 2, z 2 ) é igual à norma do vetor P Q (Figura 3.13 na página 130). Como P Q= OQ OP = (x 2 x 1, y 2 y 1, z 2 z 1 ), então a distância de P a Q é dada por dist(p, Q) = P Q = (x 2 x 1 ) 2 + (y 2 y 1 ) 2 + (z 2 z 1 ) 2. Analogamente, a distância entre dois pontos P = (x 1, y 1 ) e Q = (x 2, y 2 ) no plano é igual à norma do vetor P Q, que é dada por dist(p, Q) = P Q = (x 2 x 1 ) 2 + (y 2 y 1 ) 2. Exemplo 3.6. A norma do vetor V = (1, 2, 3) é V = 1 2 + ( 2) 2 + 3 2 = 14. A distância entre os pontos P = (2, 3, 1) e Q = ( 1, 4, 5) é dist(p, Q) = P Q = ( 1 2, 4 ( 3), 5 1) = ( 3, 7, 4) = ( 3) 2 + 7 2 + 4 2 = 74. Se V = (v 1, v 2, v 3 ) e α é um escalar, então da definição da multiplicação de vetor por escalar e da norma de um vetor segue que αv = (αv 1, αv 2, αv 3 ) = (αv 1 ) 2 + (αv 2 ) 2 + (αv 3 ) 2 = α 2 (v1 2 + v2 2 + v3), 2 Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 133 ou seja, Dado um vetor V não nulo, o vetor αv = α V. (3.5) U = ( ) 1 V. V é um vetor unitário na direção de V, pois por (3.5), temos que U = 1 V V = 1. Exemplo 3.7. Um vetor unitário na direção do vetor V = (1, 2, 3) é o vetor ( ) ( ) 1 1 1 U = V = (1, 2, 3) = (, 2 3, ). V 14 14 14 14 O ângulo entre dois vetores não nulos, V e W, é definido pelo ângulo θ determinado por V e W que satisfaz 0 θ π, quando eles estão representados com a mesma origem. Quando o ângulo θ entre dois vetores V e W é reto (θ = 90 o ), ou um deles é o vetor nulo, dizemos que os vetores V e W são ortogonais ou perpendiculares entre si. Vamos definir, agora, um produto entre dois vetores, cujo resultado é um escalar. Por isso ele é chamado produto escalar. Este produto tem aplicação, por exemplo, em Física: o trabalho realizado por uma força é o produto escalar do vetor força pelo vetor deslocamento, quando a força aplicada é constante. 19 de agosto de 2000 Reginaldo J. Santos
134 Espaços Euclidianos V V θ W θ W Figura 3.16: Ângulo entre dois vetores Definição 3.1. O produto escalar ou interno de dois vetores V e W é definido por { 0, se V ou W é o vetor nulo, V W = V W cos θ, caso contrário, em que θ é o ângulo entre eles. Quando os vetores são dados em termos das suas componentes não sabemos diretamente o ângulo entre eles. Por isso, precisamos de uma forma de calcular o produto escalar que não necessite do ângulo entre os vetores. Se V e W são dois vetores não nulos e θ é o ângulo entre eles, então pela lei dos cossenos, V W 2 = V 2 + W 2 2 V W cos θ. Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 135 V V W V V W θ W θ W Figura 3.17: Ângulo entre dois vetores e a diferença entre eles Assim, V W = V W cos θ = 1 2 ( V 2 + W 2 V W 2). (3.6) Já temos então uma fórmula para calcular o produto escalar que não depende diretamente do ângulo entre eles. Substituindo-se as coordenadas dos vetores em (3.6) obtemos uma expressão mais simples para o cálculo do produto interno. Por exemplo, se V = (v 1, v 2, v 3 ) e W = (w 1, w 2, w 3 ) são vetores no espaço, então substituindose V 2 = v 2 1 +v 2 2 +v 2 3, W 2 = w 2 1 +w 2 2 +w 2 3 e V W 2 = (v 1 w 1 ) 2 +(v 2 w 2 ) 2 +(v 3 w 3 ) 2 em (3.6) os termos v 2 i e w 2 i são cancelados e obtemos V W = v 1 w 1 + v 2 w 2 + v 3 w 3. 19 de agosto de 2000 Reginaldo J. Santos
136 Espaços Euclidianos Teorema 3.2. O produto escalar ou interno, V W, entre dois vetores é dado por V W = v 1 w 1 + v 2 w 2, se V = (v 1, v 2 ) e W = (w 1, w 2 ) são vetores no plano e por V W = v 1 w 1 + v 2 w 2 + v 3 w 3, se V = (v 1, v 2, v 3 ) e W = (w 1, w 2, w 3 ) são vetores no espaço. Exemplo 3.8. Sejam V = (0, 1, 0) e W = (2, 2, 3). O produto escalar de V por W é dado por V W = v 1 w 1 + v 2 w 2 + v 3 w 3 = 0 2 + 1 2 + 0 3 = 2. Podemos usar o Teorema 3.2 para determinar o ângulo entre dois vetores não nulos, V e W. O cosseno do ângulo entre V e W é, então, dado por cos θ = V W V W. Se V e W são vetores não nulos e θ é o ângulo entre eles, então (a) θ é agudo (0 θ < 90 o ) se, e somente se, V W > 0, (b) θ é reto (θ = 90 o ) se, e somente se, V W = 0 e (c) θ é obtuso (90 o < θ 180 o ) se, e somente se, V W < 0. Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 137 Exemplo 3.9. Vamos determinar o ângulo entre uma diagonal de um cubo e uma de suas arestas. Sejam V 1 = (1, 0, 0), V 2 = (0, 1, 0) e V 3 = (0, 0, 1) (Figura 3.18). Uma diagonal do cubo é representada pelo vetor D dado por Então o ângulo entre D e V 1 satisfaz D = V 1 + V 2 + V 3 = (1, 1, 1). cos θ = D V 1 D V 1 = 1.1 + 0.1 + 0.1 ( 1 2 + 1 2 + 1 2 )( 1 2 + 0 2 + 0 2 ) = 1 3 ou seja, θ = arccos( 1 3 ) 54 o. Teorema 3.3. Sejam U, V e W vetores e α um escalar. São válidas as seguintes propriedades: (a) (comutatividade) U V = V U ; (b) (distributividade) U (V + W ) = U V + U W ; (c) (associatividade) α(u V ) = (αu) V = U (αv ); (d) V V = V 2 0, para todo V e V V = 0 se, e somente se, V = 0. 19 de agosto de 2000 Reginaldo J. Santos
138 Espaços Euclidianos z (0, 0, 1) (1, 1, 1) (1, 0, 0) θ (0, 1, 0) x y Figura 3.18: Ângulo entre a diagonal de um cubo e uma de suas arestas Demonstração. Sejam U = (u 1, u 2, u 3 ), V = (v 1, v 2, v 3 ) e W = (w 1, w 2, w 3 ). (a) U V = u 1 v 1 + u 2 v 2 + u 3 v 3 = v 1 u 1 + v 2 u 2 + v 3 u 3 = V U; (b) U (V +W ) = (u 1, u 2, u 3 ) (v 1 +w 1, v 2 +w 2, v 3 +w 3 ) = u 1 (v 1 +w 1 )+u 2 (v 2 +w 2 )+u 3 (v 3 +w 3 ) = (u 1 v 1 +u 1 w 1 )+(u 2 v 2 +u 2 w 2 )+(u 3 v 3 +u 3 w 3 ) = (u 1 v 1 +u 2 v 2 +u 3 v 3 )+(u 1 w 1 +u 2 w 2 +u 3 w 3 ) = U V + U W ; (c) α(u V ) = α(u 1 v 1 + u 2 v 2 + u 3 v 3 ) = (αu 1 )v 1 + (αu 2 )v 2 + (αu 3 )v 3 = (αu) V ; (d) V V = V 2 é uma soma de quadrados, por isso é sempre maior ou igual a zero e é zero se, e somente se, todas as parcelas são iguais a zero. Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 139 Projeção Ortogonal Podemos decompor um vetor V em uma soma de dois vetores, V 1 e V 2, sendo V 1 na direção de um vetor W e V 2 perpendicular a W (Figura 3.19). V 2 V V V 2 V 1 W V 1 W Figura 3.19: Decomposição de V em uma soma V 1 + V 2, em que V 1 é paralelo a W O vetor V 1 é chamado projeção ortogonal de V sobre W e é denotado por proj W V. Proposição 3.4. Seja W um vetor não nulo. Então, a projeção ortogonal de um vetor V em W é dada por ( ) V W proj W V = W. W 2 19 de agosto de 2000 Reginaldo J. Santos
140 Espaços Euclidianos Demonstração. Sejam V 1 = proj W V e V 2 = V proj W V. Como V 1 é paralelo a W, então V 1 = αw. Assim, V = V 1 + V 2 = αw + V 2. Multiplicando-se escalarmente V por W e usando o Teorema 3.3 (d) obtemos V W = α W 2 + V 2 W. (3.7) Mas, V 2 é perpendicular a W, então V 2 W = 0. Portanto, de (3.7) obtemos α = V W W 2. Exemplo 3.10. Sejam V = (2, 1, 3) e W = (4, 1, 2). Vamos encontrar dois vetores V 1 e V 2 tais que V = V 1 + V 2, V 1 é paralelo a W e V 2 é perpendicular a W (Figura 3.19). Temos que V W = 2 4 + ( 1)( 1) + 3 2 = 15 W 2 = 4 2 + ( 1) 2 + 2 2 = 21. ( ) ( ) V W ) 15 V 1 = proj W V = W = (4, 1, 2) = ( 20 W 2 21 7, 5 7, 10 7 ) V 2 = V V 1 = (2, 1, 3) ( 20 7, 5 7, 10 7 ) = ( 6 7, 2 7, 11 7 ). Exercícios Numéricos (respostas na página 298) Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 141 3.1.1. Determine o vetor X, tal que 3X 2V = 15(X U). 3.1.2. Determine o vetor X, tal que { 6X 2Y = U 3X + Y = U + V 3.1.3. Determine as coordenadas da extremidade do segmento orientado que representa o vetor V = (3, 0, 3), sabendo-se que sua origem está no ponto P = (2, 3, 5). 3.1.4. Quais são as coordenadas do ponto P, simétrico do ponto P = (1, 0, 3) em relação ao ponto M = (1, 2, 1)? (Sugestão: o ponto P é tal que o vetor MP = MP ) 3.1.5. Verifique se os pontos dados a seguir são colineares, isto é, pertencem a uma mesma reta: (a) A = (5, 1, 3), B = (0, 3, 4) e C = (0, 3, 5); (b) A = ( 1, 1, 3), B = (4, 2, 3) e C = (14, 4, 15); 3.1.6. Dados os pontos A = (1, 2, 3), B = ( 5, 2, 1) e C = (4, 0, 1). Determine o ponto D tal que A, B, C e D sejam vértices consecutivos de um paralelogramo. 3.1.7. Verifique se o vetor U é combinação linear (soma de múltiplos escalares) de V e W : (a) V = (9, 12, 6), W = ( 1, 7, 1) e U = ( 4, 6, 2); (b) V = (5, 4, 3), W = (2, 1, 1) e U = ( 3, 4, 1); 3.1.8. Sejam V = (1, 2, 3) e W = (2, 1, 2). Determine vetores unitários paralelos aos vetores (a) V + W ; (b) V W ; (c) 2V 3W. 3.1.9. Ache o vetor unitário da bissetriz do ângulo entre os vetores V = (2, 2, 1) e W = (6, 2, 3). (Sugestão: observe que a soma de dois vetores está na direção da bissetriz se, e somente se, os dois tiverem o mesmo comprimento. Portanto, tome múltiplos escalares de V e W de forma que eles tenham o mesmo comprimento e tome o vetor unitário na direção da soma deles.) 19 de agosto de 2000 Reginaldo J. Santos
142 Espaços Euclidianos 3.1.10. Determine o valor de x para o qual os vetores V = (x, 3, 4) e W = (3, 1, 2) são perpendiculares. 3.1.11. Demonstre que não existe x tal que os vetores V = (x, 2, 4) e W = (x, 2, 3) são perpendiculares. 3.1.12. Ache o ângulo entre os seguintes pares de vetores: (a) (2, 1, 0) e (0, 1, 1); (b) (1, 1, 1) e (0, 2, 2); (c) (3, 3, 0) e (2, 1, 2). 3.1.13. Decomponha W = ( 1, 3, 2) como a soma de dois vetores W 1 e W 2, com W 1 paralelo ao vetor (0, 1, 3) e W 2 ortogonal a este último. (Sugestão: revise o Exemplo 3.10 na página 140) 3.1.14. Sabe-se que o vetor X é ortogonal a (1, 1, 0) e a ( 1, 0, 1), tem norma 3 e sendo θ o ângulo entre X e (0, 1, 0), tem-se cos θ > 0. Ache X. 3.1.15. Mostre que A = (3, 0, 2), B = (4, 3, 0) e C = (8, 1, 1) são vértices de um triângulo retângulo. Em qual dos vértices está o ângulo reto? Exercícios usando o MATLAB >> V=[v1,v2,v3] cria um vetor V, usando as componentes numéricas v1, v2, v3. Por exemplo >> V=[1,2,3] cria o vetor V = (1, 2, 3); >> V+W é a soma de V e W; >> V-W é a diferença V menos W; >> num*v é o produto do vetor V pelo escalar num; >> subs(expr,x,num) substitui x por num na expressão expr; >> solve(expr) determina a solução da equação expr=0; Comandos numéricos do pacote GAAL: Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 143 >> V=randi(1,3) cria um vetor aleatório com componentes inteiras; >> no(v) calcula a norma do vetor V. >> pe(v,w) calcula o produto escalar do vetor V pelo vetor W. Comandos gráficos do pacote GAAL: >> desvet(p,v) desenha o vetor V com origem no ponto P e >> desvet(v) desenha o vetor V com origem no ponto O = (0, 0, 0). >> po([p1;p2;...;pn]) desenha os pontos P1, P2,..., Pn. >> lineseg(p1,p2, cor ) desenha o segmento de reta P1P2. >> eixos desenha os eixos coordenados. >> box desenha uma caixa em volta da figura. >> axiss reescala os eixos com a mesma escala. >> rota faz uma rotação em torno do eixo z. >> zoom3(fator) amplifica a região pelo fator. >> tex(p, texto ) coloca o texto no ponto P. 3.1.16. Digite no prompt demog21, (sem a vírgula!). Esta função demonstra as funções gráficas para vetores. 3.1.17. Coloque em duas variáveis V e W dois vetores do plano ou do espaço a seu critério (a) Use a função ilsvw(v,w) para visualizar a soma dos dois vetores. 19 de agosto de 2000 Reginaldo J. Santos
144 Espaços Euclidianos (b) Coloque em uma variável a um número e use a função ilav(a,v) para visualizar a multiplicação do vetor V pelo escalar a. (c) Use a função ilpv(v,w) para visualizar o produto vetorial V W. (d) Use a função ilproj(w,v) para visualizar a projeção de V em W. 3.1.18. Use o MATLAB para resolver os Exercícios Numéricos a partir do Exercício 1.3. Exercícios Teóricos 3.1.19. Demonstre que o segmento que une os pontos médios dos lados não paralelos de um trapézio é paralelo às bases, e sua medida é a média aritmética das medidas das bases. (Sugestão: mostre que MN= 1( AB + DC) e depois conclua que MN é um múltiplo escalar de AB. 2 Revise o Exemplo 3.3 na página 123) M A D C N B 3.1.20. Demonstre que as diagonais de um paralelogramo se cortam ao meio. (Sugestão: Sejam M e N os pontos médios das duas diagonais do paralelogramo. Mostre que o vetor MN= 0, então conclua que M = N.) 3.1.21. Sejam A, B e C pontos quaisquer com A B. Prove que: Álgebra Linear Matricial 19 de agosto de 2000
3.1 Vetores no Plano e no Espaço 145 (a) Um ponto X pertence a reta determinada por A e B se, e somente se, CX= α CA +β CB, com α + β = 1. (b) Um ponto X pertence ao segmento AB se, e somente se, CX= α CA +β CB, com α 0, β 0 e α + β = 1. (c) Um ponto X é um ponto interior ao triângulo ABC se, e somente se, CX= α CA +β CB, com α > 0, β > 0 e α + β < 1. 3.1.22. Mostre que se αv = 0, então α = 0 ou V = 0. 3.1.23. Se αu = αv, então U = V? E se α 0? 3.1.24. Se αv = βv, então α = β? E se V 0? 3.1.25. Mostre que 2V = V + V. 3.1.26. Se V W = V U, então W = U? 3.1.27. Mostre que se V é ortogonal a W 1 e W 2, então V é ortogonal a α 1 W 1 + α 2 W 2. 3.1.28. Demonstre que as diagonais de um losango são perpendiculares. (Sugestão: mostre que AC BD= 0, usando o fato de que AB= DC e AB = BC.) 3.1.29. Demonstre que, se V e W são vetores quaisquer, então: (a) V W = 1 4 ( V + W 2 V W 2) ; 19 de agosto de 2000 Reginaldo J. Santos
146 Espaços Euclidianos (b) V 2 + W 2 = 1 2 ( V + W 2 + V W 2). (Sugestão: desenvolva os segundos membros das igualdades acima observando que V + W 2 = (V + W ) (V + W ) e V W 2 = (V W ) (V W )) 3.1.30. Demonstre que se V e W são vetores quaisquer, então: (a) V W V W ; (b) V + W V + W ; (Sugestão: mostre que V + W 2 = (V + W ) (V + W ) ( V + W ) 2, usando o item anterior) (c) V W V W. (Sugestão: defina U = V W e aplique o item anterior a U e W ) 3.1.31. Sejam U 1, U 2 e U 3 três vetores unitários mutuamente ortogonais. Se A = [ U 1 U 2 U 3 ] é uma matriz 3 3 cujas colunas são os vetores U 1, U 2 e U 3, então A é invertível e A 1 = A t. (Sugestão: mostre que A t A = I 3.) Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 147 3.2 Equações de Retas e Planos 3.2.1 Equação do Plano Existe uma analogia entre uma reta no plano e um plano no espaço. No plano, a equação de uma reta é determinada se forem dados sua inclinação e um de seus pontos. No espaço, a inclinação de um plano é dada por um vetor perpendicular a ele e a equação de um plano é determinada se são dados um vetor perpendicular a ele e um de seus pontos. N = (a, b, c) P 0 = (x 0, y 0, z 0 ) π P = (x, y, z) Figura 3.20: Plano perpendicular a N = (a, b, c) e que passa por P 0 = (x 0, y 0, z 0 ) Proposição 3.5. A equação de um plano π que passa por um ponto P 0 = (x 0, y 0, z 0 ) e é perpendicular ao vetor N = (a, b, c) é ax + by + cz + d = 0, (3.8) 19 de agosto de 2000 Reginaldo J. Santos
148 Espaços Euclidianos onde d = (ax 0 + by 0 + cz 0 ). A equação (3.8) é chamada equação geral do plano π e o vetor N é chamado vetor normal do plano. Demonstração. Um ponto P = (x, y, z) pertence ao plano π se, e somente se, o vetor P 0 P for perpendicular ao vetor N, ou seja, N P 0 P = 0. (3.9) Como, P 0 P = (x x 0, y y 0, z z 0 ), a equação (3.9) pode ser reescrita como a(x x 0 ) + b(y y 0 ) + c(z z 0 ) = 0, ou seja, ax + by + cz (ax 0 + by 0 + cz 0 ) = 0. z z z x y x y x y Figura 3.21: Plano ax = d Figura 3.22: Plano cz = d Figura 3.23: Plano by = d Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 149 z z z x y x y x y Figura 3.24: ax+by= d Figura 3.25: ax+cz= d Figura 3.26: by+cz = d Exemplo 3.11. Vamos encontrar a equação do plano π que passa pelo ponto P 0 = (3, 1, 7) e é perpendicular ao vetor N = (4, 2, 5). Da proposição anterior, a equação do plano é da forma ax + by + cz + d = 0, onde os coeficientes de x, y e z são as componentes do vetor normal, ou seja, a = 4, b = 2 e c = 5. Assim, a equação de π é da forma 4x + 2y 5z + d = 0. Para determinar o coeficiente d, basta usarmos o fato de que P 0 = (3, 1, 7) pertence a π. Mas, o ponto P 0 pertence a π se, e somente se, as suas coordenadas satisfazem a equação de π, ou seja, 4 3 + 2( 1) 5 7 + d = 0. De onde tiramos que d = 12 + 2 + 35 = 25. Finalmente, a equação do plano π é 4x + 2y 5z + 25 = 0. 19 de agosto de 2000 Reginaldo J. Santos
150 Espaços Euclidianos z z x y x y Figura 3.27: Plano ax + by + cz = 0 Figura 3.28: Plano ax + by + cz + d = 0 No plano, a equação de uma reta é determinada se forem dados dois pontos da reta. Analogamente, no espaço, a equação de um plano é determinada se são dados três pontos P 1, P 2 e P 3 não colineares (isto é, não pertencentes a uma mesma reta). Com os três pontos podemos formar os vetores P 1 P 2 e P 1 P 3 (Figura 3.29). Observando que com um ponto P = (x, y, z) qualquer do plano, temos três vetores paralelos ao plano: P 1 P = (x x 1, y y 1, z z 1 ), P 1 P 2 e P 1 P 3. O vetor normal do plano, N = (a, b, c), é ortogonal a estes três vetores. De onde obtemos um sistema homogêneo com três equações (N P 1 P = 0, N P 1 P 2 = 0 e N P 1 P 3 = 0) e três incógnitas (a, b e c), que tem solução não trivial se, e somente se, o determinante da matriz do sistema é igual a zero (Teorema 2.15 na página 88), ou seja, se, e somente se, x x 1 y y 1 z z 1 det x 2 x 1 y 2 y 1 z 2 z 1 = 0, (3.10) x 3 x 1 y 3 y 1 z 3 z 1 em que (x 2 x 1, y 2 y 1, z 2 z 1 ) = P 1 P 2 e (x 3 x 1, y 3 y 1, z 3 z 1 ) = P 1 P 3. Assim, um ponto P = (x, y, z) pertence a um plano π que passa pelos pontos P 1 = (x 1, y 1, z 1 ), P 2 = (x 2, y 2, z 2 ) e Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 151 P 3 = (x 3, y 3, z 3 ) (não colineares) se, e somente se, a equação (3.10) é verdadeira. Isto pode ser usado para determinar a equação de um plano como mostra o próximo exemplo. N = (a, b, c) π P 1 = (x 1, y 1, z 1 ) P 2 = (x 2, y 2, z 2 ) P 3 = (x 3, y 3, z 3 ) P = (x, y, z) Figura 3.29: Plano que passa por três pontos Exemplo 3.12. Vamos encontrar a equação do plano π que passa pelos pontos P 1 P 2 = (2, 3, 1) e P 3 = (3, 1, 2). Com os três pontos podemos formar os vetores Pela discussão anterior um ponto P = (x, y, z) pertence a π se, e somente se, x x 1 y y 1 z z 1 det x 2 x 1 y 2 y 1 z 2 z 1 = 0. x 3 x 1 y 3 y 1 z 3 z 1 = (1, 2, 1), P 1 P 2 e P 1 P 3. Mas, P 1 P = (x 1, y 2, z ( 1)), P 1 P 2 = (1, 1, 2), 19 de agosto de 2000 Reginaldo J. Santos
152 Espaços Euclidianos Então, a equação do plano é x 1 y 2 z + 1 det 1 1 2 2 3 3 P 1 P 3 = (2, 3, 3). = 9(x 1) + (y 2) 5(z + 1) = 9x + y 5z 16 = 0. A equação do plano também é determinada se ao invés de serem dados três pontos, forem dados um ponto P 0 e dois vetores paralelos ao plano, V = (v 1, v 2, v 3 ) e W = (w 1, w 2, w 3 ), desde que eles sejam não paralelos entre si. O vetor normal do plano, N = (a, b, c), é ortogonal aos vetores V, W e P 1 P = (x x 1, y y 1, z z 1 ). De onde obtemos um sistema homogêneo com três equações (N P 1 P = 0, N V = 0 e N W = 0) e três incógnitas (a, b e c), que tem solução não trivial se, e somente se, o determinante da matriz do sistema é igual a zero (Teorema 2.15 na página 88), ou seja, se, e somente se, det x x 1 y y 1 z z 1 v 1 v 2 v 3 w 1 w 2 w 3 = 0. (3.11) Assim, um ponto P = (x, y, z) pertence a um plano π que passa pelo ponto P 1 = (x 1, y 1, z 1 ) e é paralelo aos vetores V = (v 1, v 2, v 3 ) e W = (w 1, w 2, w 3 ) (não paralelos) se, e somente se, a equação (3.11) é verdadeira. Observação. Não faz sentido dizer que um vetor pertence a um plano. Pois, por um lado, um plano é um conjunto de pontos e por outro, os vetores são livres, podem ser colocados em qualquer ponto. O correto é dizer que um vetor é paralelo a um plano. Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 153 3.2.2 Equações da Reta Vamos supor que uma reta r é paralela a um vetor V = (a, b, c) não nulo e que passa por um ponto P 0 = (x 0, y 0, z 0 ). Um ponto P = (x, y, z) pertence a reta r se, e somente se, o vetor P 0 P é paralelo ao vetor V, isto é, se o vetor P 0 P é um múltiplo escalar de V, ou seja, Em termos de componentes, (3.12) pode ser escrito como P 0 P = t V. (3.12) (x x 0, y y 0, z z 0 ) = (ta, tb, tc), de onde segue que x x 0 = t a, y y 0 = t b e z z 0 = t c. Isto prova o resultado seguinte. Proposição 3.6. As equações x = x 0 + t a y = y 0 + t b z = z 0 + t c para todo t R (3.13) são de uma reta r que passa por um ponto P 0 = (x 0, y 0, z 0 ) e é paralela ao vetor V = (a, b, c). As equações (3.13) são chamadas equações paramétricas da reta r. O vetor V = (a, b, c) é chamado vetor diretor da reta r. O parâmetro t pode ser interpretado como o instante de tempo, se o ponto P = (x, y, z) descreve o movimento de uma partícula em movimento retiĺıneo uniforme com vetor velocidade 19 de agosto de 2000 Reginaldo J. Santos
154 Espaços Euclidianos z z P = (x, y, z) P 0 P OP r P 0 = (x 0, y 0, z 0 ) V = (a, b, c) r OP 0 V x y x y Figura 3.30: Reta paralela ao vetor V = (a, b, c) V = (a, b, c). Observe que para t = 1, P = (x, y, z) = (x 0 + a, y 0 + b, z 0 + c), para t = 2, P = (x, y, z) = (x 0 + 2a, y 0 + 2b, z 0 + 2c) e assim por diante. As equações (3.13), podem ser reescritas como (x, y, z) = (x 0 + at, y 0 + bt, z 0 + ct). Observação. Não faz sentido dizer que o vetor está contido na reta. Por um lado, a reta é um conjunto de pontos e por outro um vetor não tem posição fixa. Exemplo 3.13. A reta que passa por P 0 = (1, 2, 3) e é paralela ao vetor V = (4, 5, 7) tem equações paramétricas x = 1 + 4 t y = 2 + 5 t para todo t R z = 3 7 t Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 155 z z P = (x, y, z) P 2 = (x 2, y 2, z 2 ) P 1 P 2 P 1 P OP 2 r P 1 = (x 1, y 1, z 1 ) r OP 1 P 1 P 2 x y x y Figura 3.31: Reta que passa pelos pontos P 1 = (x 1, y 1, z 1 ) e P 2 = (x 2, y 2, z 2 ) Exemplo 3.14. Vamos encontrar as equações paramétricas da reta r que passa pelos pontos P 1 = (2, 4, 1) e P 2 = (5, 0, 7). O vetor P 1 P 2 = (5 2, 0 4, 7 ( 1)) = (3, 4, 8) é paralelo a r e o ponto P 1 = (2, 4, 1) pertence a r. Portanto, as equações paramétricas de r são x = 2 + 3 t y = 4 4 t para todo t R. z = 1 + 8 t Podemos também encontrar a interseção da reta r com os planos coordenados xy, yz e xz. A equação do plano xy é z = 0, do plano yz é x = 0 e do plano xz é y = 0. Substituindo z = 0 nas equações de r, obtemos t = 1, x = 19 e y = 7, ou seja, o ponto de interseção de r com o plano 8 8 2 xy é (x, y, z) = (19/8, 7/2, 0). 19 de agosto de 2000 Reginaldo J. Santos
156 Espaços Euclidianos De forma análoga, encontramos que (x, y, z) = (0, 20, 19 ) é o ponto de interseção de r com o 3 3 plano yz e (x, y, z) = (5, 0, 7) é o ponto de interseção de r com o plano xz. N 1 N 2 π 2 π 1 Figura 3.32: Reta interseção de dois planos Exemplo 3.15. Vamos encontrar as equações paramétricas da reta r, interseção dos planos π 1 : 3x y + z = 0, π 2 : x + 2y z = 1. (3.14) Podemos encontrar as equações paramétricas de r determinando a solução geral do sistema (3.14). Para isto devemos escalonar a matriz do sistema (3.14): [ ] 3 1 1 0 1 2 1 1 Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 157 Vamos escolher para pivô o elemento de posição 2 1. Precisamos colocá-lo na primeira linha, para isto, trocamos a 2 ạ linha com a 1 ạ. [ ] 1 2 1 1 1 ạ linha 2 ạ linha 3 1 1 0 Agora, precisamos zerar o outro elemento da 1 ạ coluna, que é a coluna do pivô, para isto, adicionamos à 2 ạ linha, -3 vezes a 1 ạ linha. [ ] 1 2 1 1 3 1 ạ linha + 2 ạ linha 2 ạ linha 0 7 4 3 Agora, já podemos obter facilmente a solução geral do sistema dado, já que ele é equivalente ao sistema { x + 2y z = 1 7y + 4z = 3 A variável z é uma variável livre. Podemos dar a ela um valor arbitrário, digamos t, para t R qualquer. Assim, a solução geral do sistema dado é x = 1 1 t 7 7 y = 3 7 + 4 t para todo t R. (3.15) 7 z = t Exercícios Numéricos (respostas na página 299) 3.2.1. Ache a equação do plano paralelo ao plano 2x y+5z 3 = 0 e que passa por P = (1, 2, 1). 3.2.2. Encontre a equação do plano que passa pelo ponto P = (2, 1, 0) e é perpendicular aos planos x + 2y 3z + 2 = 0 e 2x y + 4z 1 = 0. 19 de agosto de 2000 Reginaldo J. Santos
158 Espaços Euclidianos 3.2.3. Encontrar a equação do plano que passa pelos pontos P = (1, 0, 0) e Q = (1, 0, 1) e é perpendicular ao plano y = z. 3.2.4. Dadas as retas r : (x, y, z) = (2 + 2t, 2t, t) e s : (x, y, z) = (2 + t, t, t) obtenha uma equação geral para o plano determinado por r e s. 3.2.5. Sejam P = (4, 1, 1) e r : (x, y, z) = (2, 4, 1) + t (1, 1, 2). (a) Mostre que P r; (b) Obtenha uma equação geral do plano determinado por r e P. 3.2.6. Dados os planos π 1 : x y + z + 1 = 0 e π 2 : x + y z 1 = 0, determine o plano que contém π 1 π 2 e é ortogonal ao vetor (1, 1, 1). 3.2.7. Quais dos seguintes pares de planos se cortam segundo uma reta? (a) x + 2y 3z 4 = 0 e x 4y + 2z + 1 = 0; (b) 2x y + 4z + 3 = 0 e 4x 2y + 8z = 0; (c) x y = 0 e x + z = 0. 3.2.8. Encontre as equações da reta que passa pelo ponto Q = (1, 2, 1) e é perpendicular ao plano x y + 2z 1 = 0. 3.2.9. Ache a equação da reta que passa pelo ponto P = (1, 0, 1) e é paralela aos planos 2x + 3y + z + 1 = 0 e x y + z = 0. 3.2.10. Seja r a reta determinada pela interseção dos planos x + y z = 0 e 2x y + 3z 1 = 0. Ache a equação do plano que passa por A = (1, 0, 1) e contém a reta r. Exercícios usando o MATLAB Álgebra Linear Matricial 19 de agosto de 2000
3.2 Equações de Retas e Planos 159 >> V=[v1,v2,v3] cria um vetor V, usando as componentes numéricas v1, v2, v3. Por exemplo >> V=[1,2,3] cria o vetor V = (1, 2, 3); >> V+W é a soma de V e W; >> V-W é a diferença V menos W; >> num*v é o produto do vetor V pelo escalar num; >> subs(expr,x,num,) substitui x por num na expressão expr; >> solve(expr) determina a solução da equação expr=0; Comandos numéricos do pacote GAAL: >> no(v) calcula a norma do vetor V. >> pe(v,w) calcula o produto escalar do vetor V pelo vetor W. >> pv(v,w) calcula o produto vetorial do vetor V pelo vetor W. Comandos gráficos do pacote GAAL: >> lin(p,v) desenha a reta que passa por P com direção V. >> lin(p1,v1,p2,v2) desenha retas que passam por P1, P2, direções V1, V2. >> plan(p,n) desenha o plano que passa por P com normal N. >> plan(p1,n1,p2,n2) desenha planos que passam por P1, P2, normais N1, N2. >> plan(p1,n1,p2,n2,p3,n3) desenha planos que passam por P1, P2 e P3 com normais N1, N2 e N3. >> poplan(p1,p2,n2) desenha ponto P1 e plano passando por P2 com normal N2. >> poline(p1,p2,v2) desenha ponto P2 e reta passando por P2 com direção V2. >> lineplan(p1,v1,p2,n2) desenha reta passando por P1 com direção V1 e plano passando por P2 com normal N2. >> axiss reescala os eixos com a mesma escala. 19 de agosto de 2000 Reginaldo J. Santos
160 Espaços Euclidianos >> rota faz uma rotação em torno do eixo z. 3.2.11. Digite no prompt demog22, (sem a vírgula!). Esta função demonstra as funções gráficas para visualização de retas e planos. 3.2.12. Use o MATLAB para resolver os Exercícios Numéricos Exercício Teórico 3.2.13. Seja ax + by + cz + d = 0 a equação de um plano π que não passa pela origem e corta os três eixos. (a) Determine a interseção de π com os eixos; (b) Se P 1 = (p 1, 0, 0), P 2 = (0, p 2, 0) e P 3 = (0, 0, p 3 ) são as interseções de π com os eixos, a equação de π pode ser posta sob a forma x p 1 + y p 2 + z p 3 = 1. Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 161 3.3 Os Espaços R-n Já vimos que os vetores no plano são definidos por pares ordenados de números reais e que vetores no espaço são definidos por ternos ordenados de números reais. Muito do que estudamos sobre vetores no Capítulo 3 pode ser estendido para n-uplas de números reais, em que n pode ser um número inteiro positivo. Para cada n, o conjunto das n-uplas de números reais é chamado espaço euclidiano. 3.3.1 Independência Linear Definição 3.2. Para cada inteiro positivo n, o espaço euclidiano R n é definido pelo conjunto de todas as n-uplas ordenadas X = (x 1,..., x n ) de números reais. O conjunto R 1 é simplesmente o conjunto dos números reais. O conjunto R 2 é o conjunto dos pares de números reais e o R 3 é o conjunto dos ternos de números reais. No R 3 o terno de números (x 1, x 2, x 3 ) pode ser interpretado geometricamente de duas maneiras: pode ser visto como um ponto, neste caso x 1, x 2 e x 3 são as coordenadas do ponto (Figura 3.33), ou como um vetor, neste caso x 1, x 2 e x 3 são as componentes do vetor (Figura 3.34). Também no R n uma n-úpla pode ser pensada como um vetor ou como um ponto. Por exemplo, a quíntupla X = (1, 2, 3, 5, 4) pode ser pensada como um ponto no R 5, quando consideramos X como um elemento do conjunto R 5, ou como um vetor do R 5, quando fazemos operações com X, como as que iremos definir adiante. Vamos chamar os elementos do R n de pontos ou de vetores dependendo da situação. 19 de agosto de 2000 Reginaldo J. Santos
162 Espaços Euclidianos z z z z (x, y, z) (x, y, z) x y x y x y x y Figura 3.33: Coordenadas (x, y, z) Figura 3.34: Componentes (x, y, z) Dois vetores V = (v 1,..., v n ) e W = (w 1,..., w n ) no R n são considerados iguais se v 1 = w 1,..., v n = w n. As operações de soma de vetores e multiplicação de vetor por escalar no R n são definidas de maneira análoga ao que fizemos no plano e no espaço. Definição 3.3. (a) A soma de dois vetores V = (v 1,..., v n ) e W = (w 1,..., w n ) do R n é definida por V + W = (v 1 + w 1,..., v n + w n ); (3.16) (b) A multiplicação de um vetor V = (v 1,..., v n ) do R n por um escalar α é definida por α V = (α v 1,..., α v n ). (3.17) Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 163 O vetor nulo do R n é denotado por 0 e é definido por 0 = (0,..., 0). Se V = (v 1,..., v n ) é um vetor do R n, então o simétrico de V é denotado por V e é definido por V = ( v 1,..., v n ). A diferença de dois vetores no R n é definida por V W = V + ( W ). Se V e W são vetores do R n tais que W = αv, para algum escalar α, então dizemos que W é um múltiplo escalar de V. Um vetor V = (v 1,..., v n ) do R n pode também ser escrito na notação matricial como uma matriz linha ou como uma matriz coluna: ou V = v 1. v n ou V = [ v 1... v n ]. Estas notações podem ser justificadas pelo fato de que as operações matriciais v 1 w 1 v 1 + w 1 v 1 αv 1 V + W =. +. =., αv = α. =. v n w n v n + w n v n αv n V + W = [ v 1... v n ] + [ w1... w n ] = [ v1 + w 1... v n + w n ], αv = α [ v 1... v n ] = [ αv1... αv n ] produzem os mesmos resultados que as operações vetoriais V + W = (v 1,..., v n ) + (w 1,..., w n ) = (v 1 + w 1,..., v n + w n ) αv = α(v 1,..., v n ) = (αv 1,..., αv n ). 19 de agosto de 2000 Reginaldo J. Santos
164 Espaços Euclidianos No teorema seguinte enunciamos as propriedades mais importantes da soma de vetores e multiplicação de vetores por escalar no R n. Teorema 3.7. Sejam U = (u 1,..., u n ), V = (v 1,..., v n ) e W = (w 1,..., w n ) vetores do R n e α e β escalares. São válidas as seguintes propriedades: (a) U + V = V + U; (e) α(βu) = (αβ)u; (b) (U + V ) + W = U + (V + W ); (c) U + 0 = U; (d) U + ( U) = 0; (f) α(u + V ) = αu + αv ; (g) (α + β)u = αu + βu; (h) 1U = U. Demonstração. Segue diretamente das propriedades da álgebra matricial (Teorema 1.1 na página 7). 3.3.2 Combinação Linear Uma combinação linear de vetores V 1,..., V k, é simplesmente uma soma de múltiplos escalares de V 1,..., V k. Definição 3.4. Um vetor V é uma combinação linear dos vetores V 1,..., V k, se a equação vetorial x 1 V 1 + x 2 V 2 +... + x k V k = V (3.18) possui solução, ou seja, se existem escalares x 1,..., x k que satisfazem a equação (3.18). Neste caso, dizemos também que V pode ser escrito como uma combinação linear de V 1,..., V k. Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 165 Se k = 1, então a equação (3.18) se reduz a x 1 V 1 = V, ou seja, V é uma combinação linear de V 1 se, e somente se, V é um múltiplo escalar de V 1. Exemplo 3.16. Sejam V 1 = (1, 0, 0) e V 2 = (1, 1, 0), vetores de R 3. O vetor V = (2, 3, 2) não é uma combinação linear de V 1 e V 2, pois a equação x 1 V 1 + x 2 V 2 = V, (3.19) que pode ser escrita como ou ainda, é equivalente ao sistema que não possui solução. x 1 (1, 0, 0) + x 2 (1, 1, 0) = (2, 3, 2), (x 1 + x 2, x 2, 0) = (2, 3, 2), x 1 + x 2 = 2 x 2 = 3 0 = 2 Exemplo 3.17. O vetor V = (2, 3, 0) é uma combinação linear de V 1 = (1, 0, 0) e V 2 = (1, 1, 0), pois a equação x 1 V 1 + x 2 V 2 = V (3.20) ou x 1 (1, 0, 0) + x 2 (1, 1, 0) = (2, 3, 0) 19 de agosto de 2000 Reginaldo J. Santos
166 Espaços Euclidianos z z V = (2, 3, 2) V 1 = (1, 0, 0) V 1 = (1, 0, 0) V 2 = (1, 1, 0) V 2 = (1, 1, 0) x y x V = (2, 3, 0) y Figura 3.35: O vetor V não é combinação linear de V 1 e V 2 Figura 3.36: O vetor V é combinação linear de V 1 e V 2 ou ainda, é equivalente ao sistema que possui solução. (x 1 + x 2, x 2, 0) = (2, 3, 0), x 1 + x 2 = 2 x 2 = 3 0 = 0 Exemplo 3.18. O vetor nulo 0 é sempre combinação linear de quaisquer vetores V 1,..., V k, pois 0 = 0V 1 +... + 0V k. Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 167 Exemplo 3.19. Todo vetor V = (a, b, c) do R 3 é uma combinação linear de i = (1, 0, 0), j = (0, 1, 0) e k = (0, 0, 1). Pois, (a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) = a i + b j + c k. z c k V = (a, b, c) x a i b j y Figura 3.37: (a, b, c) = a i + b j + c k Para verificarmos se um vetor B é combinação linear de um conjunto de vetores {A 1,..., A n }, escrevemos a equação vetorial x 1 A 1 + x 2 A 2 +... + x n A n = B, (3.21) 19 de agosto de 2000 Reginaldo J. Santos
168 Espaços Euclidianos e verificamos se ela tem solução. Se A 1,..., A n são vetores do R m, a equação (3.21), pode ser escrita como x 1 a 11. a m1 que é equivalente ao sistema linear +... + x n AX = B, a 1n. a mn = em queas colunas de A são os vetores A i escritos como matrizes colunas, ou seja, A = [A 1... A n ] e X = x 1. x n. Isto prova o seguinte resultado. b 1. b m Proposição 3.8. Sejam A uma matriz m n e B uma matriz m 1. O vetor B é combinação linear das colunas de A se, e somente se, o sistema AX = B tem solução. 3.3.3 Independência Linear Definição 3.5. Dizemos que um conjunto S = {V 1,..., V k } de vetores é linearmente independente (L.I.) se a equação vetorial x 1 V 1 + x 2 V 2 +... + x k V k = 0 (3.22) Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 169 só possui a solução trivial, ou seja, se a única forma de escrever o vetor nulo como combinação linear dos vetores V 1,..., V k é aquela em que todos os escalares são iguais a zero. Caso contrário, isto é, se (3.22) possui solução não trivial, dizemos que o conjunto S é linearmente dependente (L.D.). Exemplo 3.20. Um conjunto finito que contém o vetor nulo é L.D., pois se {V 1,..., V k } é tal que V j = 0, para algum j, então 0V 1 +... + 0V j 1 + 1V j + 0V j+1 +... + V k = 0. Exemplo 3.21. Um conjunto formado por um único vetor, {V 1 }, não nulo é L.I., pois x 1 V 1 = 0 é equivalente a x 1 = 0 ou V 1 = 0. Mas, V 1 0; portanto x 1 = 0. Exemplo 3.22. Se {V 1,..., V k } é um conjunto de vetores L.D., então qualquer conjunto finito de vetores que contenha V 1,..., V k é também L.D., pois a equação admite solução não trivial. x 1 V 1 +... + x k V k + 0 W 1 +... + 0 W m = 0 Exemplo 3.23. Um conjunto formado por dois vetores, {V 1, V 2 } é L.D. se, e somente se, a equação x 1 V 1 + x 2 V 2 = 0 possui solução não trivial. Mas se isto acontece, então um dos escalares x 1 ou x 2 pode ser diferente de zero. Se x 1 0, então V 1 = ( x 2 /x 1 )V 2 e se x 2 0, então V 2 = ( x 1 /x 2 )V 1. Ou seja, se {V 1, V 2 } é L.D., então um dos vetores é múltilplo escalar do outro. Reciprocamente, se um vetor é múltiplo escalar do outro, digamos se V 1 = αv 2, então 1 V 1 αv 2 = 0 e assim eles são L.D. Portanto, podemos dizer que dois vetores são L.D. se, e somente se, um é um múltiplo escalar do outro. Por exemplo, o conjunto S = {V 1, V 2 }, em que V 1 = (1, 0, 1) e V 2 = (0, 1, 1), é L.I., pois um vetor não é múltiplo escalar do outro. 19 de agosto de 2000 Reginaldo J. Santos
170 Espaços Euclidianos z z V 2 V 1 V 1 V 2 x y x y Dois vetores linearmente de- Figura 3.38: pendentes Figura 3.39: Dois vetores linearmente independentes Exemplo 3.24. Um conjunto formado por três vetores, {V 1, V 2, V 3 } é L.D. se, e somente se, a equação x 1 V 1 + x 2 V 2 + x 3 V 3 = 0 possui solução não trivial. Mas se isto acontece, então um dos escalares x 1 ou x 2 ou x 3 pode ser diferente de zero. Se x 1 0, então V 1 = ( x 2 /x 1 )V 2 + ( x 3 /x 1 )V 3, ou seja, o vetor V 1 é combinação linear de V 2 e V 3. De forma semelhante, se x 2 0, então V 2 é combinação linear de V 1 e V 3 e se x 3 0, então V 3 é combinação linear de V 1 e V 2. Assim, se três vetores V 1, V 2 e V 3 do R n são L.D., então um deles é uma combinação linear dos outros dois, ou seja, em deles é uma soma de múltiplos escalares dos outros dois. No R 3 temos que se três vetores não nulos são L.D., então ou os três são paralelos (Figura 3.40), ou dois deles são paralelos (Figura 3.41) ou os três são coplanares, isto é, são paralelos a um mesmo plano (Figura 3.42). Reciprocamente, se um vetor é uma combinação linear dos outros dois, digamos se V 1 = αv 2 + βv 3, então 1 V 1 αv 2 βv 3 = 0 e assim eles são L.D. Portanto, podemos dizer que três vetores são Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 171 z z V 2 V 1 V 3 V3 V 2 x V 1 y x y Figura 3.40: Três vetores linearmente dependentes (paralelos) Figura 3.41: Três vetores linearmente dependentes (dois paralelos) L.D. se, e somente se, um deles é uma combinação linear dos outros dois. No R 3, se três vetores são L.I., então eles não são coplanares (Figura 3.43). Exemplo 3.25. Vamos mostrar que os vetores E 1 = (1, 0,..., 0), E 2 = (0, 1, 0,..., 0),..., E n = (0,..., 0, 1) são L.I. em particular os vetores i = (1, 0, 0), j = (0, 1, 0) e k = (0, 0, 1) são L.I. A equação x 1 E 1 +... + x n E n = 0 pode ser escrita como x 1 (1, 0,..., 0) +... + x n (0,..., 0, 1) = (0,..., 0). Logo, (x 1,..., x n ) = (0,..., 0), que é equivalente ao sistema x 1 = 0,..., x n = 0. 19 de agosto de 2000 Reginaldo J. Santos
172 Espaços Euclidianos z z V 1 V 1 V 2 V 2 V 3 x y x V 3 y Figura 3.42: Três vetores linearmente dependentes (coplanares) Figura 3.43: Três vetores linearmente independentes Para descobrir se um conjunto de vetores {A 1,..., A n } é L.I. precisamos saber se a equação vetorial x 1 A 1 + x 2 A 2 +... + x n A n = 0 (3.23) tem somente a solução trivial. Se A 1,..., A n são vetores do R m, a equação (3.23), pode ser escrita como x 1 a 11. a m1 +... + x n a 1n. a mn = que é equivalente ao sistema linear homogêneo AX = 0, em que as colunas de A são os vetores Álgebra Linear Matricial 19 de agosto de 2000 0. 0
3.3 Os Espaços R-n 173 A i escritos como matrizes colunas, ou seja, A = [A 1... A n ] e X = resultado. x 1. x n. Isto prova o seguinte Proposição 3.9. Seja A uma matriz m n. (a) As colunas de A são linearmente independentes se, e somente se, o sistema AX = 0 tem somente a solução trivial. (b) Se m = n, então as colunas de A são linearmente independentes se, e somente se, det(a) 0. Exemplo 3.26. Três ou mais vetores no R 2, assim como quatro ou mais vetores no R 3 e mais de n vetores no R n são sempre L.D. Pois, nestes casos, o problema de verificar se eles são ou não L.I. leva a um sistema linear homogêneo com mais incógnitas do que equações, que pelo Teorema 1.6 na página 39 tem sempre solução não trivial. Exemplo 3.27. Considere os vetores X 1 = (1, 0, 1), X 2 = (0, 1, 1) e X 3 sabermos se eles são L.I. ou L.D. escrevemos a equação x 1 X 1 + x 2 X 2 + x 3 X 3 = 0. Esta equação vetorial é equivalente ao sistema linear AX = 0, em que 1 0 1 A = [ X 1 X 2 X 3 ] = 0 1 1. 1 1 1 = (1, 1, 1) de R 3. Para 19 de agosto de 2000 Reginaldo J. Santos
174 Espaços Euclidianos Escalonando a matriz [ A 0 ] podemos obter a sua forma escalonada reduzida 1 0 0 0 [ R 0 ] = 0 1 0 0. 0 0 1 0 Concluimos, então que o sistema A X = 0 possui somente a solução trivial x 1 = x 2 = x 3 = 0. Portanto os vetores X 1, X 2 e X 3 são L.I. Exemplo 3.28. Sejam V 1 = (1, 2, 5), V 2 = (7, 1, 5) e V 3 = (1, 1, 1) vetores do R 3. Para sabermos se eles são L.I. ou L.D. escrevemos a equação x 1 V 1 + x 2 V 2 + x 3 V 3 = 0. (3.24) Esta equação vetorial é equivalente ao sistema linear AX = 0, em que 1 7 1 A = [ V 1 V 2 V 3 ] = 2 1 1. 5 5 1 A matriz [ A 0 ] é equivalente por linhas à matriz escalonada reduzida 1 0 2/5 0 [ R 0 ] = 0 1 1/5 0. (3.25) 0 0 0 0 Assim a variável x 3 pode ser uma variável livre que pode, portanto, assumir qualquer valor. Concluimos que o sistema A X = 0 e a equação vetorial (3.24) têm solução não trivial. Portanto, V 1, V 2 e V 3 são L.D. Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 175 A expressão linearmente dependente sugere que os vetores dependem uns dos outros em algum sentido. O teorema seguinte mostra que este realmente é o caso. Teorema 3.10. Um conjunto S ={V 1,..., V k } (k > 1) de vetores é linearmente dependente (L.D.) se, e somente se, pelo menos um dos vetores, V j, for combinação linear dos outros vetores de S. Demonstração. Vamos dividir a demonstração em duas partes: (a) Se V j é uma combinação linear dos demais vetores do conjunto S, isto é, se existem escalares α 1,..., α j 1, α j+1,..., α k tais que α 1 V 1 +... + α j 1 V j 1 + α j+1 V j+1 +... + α k V k = V j, então somando-se V j a ambos os membros ficamos com α 1 V 1 +... + α j 1 V j 1 V j + α j+1 V j+1 +... + α k V k = 0. (3.26) Isto implica que a equação x 1 V 1 +...+x k V k = 0 admite solução não trivial, pois o coeficiente de V j em (3.26) é 1. Portanto, S é L.D. (b) Se S é L.D., então a equação x j x 1 V 1 + x 2 V 2 +... + x k V k = 0 (3.27) admite solução não trivial, o que significa que pelo menos um x j é diferente de zero. Então, multiplicando-se a equação (3.27) por 1/x j e subtraindo-se ( x 1 x j )V 1 +... + ( x k x j )V k obtemos ( ) ( ) ( ) ( ) x1 xj 1 xj+1 xk V j = V 1... V j 1 V j+1... V k. Portanto, um vetor V j é combinação linear dos outros vetores de S. x j 19 de agosto de 2000 Reginaldo J. Santos x j x j
176 Espaços Euclidianos Observação. Na demonstração da segunda parte, vemos que o vetor, cujo escalar na combinação linear, puder ser diferente de zero, pode ser escrito como combinação linear dos outros. Exemplo 3.29. Sejam V 1 = (1, 2, 5), V 2 = (7, 1, 5) e V 3 = (1, 1, 1) vetores do R 3. Vamos escrever um dos vetores como combinação linear dos outros dois. Vimos no Exemplo 3.28 que estes vetores são L.D. De (3.25) segue que x 1 V 1 + x 2 V 2 + x 3 V 3 = 0 se, e somente se, x 1 = (2/5)α, x 2 = (1/5)α e x 3 = α, para todo α R. Substituindo-se os valores de x 1, x 2 e x 3 na equação acima, ficamos com Tomando-se α = 1, obtemos (2/5)αV 1 (1/5)αV 2 + αv 3 = 0 (2/5)V 1 (1/5)V 2 + V 3 = 0 multiplicando-se por 5 e somando-se 2V 1 + 5V 3, temos que V 2 = 2V 1 + 5V 3. Observe que, neste exemplo, qualquer dos vetores pode ser escrito como combinação linear dos outros. O próximo exemplo mostra que isto nem sempre acontece. Exemplo 3.30. Sejam V 1 = ( 2, 2, 2), V 2 = ( 3, 3/2, 0) e V 3 = ( 2, 1, 0). {V 1, V 2, V 3 } é L.D., mas V 1 não é combinação linear de V 2 e V 3 (Figura 3.41 na página 171). Exercícios Numéricos (respostas na página 300) Álgebra Linear Matricial 19 de agosto de 2000
3.3 Os Espaços R-n 177 3.3.1. Quais dos seguintes vetores são combinação linear de X 1 = (4, 2, 3), X 2 = (2, 1, 2) e X 3 = ( 2, 1, 0)? (a) (1, 1, 1); (c) ( 2, 1, 1); (b) (4, 2, 6); (d) ( 1, 2, 3). 3.3.2. Sejam r 1 : (x, y, z) = (1 + 2t, t, 2 + 3t) e r 2 : (x, y, z) = (t, 1 + mt, 1 + 2mt) duas retas. (a) Determine m para que as retas sejam coplanares (não sejam reversas). (b) Para o valor de m encontrado, determine a posição relativa entre r 1 e r 2. (c) Determine a equação do plano determinado por r 1 e r 2. 3.3.3. Quais dos seguintes conjuntos de vetores são linearmente dependentes? (a) {(1, 1, 2), (1, 0, 0), (4, 6, 12)}; (c) {(1, 1, 1), (2, 3, 1), (3, 1, 2)}; (b) {(1, 2, 3), ( 2, 4, 6)}; (d) {(4, 2, 1), (6, 5, 5), (2, 1, 3)}. 3.3.4. Para quais valores de λ o conjunto de vetores {(3, 1, 0), (λ 2 + 2, 2, 0)} é L.D.? Exercícios Teóricos 3.3.5. Suponha que S = {X 1, X 2, X 3 } é um conjunto linearmente independente de vetores do R n. Responda se T = {Y 1, Y 2, Y 3 } é linearmente dependente ou independente nos seguintes casos: (a) Y 1 = X 1 + X 2, Y 2 = X 1 + X 3 e Y 3 = X 2 + X 3 ; (b) Y 1 = X 1, Y 2 = X 1 + X 3 e Y 3 = X 1 + X 2 + X 3. 3.3.6. Suponha que {X 1, X 2,..., X n } é um conjunto de vetores do R n linearmente independente. Mostre que se A é uma matriz n n não singular, então {AX 1, AX 2,..., AX n } também é um conjunto linearmente independente. 19 de agosto de 2000 Reginaldo J. Santos
178 Espaços Euclidianos 3.3.7. Se os vetores não nulos U, V e W são L.D., então W é uma combinação linear de U e V? 3.3.8. Sejam π 1 : a 1 x + b 1 y + c 1 z + d 1 = 0 a equação de uma plano e r 2 : (x, y, z) = (x 2 + ta 2, y 2 + tb 2, z 2 + tc 2 ) a equação de uma reta. Estude a posição relativa entre o plano e a reta usando a dependência linear de vetores. 3.3.9. Considere um plano π, um ponto P 0 = (x 0, y 0, z 0 ) pertencente a π e dois vetores V 1 = (a 1, b 1, c 1 ) e V 2 = (a 2, b 2, c 2 ) L.I. paralelos a π. Mostre que um ponto P = (x, y, z) pertence a π se, e somente se, satisfaz as equações x = x 0 + ta 1 + sa 2 y = y 0 + tb 1 + sb 2 para todos t, s R. z = z 0 + tc 1 + sc 2 Estas equações são chamadas equações paramétricas do plano. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 4 Subespaços do R-n 4.1 Definição e Exemplos Alguns subconjuntos do espaço R n se comportam como se fossem eles próprios espaços, no sentido de que as operações de soma de vetores e multiplicação por escalar são fechadas, ou seja, fazendo quaisquer destas operações com elementos do subconjunto não saimos dele. Com relação a estas operações, podemos viver nele sem termos que sair. Por isso, eles são chamados de subespaços. Definição 4.1. Um subconjunto não vazio, W, do R n é um subespaço (vetorial) de R n se, e somente se, as seguintes propriedades são satisfeitas: (0) Se X, Y W, então X + Y W; (0 ) Se X W e α é um escalar, então αx W. 179
180 Subespaços do R n Se W é um subespaço de R n que contém um vetor V 0, então ele contém o conjunto {X = αv α R}. Assim, todo subespaço de R 2 ou R 3 que contenha um vetor V 0, contem a reta que passa pela origem e tem vetor diretor igual a V. Se W é um subespaço de R n que contém dois vetores V e W linearmente independentes, então W contém o conjunto de todas as combinações lineares de V e W, {X = αv + βw α, β R}. Assim, todo subespaço de R 3 que contém dois vetores V e W linearmente independentes, contém o plano que passa pela origem e tem vetor normal N = V W. Exemplo 4.1. O conjunto R 2 não é um subespaço de R 3, pois R 2 não é um subconjunto de R 3. Exemplo 4.2. Os subconjuntos A = {(x, y) R 2 x 0, y 0} e B = {(x, y) R 2 xy 0} não são subespaços de R 2. Pois, para o primeiro, enquanto V = (1, 1) A, V = ( 1)V = ( 1, 1) A. Enquanto para o segundo, V = (1, 0), W = (0, 1) B, V + W = (1, 1) B. Exemplo 4.3. O R n é um subespaço dele mesmo. O subconjunto formado apenas pelo vetor nulo, W = { 0}, é claramente um subespaço de R n. Exemplo 4.4. Seja V = (a, b, c) um vetor do R 3 (fixado), então W = {(x, y, z) = t(a, b, c) t R}, que é uma reta que passa pela origem com vetor diretor V = (a, b, c) é um subespaço do R 3. Vamos verificar as Propriedades (0) e (0 ): Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 181 y y V V W V + W x ( 1)V x Figura 4.1: A={(x, y) R 2 x 0, y 0} Figura 4.2: B = {(x, y) R 2 xy 0} (0) Se X 1 = (x 1, y 1, z 1 ) e X 2 = (x 2, y 2, z 2 ) pertencem a W, então X 1 = (at 1, bt 1, ct 1 ) e X 2 = (at 2, bt 2, ct 2 ) para t 1 e t 2 números reais e portanto, X 1 + X 2 = (at 1 + at 2, bt 1 + bt 2, ct 1 + ct 2 ) = (a(t 1 + t 2 ), b(t 1 + t 2 ), c(t 1 + t 2 )), que portanto pertencem a W. (0 ) Se X = (x, y, z) pertence a W, então X = (at, bt, ct) para algum t real. E portanto, que pertence a W. αx = α(at, bt, ct) = (a(αt), b(αt), c(αt)) Por outro lado, se uma reta com vetor diretor V = (a, b, c), W = {(x, y, z) = (x 0, y 0, z 0 ) + t(a, b, c) t R}, 19 de agosto de 2000 Reginaldo J. Santos
182 Subespaços do R n z z X 1 +X 2 αx X 1 X 2 X x y x y Figura 4.3: Soma de vetores da reta (x, y, z) = (at, bt, ct) Figura 4.4: Multiplicação de vetor por escalar da reta (x, y, z) = (at, bt, ct) é um subespaço, então ela tem que passar pela origem e neste caso podemos tomar (x 0, y 0, z 0 ) = (0, 0, 0). Exemplo 4.5. Além das retas que passam pela origem, também os planos que passam pela origem são subespaços do R 3. Seja N = (a, b, c) um vetor não nulo do R 3 (fixado), então W = {(x, y, z) R 3 ax + by + cz = 0} que é um plano que passa pela origem com vetor normal N = (a, b, c) é um subespaço do R 3. Vamos verificar as propriedades (0) e (0 ): (0) Se X 1 = (x 1, y 1, z 1 ) e X 2 = (x 2, y 2, z 2 ) pertencem a W, então ax 1 + by 1 + cz 1 = 0 e ax 2 + by 2 + cz 2 = 0 e portanto X 1 + X 2 = (x 1 + x 2, y 1 + y 2, z 1 + z 2 ) também pertence a W, Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 183 z z X 1 X 1 +X 2 X αx X 2 x y x y Figura 4.5: Soma de vetores do plano ax + by + cz = 0 Figura 4.6: Multiplicação de vetor por escalar do plano ax + by + cz = 0 pois a(x 1 + x 2 ) + b(y 1 + y 2 ) + c(z 1 + z 2 ) = (ax 1 + by 1 + cz 1 ) + (ax 2 + by 2 + cz 2 ) = 0 + 0 = 0 (0 ) Se X = (x, y, z) pertence a W, então αx = (αx, αy, αz) também pertence a W, pois a(αx) + b(αy) + c(αz) = α(ax + by + cz) = α0 = 0. Por outro lado, suponha que um plano que tem vetor normal N = (a, b, c), W = {(x, y, z) R 3 ax + by + cz = d}, seja um subespaço. Se X W, então 0X = 0 também pertence a W, ou seja, o plano tem que passar pela origem e substituindo-se 0 = (0, 0, 0) na equação do plano, obtemos que d = 0. 19 de agosto de 2000 Reginaldo J. Santos
184 Subespaços do R n O Exemplo 4.5 é um caso particular do que é tratado na proposição seguinte. Proposição 4.1. O conjunto solução de um sistema linear AX = B, em que a 11 a 12... a 1n x 1 A =....., X =. e B = a m1 a m2... a mn x n é um subespaço de R n se, e somente se, B = 0, ou seja, se, e somente se, o sistema linear é homogêneo. b 1. b m. Demonstração. Suponhamos, em primeiro lugar, que B = 0. Podemos ver as matrizes colunas X como elementos do R n e assim, escrever o conjunto solução do sistema homogêneo na forma W = {X = (x 1,..., x n ) R n AX = 0}. Precisamos verificar as propriedades (0) e (0 ) da definição de subespaço: (0) Se X e Y são soluções do sistema homogêneo AX = 0, então AX = 0 e AY = 0 e portanto X + Y também é solução pois, A(X + Y ) = AX + AY = 0 + 0 = 0. (0 ) Se X é solução do sistema homogêneo AX = 0, então αx também o é, pois A(αX) = αax = α 0 = 0. Por outro lado, suponha que W = {X = (x 1,..., x n ) R n AX = B} é um subespaço. Então, W é não vazio e portanto existe X W. Logo, 0X = 0 W, ou seja, B = A 0 = 0 e o sistema linear tem que ser homogêneo. Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 185 Exemplo 4.6. Considere os sistemas lineares 1 2 3 x 0 (a) 2 4 6 y = 0 3 6 9 z 0 (c) 1 2 3 3 7 8 4 1 2 x y z = 0 0 0 (b) 1 2 3 3 7 8 2 4 6 x y z = 0 0 0 Todos são sistemas homogêneos, portanto os conjuntos solução são subespaços do R 3. (a) A solução geral do primeiro sistema é x = 2s 3t, y = s e z = t ou x = 2y 3z, que é um plano que passa pela origem, com vetor normal N = (1, 2, 3) (verifique!); (b) A solução geral do segundo sistema é x = 5t,y = t e z = t que é a equação de uma reta que passa pela origem, com vetor diretor V = ( 5, 1, 1). (c) A solução do terceiro sistema é x = 0,y = 0 e z = 0, que é somente a origem { 0}. O conjunto solução de um sistema homogêneo também é chamado de espaço solução do sistema homogêneo. 4.1.1 Vetores Geradores No Exemplo 3.19 na página 167 vimos que qualquer vetor do R 3 pode ser escrito como combinação linear de i, j e k. Neste caso, dizemos que i, j e k geram o R 3. 19 de agosto de 2000 Reginaldo J. Santos
186 Subespaços do R n Definição 4.2. Dizemos que um conjunto S = {V 1,..., V k } de vetores de um subespaço W, gera W, se qualquer vetor de W é combinação linear dos vetores de S, ou seja, se a equação vetorial x 1 V 1 + x 2 V 2 +... + x k V k = V possui solução para todo V em W. Notação: W = [S] ou W = [V 1,..., V k ]. Neste caso, dizemos que W é o subespaço gerado por V 1,..., V k. Exemplo 4.7. Considere o subespaço de R 3, W = {(α, β, α + β) R 3 α, β R}. O conjunto S = {V 1, V 2 }, em que V 1 = (1, 0, 1) e V 2 = (0, 1, 1), gera W, pois é equivalente ao sistema x 1 V 1 + x 2 V 2 = (α, β, α + β) (4.1) x 1 = α x 2 = β x 1 + x 2 = α + β que possui solução para quaisquer α, β R. Portanto, a equação (4.1) possui solução para qualquer vetor (α, β, α + β) de W. Portanto, W é um plano que passa pela origem e é paralelo aos vetores V 1 e V 2, pois ele é o conjunto das combinações lineares de V 1 e V 2. Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 187 Exemplo 4.8. Vamos verificar que os vetores V 1 = (1, 1, 0), V 2 = (0, 1, 1), V 3 = (1, 0, 1) e V 4 = (1, 2, 1) geram o R 3. A equação vetorial x 1 V 1 + x 2 V 2 + x 3 V 3 + x 4 V 4 = (a, b, c) é equivalente ao sistema de equações lineares x 1 + x 3 + x 4 = a x 1 + x 2 + 2x 4 = b x 2 + x 3 + x 4 = c cuja matriz aumentada é equivalente por linhas à matriz 1 0 0 1 a+b c 2 0 1 0 1 b+c a 2 0 0 1 0 a+c b 2 Portanto, V 1, V 2, V 3 e V 4 geram o R 3.., Exemplo 4.9. Considere o sistema linear homogêneo AX = 0, em que 1 1 0 2 A = 2 2 1 5. 1 1 1 3 Já vimos que o conjunto solução de um sistema homogêneo é um subespaço. Vamos encontrar um conjunto de vetores que gere este subespaço. Escalonando a matriz aumentada do sistema acima, obtemos a matriz escalonada reduzida 1 1 0 2 0 0 0 1 1 0. 0 0 0 0 0 19 de agosto de 2000 Reginaldo J. Santos
188 Subespaços do R n E assim a solução geral do sistema pode ser escrita como x 1 = α 2β, x 2 = α, x 3 = β, x 4 = β para todos os valores de α, β R, ou seja, o conjunto solução do sistema AX = 0 é W = {(x 1, x 2, x 3, x 4 ) = ( α 2β, α, β, β) α, β R}. Agora, um elemento qualquer de W pode ser escrito como uma soma de vetores de W, sendo que cada vetor depende apenas de um parâmetro, obtendo ( α 2β, α, β, β) = ( α, α, 0, 0) + ( 2β, 0, β, β) = α( 1, 1, 0, 0) + β( 2, 0, 1, 1). Assim, todo vetor de W pode ser escrito como combinação linear dos vetores X 1 = ( 1, 1, 0, 0) e X 2 = ( 2, 0, 1, 1) pertencentes a W (X 1 é obtido fazendo-se α = 1 e β = 0 e X 2, fazendo-se α = 0 e β = 1). Portanto, X 1 = ( 1, 1, 0, 0) e X 2 = ( 2, 0, 1, 1) geram W que é um subespaço do R 4. Exemplo 4.10. Sejam W o subespaço gerado por V 1 = ( 1, 1, 0) e V 2 = ( 1, 0, 1), W = [V 1, V 2 ], e V o subespaço gerado por V 3 = (1, 0, 4) e V 4 = (0, 1, 2), V = [V 3, V 4 ]. O conjunto W é um plano que passa pela origem, paralelo aos vetores V 1 e V 2 e V é um plano que passa pela origem paralelo aos vetores V 3 e V 4. Podemos encontrar a interseção de V e W da seguinte forma. Devemos encontrar os vetores que são combinações lineares de V 1 e V 2 que são também combinações lineares de V 3 e V 4, ou seja, devemos encontrar vetores V que satisfazem as duas equações: V = xv 1 + yv 2 (4.2) V = zv 3 + wv 4 (4.3) Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 189 z W V N 1 = (1, 1, 1) N 2 = (4, 2, 1) x y Figura 4.7: Os subespaços W, V e V W do Exemplo 4.10 Para isso, podemos resolver a equação xv 1 + yv 2 = zv 3 + wv 4, ou xv 1 + yv 2 + z( V 3 ) + w( V 4 ) = 0. Esta equação é equivalente ao sistema linear AX = 0, em que 1 1 1 0 A = 1 0 0 1. 0 1 4 2 A forma escalonada reduzida da matriz aumentada [A 0] é 1 0 0 1 0 0 1 0 2/3 0. 0 0 1 1/3 0 19 de agosto de 2000 Reginaldo J. Santos
190 Subespaços do R n Assim, a solução do sistema linear é w = t, z = t/3, y = 2t/3 e x = t, para todo t R. Substituindo-se x e y em (4.2), obtemos que a interseção V W é formada por vetores da forma ou substituindo-se z e w em (4.3), V = tv 1 2t 3 V 2 = t(v 1 2 3 V 2) = t( 1/3, 1, 2/3) V = t 3 V 3 + tv 4 = t( 1 3 V 3 + V 4 ) = t( 1/3, 1, 2/3). Assim, a reta que é a interseção, V W, tem equação (x, y, z) = t( 1/3, 1, 2/3), para todo t R, que é também um subespaço. Isto não acontece com a união, V W (verifique!). 4.1.2 Soma Direta de Subespaços Uma maneira de construir subespaços a partir de outros é fazendo a soma de subespaços. W 1 e W 2 dois subespaços. Definimos a soma dos subespaços W 1 e W 2 por Sejam W 1 + W 2 = {V 1 + V 2 V 1 W 1 e V 2 W 2 }. Deixamos como exercício para o leitor verificar que W 1 + W 2 é um subespaço. Definição 4.3. Sejam W 1, W 2 e W subespaços. Se, (a) W = W 1 + W 2 ; (b) W 1 W 2 = { 0}; Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 191 dizemos que W é soma direta de W 1 e W 2 e denotamos por W = W 1 W 2. Proposição 4.2. Sejam W 1, W 2 e W subespaços. W = W 1 W 2 se, e somente se, todo elemento V W se escreve, de modo único, como soma V = V 1 + V 2, onde V 1 W 1 e V 2 W 2. Demonstração. Suponhamos, em primeiro lugar, que W = W 1 W 2. Então, W 1 W 2 Sejam V 1, W 1 W 1 e V 2, W 2 W 2 tais que = { 0}. Somando-se W 1 V 2, obtemos V 1 + V 2 = W 1 + W 2. W {}} 1 W {{}} 2 { V 1 W 1 = W 2 V 2. O que implica que V 1 W 1 = W 2 V 2 W 1 W 2 = { 0}. Logo, V 1 = W 1 e V 2 = W 2. Por outro lado, suponhamos que todo elemento de V W se escreve, de modo único, como soma V = V 1 + V 2, onde V 1 W 1 e V 2 W 2. Seja V W 1 W 2. Vamos mostrar que V = 0. Mas, V = W 1 V + W 2 0 = W 1 0 + W 2 V. Ou seja, se V 0, teríamos duas formas de escrever V como uma soma de um elemento de W 1 e um de W 2. Logo, V = 0 e W 1 W 2 = { 0}. Portanto, como claramente W = W 1 + W 2, temos que W = W 1 W 2. 19 de agosto de 2000 Reginaldo J. Santos
192 Subespaços do R n Exercícios Numéricos (respostas na página 301) 4.1.1. Considere os seguintes conjuntos de vetores. Quais deles são subespaços de R 3? (a) (x, y, z); em que z = x 3 (e) (x, y, z), em que x = z = 0; (b) (x, y, z), em que z = x + y; (f) (x, y, z), em que x = z; (c) (x, y, z), em que z > 0; (g) (x, y, z), em que y = 2x + 1; (d) (x, y, z), em que z = 0 e xy > 0; (h) (x, y, z), em que z 2 = x 2 + y 2. 4.1.2. Considere os seguintes conjuntos de vetores. Quais deles são subespaços de R 4? (a) (x, y, z, w), em que x y = 2; (b) (x, y, z, w), em que z = x = 2y e w = x 3y; (c) (x, y, z, w), em que x = y = 0; (d) (x, y, z, w), em que x = 0 e y = w; 4.1.3. Quais dos seguintes conjuntos de vetores geram o R 3? (a) {(1, 0, 0), (0, 1, 0), (1, 1, 1)}; (b) {(1, 2, 1), (1, 1, 1), (2, 3, 0)}; (c) {(6, 4, 2), (2, 0, 0), (3, 2, 1), (5, 6, 3)}; (d) {(1, 1, 0), (1, 2, 1), (0, 0, 1)}; 4.1.4. Encontre um conjunto de vetores que gera o espaço solução do sistema homogêneo AX = 0, em que 1 0 1 0 1 1 2 1 (a) A = 1 2 3 1 ; (b) A = 2 3 6 2. 2 1 3 1 2 1 2 2 Álgebra Linear Matricial 19 de agosto de 2000
4.1 Definição e Exemplos 193 4.1.5. Considere os seguintes subespaços de R 3 : V = [( 1, 2, 3), (1, 3, 4)] e W = [(1, 2, 1), (0, 1, 1)]. Encontre a equação paramétrica da reta V W. A notação [V 1, V 2 ] significa o subespaço gerado por V 1 e V 2, ou seja, o conjunto de todas as combinações lineares de V 1 e V 2. Exercícios Teóricos 4.1.6. Sejam V e W vetores do R n. Mostre que o conjunto dos vetores da forma αv + βw é um subespaço do R n. 4.1.7. Mostre que se uma reta em R 2 ou em R 3 não passa pela origem, então ela não é um subespaço. (Sugestão: se ela fosse um subespaço, então...) y x 4.1.8. Sejam A uma matriz m n e B uma matriz m 1. Mostre que o conjunto dos vetores B para os quais o sistema A X = B tem solução é um subespaço de R m. Ou seja, mostre que o conjunto I(A) = {B R m B = A X, para algum X R n } 19 de agosto de 2000 Reginaldo J. Santos
194 Subespaços do R n é um subespaço de R m. 4.1.9. Sejam V 1, V 2 e V 3 vetores do R n, tais que {V 1, V 2 } é linearmente independente. Mostre que se V 3 não pertence ao subespaço gerado por {V 1, V 2 }, então {V 1, V 2, V 3 } é linearmente independente. (Sugestão: Considere a equação x 1 V 1 + x 2 V 2 + x 3 V 3 = 0. Se x 3 = 0, então x 1 = x 2 = 0.) 4.1.10. Sejam V 1,..., V k+1 vetores do R n, tais que {V 1,..., V k } é linearmente independente. Mostre que se V k+1 não pertence ao subespaço gerado por {V 1,..., V k }, então {V 1,..., V k+1 } é linearmente independente. (Sugestão: Considere a equação x 1 V 1 +... + x k+1 V k+1 = 0. Separe em dois casos: x k+1 = 0 e x k+1 0.) 4.1.11. Sejam W 1 e W 2 dois subespaços. (a) Mostre que W 1 W 2 é um subespaço. (b) Mostre que W 1 W 2 é um subespaço se, e somente se, W 1 W 2 ou W 2 W 1. (c) Definimos a soma dos subespaços W 1 e W 2 por W 1 + W 2 = {V 1 + V 2 V 1 W 1 e V 2 W 2 }. Mostre que W 1 + W 2 é um subespaço que contém W 1 e W 2. Álgebra Linear Matricial 19 de agosto de 2000
4.2 Base e Dimensão 195 4.2 Base e Dimensão Já vimos que um conjunto S = {V 1,..., V k } gera um subespaço W, se qualquer elemento de W pode ser escrito como combinação linear dos vetores de S. Vimos também que se S é um conjunto linearmente dependente, então um dos vetores de S pode ser escrito como combinação linear dos outros vetores de S. Portanto, se S é um conjunto linearmente dependente, então podemos tirar um ou mais vetores do conjunto S até que os que restarem sejam linearmente independentes. Este conjunto é um conjunto mínimo de vetores que gera o subespaço W e chamamos de base de W. 4.2.1 Base de Subespaços Definição 4.4. Dizemos que um subconjunto {V 1,..., V k } de um subespaço W é uma base de W, se (a) {V 1,..., V k } gera W e (b) {V 1,..., V k } é L.I. Exemplo 4.11. Um vetor qualquer do R n é da forma V = (a 1,..., a n ) e pode ser escrito como uma soma de vetores, sendo um vetor para cada parâmetro e cada vetor depende apenas de um parâmetro, obtendo V = (a 1,..., a n ) = (a 1, 0,..., 0) + (0, a 2, 0,..., 0) +... + (0,..., 0, a n ) = a 1 (1, 0,..., 0) + a 2 (0, 1, 0,..., 0) +... + a n (0,..., 0, 1). 19 de agosto de 2000 Reginaldo J. Santos
196 Subespaços do R n Assim, os vetores E 1 = (1, 0,..., 0), E 2 = (0, 1, 0,..., 0),..., E n = (0,..., 0, 1) geram o R n. Vimos no Exemplo 3.25 na página 171 que E 1, E 2,... E n são L.I. Esses vetores formam a chamada base canônica de R n. No caso do R 3, E 1 = i, E 2 = j e E 3 = k. Exemplo 4.12. Seja V = {(α, β, α + β) α, β R} um subespaço do R 3. Qualquer elemento V de V pode ser escrito como uma soma de vetores de V, sendo um vetor para cada parâmetro e cada vetor depende apenas de um parâmetro, obtendo V = (α, β, α + β) = (α, 0, α) + (0, β, β) = α(1, 0, 1) + β(0, 1, 1). Logo V 1 = (1, 0, 1) e V 2 = (0, 1, 1) geram V. Além disso, eles são L.I. pois um não é múltiplo escalar do outro. Portanto, {V 1, V 2 } é uma base de V. Exemplo 4.13. Seja W = {(x, y, z) = t(a, b, c) t R} uma reta que passa pela origem. Como o vetor diretor V = (a, b, c) é não nulo e gera todos os pontos da reta, então {V } é uma base de W. Exemplo 4.14. Seja W = {(x, y, z) R 3 ax + by + cz = 0} um plano que passa pela origem. Vamos supor que a 0. Um ponto (x, y, z) satisfaz a equação ax + by + cz = 0 se, e somente se, z = α, y = β, x = 1 (cα + bβ), para todos α, β R. a Assim, o plano W pode ser descrito como W = {( c a α a β, β, α) α, β R}. Assim, todo vetor b de W pode ser escrito como uma soma de vetores, sendo um para cada parâmetro, obtendo ( c a α a b β, β, α) = α( c a, 0, 1) + β( b, 1, 0). a Álgebra Linear Matricial 19 de agosto de 2000
4.2 Base e Dimensão 197 Assim, todo vetor de W pode ser escrito como uma combinação linear dos vetores V 1 = ( c, 0, 1) a e V 2 = ( b, 1, 0) pertencentes a W (V a 1 é obtido fazendo-se α = 1 e β = 0 e V 2, fazendo-se α = 0 e β = 1). Portanto, V 1 = ( c, 0, 1) e V a 2 = ( b, 1, 0) geram o plano W. Como V a 1 e V 2 são L.I., pois um não é múltiplo escalar do outro, então {V 1, V 2 } é uma base do plano W. Deixamos como exercício para o leitor encontrar uma base de W para o caso em que b 0 e também para o caso em que c 0. Exemplo 4.15. Vamos determinar uma base para o espaço solução do sistema homogêneo 2x 1 + 2x 2 x 3 + x 4 = 0 x 1 x 2 + 2x 3 + x 4 = 0 x 1 + x 2 2x 3 x 4 = 0 A matriz aumentada deste sistema é 2 2 1 1 0 1 1 2 1 0 1 1 2 1 0 Resolvendo o sistema pelo método de Gauss-Jordan, transformamos a matriz aumentada na sua forma reduzida escalonada, obtendo 1 1 0 1 0 0 0 1 1 0. 0 0 0 0 0 Portanto, o sistema dado é equivalente ao seguinte sistema: { x1 + x 2 + x 4 = 0 x 3 + x 4 = 0 19 de agosto de 2000 Reginaldo J. Santos
198 Subespaços do R n cuja solução é dada por (x 1, x 2, x 3, x 4 ) = ( α β, α, β, β), para todos os números α e β reais. Assim, o espaço solução do sistema é V = {( α β, α, β, β) α, β R}. Agora, vamos determinar uma base para este subespaço. Qualquer vetor V de V pode ser escrito como uma soma de vetores, sendo um vetor para cada parâmetro e cada vetor depende apenas de um parâmetro, obtendo ( α β, α, β, β) = ( α, α, 0, 0) + ( β, 0, β, β) = α( 1, 1, 0, 0) + β( 1, 0, 1, 1) Assim, todo vetor de V pode ser escrito como combinação linear dos vetores V 1 = ( 1, 1, 0, 0) e V 2 = ( 1, 0, 1, 1) pertencentes a V (V 1 é obtido fazendo-se α = 1 e β = 0 e V 2, fazendo-se α = 0 e β = 1). Portanto, V 1 = ( 1, 1, 0, 0) e V 2 = ( 1, 0, 1, 1) geram V. Além disso, eles são L.I., pois se α( 1, 1, 0, 0) + β( 1, 0, 1, 1) = ( α β, α, β, β) = (0, 0, 0, 0), então α = 0 e β = 0. Portanto, V 1 e V 2 formam uma base de V. Exemplo 4.16. Seja V = {(a + c, b + c, a + b + 2c) a, b, c R} um subespaço de R 3. Qualquer elemento V de V pode ser escrito como uma soma de vetores, sendo um vetor para cada parâmetro e cada vetor depende apenas de um parâmetro, obtendo V = (a + c, b + c, a + b + 2c) = (a, 0, a) + (0, b, b) + (c, c, 2c) = a(1, 0, 1) + b(0, 1, 1) + c(1, 1, 2). Logo, definindo V 1 = (1, 0, 1), V 2 = (0, 1, 1) e V 3 = (1, 1, 2), então {V 1, V 2, V 3 } gera V. Para sabermos se {V 1, V 2, V 3 } é base de V, precisamos verificar se V 1, V 2 e V 3 são L.I. Para isto temos que saber se a equação vetorial xv 1 + yv 2 + zv 3 = 0 (4.4) Álgebra Linear Matricial 19 de agosto de 2000
4.2 Base e Dimensão 199 só possui a solução trivial, ou equivalentemente, se o sistema A X = 0 só possui a solução trivial, onde A = [V 1 V 2 V 3 ]. Escalonando a matriz [ A 0 ], obtemos 1 0 1 0 0 1 1 0 0 0 0 0 A solução de (4.4) é dada por x = α, y = α e z = α, para todo α R. Substiuindo-se esta solução em (4.4) obtemos αv 1 + αv 2 + αv 3 = 0 Tomando-se α = 1 e somando-se V 1 V 2 obtemos V 3 = V 2 + V 1. Assim o vetor V 3 pode ser descartado na geração de V, pois ele é combinação linear dos outros dois. Logo, apenas V 1 e V 2 são suficientes para gerar V. Como além disso, os vetores V 1 e V 2 são tais que um não é múltiplo escalar do outro, então eles são L.I. e portanto {V 1, V 2 } é uma base de V. Teorema 4.3. Seja {V 1,..., V m } uma base de um subespaço W. Então, um conjunto com mais de m vetores em W é L.D. Demonstração. Seja {W 1,..., W p } um subconjunto de W, com p > m. {W 1,..., W p } é L.D. Considere a combinação linear nula de W 1,..., W p Vamos mostrar que x 1 W 1 + x 2 W 2 +... + x p W p = 0. (4.5) 19 de agosto de 2000 Reginaldo J. Santos
200 Subespaços do R n Como {V 1,..., V m } é uma base, qualquer elemento do subespaço pode ser escrito como combinação linear de V 1,..., V m. Em particular, W j = a 1j V 1 + a 2j V 2 +... + a mj V m = m a ij V i, para j = 1,..., p. (4.6) i=1 Assim, substituindo (4.6) em (4.5) e agrupando os termos que contém V i, para i = 1,..., m, obtemos (a 11 x 1 +... + a 1p x p )V 1 +... + (a m1 x 1 +... + a mp x p )V m = 0. (4.7) Como {V 1,..., V m } é base, V 1,..., V m são L.I. e portanto os escalares na equação (4.7) são iguais a zero. Isto leva ao sistema linear AX = 0, onde A = (a ij ) m p. Mas, este é um sistema homogêneo que tem mais incógnitas do que equações, portanto possui solução não trivial, (Teorema 1.6 na página 39), como queríamos provar. Corolário 4.4. Se {V 1,..., V m } e {W 1,..., W p } são bases de um mesmo subespaço W, então m = p. Demonstração. Suponha por contradição que p > m. Pelo Teorema 4.3, segue que {W 1,..., W p } é L.D., o que é impossível. O caso p < m pode ser tratado de forma análoga. Álgebra Linear Matricial 19 de agosto de 2000
4.2 Base e Dimensão 201 4.2.2 Dimensão de Subespaços Do corolário anterior segue que um subespaço vetorial W pode ter bases diferentes, mas todas possuem o mesmo número de elementos. Este número de elementos é uma característica do subespaço W e é chamado de dimensão de W. Definição 4.5. A dimensão de um subespaço W é o número de vetores de uma de suas bases. A dimensão do subespaço { 0} é igual a zero. A dimensão de um subespaço W é denotada por dim(w). Exemplo 4.17. A dimensão do R n é n, pois como foi mostrado no Exemplo 4.11 na página 195, E 1 = (1, 0,..., 0), E 2 = (0, 1, 0,..., 0),..., E n = (0,..., 0, 1) formam uma base do R n. Exemplo 4.18. A dimensão do subespaço V = {(α, β, α + β) α, β R} do R 3 é 2, pois como foi mostrado no Exemplo 4.12 na página 196, {V 1 = (1, 0, 1), V 2 = (0, 1, 1)} é uma base para V. Exemplo 4.19. A dimensão do subespaço V = {(a + c, b + c, a + b + 2c) a, b, c R} é 2 pois como foi mostrado no Exemplo 4.16, {V 1 = (1, 0, 1), V 2 = (0, 1, 1)} é uma base para V. Exemplo 4.20. Pelo Exemplo 4.13 na página 196 uma reta que passa pela origem tem dimensão 1 e pelo Exemplo 4.14 na página 196 um plano que passa pela origem tem dimensão 2. 19 de agosto de 2000 Reginaldo J. Santos
202 Subespaços do R n Teorema 4.5. Seja W um subespaço de dimensão m > 0. Se V 1,..., V m W são L.I., então eles geram o subespaço W e portanto formam uma base de W. Demonstração. Sejam V 1,..., V m vetores L.I. e seja V um vetor qualquer do subespaço W. Vamos mostrar que V é combinação linear de V 1,..., V m. Considere a equação vetorial x 1 V 1 + x 2 V 2 +... + x m V m + x m+1 V = 0 (4.8) Pelo Teorema 4.3, V 1,..., V m, V são L.D., pois são m+1 vetores em um subespaço de dimensão m. Então a equação (4.8) admite solução não trivial, ou seja, pelo menos um x i 0. Mas, x m+1 0, pois caso contrário, V 1,..., V m seriam L.D. Então, multiplicando-se a equação (4.8) por 1/x m+1 e subtraindo (x 1 /x m+1 )V 1 + (x 2 /x m+1 )V 2 +... + (x m /x m+1 )V m, obtemos V = ( x1 x m+1 ) V 1... ( xm x m+1 ) V m. Dos resultados anteriores, vemos que se a dimensão de um subespaço, W, é m > 0, então basta conseguirmos m vetores L.I. em W, que teremos uma base (Teorema 4.5) e não podemos conseguir mais que m vetores L.I. (Teorema 4.3). Exemplo 4.21. Do Teorema 4.5 segue que n vetores L.I. do R n formam uma base de R n. Por exemplo, 3 vetores L.I. do R 3 formam uma base de R 3. Exercícios Numéricos (respostas na página 303) Álgebra Linear Matricial 19 de agosto de 2000
4.2 Base e Dimensão 203 4.2.1. Quais dos seguintes conjuntos de vetores formam uma base para o R 3? (a) {(1, 0, 0), (0, 1, 0), (1, 1, 1)}; (b) {(1, 1, 0), (3, 1, 2)}; (c) {(0, 0, 1), ( 1, 1, 1), (1, 1, 0)}; 4.2.2. Encontre as dimensões dos seguintes subespaços do R 3 : (a) Todos os vetores da forma (a, b, c), onde b = a; (b) Todos os vetores da forma (a, b, c), onde a = 0; (c) Todos os vetores da forma (a b, b + c, 2a b + c). 4.2.3. Encontre as dimensões dos seguintes subespaços do R 4 : (a) Todos os vetores da forma (a, b, c, d), onde d = a + b; (b) Todos os vetores da forma (a, b, c, d), onde c = a b e d = a + b; (c) Todos os vetores da forma (a + c, a b, b + c, a + b). 4.2.4. Determine os valores de a para os quais {(a 2, 0, 1), (0, a, 2), (1, 0, 1)} é uma base do R 3. 4.2.5. Encontre os valores de λ tais que o sistema homogêneo (A λi n )X = 0 tem solução não trivial e para estes valores de λ, encontre uma base para o espaço solução, para as matrizes A dadas: 19 de agosto de 2000 Reginaldo J. Santos
204 Subespaços do R n (a) A = (b) A = 0 0 1 1 0 3 0 1 3 2 2 3 4 0 2 3 2 0 0 1 1 0 0 0 1 ; ; (c) A = (d) A = 1 1 2 1 2 1 0 1 1 ; 1 2 3 4 0 1 3 2 0 0 3 3 0 0 0 2. 4.2.6. Sejam V 1 = (2, 1, 3), V 2 = (3, 1, 4) e V 3 = (2, 6, 4). (a) Mostre que V 1, V 2 e V 3 são L.D. (b) Mostre que V 1 e V 2 são L.I. (c) Qual a dimensão do subespaço gerado por V 1, V 2 e V 3, [V 1, V 2, V 3 ]. (d) Dê uma interpretação geométrica para o subespaço [V 1, V 2, V 3 ]. 4.2.7. Dados V 1 = (1, 1, 1) e V 2 = (3, 1, 4): (a) Os vetores V 1 e V 2 geram o R 3? Justifique. (b) Seja V 3 um terceiro vetor do R 3. Quais as condições sobre V 3, para que {V 1, V 2, V 3 } seja uma base de R 3? (c) Encontre um vetor V 3 que complete junto com V 1 e V 2 uma base do R 3. 4.2.8. Seja W o plano x + 2y + 4z = 0. Obtenha uma base {V 1, V 2, V 3 } de R 3 tal que V 1 e V 2 pertençam a W. Exercícios usando o MATLAB Álgebra Linear Matricial 19 de agosto de 2000
4.2 Base e Dimensão 205 4.2.9. (a) Defina os vetores V1=[1;2;3], V2=[3;4;5] e V3=[5;6;7]. Defina o vetor V=randi(3,1). Verifique se V é combinação linear de V1, V2 e V3. (b) Defina M=randi(3,5). Verifique se os vetores definidos pelas colunas de M são combinação linear de V1, V2 e V3. Tente explicar o resultado. (c) Verifique se V1, V2 e V3 são linearmente independentes. Se eles forem linearmente dependentes, escreva um deles como combinação linear dos outros e verifique o resultado. 4.2.10. Defina A=randi(3,2)*randi(2,5,2). Verifique se as colunas de A são linearmente independentes. Se elas forem linearmente dependentes, escreva três das colunas de A como combinação linear das outras duas. 4.2.11. Defina a matriz A=randi(4,3)*randi(3,5,2). Considere o subespaço gerado pelas colunas de A. Extraia das colunas de A uma base para este subespaço. 4.2.12. Defina a matriz A=randi(4,2). Verifique que as colunas de A são L.I. Considere o conjunto formado pelas colunas de A. Complete este conjunto até obter uma base do R 4. 4.2.13. (a) Defina a matriz A=randi(4,3)*randi(3,5,2). Considere o subespaço gerado pelas colunas de A. Obtenha uma base para este subespaço, cujo primeiro vetor é a soma das duas primeiras colunas de A. (b) Defina a matriz B=A*randi(5,2). Sejam V1, V2 as colunas de B, complete a uma base do subespaço gerado pelas colunas de A. Exercícios Teóricos 4.2.14. Se V 1, V 2 e V 3 são vetores do R 4 e W é o subespaço gerado por V 1, V 2 e V 3, então dimensão de W é igual a 3? 19 de agosto de 2000 Reginaldo J. Santos
206 Subespaços do R n 4.2.15. Suponha que {X 1, X 2,..., X n } é uma base do R n. Mostre que se A é uma matriz n n não singular, então {AX 1, AX 2,..., AX n } também é uma base de R n. E se A for singular? 4.2.16. Mostre que se V e W são subespaços do R 3 de dimensão 2, então V W { 0}. O mesmo seria verdade se estes fossem subespaços do R 4? (Sugestão: x 1 V 1 + x 2 = y 1 W 1 + y 2 W 2 V W se, e somente se, x 1 V 1 + x 2 V 2 y 1 W 1 y 2 W 2 = 0.) 4.2.17. Mostre que em um subespaço de dimensão m, um conjunto de vetores L.I. tem no máximo m vetores. Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 207 4.3 Espaço Linha e Espaço Coluna Definição 4.6. Seja A uma matriz m n. (a) O subespaço de R n gerado pelas linhas de A é chamado espaço linha de A, ou seja, o conjunto de todas as combinações lineares das linhas de A. (b) O subespaço de R m gerado pelas colunas de A é chamado espaço coluna de A, ou seja, o conjunto de todas as combinações lineares das colunas de A. Os espaços linha e coluna de uma matriz são diferentes, em geral, mesmo se a matriz é quadrada, como mostra o próximo exemplo. Exemplo 4.22. Considere a matriz A = [ 1 1 0 0 O espaço linha de A é o subespaço gerado pelo vetor (1, 1), enquanto o espaço coluna de A é o subespaço gerado pelo vetor (1, 0). Apesar dos espaços linha e coluna de uma matriz serem diferentes, em geral, eles possuem sempre a mesma dimensão. ]. Teorema 4.6. Seja A uma matriz m n. O espaço linha e o espaço coluna de A possuem a mesma dimensão. 19 de agosto de 2000 Reginaldo J. Santos
208 Subespaços do R n Demonstração. Seja R a forma escalonada reduzida da matriz A. (a) Vamos mostrar que o espaço linha de A é igual ao espaço linha de R. A matriz R é obtida de A aplicando-se uma seqüência de operações elementares às linhas de A. Assim, toda linha de R é uma combinação linear das linhas de A. Então, o espaço linha de R está contido no espaço linha de A. O mesmo argumento mostra que o espaço linha de A está contido no espaço linha de R. Portanto, eles são iguais. (b) Vamos mostrar que a dimensão do espaço coluna de A é igual a dimensão do espaço coluna de R. A dimensão do espaço coluna de uma matriz é igual ao número máximo de colunas L.I. As colunas de A, são L.I. se, somente se, o sistema AX = 0 tem somente a solução trivial. Mas, a solução deste sistema é a mesma do sistema RX = 0. Assim, as colunas de A são L.I. se, e somente se, as colunas de R são L.I. Analogamente, r colunas de A são L.I. se, e somente se, as colunas correspondentes de R são L.I. Pelo item (a) a dimensão do espaço linha de A é igual a dimensão do espaço linha de R e pelo item (b) a dimensão do espaço coluna de A é igual a dimensão do espaço coluna de R. Portanto, basta provarmos o teorema para a matriz escalonada reduzida R. Agora, a dimensão do espaço linha de R é igual ao número de linhas não nulas, pois estas são linearmente independentes (verifique!). A dimensão do espaço coluna de R é igual ao número de pivôs, pois as outras colunas são combinação linear das colunas dos pivôs e podem, portanto, ser descartadas para gerar o espaço coluna de R. Portanto, a dimensão dos dois espaços são iguais. 4.3.1 Posto e Nulidade Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 209 Definição 4.7. Seja A uma matriz m n. (a) O posto de A é a dimensão do espaço linha ou do espaço coluna de A, ou seja, é o número máximo de linhas e colunas L.I. da matriz A. (b) A nulidade de A é a dimensão do espaço solução de A X = 0. Exemplo 4.23. Considere a matriz A = 1 2 1 1 2 4 3 0 1 2 1 5 A forma escalonada reduzida da matriz A é a matriz R =. 1 2 0 3 0 0 1 2 0 0 0 0. As linhas não nulas de R, V 1 = (1, 2, 0, 3) e V 2 = (0, 0, 1, 2), formam uma base para o espaço linha de A. Portanto, o posto de A é igual a 2. Quanto ao espaço coluna, sejam W 1, W 2, W 3 e W 4 as colunas de A. Sejam U 1, U 2, U 3 e U 4 as colunas de R. As colunas sem pivôs podem ser descartadas na geração do espaço coluna de R, pois elas são combinação linear das colunas dos pivôs. As colunas correspondentes de A podem, também, ser descartadas na geração do espaço coluna de A, pois os mesmos escalares que fazem a combinação linear nula de W 1, W 2, W 3 e W 4, fazem a combinação linear nula de U 1, U 2, U 3 e U 4. Assim, W 1 = (1, 2, 1) e W 3 = ( 1, 3, 1) formam uma base para o espaço coluna de A. Vamos apresentar a seguir uma outra forma de calcular o posto de uma matriz. Uma submatriz de uma matriz A é a própria matriz A ou qualquer matriz obtida de A retirando-se linha(s) e/ou coluna(s). 19 de agosto de 2000 Reginaldo J. Santos
210 Subespaços do R n Teorema 4.7. Seja A uma matriz m n. (a) O posto de A é igual a p = min{m, n} se, e somente se, o determinante de uma submatriz p p é diferente de zero. (b) O posto de A é igual ao maior inteiro positivo r tal que alguma submatriz r r de A possui determinante não nulo. Demonstração. (a) Podemos supor que m n, já que o posto de A é igual ao posto de A t. Neste caso, p = m e o posto de A é m se, e somente se, existem m colunas linearmente independentes. Mas existem m colunas linearmente independentes se, e somente se, existe uma submatriz m m cujas colunas são linearmente independentes, ou seja, com o seu determinante diferente de zero. (b) Se as colunas de A são L.I., então posto(a) = min{m, n} e o resultado decorre do item anterior. Caso contrário, existe uma coluna de A que é combinação linear das outras e o posto de A é igual ao posto da submatriz obtida de A retirando-se esta coluna. Este processo pode ser continuado até se obter uma submatriz cujas colunas são linearmente independentes e cujo posto é igual ao de A. O posto desta submatriz é igual ao mínimo entre o seu número de linhas e o seu número de colunas e é também igual ao posto de A. Aplicando-se o item anterior a esta submatriz obtemos o resultado. [ ] [ ] a 3 a a 3 Exemplo 4.24. Considere a seguinte matriz A =. Se det = a 3 a a 3 a 2 9 = [ ] [ ] a a 3 a (a 3)(a + 3) = 0, det = a 3 a 2 3a = a(a + 3) = 0 e det = a a a 2 + 3a = Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 211 a(a + 3) = 0, então o posto de A é igual a 1. Assim, posto(a) = 1 se, e somente se, a = 3. Caso contrário, o posto de A é igual a 2. 4.3.2 Aplicação a Sistemas Lineares Os conceitos de espaço linha e espaço coluna são úteis no estudo de sistemas lineares. O sistema A X = B é equivalente a equação a 11 a 12 a 1n b 1 a 21 a 22 a 2n b 2 x 1. a m1 + x 2. a m2 +... + x n. a mn = De onde segue que o sistema A X = B tem solução se, e somente se, B é uma combinação linear das colunas de A, ou seja, se, e somente se, B pertence ao espaço coluna de A.. b m. Proposição 4.8. Sejam A uma matriz m n e B uma matriz m 1. O sistema linear A X = B tem solução se, e somente se, B pertence ao espaço coluna de A. O espaço solução do sistema A X = 0 é chamado de núcleo de A e é denotado por N (A). Proposição 4.9. Seja A uma matriz m n. O sistema linear A X = B, para todo B R m, (a) tem solução se, e somente se, as colunas de A geram o R m (posto(a) = m); 19 de agosto de 2000 Reginaldo J. Santos
212 Subespaços do R n (b) tem no máximo uma solução se, e somente se, as colunas de A são linearmente independentes (N (A) = { 0}). Demonstração. (a) Pela Proposição 4.8, o sistema tem solução para todo B R m se, e somente se, o espaço coluna de A é igual ao R m, de onde decorre o resultado. (b) Se o sistema AX = B tem no máximo uma solução para todo B R m, então o sistema homogêneo AX = 0 tem somente a solução trivial, de onde segue que as colunas de A são linearmente independentes e N (A) = { 0}. Se por outro lado, N (A) = { 0}, ou seja, a única solução do sistema homogêneo AX = 0 é a solução trivial, e X 1 e X 2 são soluções de AX = B, então X 1 X 2 é solução de AX = 0 (verifique!). Assim, X 1 X 2 = 0, ou seja, X 1 = X 2. Segue do item (a) da proposição anterior que um sistema linear AX = B com mais incógnitas do que equações não pode ter solução para todo B. Segue também da proposição anterior, que o sistema AX = B tem exatamente uma solução para todo B R m se, e somente se, as colunas de A formam uma base do R m. E isto ocorre se, e somente se, m = n e uma das duas condições ocorre: ou N (A) = { 0} ou posto(a) = n = m. Teorema 4.10. Sejam A uma matriz m n e B uma matriz m 1. O sistema linear A X = B, (a) tem solução se, e somente se, posto([ A B ]) = posto(a); (b) tem solução única se, e somente se, posto([ A B ]) = posto(a) = n. Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 213 Demonstração. (a) Suponha, em primeiro lugar, que o sistema AX = B tem solução. Então, B é combinação linear das colunas de A. Portanto, o espaço coluna de [ A B ] é igual ao espaço coluna de A, ou seja, posto([ A B ]) = posto(a). Por outro lado, se posto([ A B ]) = posto(a), então B pertence ao espaço coluna de A, ou seja, B é combinação linear das colunas de A. Portanto, o sistema AX = B tem solução. (b) Do item anterior podemos assumir que AX = B tem solução. Seja X 0 uma solução particular de AX = B. Então, Y = X + X 0 é solução de AX = B se, e somente se, X é solução do sistema homogêneo AX = 0. Assim, AX = B tem solução única se, e somente se, o sistema homogêneo AX = 0, tem somente a solução trivial. E isto acontece se, e somente se, as colunas de A são linearmente independentes, ou seja, as colunas de A formam uma base para o seu espaço coluna ou equivalentemente posto(a) = n. { ax + 3y = a Exemplo 4.25. Considere o sistema 3x + ay = a. [ ] [ ] a 3 a Para este sistema, A = e B =. 3 a a O sistema tem solução única se, e somente se, posto(a) = 2 (neste caso, posto(a) = 2 implica que posto([a B]) = 2). Agora, posto(a) = 2 se, e somente se, det(a) 0. Como det(a) = a 2 9, então o sistema tem solução única se, e somente se, a ±3. O sistema tem infinitas soluções se, e somente se, posto([a B]) = 1 (neste caso, posto([a B]) = 1 implica que posto(a) = 1). [ Agora, ] posto([a B]) [ = 1 se, ] e somente se, det(a) = 0, det(a 1 ) = 0 a 3 a a e det(a 2 ) = 0, onde A 1 = e A a a 2 =. Como det(a 3 a 1 ) = a 2 + 3a = a(a + 3) e det(a 2 ) = a 2 3a = a(a + 3), então o sistema tem infinitas soluções se, e somente se, a = 3. 19 de agosto de 2000 Reginaldo J. Santos
214 Subespaços do R n O sistema não tem solução se, e somente se, posto(a) = 1 e posto([a B]) = 2. Agora, posto(a) = 1 se, e somente se, det(a) = 0. E posto([a B]) = 2 se, e somente se, det(a) 0, ou det(a 1 ) 0 ou det(a 2 ) 0. Assim o sistema não tem solução se, e somente se, a = 3. Proposição 4.11. Sejam A uma matriz m n e B uma matriz m 1. Seja X 0 uma solução (particular) do sistema linear A X = B. Se V 1,..., V k formam uma base para o núcleo de A, então toda solução de A X = B pode ser escrita na forma X = X 0 + α 1 V 1 +... + α k V k, (4.9) onde α 1,..., α k são escalares. Reciprocamente, para todos os escalares α 1,..., α k a expressão (4.9) é solução do sistema AX = B. Demonstração. Seja X uma solução qualquer do sistema AX = B. Então, X X 0 é solução do sistema homogêneo, pois A(X X 0 ) = AX AX 0 = B B = 0. Como V 1,..., V k formam uma base para o núcleo de A, existem escalares α 1,..., α k tais que X X 0 = α 1 V 1 +... + α k V k. De onde segue a equação (4.9). Por outro lado, se α 1,..., α k são escalares, então A(X 0 + α 1 V 1 +... + α k V k ) = AX 0 + α 1 AV 1 +... + α k AV k = B + 0 +... + 0 = B, ou seja, a expressão (4.9) é solução de AX = B. Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 215 y y X 0 + X X X 0 x 0 X 0 = X 0 + 0 x N (A) Figura 4.8: Solução de AX = B e de AX = 0, se N (A) { 0} Figura 4.9: Solução de AX = B e de AX = 0, se N (A) = { 0} 4.3.3 A Imagem de uma Matriz Seja A uma matriz m n. Pela Proposição 4.8, o espaço coluna de A é igual ao conjunto de B R m tais que o sistema linear AX = B tem solução, ou seja, é igual ao conjunto I(A) = {B R m A X = B para algum X R n }, chamado de imagem de A, por que é a imagem da função f : R n R m que associa a cada vetor X R n o vetor A X R m, f(x) = AX. De forma análoga, se vê que o espaço linha de A é igual a imagem de A t. A função f : R n R m definida por f(x) = AX, para uma matriz m n é chamada transformação linear associada à matriz A. 19 de agosto de 2000 Reginaldo J. Santos
216 Subespaços do R n X f f(x) = AX 0 f f( 0) = 0 R n R m Figura 4.10: A função f : R n R m dada por f(x) = AX Proposição 4.12. Seja A uma matriz m n. O espaço coluna de A é igual a I(A) e o espaço linha é igual a I(A t ). A dimensão do núcleo de A (nulidade), e a dimensão da imagem de A (posto) não são independentes um do outro, como mostra o próximo resultado. Teorema 4.13 (da Dimensão do Núcleo e da Imagem). Seja A uma matriz m n. A soma da dimensão do núcleo de A (nulidade) com a dimensão da imagem de A (posto) é igual ao número de colunas da matriz A, ou seja, dim(n (A)) + dim(i(a)) = n ou nulidade(a) + posto(a) = n. Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 217 Demonstração. Seja V = R n. Sejam V 1,..., V p vetores de V, que formam uma base para o núcleo de A. Vamos estendê-la a uma base de V. Sejam V p+1,..., V n vetores de V tais que V 1,..., V n formam uma base de V. Vamos mostrar que AV p+1,..., AV n formam uma base da imagem de A. Para isso, precisamos mostrar que eles geram a imagem de A e que eles são L.I. Vamos mostrar, em primeiro lugar, que AV p+1,..., AV n geram a imagem de A. Seja Y I(A). Então existe X V tal que A X = Y. Como V 1,..., V n é base de V, existem escalares α 1,..., α n tais que X = α 1 V 1 +...+α n V n. Multiplicando à esquerda por A e usando que AV 1 =... = AV p = 0, obtemos que α p+1 AV p+1 +... + α n AV n = Y, ou seja, AV p+1,..., AV n geram a imagem de A. Vamos mostrar, agora, que AV p+1,..., AV n são linearmente independentes. Se x p+1 AV p+1 +...+x n AV n = 0, então A(x p+1 V p+1 +...+x n V n ) = 0. Mas, isto implica que x p+1 V p+1 +...+x n V n pertence ao núcleo de A, ou seja, existem escalares x 1,..., x p tais que x p+1 V p+1 +... + x n V n = x 1 V 1 +... + x p V p. De onde segue que x 1 V 1 +... + x p V p x p+1 V p+1... x n V n = 0. Como V 1,..., V n é base, então x 1 =... = x p = x p+1 =... = x n = 0, ou seja, AV p+1,..., AV n são L.I. Portanto, a dimensão da imagem de A é igual a diferença entre n e a dimensão do núcleo de A, de onde segue o resultado. Segue do Teorema da Dimensão do Núcleo e da Imagem que o número de variáveis livres na solução geral de um sistema linear AX = B é igual a dimensão do núcleo de A. Exercícios Numéricos (respostas na página 310) 4.3.1. Para cada uma das seguintes matrizes, encontre uma base para o espaço linha e para o espaço coluna. 1 4 5 2 1 4 5 4 (a) 2 1 3 0 (b) 1 4 4 5 1 3 2 2 0 0 2 0 19 de agosto de 2000 Reginaldo J. Santos
218 Subespaços do R n 4.3.2. Determine a dimensão do subespaço de R 3 gerado pelos vetores: (a) (1, 2, 2), (2, 2, 4), ( 3, 3, 6). (b) (1, 3, 4), (6, 2, 1), (2, 2, 3), ( 4, 8, 9). 1 2 2 3 1 4 4.3.3. Seja A = 2 4 5 5 4 9. 3 6 7 8 5 9 (a) Determine a forma escalonada reduzida U da matriz A. Quais as colunas de U que correspondem às variáveis livres. Escreva cada uma destas colunas como uma combinação linear das colunas correspondentes aos pivôs. (b) Quais as colunas de A que correspondem aos pivôs de U? Estas colunas formam uma base para o espaço coluna de A. Escreva cada uma das colunas restantes como combinação linear das colunas da base. 4.3.4. Determine o posto e a nulidade das seguintes matrizes: [ ] [ ] 1 0 1 1 2 0 1 2 3 (a) (b) (c) 2 1 3 2 4 1 2 4 6 3 1 4 4.3.5. Discuta como o posto de A varia com t. 1 1 t (a) A = 1 t 1 (b) A = t 1 1 (d) t 3 1 3 6 2 1 3 t 1 1 2 0 3 1 0 0 1 2 4 0 4.3.6. Encontre o maior valor possível para posto(a) e o menor valor possível para nulidade(a). (a) A é 2 3 (b) A é 3 2 (c) A é 3 3 (d) A é m n. 4.3.7. Seja A uma matriz não nula. Encontre os valores de posto(a) e de posto([a B]) para os quais o sistema linear AX = B tem solução única, não tem solução e tem infinitas soluções. (a) A é 2 3 (b) A é 3 2 (c) A é 3 3 (d) A é m n Álgebra Linear Matricial 19 de agosto de 2000
4.3 Espaço Linha e Espaço Coluna 219 Exercícios Teóricos 4.3.8. Seja A uma matriz n n. (a) A matriz A é invertível se, e somente se, N (A) = { 0}. (b) Mostre que posto(a) = n se, e somente se, as colunas de A são linearmente independentes. (c) Mostre que o sistema homogêneo AX = 0 tem solução não trivial se, e somente se, o posto(a) < n. (d) Mostre que o posto de A é n se, e somente se, det(a) 0. 4.3.9. Sejam X = [ x 1... x m ] e Y = [ y 1... y n ] matrizes 1 m e 1 n, respectivamente. Seja A = X t Y. Mostre que {X} é uma base para o espaço coluna de A e que {Y } é uma base para o espaço linha. Qual é a dimensão do N (A)? 4.3.10. Mostre que se A é uma matriz, m n, de posto igual a 1, então existem matrizes X = [ x 1... x m ] e Y = [ y 1... y n ], 1 m e 1 n, respectivamente, tais que A = X t Y. (Sugestão: Tome X tal que {X} é uma base para o espaço coluna de A.) 4.3.11. Sejam A e B matrizes m p e p n, respectivamente. Mostre que AB pode ser escrita como uma soma de p matrizes de posto igual a 1. 4.3.12. Sejam A e B matrizes m p e p n, respectivamente. Seja C = AB. Mostre que: (a) O espaço coluna de C está contido no espaço coluna de A. (b) O espaço linha de C está contido no espaço linha de B. (c) posto(c) min(posto(a), posto(b)). 19 de agosto de 2000 Reginaldo J. Santos
220 Subespaços do R n (d) Se as colunas de A e B são linearmente independentes, então as colunas de C também são linearmente independentes. (e) Se as linhas de A e B são linearmente independentes, então as linhas de C também são linearmente independentes. (f) Se as colunas de B são linearmente dependentes, então as colunas de C também são linearmente dependentes. (g) Se as linhas de A são linearmente dependentes, então as linhas de C também são linearmente dependentes. (h) O núcleo de C está contido no núcleo de B. 4.3.13. Seja A uma matriz m n. Se P e Q são matrizes invertíveis m m e n n, respectivamente, então A, P A e AQ possuem o mesmo posto. 4.3.14. Sejam A e B matrizes n n. Mostre que AB = 0 se, e somente se, o espaço coluna de B está contido no núcleo de A. 4.3.15. Seja A uma matriz n n e B uma matriz n 1. Para cada i, defina a matriz A i como sendo a matriz que se obtem de A substituindo-se a i-ésima coluna por B. (a) Mostre que se para algum i, det(a i ) 0, então posto([a B]) = n. (b) Suponha que o det(a) = 0. Mostre que se para algum i, det(a i ) 0, então o sistema AX = B não tem solução. (c) Mostre que se det(a i ) = 0 para i = 1,..., n e det(a) = 0, então tanto pode ocorrer que o sistema AX = B tenha infinitas soluções, como pode ocorrer que ele não tenha solução. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 5 Ortogonalidade 5.1 Produto Escalar em R-n 5.1.1 Produto Interno Vimos que podemos estender a soma e a multiplicação de vetores por escalar para o R n. Podemos estender também os conceitos de produto escalar e ortogonalidade. Definição 5.1.5.1.1. Definimos o produto escalar ou interno de dois vetores X = (x 1,..., x n ) e Y = (y 1,..., y n ) R n por X Y = x 1 y 1 + x 2 y 2 +... + x n y n = n x i y i. i=1 221
222 Ortogonalidade 5.1.2. Definimos a norma de um vetor X = (x 1,..., x n ) R n por X = X X = x 2 1 +... + x 2 n = n x 2 i. Y = Escrevendo os vetores como matrizes colunas, o produto interno de dois vetores X = y 1. y n pode ser escrito em termos do produto de matrizes como X Y = X t Y. i=1 x 1. x n e Exemplo 5.1. Sejam V = (1, 2, 4, 3, 5) e W = (5, 3, 1, 2, 1) vetores do R 5. O produto escalar entre V e W é dado por V W = (1)(5) + ( 2)(3) + (4)( 1) + (3)( 2) + (5)(1) = 6. As normas de V e W são dadas por V = 1 2 + ( 2) 2 + 4 2 + 3 2 + 5 2 = 55, W = 5 2 + 3 2 + ( 1) 2 + ( 2) 2 + 1 2 = 40. São válidas as seguintes propriedades para o produto escalar e a norma de vetores do R n. Álgebra Linear Matricial 19 de agosto de 2000
5.1 Produto Escalar em R-n 223 Proposição 5.1. Se X, Y e Z são vetores de R n e α é um escalar, então 5.1.1. (X + Y ) Z = X Z + Y Z; 5.1.2. (αx) Y = α(x Y ) = X (αy ); 5.1.3. X Y = Y X; 5.1.4. X X = X 2 0 e X = 0 se, e somente se, X = 0; 5.1.5. X Y X Y (Desigualdade de Cauchy-Schwarz); 5.1.6. X + Y X + Y (Desigualdade Triangular). Demonstração. Sejam X, Y, Z R n e α R. Usando o fato de que se os vetores são escritos como matrizes colunas, então o produto escalar pode ser escrito como o produto de matrizes, X Y = X t Y, e as propriedades da álgebra matricial (Teorema 1.1 na página 7), temos que 5.1.1. X (Y + Z) = X t (Y + Z) = X t Y + X t Z = X Y + X Z; 5.1.2. α(x Y ) = α(x t Y ) = (αx t )Y = (αx) t Y = (αx) Y ; a outra igualdade é inteiramente análoga; 5.1.3. X Y = X t Y = (X t Y ) t = Y t X = Y X; pois X t Y é uma matriz 1 1 que é igual a sua transposta. 5.1.4. X X é uma soma de quadrados, por isso é sempre maior ou igual a zero e é zero se, e somente se, todas as parcelas são iguais a zero. 19 de agosto de 2000 Reginaldo J. Santos
224 Ortogonalidade 5.1.5. A norma de λx + Y é maior ou igual a zero, para qualquer λ real. Assim, 0 λx + Y 2 = (λx + Y ) (λx + Y ) = ( X 2 )λ 2 + (2X Y )λ + Y 2, para qualquer λ real. Logo, o discriminante deste trinômio tem que ser menor ou igual a zero. Ou seja, 4(X Y ) 2 4 X 2 Y 2 0. Logo, X Y X Y. 5.1.6. Pelo item anterior temos que X + Y 2 = (X + Y ) (X + Y ) = X 2 + 2X Y + Y 2 X 2 + 2 X Y + Y 2 X 2 + 2 X Y + Y 2 ( X + Y ) 2 ; Tomando a raiz quadrada, segue o resultado. Podemos, agora, estender o conceito de ângulo entre vetores para vetores do R n. Definimos o ângulo entre dois vetores não nulos X = (x 1,..., x n ) e Y = (y 1,..., y n ) como sendo o número real θ entre 0 e π tal que cos θ = X Y X Y. Segue da desigualdade de Cauchy-Schwarz que o ângulo θ está bem definido, ou seja, que existe um tal número real θ e é único (verifique!). Dizemos que dois vetores X e Y são ortogonais se X Y = 0. As propriedades do produto escalar permitem introduzir o conceito de bases ortogonais no R n. Antes temos o seguinte resultado. Álgebra Linear Matricial 19 de agosto de 2000
5.1 Produto Escalar em R-n 225 Proposição 5.2. Se V 1,..., V k são vetores não nulos de R n ortogonais, isto é, V i V j = 0, para i j, então V 1,..., V k são L.I. Demonstração. Considere a equação vetorial x 1 V 1 +... + x k V k = 0. (5.1) Fazendo o produto escalar de ambos os membros de (5.1) com V i, i = 1,..., k e aplicando as propriedades do produto escalar, obtemos x 1 (V 1 V i ) +... + x i (V i V i ) +... + x k (V k V i ) = 0. (5.2) Mas, V i V j = 0, se i j. Assim, de (5.2) obtemos que x i V i 2 = 0. Mas, como V i 0, então V i 0 e x i = 0, para i = 1..., k. 5.1.2 Bases Ortonormais Definição 5.2. Seja {V 1,..., V m } uma base de um subespaço vetorial. a) Dizemos que {V 1,..., V m } é uma base ortogonal, se V i V j = 0, para i j, ou seja, se quaisquer dois vetores da base são ortogonais; b) Dizemos que {V 1,..., V m } é uma base ortonormal, se além de ser uma base ortogonal, V i = 1, ou seja, o vetor V i é unitário, para i = 1,... m. 19 de agosto de 2000 Reginaldo J. Santos
226 Ortogonalidade Exemplo 5.2. A base canônica do R n, que é formada pelos vetores E 1 = (1, 0,..., 0), E 2 = (0, 1, 0,..., 0),..., E n = (0,..., 0, 1) é uma base ortonormal do R n. Vamos mostrar mais adiante que a partir de uma base qualquer de um subespaço do R n, podemos encontrar uma base deste subespaço que seja ortonormal. Para isto é fundamental a projeção ortogonal de um vetor V sobre um vetor não nulo W, que definimos por ( ) V W proj W V = W. W 2 Observe que a projeção ortogonal de um vetor V sobre um vetor não nulo W é um múltiplo escalar do vetor W. Além disso temos o seguinte resultado. Proposição 5.3. Seja W R n um vetor não nulo. Então, V proj W V é ortogonal a W, para qualquer vetor V R n. Demonstração. Precisamos calcular o produto escalar de W com V proj W V : ( ) V W (V proj W V ) W = V W W W = 0. W 2 Portanto, V proj W V é ortogonal a W. Álgebra Linear Matricial 19 de agosto de 2000
5.1 Produto Escalar em R-n 227 V proj W V V V V proj W V proj W V W proj W V W Figura 5.1: Projeção ortogonal do vetor V sobre o vetor W O próximo resultado é uma generalização da Proposição 5.3. Proposição 5.4. Sejam W 1, W 2,..., W k vetores não nulos do R n, ortogonais entre si, então para qualquer vetor V, V proj W1 V... proj Wk V é ortogonal a W i, para i = 1,..., k. Demonstração. Vamos calcular o produto interno de V proj W1 V... proj Wn V com W j, para j = 1,..., n. ( ) n n ( ) ( ) V Wk V Wj V proj Wk V W j = V W j W W k 2 k W j = V W j W W j 2 j W j = 0, k=1 pois W k W j = 0, se j k. k=1 19 de agosto de 2000 Reginaldo J. Santos
228 Ortogonalidade V proj W1 V proj W2 V V 0 W 1 proj W1 V +proj W2 V W = [W 1, W 2 ] W 2 Figura 5.2: V proj W1 V proj W2 V é ortogonal a W 1 e a W 2 Vamos mostrar a seguir, que a partir de uma base qualquer de um subespaço podemos encontrar uma base ortonormal com a propriedade de que o primeiro vetor da nova base seja paralelo ao primeiro vetor da base anterior. Nas Figuras 5.3 e 5.4 vemos como isto é possível no caso em que o subespaço é o R 3, já que o R 3 é subespaço dele mesmo. Teorema 5.5. Seja {V 1,..., V m } uma base de um subespaço ( ) W do R n. Então, existe uma base 1 {U 1,..., U m } de W que é ortonormal e tal que U 1 = V 1. V 1 Demonstração. Usaremos o chamado processo de ortogonalização de Gram-Schmidt para construir uma base ortogonal. Depois dividiremos cada vetor da base encontrada pela sua norma, de forma a obtermos vetores de norma igual a um e ortogonais. Álgebra Linear Matricial 19 de agosto de 2000
5.1 Produto Escalar em R-n 229 5.1.1. Sejam W 1 = V 1, W 2 = V 2 proj W1 V 2, W 3 = V 3 proj W1 V 3 proj W2 V 3,... W m = V m proj W1 V m proj W2 V m... proj Wm 1 V m. Pela Proposição 5.3, segue que W 2 é ortogonal a W 1 e W 2 0, pois V 1 e V 2 são L.I. Assim, W 1 e W 2 formam uma base ortogonal do subespaço gerado por V 1 e V 2. Agora, supondo que W 1,..., W m 1 seja uma base ortogonal do subespaço gerado por V 1,..., V m 1, segue da Proposição 5.4, que W m é ortogonal a W 1,..., W m 1. W m 0, pois caso contrário, V m pertenceria ao subespaço [W 1,..., W m 1 ] = [V 1,..., V m 1 ]. Como W 1,..., W m são ortogonais não nulos, pela Proposição 5.2 na página 225, eles são L.I. e portanto formam uma base do subespaço W. 5.1.2. Sejam, agora U 1 = ( ) ( ) ( ) 1 1 1 W 1, U 2 = W 2,..., U m = W m. W 1 W 2 W m Assim, {U 1,..., U m } é uma base ortonormal para o subespaço W. Exemplo 5.3. Seja W = R 3. Considere a base formada pelos vetores V 1 = (1, 1, 1), V 2 = (0, 0, 1) e V 3 = (1, 0, 0). Vamos encontrar uma base ortonormal para V cujo primeiro vetor seja múltiplo 19 de agosto de 2000 Reginaldo J. Santos
230 Ortogonalidade W 3 = V 3 proj W1 V 3 proj W2 V 3 V 3 V 3 W 2 = W 1 = V 1 V 2 proj W1 V 2 W 1 W 2 proj W1 V 2 V 2 proj W1 V 3 proj W2 V 3 proj W1 V 3 +proj W2 V 3 Figura 5.3: W 1 = V 1 e W 2 = V 2 proj W1 V 2 Figura 5.4: W 3 = V 3 proj W1 V 3 proj W2 V 3 escalar de V 1. Sejam W 1 = V 1 = (1, 1, 1) W 2 = V 2 proj W1 V 2 = V 2 W 3 = V 3 proj W1 V 3 proj W2 V 3 ( ) V3 W 1 = V 3 W W 1 2 1 ( ) V2 W 1 W W 1 2 1 = (0, 0, 1) 1 3 (1, 1, 1) = ( 1 3, 1 3, 2 3 ) ( V3 W 2 W 2 2 ) W 2 = (1, 0, 0) 1 1/3 (1, 1, 1) 3 2/3 ( 1 3, 1 3, 2 3 ) = (1 2, 1 2, 0) Álgebra Linear Matricial 19 de agosto de 2000
5.1 Produto Escalar em R-n 231 Como W 1 = 3, W 2 = 2/3, W 3 = 1/ 2, temos que ( ) 1 3 3 3 U 1 = W 1 = ( W 1 3, 3, 3 ), ( ) 1 6 6 6 U 2 = W 2 = ( W 2 6, 6, 3 ) ( ) 1 2 2 U 3 = W 3 = ( W 3 2, 2, 0). Exercícios Numéricos (respostas na página 311) 5.1.1. Sejam X = (1, 1, 2) e Y = (a, 1, 2). Para quais valores de a, X e Y são ortogonais? 5.1.2. Sejam X = (1/ 2, 0, 1/ 2) e Y = (a, 1/ 2, b). Para quais valores de a e b, o conjunto {X, Y } é ortonormal? 5.1.3. Use o processo de ortogonalização de Gram-Schmidt para encontrar uma base ortonormal para o subespaço de R 4 que tem como base {(1, 1, 1, 0), (0, 2, 0, 1), ( 1, 0, 0, 1)}. 5.1.4. Use o processo de ortogonalização de Gram-Schmidt para transformar a base do R 3 {(1, 1, 1), (0, 1, 1), (1, 2, 3)} em uma base ortonormal do R 3. 5.1.5. Encontre uma base ortonormal para o subespaço de R 3 que consiste de todos os vetores (a, b, c) tais que a + b + c = 0. 5.1.6. Encontre uma base ortonormal para o subespaço do R 4 que consiste de todos os vetores (a, b, c, d) tais que a b 2c + d = 0. 19 de agosto de 2000 Reginaldo J. Santos
232 Ortogonalidade 5.1.7. Encontre uma base ortonormal para o espaço solução do sistema homogêneo { x + y z = 0 2x + y + 2z = 0. 5.1.8. Considere as retas (x, y, z) = t(1, 2, 3) e (x, y, z) = (0, 1, 2) + s(2, 4, 6) em R 3. Encontre a equação geral do plano que contem estas duas retas e ache uma base ortonormal para este plano. Complete esta base a uma base ortonormal de R 3. Exercícios Teóricos 5.1.9. Mostre que para todo vetor V R n e todo escalar α, αv = α V. 5.1.10. Mostre que se V é ortogonal a W, então V é ortogonal a αw, para para todo escalar α. 5.1.11. Mostre que se V é ortogonal a W 1,..., W k, então V é ortogonal a qualquer combinação linear de W 1,..., W k. 5.1.12. Sejam X, Y e Z vetores do R n. Prove que se X Y = X Z, então Y Z é ortogonal a X. 5.1.13. Mostre que se W 1,..., W k são vetores não nulos ortogonais entre si e X = α 1 W 1 +...+α k W k, então X = proj W1 X +... + proj Wk X. 5.1.14. Sejam V 1,..., V k vetores linearmente dependentes. Mostre que, aplicando-se o processo de ortogonalização de Gram-Schmidt aos vetores V 1,..., V k, se obtem um vetor W i que é nulo, para algum i = 1,..., k. (Sugestão: Seja V i o primeiro vetor tal que V i [V 1,..., V i 1 ] = [W 1,..., W i 1 ] e use o exercício anterior.) 5.1.15. Seja S = {W 1,..., W n } uma base ortonormal do R n. Mostre que um vetor qualquer V do R n pode ser escrito como V = α 1 W 1 + α 2 W 2 +... + α n W n, em que α i = V W i, para i = 1,..., n. Álgebra Linear Matricial 19 de agosto de 2000
5.1 Produto Escalar em R-n 233 5.1.16. Mostre que o conjunto de todos os vetores do R n ortogonais a um dado vetor V = (a 1,..., a n ), W = {X = (x 1,..., x n ) R n X V = 0} é um subespaço do R n. 5.1.17. Demonstre que, se V e W são vetores quaisquer do R n, então: (a) V W = 1 4 [ V + W 2 V W 2 ] (identidade polar); (b) V + W 2 + V W 2 = 2( V 2 + W 2 ) (lei do paralelogramo). (Sugestão: desenvolva os segundos membros das igualdades acima observando que V + W 2 = (V + W ) (V + W ) e V W 2 = (V W ) (V W )) 5.1.18. Seja {U 1,..., U n } uma base ortonormal de R n. Se A = [ U 1... U n ] é uma matriz n n cujas colunas são os vetores U 1,..., U n, então A é invertível e A 1 = A t. (Sugestão: mostre que A t A = I n.) 5.1.19. Mostre que o ângulo entre dois vetores não nulos X = (x 1,..., x n ) e Y = (y 1,..., y n ) de R n, que é definido como sendo o número real θ entre 0 e π tal que cos θ = X Y X Y, está bem definido, ou seja, que existe um tal número real θ e é único. (Sugestão: mostre, usando a desigualdade de Cauchy-Schwarz, que 1 X Y X Y 1.) 19 de agosto de 2000 Reginaldo J. Santos
234 Ortogonalidade 5.2 Subespaços Ortogonais Se V R 3, o conjunto dos vetores que são ortogonais a V, é um plano que passa pela origem e tem V como vetor normal. Neste caso dizemos que o plano é o subespaço ortogonal a {V }. Definição 5.3. Seja S um subconjunto de R n. O complemento ortogonal de S, denotado por S, é o conjunto de todos os vetores de R n que são ortogonais a todo vetor de S. Ou seja, S = {X R n X Y = 0 para todo Y S}. Mesmo quando S não é um subespaço, S é um subespaço. Proposição 5.6. Seja S um subconjunto de R n. Então, o conjunto S é um subespaço. Demonstração. Vamos verificar as propriedades (0) e (0 ) da Definição 4.1 na página 179. (0) Sejam X 1 e X 2 vetores de S. Então, (X 1 + X 2 ) Y = X 1 Y + X 2 Y = 0 + 0 = 0, para todo Y S. (0 ) Seja X S e α um escalar. Então, (αx) Y = α(x Y ) = α0 = 0, para todo Y S. Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 235 Exemplo 5.4. Se S = { 0} R n, então S = R n. Se S = R n, então S = { 0}. Exemplo 5.5. Seja S = {V } R n, onde V = (a 1,..., a n ). Então, S = {X = (x 1,..., x n ) R n a 1 x 1 +... + a n x n = 0}. Exemplo 5.6. Seja S = {V 1,..., V m } R n, onde V 1 = (a 11,..., a 1n ),..., V m = (a m1,..., a mn ). Então, S = {X R n A X = 0}, onde A = (a ij ) m n. Se S = W é um subespaço, além de W ser um subespaço, são válidas as propriedades a seguir. Proposição 5.7. Sejam W um subespaço de R n e W o seu complemento ortogonal. Então: R n = W W e (W ) = W Demonstração. Vamos, em primeiro lugar, mostrar que R n = W W. Seja W 1,..., W k uma base ortogonal de W. Podemos estendê-la a uma base de R n, ou seja, W 1,..., W k, V k+1,..., V n formam uma base do R n. Aplicando o processo de ortogonalização de Gram-Schmidt (Teorema 5.5 na página 228) os primeiros k vetores não são alterados e obtemos então W 1,..., W k, W k+1,..., W n. Seja V um vetor qualquer do R n. Existem escalares x 1,..., x n tais que V = x 1 W 1 +... + x n W n. Então, V = W + U, onde W = x 1 W 1 +... + x k W k W e U = x k+1 W k+1 +... + x n W n W. Além disso, se X W W, então X X = X 2 = 0. Portanto X = 0 e W W = { 0}. 19 de agosto de 2000 Reginaldo J. Santos
236 Ortogonalidade Vamos mostrar, agora, que (W ) = W. Todo elemento de W claramente pertence a (W ). Assim, W (W ). Falta mostrar que (W ) W. Seja X (W ). Então, X = U + V, onde U W e V W. Assim, 0 = X V = (U + V ) V = U V + V V = V V = V 2. Consequentemente, V = 0. Assim, X W e (W ) W. Portanto, (W ) = W. W 1 = W 2 Z W X = Y + Z 0 W 2 = W 1 0 Y = proj W X W Figura 5.5: Complementos ortogonais Figura 5.6: Decomposição de um ponto X = Y + Z, com Y W, Z W Seja W um subespaço do R n. Dado um vetor X R n, em virtude da Proposição 5.7 existe uma única decomposição X = Y + Z, com Y W e Z W. O vetor Y é chamado projeção ortogonal de X no subespaço W e é denotado por proj W X. Se {W 1,..., W k } é uma base ortogonal de W, então proj W X = proj W1 X +... + proj Wk X Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 237 pois pela Proposição 5.4 na página 227, Y = proj W1 X +...+proj Wk X é tal que (X Y ) W i = 0, para i = 1,..., k, o que implica que (X Y ) W = 0, para todo W W, ou seja, X Y W. Exemplo 5.7. Seja W o subespaço gerado pelos vetores V 1 = (1, 0, 0, 0), V 2 = (1, 1, 0, 0), V 3 = ( 4, 4, 1, 1). Seja X = ( 2, 4, 0, 2). Vamos encontrar Y W e Z W tais que X = Y + Z. Basta tomarmos Y = proj W X e Z = X Y. Para encontrar esta decomposição vamos aplicar o processo de ortogonalização de Gram-Schmidt aos vetores V 1, V 2 e V 3 obtendo W 1, W 2 e W 3 uma base ortogonal de W. W 1 = V 1, W 2 = V 2 proj W1 V 2 = (0, 1, 0, 0), Assim, W 3 = V 3 proj W1 V 3 proj W2 V 3 = (0, 0, 1, 1). Y = proj W X = proj W1 X + proj W2 X + proj W3 X = ( 2, 4, 1, 1) e Z = X Y = (0, 0, 1, 1) 5.2.1 Subespaços Fundamentais Lembramos que a imagem de uma matriz A, m n, é o subespaço definido por I(A) = {Y R m A X = Y para algum X R n }, que é igual ao espaço coluna de A (Proposição 4.12 na página 215). Lembramos também que o núcleo de A é definido por N (A) = {X R n A X = 0 }. Já vimos que dim(n (A)) + dim(i(a)) = n (Teorema 4.13 na página 216). Observe que enquanto N (A) é um subespaço do R n, I(A) é um subespaço do R m. Mas, I(A t ) é também um subespaço de R n e N (A t ) é um subespaço do R m. Assim, N (A) e I(A t ) são subespaços do R n e N (A t ) e I(A) são subespaços do R m e são válidas as seguintes relações de ortogonalidade. 19 de agosto de 2000 Reginaldo J. Santos
238 Ortogonalidade Teorema 5.8. Se A é uma matriz m n, então (a) N (A) = I(A t ) e R n = N (A) I(A t ). (b) N (A t ) = I(A) e R m = N (A t ) I(A). Demonstração. (a) Primeiro vamos provar que N (A) I(A t ). Seja X N (A), então X é ortogonal a todas as linhas de A, portanto é ortogonal ao espaço gerado pelas linhas de A, que é I(A t ). Vamos mostrar, agora, que I(A t ) N (A). Se X I(A t ), então X é ortogonal a cada linha de A. Isto implica que AX = 0, ou seja, X N (A). Aplicando-se a Proposição 5.7 segue que R n = N (A) I(A t ). (b) Basta aplicar o item anterior a A t. 5.2.2 Distância de um Ponto a um Subespaço No R 3 a distância de um ponto P 0 a um plano W = {X = (x, y, z) ax + by + cz = 0}, é definida como a menor distância entre P 0 e um ponto P do plano. Escrevemos: dist(p 0, W) = min P W P 0 P. Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 239 I(A t ) I(A) A B A t N (A) 0 0 N (A t ) W 0 Q R n R m Figura 5.7: Subespaços N (A), I(A t ), I(A) e N (A t ) Figura 5.8: Ponto em um subespaço mais próximo do ponto B Esta distância é atingida para um ponto Q tal que P 0 Q é perpendicular ao plano, ou seja, P 0 Q é ortogonal a P para todo ponto P de W, já que o plano passa pela origem. Assim, dist(p 0, W) = min P W P 0 P = P 0 Q. A mesma coisa ocorre com subespaços do R n como mostra o próximo resultado. Teorema 5.9. Seja W um subespaço de R n. Para cada B R n existe um único ponto Q W tal que min B Y = B Q, Y W e o ponto Q é tal que B Q W, ou seja, Q = proj W B. 19 de agosto de 2000 Reginaldo J. Santos
240 Ortogonalidade Demonstração. Pela Proposição 5.7, R n = W W. Seja B R n fixo. Então, existe uma única decomposição de B como B = Q + Z, onde Q W e Z W. Seja Y um vetor qualquer de W. Temos que Mas, Y B 2 = (Y Q) + (Q B) 2 = Y Q 2 + 2(Y Q) (Q B) + B Q 2. pois Y, Q W e B Q = Z W. Logo, (Y Q) (Q B) = Q (B Q) Y (B Q) = 0, Y B 2 = (Y Q) + (Q B) 2 = Y Q 2 + B Q 2. (5.3) Variando Y em W, vemos de (5.3) que o mínimo de Y B ocorre para Y = Q, já que B Q 2 permanece fixo em (5.3) quando variamos Y em W. Portanto, onde o ponto Q é tal que B Q W. min B Y = B Q, Y W Exemplo 5.8. Seja W o subespaço gerado pelos vetores V 1 = (1, 0, 0, 0), V 2 = (1, 1, 0, 0), V 3 = ( 4, 4, 1, 1). Seja P = ( 2, 4, 0, 2). Vamos encontrar o ponto de W mais próximo de P e a distância de P a W. Para isto precisamos decompor P em duas parcelas B = Q + Z, onde Q W e Z W. Q será o ponto de W mais próximo de B. Este cálculo foi feito no Exemplo 5.7 na página 237. Q = proj W P = ( 2, 4, 1, 1). Portanto, Q = ( 2, 4, 1, 1) é o ponto de W mais próximo de B e a distância de B a W é dada por B Q = (0, 0, 1, 1) = 2. Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 241 5.2.3 Problema de Quadrados Mínimos Muitos problemas, quando modelados, levam a sistemas lineares A X = B, que são inconsistentes (isto é, não possuem solução), apesar dos problemas que os originaram exigerem solução. A inconsistência vem com freqüência devido a erros experimentais na matriz B. Uma forma de resolver esta inconsistência é resolver o problema de quadrados mínimos associado, ou seja, min A X B 2. Apesar de não ser esta a única forma de resolver a inconsitência, pode-se mostrar que se os erros em B forem não viciados e os b i tiverem a mesma variância (fixa), então a solução do problema de quadrados mínimos é a que tem a menor variância dentro de um certo conjunto de soluções. O teorema seguinte é a chave para a solução do problema de quadrados mínimos. Teorema 5.10. Seja A uma matriz m n. O problema de quadrados mínimos: min AX B 2 é equivalente a resolver o sistema linear consistente A t AX = A t B, chamado de equações normais. Demonstração. O problema de quadrados mínimos min AX B 2 19 de agosto de 2000 Reginaldo J. Santos
242 Ortogonalidade pode ser escrito como min Y Y I(A) B 2 e Y = A X. Pelo Teorema 5.9, a solução deste problema é um ponto X R n tal que B A X I(A). Mas, Pelo Teorema 5.8 I(A) = N (A t ). Assim, X é tal que A t (B AX) = 0. Ou seja, a solução do problema de quadrados mínimos é a solução do sistema linear A t A X = A t B. 7 y 6 X AX = ˆB B 5 4 3 0 2 1 0 x R n R m 1 4 3 2 1 0 1 2 3 4 Figura 5.9: mínimos A solução de quadrados Figura 5.10: Reta que melhor se ajusta a quatro pontos Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 243 Exemplo 5.9. Vamos determinar a reta de equação y = ax + b que melhor se ajusta aos pontos P 1 = ( 3, 6), P 2 = (0, 4), P 3 = (1, 0) e P 4 = (2, 2) no sentido de quadrados mínimos, ou seja, tal 4 que (y i ax i b) 2 seja mínimo. Substituindo-se estes pontos na equação da reta obtemos o i=1 seguinte sistema Para este sistema temos que A = 3 1 0 1 1 1 2 1 3a + b = 6 b = 4 a + b = 0 2a + b = 2 e B = 6 4 0 2. Para encontrar a solução de quadrados mínimos deste sistema temos que resolver as equações normais A t AX = A t B. Neste caso, A t A = [ 14 0 0 4 ] e A t B = [ 14 12 Assim a solução de quadrados mínimos é X = [ 1 3] t, ou a = 1, b = 3. A reta y = x + 3 é a reta procurada. ] Exemplo 5.10. Vamos determinar a parábola de equação y = ax 2 +bx+c que melhor se ajusta aos pontos P 1 = ( 2, 0), P 2 = ( 1, 2), P 3 = (1, 2) e P 4 = (2, 10) no sentido de quadrados mínimos, 4 ou seja, tal que (y i ax 2 i bx i c) 2 seja mínimo. Substituindo-se estes pontos na equação da i=1 19 de agosto de 2000 Reginaldo J. Santos
244 Ortogonalidade parábola obtemos o seguinte sistema Para este sistema temos que A = 4a 2b + c = 0 a b + c = 2 a + b + c = 2 4a + 2b + c = 10 4 2 1 1 1 1 1 1 1 4 2 1 e B = 0 2 2 10. Para encontrar a solução de quadrados mínimos deste sistema temos que resolver as equações normais A t AX = A t B. Aqui, 34 0 10 44 A t A = 0 10 0 e A t B = 20 10 0 4 14 Escalonando a matriz aumentada [A t A A t B] obtemos que a solução de quadrados mínimos é X = [1 2 1] t, ou a = 1, b = 2 e c = 1. E y = x 2 + 2x + 1 é a equação da parábola procurada. Exemplo 5.11. Vamos determinar o círculo de equação x 2 + y 2 = ax + by + c que melhor se ajusta aos pontos P 1 = ( 2, 0), P 2 = (0, 2), P 3 = (1, 3) e P 4 = (3, 1) no sentido de quadrados mínimos, 4 ou seja, tal que (x 2 i + yi 2 ax i by i c) 2 seja mínimo. Substituindo-se estes pontos na equação i=1 do círculo obtemos o seguinte sistema 2a + c = 4 + 2b + c = 4 a 3b + c = 10 3a + b + c = 10 Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 245 14 y 3 y 12 2 10 1 8 6 4 0 1 x 2 2 0 x 3 2 8 6 4 2 0 2 4 6 8 4 2 1 0 1 2 3 4 Figura 5.11: Parábola que melhor se ajusta a quatro pontos Figura 5.12: Círculo que melhor se ajusta a quatro pontos Para este sistema temos que A = 2 0 1 0 2 1 1 3 1 3 1 1 e B = 4 4 10 10. Para encontrar a solução de quadrados mínimos deste sistema temos que resolver as equações normais A t AX = A t B. Aqui, 14 0 2 44 A t A = 0 14 0 e A t B = 20 2 0 4 14 Escalonando a matriz aumentada [A t A A t B] obtemos que a solução de quadrados mínimos é X = [18/13 6/7 82/13] t, ou a = 18/13, b = 6/7 e c = 82/13. A equação do círculo procurado é x 2 +y 2 (18/13)x+(6/7)y = 82/13. O centro do círculo P 0 = (x 0, y 0 ) e o raio r são obtidos pelas 19 de agosto de 2000 Reginaldo J. Santos
246 Ortogonalidade equações a = 2x 0, b = 2y 0 e r 2 = c + x 2 0 + y 2 0. Assim, x 0 = 9/13, y 0 = 3/7 e r = 57724 8281 2, 6. Exercícios Numéricos (respostas na página 313) 5.2.1. Para cada uma das seguintes matrizes determine uma base para cada um dos seguintes subespaços I(A t ), N (A), I(A) e N (A t ). 4 2 1 0 0 0 (a) 1 3 2 1 (b) 0 1 1 1 0 0 1 1 3 4 1 1 2 2 5.2.2. Seja W o subespaço de R 3 gerado por V = (1, 1, 1). Encontre uma base para W e dê uma interpretação geométrica para W e W. 5.2.3. Seja W o subespaço do R 4 gerado pelos vetores V 1 = (1, 0, 2, 1) e V 2 = (0, 1, 3, 2). Encontre uma base para W. 5.2.4. Encontre a equação da parábola que melhor se ajusta aos pontos dados no sentido de quadrados mínimos, ou seja, tal que (y i ax 2 i bx i c) 2 seja 4 mínimo: (a) P 1 = ( 2, 1), P 2 = ( 1, 2), P 3 = (1, 0) e P 4 = (2, 7). (b) P 1 = ( 2, 1), P 2 = ( 1, 3), P 3 = (1, 3) e P 4 = (2, 11). i=1 5.2.5. Encontre a equação do círculo que melhor se ajusta aos pontos dados no sentido de quadrados 4 mínimos, ou seja, tal que (x 2 i + yi 2 ax i by i c) 2 seja mínimo: i=1 Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 247 (a) P 1 = ( 2, 0), P 2 = (0, 1), P 3 = (1, 2) e P 4 = (2, 1). (b) P 1 = ( 2, 1), P 2 = ( 1, 2), P 3 = (0, 1) e P 4 = (2, 0). 5.2.6. Encontre a solução de quadrados mínimos dos seguintes sistemas: x + y + z = 4 x + 2y = 3 x + y = 10 x + y + z = 2 (a) 2x + 4y = 2 (b) 2x + y = 5 (c) y + z = 1 x 2y = 1 x 2y = 20 x + z = 2 Exercícios usando o MATLAB 5.2.7. (a) Use o comando P=randi(5,2), para gerar 5 pontos com entradas inteiras e aleatórias entre 5 e 5. Os pontos estão armazenados nas linhas da matriz P. (b) Use o MATLAB para encontrar os coeficientes a, b, c e d da função polinomial p(x) = ax 3 + bx 2 + cx + d que melhor se ajusta aos pontos dados pelas linhas da matriz P, no sentido de quadrados mínimos, ou seja, tal que (y i ax 3 i bx 2 i cx d) 2 seja mínimo. A matriz A=matvand(P(:,1),3) pode ser útil na solução deste problema, assim como a matriz B=P(:,2). (c) Desenhe os pontos e o gráfico do polinômio com os comandos clf,po(p), syms x, plotf1(a*x^3+b*x^2+c*x+d,[-5,5]), onde a,b,c e d são os coeficientes já encontrados. Desenhe os eixos coordenados com o comando eixos. 5.2.8. (a) Use o comando P=randi(6,2), para gerar 6 pontos com entradas inteiras e aleatórias entre 5 e 5. Os pontos estão armazenados nas linhas da matriz P. (b) Use o MATLAB para encontrar os coeficientes a, b, c, d e e da cônica de equação x 2 + axy + by 2 + cx + dy + e = 0, cujo gráfico melhor se ajusta aos pontos dados pelas linhas da matriz P, no sentido de quadrados mínimos, ou seja, tal que (x 2 i ax i y i by 2 i 19 de agosto de 2000 Reginaldo J. Santos
248 Ortogonalidade cx i dy i e) 2 seja mínimo. As matrizes M=matvand(P,2), B=-M(:,1) e A=M(:,2:6) podem ser úteis na solução deste problema. (c) Desenhe os pontos e a cônica com os comandos clf,po(p), syms x y, plotci(x^2+a*x*y+b*y^2+c*x+d*y+e,[-5,5],[-5,5]), onde a,b,c,d e e são os coeficientes encontrados no item anterior. Desenhe os eixos coordenados com o comando eixos. Exercícios Teóricos 5.2.9. Seja A j uma coluna não nula de uma matriz A, m n. É possível que A j pertença ao N (A t )? 5.2.10. Seja W um subespaço de R n gerado pelos vetores V 1,..., V k. Mostre que V W se, e somente se, V é ortogonal a V i, para i = 1,..., k. 5.2.11. Sejam W 1 e W 2 subespaços de R n. Mostre que (W 1 +W 2 ) = W 1 W 2 e que (W 1 W 2 ) = W 1 + W 2. 5.2.12. Sejam S e S 0 subconjuntos de R n. Mostre que S 0 S implica que S S 0. 5.2.13. Se A é uma matriz m n de posto igual a r, quais as dimensões de N (A) e N (A t )? 5.2.14. Seja A uma matriz m n. (a) Mostre que se AX = 0, então A t AX = 0; (b) Mostre que se A t AX = 0, então AX = 0; (Sugestão: Use o fato de que A t AX = 0 se, e somente se, AX N (A t ).) (c) Mostre que N (A t A) = N (A). (d) Mostre que se A t A é invertível, então as colunas de A são linearmente independentes. Álgebra Linear Matricial 19 de agosto de 2000
5.2 Subespaços Ortogonais 249 (e) Mostre que se A é uma matriz cujas colunas são linearmente independentes, então A t A é uma matriz invertível. Por que neste caso, m n? (f) Mostre que posto(a) = posto(a t A). 5.2.15. Sejam A uma matriz m n com colunas linearmente independentes e B uma matriz m 1. Mostre que neste caso, a matriz A t A é invertível e que vale a seguinte fórmula para a solução do problema de quadrados mínimos, min AX B 2, X = (A t A) 1 A t B. 19 de agosto de 2000 Reginaldo J. Santos
Capítulo 6 Diagonalização 6.1 Diagonalização de Matrizes 6.1.1 Motivação Vamos considerar o problema de encontrar as funções que dão a evolução das populações de duas espécies, S 1 e S 2, convivendo em um mesmo ecossistema no tempo t > 0. Vamos denotar as populações das espécies S 1 e S 2 em um instante t por x 1 (t) e x 2 (t), respectivamente. Inicialmente vamos supor que a taxa de crescimento da população de uma espécie não depende do que ocorre com a outra espécie e que esta taxa é proporcional a sua população existente (ou equivalentemente que a taxa de crescimento relativa é constante). Ou seja, vamos supor que ẋ 1 (t) = dx 1 dt (t) = ax 1(t) 250
6.1 Diagonalização de Matrizes 251 ẋ 2 (t) = dy 1 dt (t) = dx 2(t) em que a, d R. Temos aqui um sistema de equações diferenciais, ou seja, um sistema de equações que envolvem derivadas das funções que são incógnitas. Neste caso as duas equações são desacopladas, isto é, podem ser resolvidas independentemente. A solução do sistema é x 1 (t) = x 1 (0)e at e x 2 (t) = x 2 (0)e dt, para t 0. Vamos supor, agora, que as duas populações interagem de forma que a taxa de crescimento da população de uma espécie depende de forma linear não somente da sua população existente, mas também da população existente da outra espécie. Ou seja, vamos supor que ẋ 1 (t) = ax 1 (t) + bx 2 (t) ẋ 2 (t) = cx 1 (t) + dx 2 (t) Por exemplo, se os indivíduos de uma espécie competem com os da outra por alimento (a, d > 0 e b, c < 0), ou os indivíduos da espécie S 1 são predadores dos da outra (a, b, d > 0 e c < 0). Neste caso a solução de uma equação depende da outra. Podemos escrever este sistema na forma de uma equação diferencial matricial Ẋ(t) = AX(t), (6.1) [ ] [ ] [ ] em que Ẋ(t) = ẋ1 (t) a b x1 (t), A = e X(t) =. Vamos supor que existam matrizes ẋ 2 (t) c d x 2 (t) P e D tais que A = P DP 1, (6.2) [ ] λ1 0 em que D =. Substituindo-se (6.2) em (6.1) obtemos 0 λ 2 Ẋ(t) = P DP 1 X(t). 19 de agosto de 2000 Reginaldo J. Santos
252 Diagonalização Multiplicando-se à esquerda por P 1, obtemos P 1 Ẋ(t) = DP 1 X(t). Fazendo a mudança de variável Y (t) = P 1 X(t), obtemos que pode ser escrito na forma Ẏ (t) = DY (t), ẏ 1 (t) = λ 1 y 1 (t) ẏ 2 (t) = λ 2 y 2 (t) Estas equações estão desacopladas e têm soluções dadas por y 1 (t) = y 1 (0)e λ1t e y 2 (t) = y 2 (0)e λ2t. Assim a solução da equação (6.1) é [ ] [ ] [ ] y1 (0)e X(t) = P Y (t) = P λ 1t e λ 1 t 0 e λ 1 t 0 y 2 (0)e λ 2t = P 0 e λ 2t Y (0) = P 0 e λ 2t P 1 X(0). Observe que o que possibilitou a resolução do sistema de equações foi a hipótese feita de que a matriz A pode ser escrita como A = P DP 1, em que D é uma matriz diagonal. Vamos descobrir como podemos determinar matrizes P e D, quando elas existem, tais que A = P DP 1, ou equivalentemente, D = P 1 AP, com D sendo uma matriz diagonal. Chamamos diagonalização ao processo de encontrar as matrizes P e D. 6.1.2 Matrizes Semelhantes Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 253 Definição 6.1. Dizemos que uma matriz B, n n, é semelhante a uma matriz A, n n, se existir uma matriz P não singular tal que B = P 1 AP A relação de semelhança satisfaz as seguintes propriedades: toda matriz quadrada é semelhante a si mesma; se uma matriz A é semelhante a B, então B é semelhante a A e se A é semelhante a B e B é semelhante a C, então A é semelhante a C. Deixamos como exercício a verificação destas propriedades. Definição 6.2. Dizemos que uma matriz A, n n, é diagonalizável, se ela é semelhante a uma matriz diagonal. Ou seja, se existem matrizes Q e D tais que A = Q 1 DQ, em que D é uma matriz diagonal. Exemplo 6.1. Toda matriz diagonal λ 1 0... 0 0 λ 2... 0 A =..... 0... 0 λ n é diagonalizável, pois A = (I n ) 1 AI n. 19 de agosto de 2000 Reginaldo J. Santos
254 Diagonalização 6.1.3 Autovalores e Autovetores Se uma matriz A é diagonalizável, então existe uma matriz P tal que P 1 AP = D, (6.3) em que D é uma matriz diagonal. Multiplicando à esquerda por P ambos os membros da equação anterior, obtemos AP = P D. (6.4) Sejam λ 1 0... 0 0 λ 2... 0 D =..... e P = [ ] X 1 X 2... X n, 0... 0 λ n em que X j é a coluna j de P. Observe que a j-ésima coluna de AP é AX j e que a j-ésima coluna de P D é λ j X j (Exercícios 1.1.14 e 1.1.13 na página 18). Assim, (6.4) pode ser reescrita como, [ AX1 AX 2... AX n ] = [ λ1 X 1 λ 2 X 2... λ n X n ]. Logo, AX j = λ j X j, para j = 1,... n. Ou seja, as colunas de P, X j, e os elementos da diagonal de D, λ j, satisfazem a equação AX = λx. Isto motiva a seguinte definição. Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 255 Definição 6.3. Seja A uma matriz n n. Um número real λ é chamado autovalor (real) de A, se existe um vetor não nulo V = v 1. v n de R n, tal que AV = λv. (6.5) Um vetor não nulo que satisfaça (6.5), é chamado de autovetor de A. AX = λx X O X AX = λx O X AX = λx O ou λ > 1 0 < λ < 1 Observe que a equação (6.5) pode ser escrita como AV = λi n V λ < 0 (A λi n )V = 0. (6.6) Como os autovetores são vetores não nulos, os autovalores são os valores de λ, para os quais o sistema (A λi n )X = 0 tem solução não trivial. Mas, este sistema homogêneo tem solução não trivial se, e somente se, det(a λi n ) = 0 (Teorema 2.15 na página 88). Assim temos um método para encontrar os autovalores e os autovetores de uma matriz A. 19 de agosto de 2000 Reginaldo J. Santos
256 Diagonalização Proposição 6.1. Seja A uma matriz n n. (a) Os autovalores de A são as raízes reais do polinômio p(λ) = det(a λi n ) (6.7) (b) Para cada autovalor λ, os autovetores associados a λ são os vetores não nulos da solução do sistema (A λi n )X = 0. (6.8) Definição 6.4. Seja A uma matriz n n. O polinômio é chamado polinômio característico de A. p(λ) = det(a λi n ) (6.9) Assim, para determinarmos os autovalores de uma matriz A precisamos determinar as raízes reais do seu polinômio característico, que tem a forma p(λ) = ( 1) n λ n +a n 1 λ n 1 +...+a 1 λ+a 0. Um resultado sobre polinômios que muitas vezes é útil, é o que diz que se a 0, a 1,..., a n 1 são inteiros, então as suas raízes racionais (se existirem) são números inteiros e divisores do coeficiente do termo de grau zero a 0. Por exemplo, se p(λ) = λ 3 + 6λ 2 11λ + 6, então as possíveis raízes racionais são ±1, ±2, ±3 e ±6. Substituindo estes valores em p(λ), vemos que p(1) = 0, ou seja, 1 é uma raíz de p(λ). Finalmente, dividindo p(λ) por λ 1, obtemos que p(λ) = (λ 1)( λ 2 +5λ 6). Como as raízes de λ 2 + 5λ 6 são 2 e 3, então as raízes de p(λ), são 1, 2 e 3. Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 257 Exemplo 6.2. Vamos determinar os autovalores e autovetores da matriz [ ] 3 1 A = 2 2 Para esta matriz o polinômio característico é [ 3 λ 1 p(λ) = det(a λi 2 ) = det 2 2 λ ] = (3 λ)(2 λ) 2 = λ 2 5λ + 4. Como os autovalores de A são as raízes reais de p(λ), temos que os autovalores de A são λ 1 = 1 e λ 2 = 4. Agora, vamos determinar os autovetores associados aos autovalores λ 1 = 1 e λ 2 = 4. Para isto vamos resolver os sistemas (A λ 1 I 2 )X = 0 e (A λ 2 I 2 )X = 0. Como [ A λ 1 I 2 = 2 1 2 1 ], então (A λ 1 I 2 )X = 0 é [ 2 1 2 1 ] [ x y ] = ou { 2x y = 0 2x + y = 0 cuja solução geral é [ 0 0 V 1 = {(α, 2α) α R}. 19 de agosto de 2000 Reginaldo J. Santos ]
258 Diagonalização que é o conjunto de todos os autovetores associados a λ 1 = 1 acrescentado o vetor nulo. Agora, é [ 1 1 2 2 cuja solução geral é (A λ 2 I 2 )X = 0 ] [ x y ] = [ 0 0 V 2 = {( α, α) α R}, que é o conjunto de todos os autovetores associados a λ 2 = 4 acrescentado o vetor nulo. Exemplo 6.3. Vamos determinar os autovalores e autovetores da matriz 2 2 0 0 A = 2 2 0 0 0 0 2 2 0 0 2 2 Para esta matriz o polinômio característico é 2 λ 2 0 0 p(λ) = det(a λi 4 ) = det 2 2 λ 0 0 0 0 2 λ 2 0 0 2 2 λ 2 λ 0 0 2 0 0 = (2 λ) det 0 2 λ 2 2 det 0 2 λ 2 0 2 2 λ 0 2 2 λ = (2 λ)[(2 λ) 3 4(2 λ)] 2[2(2 λ) 2 8] = (2 λ) 2 [(2 λ) 2 4] 4[(2 λ) 2 4] = [(2 λ) 2 4] 2 Álgebra Linear Matricial 19 de agosto de 2000 ]
6.1 Diagonalização de Matrizes 259 Portanto os autovalores de A são λ 1 = 0 e λ 2 = 4. Agora, vamos determinar os autovetores associados aos autovalores λ 1 e λ 2. Para isto vamos resolver os sistemas (A λ 1 I 4 )X = 0 e (A λ 2 I 4 )X = 0. Como é (A λ 1 I 4 )X = AX = 0 2 2 0 0 2 2 0 0 0 0 2 2 0 0 2 2 x y z w = A forma escalonada reduzida da matriz aumentada do sistema é 1 1 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 Assim, a solução geral do sistema AX = 0 é 0 0 0 0 V 1 = {( β, β, α, α) α, β R}, que é o conjunto de todos os autovetores associados a λ 1 = 0 acrescentado o vetor nulo. E (A λ 2 I 4 )X = 0 é 2 2 0 0 2 2 0 0 0 0 2 2 0 0 2 2 x y z w = 0 0 0 0 19 de agosto de 2000 Reginaldo J. Santos
260 Diagonalização A forma escalonada reduzida da matriz aumentada do sistema é 1 1 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 Assim a solução geral do sistema é V 2 = {(α, α, β, β) α, β R}, que é o conjunto de todos os autovetores associados a λ 2 = 4 acrescentado o vetor nulo. Nos exemplos anteriores, para cada autovalor encontramos todos os autovetores associados a ele. Podemos observar que para cada autovalor λ, o conjunto dos autovalores associados a ele acrescentado o vetor nulo é um subespaço, já que é o conjunto solução de um sistema linear homogêneo (A λi n )X = 0. Este subespaço recebe o nome de autoespaço associado ao autovalor λ. Vamos enunciar e demonstrar o resultado principal deste capítulo. Já vimos que se uma matriz A é diagonalizável, então as colunas da matriz P, que faz a diagonalização, são autovetores associados a autovalores, que por sua vez são elementos da matriz diagonal D. Como a matriz P é invertível, estes autovetores são L.I. Vamos mostrar, a seguir, que esta é uma condição necessária e suficiente para que uma matriz seja diagonalizável. Teorema 6.2. Uma matriz A, n n, é diagonalizável se, e somente se, ela possui n autovetores linearmente independentes. Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 261 Demonstração. Vamos primeiro provar que se A é diagonalizável, então ela possui n autovetores L.I. Se a matriz A é diagonalizável, então existe uma matriz P tal que P 1 AP = D, (6.10) em que D é uma matriz diagonal. Multiplicando por P ambos os membros de (6.10), obtemos Sejam AP = P D. (6.11) λ 1 0... 0 0 λ 2... 0 D =..... e P = [ ] X 1 X 2... X n, 0... 0 λ n em que X j é a coluna j de P. Assim, a j-ésima coluna de AP é AX j e que a j-ésima coluna de P D é λ j X j (Exercícios 1.1.14 e 1.1.13 na página 18). Portanto, de (6.11), temos que AX j = λ j X j. Como a matriz P é invertível, pela Proposição 3.9 na página 173, os autovetores X 1,..., X n são L.I. Suponha, agora, que X 1,..., X n são n autovetores linearmente independentes associados a λ 1,..., λ n respectivamente. Vamos definir as matrizes λ 1 0... 0 0 λ 2... 0 P = [X 1 X 2..., X n ] e D =...... 0... 0 λ n 19 de agosto de 2000 Reginaldo J. Santos
262 Diagonalização Como AX j = λ j X j, para j = 1,..., n, então AP = P D. (6.12) Como X 1,..., X n são L.I., a matriz P é invertível. Assim, multiplicando por P 1 à esquerda em (6.12) obtemos D = P 1 AP. Ou seja, A é semelhante a uma matriz diagonal e portanto é diagonalizável. Assim, se uma matriz A é diagonalizável e D = P 1 AP, então os autovalores de A formam a diagonal de D e n autovetores linearmente independentes associados aos autovalores formam as colunas de P. O resultado que vem a seguir, garante que se conseguirmos para cada autovalor, autovetores L.I., então ao juntarmos todos os autovetores obtidos, eles continuarão sendo L.I. Proposição 6.3. Seja A uma matriz n n. Se V (1) 1,..., V n (1) 1 são autovetores L.I. associados a λ 1, V (2) 1,..., V n (2) 2 são autovetores L.I. associados a λ 2,..., V (k) 1,..., V n (k) k são autovetores L.I. associados a λ k, com λ 1... λ k distintos, então {V (1) 1,..., V n (1) 1,..., V (k) 1,..., V n (k) k } é um conjunto L.I. Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 263 Demonstração. Vamos demonstrar apenas para o caso em que temos dois autovalores diferentes. O caso geral é inteiramente análogo. Sejam V (1) 1,..., V n (1) 1 autovetores L.I. associados a λ 1 e V (2) 1,..., V n (2) 2 autovetores L.I. associados a λ 2. Precisamos mostrar que a única solução da equação x (1) 1 V (1) 1 +... + x (1) k 1 V (1) n 1 + x (2) 1 V (2) 1 +... + x (2) k 2 V (2) n 2 = 0 (6.13) é a solução trivial. Multiplicando a equação (6.13) por A e usando o fato de que os V (j) i autovetores, obtemos são x (1) 1 λ 1 V (1) 1 +... + x (1) n 1 λ 1 V (1) n 1 + x (2) 1 λ 2 V (2) 1 +... + x (2) n 2 λ 2 V (2) n 2 = 0 (6.14) Multiplicando a equação (6.13) por λ 1, obtemos x (1) 1 λ 1 V (1) 1 +... + x (1) n 1 λ 1 V (1) n 1 + x (2) 1 λ 1 V (2) 1 +... + x (2) n 2 λ 1 V (2) n 2 = 0. (6.15) Subtraindo a equação (6.14) da equação (6.15), obtemos x (2) 1 (λ 2 λ 1 )V (2) 1 +... + x (2) n 2 (λ 2 λ 1 )V (2) n 2 = 0. Como V (2) 1,..., V n (2) 2 são L.I., temos que x (2) 1 =... = x (2) n 2 (6.13) por λ 2 e subtraindo da equação (6.15) obtemos x (1) 1 (λ 2 λ 1 )V (1) 1 +... + x (1) n 1 (λ 2 λ 1 )V (1) n 1 = 0. = 0. Agora, multiplicando a equação Como V (1) 1,..., V (1) n 1 são L.I., temos que x (1) 1 =... = x (1) n 1 = 0. O que prova que todos os autovetores juntos são L.I. 19 de agosto de 2000 Reginaldo J. Santos
264 Diagonalização Exemplo 6.4. Considere a matriz A = 2 2 0 0 2 2 0 0 0 0 2 2 0 0 2 2 já vimos no Exemplo 6.3 na página 258 que seu polinômio característico é p(λ) = [(2 λ) 2 4] 2, os seus autovalores são λ 1 = 0 e λ 2 = 4 e os autoespaços correspondentes são V 1 = {( β, β, α, α) α, β R} e V 2 = {(α, α, β, β) α, β R}, respectivamente. Vamos encontrar, para cada autoespaço, o maior número possível de autovetores L.I., ou seja, vamos encontrar uma base para cada autoespaço. E o teorema anterior garante que se juntarmos todos estes autovetores eles vão continuar sendo L.I. Para V 1, temos que ( β, β, α, α) = ( β, β, 0, 0) + (0, 0, α, α) = β( 1, 1, 0, 0) + α(0, 0, 1, 1). Assim, V 1 = ( 1, 1, 0, 0) e V 2 = (0, 0, 1, 1) geram V 1 e como um não é múltiplo escalar do outro, eles são L.I. Portanto, formam uma base para V 1. Assim, não podemos ter um número maior de autovetores L.I. associados a λ 1 = 0 (Teorema 4.3 na página 199). Para V 2, temos que (α, α, β, β) = α(1, 1, 0, 0) + β(0, 0, 1, 1). Assim, V 3 = (1, 1, 0, 0) e V 4 = (0, 0, 1, 1) geram V 2 e como um não é múltiplo escalar do outro, eles são L.I. Portanto, formam uma base para V 2. Assim, não podemos ter um número maior de autovetores L.I. associados a λ 2 = 4 (Teorema 4.3 na página 199). Como V 1 e V 2 são autovetores L.I. associados a λ 1 e V 3 e V 4 são autovetores L.I. associados a λ 2, então pela Proposição 6.3 na página 262 os autovetores juntos V 1, V 2, V 3 e V 4 são L.I. Assim, a Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 265 matriz A é diagonalizável e as matrizes λ 1 0 0 0 D = 0 λ 1 0 0 0 0 λ 2 0 = 0 0 0 λ 2 0 0 0 0 0 0 0 0 0 0 4 0 0 0 0 4 e P = [ V 1 V 2 V 3 V 4 ] = 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 1 são tais que D = P 1 AP. Exemplo 6.5. Considere a matriz [ A = 3 1 2 2 Já vimos no Exemplo 6.2 na página 257 que o seu polinômio característico é p(λ) = det(a λi 2 ) = λ 2 5λ + 4, que os seus autovalores são λ 1 = 1 e λ 2 = 4 e que os autoespaços correspondentes são V 1 = {(α, 2α) α R} e V 2 = {( α, α) α R}, respectivamante. Para λ 1 = 1, temos que {V 1 = (1, 2)} é uma base de V 1. Assim, não podemos ter mais autovetores L.I. associados a λ 1. De forma análoga para λ 2 = 4, {V 2 = ( 1, 1)} é um conjunto com o maior número possível de autovetores L.I. associados a λ 2. Assim, a matriz A é diagonalizável e as matrizes são tais que P = [ V 1 V 2 ] = [ 1 1 2 1 ] ] [ ] λ1 0 e D = = 0 λ 2 D = P 1 AP. [ 1 0 0 4 ] Exemplo 6.6. Considere a matriz A = [ 0 1 0 0 ] 19 de agosto de 2000 Reginaldo J. Santos
266 Diagonalização O seu polinômio característico é p(λ) = det(a λi 2 ) = λ 2, assim A possui um único autovalor: λ 1 = 0. O autoespaço correspondente a λ 1 = 0 é V 1 = {(α, 0) α R}. Assim, para λ 1 = 0, temos que {V 1 = (1, 0)} é uma base de V 1. Portanto, não podemos ter mais autovetores L.I. associados a λ 1 e como só temos um autovalor não podemos ter mais autovetores L.I. Portanto, pelo Teorema 6.2 na página 260, a matriz A não é diagonalizável, ou seja, não existem matrizes P e D tais que D = P 1 AP. Exercícios Numéricos (respostas na página 315) 6.1.1. Ache o polinômio característico, os autovalores e os autovetores de cada matriz: [ ] [ ] 1 1 1 1 (a) (b) 1 1 2 4 0 1 2 1 0 0 (c) 0 0 3 (d) 1 3 0 0 0 0 3 2 2 (e) 2 2 3 0 3 2 0 1 2 6.1.2. Ache bases para os auto-espaços associados a cada autovalor (f) 2 2 3 1 2 1 2 2 1 Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 267 (a) (c) 2 0 0 3 1 0 0 4 3 1 2 3 4 0 1 3 2 0 0 3 3 0 0 0 2 6.1.3. Verifique [ quais ] das matrizes são diagonalizáveis: 1 4 (a) 1 2 1 1 2 (c) 4 0 4 1 1 4 (b) (d) 2 3 0 0 1 0 0 0 2 2 2 3 4 0 2 3 2 0 0 1 1 0 0 0 1 [ ] 1 0 (b) 2 1 1 2 3 (d) 0 1 2 0 0 2 6.1.4. Ache para cada matriz A, se possível, uma matriz não-singular P tal que P 1 AP seja diagonal: 1 1 2 4 2 3 (a) 0 1 0 (b) 2 1 2 0 1 3 1 2 0 (c) 1 2 3 0 1 0 2 1 2 Exercícios usando o MATLAB (d) 3 2 1 0 2 0 0 0 0 >> syms x y z diz ao MATLAB que as variáveis x, y e z são simbólicas; >> A=[a11,a12,...,a1n;a21,a22,...;...,amn] cria uma matriz, m por n, usando os elementos a11, a12,..., amn e a armazena numa variável A; 19 de agosto de 2000 Reginaldo J. Santos
268 Diagonalização >> A=[A1,...,An] cria uma matriz A formada pelas matrizes, definidas anteriormente, A1,..., An colocadas uma ao lado da outra; >> solve(expr) determina a solução da equação expr=0. Por exemplo, >> solve(x^2-4) determina as soluções da equação x 2 4 = 0; >> subs(expr,x,num) substitui na expressão expr a variável x por num. >> [P,D]=eig(A) determina matrizes P e D (diagonal) tais que AP=PD. inv(a) calcula a inversa da matriz A. A=sym(A) converte a matriz A numa matriz em que os elementos são armazenados no formato simbólico. A função numeric faz o processo inverso. Comandos do pacote GAAL: >> A=randi(n) ou >> A=randi(m,n) cria uma matriz n por n ou m por n, respectivamente, com elementos inteiros aleatórios. >> escalona(a) calcula passo a passo a forma reduzida escalonada da matriz A. 6.1.5. Defina as matrizes B=sym(randi(2)) e A=[B-B,zeros(2,1);zeros(1,2),randi]. A matriz A é diagonalizável? Por que? 6.1.6. Defina as matrizes L=[eye(2),zeros(2,1);randi(1,2),0] e A=sym(L*L ). Determine o polinômio característico de A, os autovalores e um conjunto de autovetores linearmente independentes com o maior número possível de vetores. Encontre matrizes P e D (diagonal) tais que inv(p)*a*p=d, se possível. Verifique o resultado. Use o comando [P,D]=eig(A) e compare com as matrizes que você encontrou. 6.1.7. Defina a=randi,b=randi e A=sym([2*a,a-b,a-b;0,a+b,b-a;0,b-a,a+b]). Determine o polinômio característico de A, os autovalores e um conjunto de autovetores linearmente Álgebra Linear Matricial 19 de agosto de 2000
6.1 Diagonalização de Matrizes 269 independentes com o maior número possível de vetores. Encontre matrizes P e D (diagonal) tais que inv(p)*a*p=d, se possível. Verifique o resultado. Use o comando [P,D]=eig(A) e compare com as matrizes que você encontrou. 6.1.8. Defina a=randi,b=randi e A=sym([a,0,b;2*b,a-b,2*b;b,0,a]). Determine o polinômio característico de A, os autovalores e um conjunto de autovetores linearmente independentes com o maior número possível de vetores. Encontre matrizes P e D (diagonal) tais que inv(p)*a*p=d, se possível. Verifique o resultado. Use o comando [P,D]=eig(A) e compare com as matrizes que você encontrou. 6.1.9. Use o MATLAB para resolver os Exercícios Numéricos Exercícios Teóricos 6.1.10. Demonstre: (a) A é semelhante a A; (b) Se A é semelhante a B, então B é semelhante a A; (c) Se A é semelhante a B e B é semelhante a C, então A é semelhante a C. 6.1.11. Seja λ um autovalor (fixo) de A. Demonstre que o conjunto formado por todos os autovetores de A associados a λ, juntamente com o vetor nulo, é um subespaço de R n. Este subespaço é chamado de autoespaço associado a λ. 6.1.12. Demonstre que se A e B são semelhantes, então possuem os mesmos polinômios característicos e portanto os mesmos autovalores. 6.1.13. Demonstre que se A é uma matriz triangular superior, então os autovalores de A são os elementos da diagonal principal de A. 19 de agosto de 2000 Reginaldo J. Santos
270 Diagonalização 6.1.14. Demonstre que A e A t possuem os mesmos autovalores. O que podemos dizer sobre os autovetores de A e A t? 6.1.15. Seja λ um autovalor de A com autovetor associado X. Demonstre que λ k é um autovalor de A k = A... A associado a X, em que k é um inteiro positivo. 6.1.16. Uma matriz A é chamada nilpotente se A k = 0, para algum inteiro positivo k. Demonstre que se A é nilpotente, então o único autovalor de A é 0. (Sugestão: use o exercício anterior) 6.1.17. Seja A uma matriz n n. (a) Mostre que o determinante de A é o produto de todas as raízes do polinômio característico de A; (Sugestão: p(λ) = det(a λi n ) = ( 1) n (λ λ 1 )... (λ λ n ).) (b) Mostre que A é singular se, e somente se, 0 for um autovalor de A. 6.1.18. Seja λ um autovalor da matriz não-singular A com autovetor associado X. Mostre que 1/λ é um autovalor de A 1 com autovetor associado X. [ ] a b 6.1.19. Seja A =. Ache as condições necessárias e suficientes para que A seja diagonalizável. c d 6.1.20. Se V e W são autovetores associados a um autovalor λ, então W proj V W é também um autovetor associado a λ? E se V e W forem autovetores associados a autovalores diferentes? Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 271 6.2 Diagonalização de Matrizes Simétricas 6.2.1 Motivação O problema da identificação de uma cônica (curva no plano descrita por uma equação de 2 ọ grau em x e y) através da sua equação é facilmente resolvido se a equação não possui um termo em que aparece o produto das duas variáveis. Mas, ao contrário, se aparece este termo misto, temos que fazer uma mudança de sistema de coordenadas de forma que no novo sistema ele não apareça. Vejamos o exemplo seguinte. Exemplo 6.7. Considere o problema de identificar uma cônica representada pela equação Usando matrizes, esta equação pode ser escrita como [ ] x [3x + y x + 3y] = 4 y ou ou ainda, em que A = Como veremos adiante, podemos escrever 3x 2 + 2xy + 3y 2 = 4. (6.16) [ 3 1 [x y] 1 3 [ 3 1 1 3 ] [ x y ] = 4 X t AX = 4, (6.17) ] e X = A = P DP t 19 de agosto de 2000 Reginaldo J. Santos [ x y ].
272 Diagonalização em que P = [ 1 2 1 2 1 2 1 2 ] e D = [ 2 0 0 4 ]. Assim, a equação (6.17) pode ser escrita como (X t P )D(P t X) = (P t X) t D(P t X) = 4. Se fazemos a mudança de variáveis (ou de coordenadas) X = P X, então como P t P = I 2, a equação (6.17) se transforma em X t DX = 4 ou que pode ser reescrita como, ou dividindo por 4, como [ 2 0 [x y ] 0 4 ] [ x y 2x 2 + 4y 2 = 4, x 2 ] = 4 2 + y 2 1 = 1 que é a equação da elipse mostrada na Figura 6.1. Veremos na próxima seção como traçar esta elipse. A matriz P, tem a propriedade de que a sua inversa é simplesmente a sua transposta, P 1 = P t. Uma matriz que satisfaz esta propriedade é chamada de matriz ortogonal. O que possibilitou a identificação da cônica, no exemplo anterior, foi o fato de que a matriz A é diagonalizável através de uma matriz ortogonal P. Ou seja, existe uma matriz P tal que A = P DP 1 e P 1 = P t. Já vimos que nem toda matriz é diagonalizável (Exemplo 6.6 na página 265). Vamos ver que se uma matriz A é simétrica, então ela é diagonalizável, isto é, existe uma matriz diagonal D e uma Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 273 y y E 2 W 2 E 1 W 1 x x Figura 6.1: Elipse do Exemplo 6.7 matriz invertível P tal que D = P 1 AP. Além disso, para matrizes simétricas, existe uma matriz P tal que D = P t AP. Isto porque existe uma matriz ortogonal P que faz a diagonalização, ou seja, que tem a propriedade P 1 = P t. Em algumas aplicações a diagonalização com uma tal matriz é necessária, como por exemplo na identificação de cônicas. Vamos em primeiro lugar, caracterizar as matrizes ortogonais. 6.2.2 Matrizes Ortogonais 19 de agosto de 2000 Reginaldo J. Santos
274 Diagonalização Definição 6.5. Uma matriz P tal que P 1 = P t é chamada de matriz ortogonal. Proposição 6.4. Uma matriz P é ortogonal se, e somente se, as suas colunas formam um conjunto ortonormal de vetores. Demonstração. Vamos escrever P = [U 1... U n ]. Ou seja, U 1,..., U n são as colunas de P. A inversa de P é P t se, e somente se, P t P = I n. Mas, U t U1U t 1 U1U t 2... U1U t n 1 P t U2U t 1 U2U t 2... U2U t n P =. [U 1... U n ] = Un t..... UnU t 1 UnU t 2... UnU t n Logo, P t P = I n se, e somente se, U t i U j = U i U j = 0 para i j e U t i U i = U i U i = 1 para i = 1,... n. Ou seja, P t P = I n se, e somente se, U 1,..., U n são ortonormais. Vamos supor que uma matriz A é diagonalizável através de uma matriz ortogonal, ou seja, que existe uma matriz P tal que D = P t AP é uma matriz diagonal. Como a matriz P é uma matriz cujas colunas são autovetores de A, deduzimos da proposição anterior que uma matriz A é diagonalizável através de uma matriz ortogonal se, e somente se, ela possui um conjunto ortonormal de autovetores. Como veremos, as matrizes simétricas possuem esta característica. Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 275 Proposição 6.5. Para uma matriz A simétrica, os autovetores associados a autovalores diferentes são ortogonais. Demonstração. Sejam V 1 e V 2 autovetores de A associados aos autovalores λ 1 e λ 2, respectivamente, com λ 1 λ 2. Então, AV 1 = λ 1 V 1 e AV 2 = λ 2 V 2. Agora, se escrevemos os vetores como matrizes colunas, o produto escalar é simplesmente o produto matricial da transposta da primeira matriz pela segunda. Assim, AV 1 V 2 = (AV 1 ) t V 2 = V t 1 A t V 2 = V 1 A t V 2. (6.18) Como A é simétrica A t = A e como V 1 e V 2 são autovetores de A, temos de (6.18) que ou λ 1 V 1 V 2 = λ 2 V 1 V 2 (λ 1 λ 2 )V 1 V 2 = 0. Como λ 1 λ 2, concluimos que V 1 V 2 = 0, ou seja, V 1, V 2 são ortogonais. Como autovetores associados a autovalores diferentes já são ortogonais, para diagonalizarmos uma matriz simétrica A através de uma matriz P ortogonal, precisamos encontrar, para cada autovalor, autovetores ortonormais associados a eles. Para isso, podemos aplicar o processo de ortogonalização de Gram-Schmidt a cada conjunto de autovetores L.I. associados a cada um dos autovalores. Exemplo 6.8. Considere a matriz A = 4 2 2 2 4 2 2 2 4 19 de agosto de 2000 Reginaldo J. Santos
276 Diagonalização Para esta matriz o polinômio característico é p(λ) = det(a λi 3 ) = (λ 2) 2 (8 λ) Portanto os autovalores de A (raízes reais do polinômio característico) são λ 1 = 2 e λ 2 = 8. Os autovetores associados aos autovalores λ 1 = 2 e λ 2 = 8 são as soluções de (A λ 1 I 3 )X = 0 e (A λ 2 I 3 )X = 0 respectivamente. A forma escalonada reduzida de A 2I 3 = Portanto o autoespaço associado a λ 1 = 2 é 2 2 2 2 2 2 2 2 2 é 1 1 1 0 0 0 0 0 0 W 1 = {( α β, β, α) α, β R}, Agora, ( α β, β, α) = α( 1, 0, 1) + β( 1, 1, 0). Assim, os vetores V 1 = ( 1, 0, 1) e V 2 = ( 1, 1, 0) geram W 1. Como além disso, eles são L.I. (um não é múltiplo escalar do outro), então eles formam uma base para W 1. Para encontrar dois autovetores ortonormais associados a λ 1 = 2 vamos usar o processo de ortogonalização de Gram-Schmidt aos vetores V 1 e V 2. W 1 = V 1 = ( 1, 0, 1); ( 1 U 1 = W 1 ( 1 W 2 U 2 =. W 2 = V 2 proj W1 V 2 = ( 1/2, 1, 1/2) ) W 1 = ( 1/ 2, 0, 1/ 2) ) W 2 = ( 1/ 6, 2/ 6, 1/ 6) Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 277 Com relação ao autovalor λ 2 = 8, temos que a forma escalonada reduzida da matriz A 8I 3 = Assim, o autoespaço associado a λ 2 = 8 é 4 2 2 2 4 2 2 2 4 é W 2 = {(α, α, α) α R}. 1 0 1 0 1 1 0 0 0 O conjunto {V 3 = (1, 1, 1)} é uma base para W 2, pois como (α, α, α) = α(1, 1, 1), V 3 gera W 2 e um vetor não nulo é L.I. Assim, o vetor ( ) 1 U 3 = V 3 = (1/ 3, 1/ 3, 1/ 3) V 3 forma uma base ortonormal para W 2. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais. Portanto, U 1, U 2 e U 3 são ortonormais e assim a matriz P = [U 1 U 2 U 3 ] = 1/ 2 1/ 6 1/ 3 0 2/ 6 1/ 3 1/ 2 1/ 6 1/ 3. satisfaz D = P t AP, em que D = 2 0 0 0 2 0 0 0 8 19 de agosto de 2000 Reginaldo J. Santos
278 Diagonalização O próximo resultado, que não será demonstrado no momento (Apêndice III na página 280), garante que o procedimento acima sempre funciona, ou seja, que toda matriz simétrica é diagonalizável através de uma matriz ortogonal. Teorema 6.6. Se A é uma matriz simétrica, então existe uma matriz P ortogonal e uma matriz diagonal D tal que D = P t AP. Assim, se A é simétrica, então ela é diagonalizável. Exercícios Numéricos (respostas na página 324) 6.2.1. Diagonalize cada matriz dada A por meio de uma matriz ortogonal, ou seja, ache uma matriz ortogonal [ P tal ] que P t AP seja diagonal: [ ] 2 2 2 1 (a) (b) 2 2 1 2 0 0 1 0 0 0 (c) 0 0 0 (d) 0 2 2 1 0 0 0 2 2 (e) (g) 1 1 0 1 1 0 0 0 1 1 2 0 0 2 1 0 0 0 0 1 2 0 0 2 1 (f) (h) 2 1 1 1 2 1 1 1 2 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 279 Exercícios Teóricos 6.2.2. Mostre que se A é uma matriz ortogonal, então det(a) = ±1. 6.2.3. Mostre que se A e B são matrizes ortogonais, então AB é ortogonal. [ ] cos θ sen θ 6.2.4. (a) Verifique se a matriz é ortogonal; sen θ cos θ (b) Mostre que X = (x, y) é ortogonal a V = (a, b) 0 com X = V se, e somente se, X = ( b, a) ou X = (b, a). (c) Mostre que se A é uma matriz ortogonal 2 2, então existe um número real θ tal que [ ] cos θ sen θ A = sen θ cos θ [ ] cos θ sen θ ou A =. sen θ cos θ A primeira matriz tem determinante igual a 1 e é chamada matriz de rotação. (Sugestão: Comece com uma matriz (a ij ) 2 2 e use o fato de que as colunas são ortonormais. Uma das equações será a 2 11 + a 2 21 = 1. Faça a 11 = cos θ e a 21 = sen θ. Use o item anterior.) 6.2.5. Mostre que se uma matriz A é diagonalizável por uma matriz ortogonal (isto é, existem P e D, com P 1 = P t e D diagonal, tais que D = P t AP ), então A é uma matriz simétrica. 6.2.6. Dizemos que uma matriz simétrica A, n n, é (definida) positiva se X t AX > 0, para todo X R n, X 0, X escrito como matriz coluna. Mostre que são equivalentes as seguintes afirmações: (a) A matriz A é definida positiva. (b) A é simétrica e todos os autovalores de A são positivos. 19 de agosto de 2000 Reginaldo J. Santos
280 Diagonalização (c) Existe uma matriz definida positiva B tal que A = B 2. A matriz B é chamada a raiz quadrada de A. (Sugestão: Mostre que (a) (b) (c) (a). Na parte (b) (c) faça primeiro o caso em que A é uma matriz diagonal) 6.2.7. Seja A uma matriz invertível n n. Mostre que existe uma matriz simétrica definida positiva P e uma matriz ortogonal U, tal que A = P U. Esta decomposição é única chamada de decomposição polar de A. (Sugestão: Sejam P = (AA t ) 1/2 e U = P 1 A. Mostre que UU t = I n.) 6.2.8. Seja A uma matriz n n. Para k = 1,..., n, seja A k a submatriz obtida de A eliminando-se as últimas n k linhas e colunas. A k é chamada submatriz principal de A de ordem k. Mostre que se A é uma matriz simétrica definida positiva n n, então (a) A é não singular; (b) det(a) > 0; (c) as submatrizes principais A 1,..., A n são todas definidas positivas. (Sugestão: considere vetores X k tais que os últimos n k elementos são nulos.) Apêndice III: Demonstração do Teorema 6.6 na página 278 Vamos provar que toda matriz simétrica é diagonalizável através de uma matriz ortogonal. Para isto, precisamos trabalhar com matrizes cujas entradas são números complexos. Vamos chamar o conjunto das matrizes m n cujas entradas são números complexos de M mn (C). Para uma matriz A = (a ij ) M mn (C), definimos o conjugado da matriz A, denotado por A como sendo a matriz B = (b ij ) M mn (C) dada por b ij = ā ij, em que, se a ij = α ij + iβ ij, então ā ij = α ij iβ ij. Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 281 Para as matrizes de M mn (C) além das propriedades que já foram demonstradas no Teorema 1.1 na página 7 são válidas as seguintes propriedades, cuja demonstração deixamos a cargo do leitor: (p) Se A M mp (C) e B M pn (C), então AB = A B. (q) Se A M mn (C) e α C, então αa = ᾱb. Teorema 6.7. Toda matriz simétrica, cujas entradas são números reais, possui autovalor (real). Demonstração. Seja A uma matriz simétrica, cujas entradas são números reais. Vamos mostrar que as raízes do seu polinômio característico são reais. Seja λ uma raiz do polinômio característico de A. Então o sistema linear (A λi n )X = 0 tem solução não trivial X M n1 (C). O que implica que AX = λx. Como A é uma matriz cujas entradas são números reais, temos que AX = A X = (AX) = λx = λ X. Por um lado, n X t AX = X t λx = λx t X = λ x i 2. i=1 19 de agosto de 2000 Reginaldo J. Santos
282 Diagonalização Por outro lado X t AX = X t A t X = (AX) t X = λ X t X = λ Logo, λ = λ, ou seja, que λ é um número real. n x i 2. i=1 Demonstração do Teorema 6.6 na página 278. O resultado é obvio se n = 1. Vamos supor que o resultado seja verdadeiro para matrizes (n 1) (n 1) e vamos provar que ele é verdadeiro para matrizes n n. Pelo Teorema 6.7 a matriz A tem um autovalor λ 1. Isto significa que existe autovetores associados a λ 1. Seja X 1 um autovetor de norma igual a 1 associado a λ 1. Sejam X 2,..., X n vetores tais que {X 1,..., X n } é uma base ortonormal de R n (isto pode ser conseguido aplicando-se o processo de ortogonalização de Gram-Schmidt a uma base de R n que contenha X 1.) Seja P 1 = [ X 1... X n ]. Como AX 1 = λ 1 X 1 e AX 2,..., AX n são combinações lineares de X 1,..., X n, temos que em que M = AP 1 = [ AX 1... AX n ] = [ X 1... X n ]M = P 1 M, (6.19) λ 1... 0. B. Multiplicando-se à esquerda (6.19) por P 1 t obtemos M = 0 P1AP t 1. Mas, M t = (P1AP t 1 ) t = P t A t P 1 = P1AP t 1 = M, ou seja, a matriz M é simétrica. Portanto, λ 1 0... 0 M = 0. B 0 Álgebra Linear Matricial 19 de agosto de 2000
6.2 Diagonalização de Matrizes Simétricas 283 com B uma matriz simétrica (n 1) (n 1). Como estamos supondo o resultado verdadeiro para matrizes (n 1) (n 1), então existe uma matriz ortogonal P2, (n 1) (n 1), tal que D 2 = P t 2B P 2 é diagonal. Seja P 2 = 1 0... 0 0. P2 0. Seja P = P 1P 2. P é ortogonal (verifique!) e pela equação (6.19) AP = (AP 1 )P 2 = P 1 MP 2 = P 1 λ 1 0... 0 0. B P 2 0 Mas, B P 2 = P 2 D 2 e assim, AP = P 1 P 2 λ 1 0... 0 0. D 2 0 = P D, em que D = λ 1 0... 0 0. D 2 0. Multiplicando-se à esquerda por P t obtemos o resultado. 19 de agosto de 2000 Reginaldo J. Santos
Respostas dos Exercícios 1.1. Matrizes (página 13) 1.1.1. >> A=[2,0;6,7]; B=[0,4;2,-8]; C=[-6,9,-7;7,-3,-2]; >> D=[-6,4,0;1,1,4;-6,0,6]; E=[6,9,-9;-1,0,-4;-6,0,-1]; >> A*B-B*A -24-20 58 24 >> 2*C-D??? Erro usando ==> - Dimens~oes das matrizes n~ao s~ao iguais. Usando as propriedades (l) e (n) do Teorema 1.1 na pág. 7: >> 2*D-3*E -30-19 27 5 2 20 6 0 15 Usando a propriedade (i) do Teorema 1.1 na pág. 7: >> D*(D-E) 80 34-22 -10-4 45 72 30-12 1.1.2. >> A=[1,-3,0;0,4,-2]; X=[3;2;5]; >> A*X -3-2 >> 3*A(:,1)+2*A(:,2)+5*A(:,3) -3-2 1.1.3. >> syms x >> A=[x,4,-2]; B=[2,-3,5]; >> solve(a*b. ) 11 1.1.4. >> A(1,:)*B -3 30-25 >> A*B(:,3) -25-69 13 >> (B*A(:,2)). 14-48 -16 >> (B(2,:)*A). 40-48 72 1.1.5. >> syms y >> A=[1,1/y;y,1]; >> A^2-2*A [ 0, 0] 284
Capítulo 1. Matrizes e Sistemas Lineares 285 [ 0, 0] 1.1.6. >> syms x y z w >> X=[x,y;z,w]; M=[0,1;-1,0]; >> X*M-M*X [ -y-z, x-w] [ x-w, z+y] >> syms a b c d >> A=[x,y;-y,x]; B=[a,b;-b,a]; >> A*B-B*A [ 0, 0] [ 0, 0] 1.1.7. (a) >> A=[1,1/2;0,1/3] A = 1.0000 0.5000 0 0.3333 >> A^2,A^3,A^4,A^5 ans = 1.0000 0.6667 0 0.1111 ans = 1.0000 0.7222 0 0.0370 ans = 1.0000 0.7407 0 0.0123 ans = 1.0000 0.7469 0 0.0041 >> A^6,A^7,A^8,A^9 ans = 1.0000 0.7490 0 0.0014 ans = 1.0000 0.7497 0 0.0005 ans = 1.0000 0.7499 0 0.0002 ans = 1.0000 0.7500 0 0.0001 [ A seqüência ] parece estar conergindo para a matriz 1 0.75 0 0. (b) >> A=[1/2,1/3;0,-1/5] A = 0.5000 0.3333 0-0.2000 >> A^2,A^3,A^4,A^5 ans = 0.2500 0.1000 0 0.0400 ans = 0.1250 0.0633 0-0.0080 ans = 0.0625 0.0290 0 0.0016 ans = 0.0312 0.0150 0-0.0003 >> A^6,A^7,A^8,A^9 ans = 0.0156 0.0074 0 0.0001 ans = 0.0078 0.0037 0 0.0000 ans = 0.0039 0.0019 0 0.0000 ans = 0.0020 0.0009 0 0.0000 A seqüência [ parece ] estar conergindo para a matriz 0 0 nula 0 0. 1.1.8. (a) >> format rat >> A=[0,0,1;1,0,0;0,1,0] A = 0 0 1 1 0 0 0 1 0 >> A^2,A^3 ans = 0 1 0 0 0 1 1 0 0 ans = 1 0 0 0 1 0 0 0 1 19 de agosto de 2000 Reginaldo J. Santos
286 Respostas dos Exercícios Para k = 3, A k = I 3. (b) >> A^2,A^3,A^4,A^5 ans = -1 0 0 0 0-1 0 0 0 0 1 0 0 0 0 1 ans = 0-1 0 0 1 0 0 0 0 0 0 1 0 0 1 0 ans = 1 0 0 0 0 1 0 01.2. Sistemas Lineares (página 44) 0 0 1 0 0 0 0 1 1.2.1. As matrizes que estão na forma reduzida escalonada são A ans = e C. 0 1 0 0-1 0 0 0 0 0 0 1 x 8 + 7α 0 0 1 0 y 2 3α 1.2.2. (a) X = z = Para k = 5, A k 5 α, α R. = A. w α (c) >> A=[0,1,0,0;0,0,1,0;0,0,0,1;0,0,0,0] x 1 2 3α + 6β A = x 2 0 1 0 0 (b) X = 0 0 1 0 x 3 x = β 7 4α, α, β R. 4 8 5α 0 0 0 1 x 5 α 0 0 0 0 >> A^2,A^3,A^4 x 6 ans = y 3 0 0 1 0 (c) X = z = 2 α, α R. 0 0 0 1 w α 0 0 0 0 0 0 0 0 x 1 3 + 8α 7β ans = x 2 0 0 0 1 (d) X = x 3 0 0 0 0 x = β 5 6α, α, β R. 4 9 3α 0 0 0 0 x 5 α 0 0 0 0 ans = 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Para k = 4, A k = 0. 1.1.9. Concluimos que é muito raro encontrar matrizes cujo produto comute. 1.1.10. Concluimos que matrizes diagonais em geral comutam. Pode-se mostrar que elas sempre comutam (Exercício 1.25 na página 21). 1.1.11. Se a matriz A for diagonal, então o produto comuta, se os elementos da diagonal de A são iguais. (ver Exercício 1.13 na página 17). A probabilidade de um tal par de matrizes comute é aproximadamente igual a probabilidade de que a primeira matriz tenha os elementos da sua diagonal iguais, ou seja, 11/11 3 = 1/11 2 1%. 1.2.3. (a) >> A=[1,1,2,8;-1,-2,3,1;3,-7,4,10]; >> escalona(a) [ 1, 1, 2, 8] [ -1, -2, 3, 1] [ 3, -7, 4, 10] eliminaç~ao 1: 1*linha 1 + linha 2 ==> linha 2 Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 1. Matrizes e Sistemas Lineares 287-3*linha 1 + linha 3 ==> linha 3 [ 1, 1, 2, 8] [ 0, -1, 5, 9] [ 0, -10, -2, -14] eliminaç~ao 2: -1*linha 2 ==> linha 2 [ 1, 1, 2, 8] [ 0, 1, -5, -9] [ 0, -10, -2, -14] -1*linha 2 + linha 1 ==> linha 1 10*linha 2 + linha 3 ==> linha 3 [ 1, 0, 7, 17] [ 0, 1, -5, -9] [ 0, 0, -52, -104] eliminaç~ao 3: -1/52*linha 3 ==> linha 3 [ 1, 0, 7, 17] [ 0, 1, -5, -9] [ 0, 0, 1, 2] -7*linha 3 + linha 1 ==> linha 1 5*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 3] [ 0, 1, 0, 1] [ 0, 0, 1, 2] [ ] [ ] x1 31 X = x 2 =. x 3 2 (b) >> A=[2,2,2,0;-2,5,2,1;8,1,4,-1]; >> escalona(a) [ 2, 2, 2, 0] [ -2, 5, 2, 1] [ 8, 1, 4, -1] eliminaç~ao 1: 1/2*linha 1 ==> linha 1 [ 1, 1, 1, 0] [ -2, 5, 2, 1] [ 8, 1, 4, -1] 2*linha 1 + linha 2 ==> linha 2-8*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, 0] [ 0, 7, 4, 1] [ 0, -7, -4, -1] eliminaç~ao 2: 1/7*linha 2 ==> linha 2 [ 1, 1, 1, 0] [ 0, 1, 4/7, 1/7] [ 0, -7, -4, -1] -1*linha 2 + linha 1 ==> linha 1 7*linha 2 + linha 3 ==> linha 3 [ 1, 0, 3/7, -1/7] [ 0, 1, 4/7, 1/7] [ 0, 0, 0, 0] X = [ x1 x 2 x 3 ] = 1 7 3 7 α 1 7 4 7 α α, α R. (c) >> A=[0,-2,3,1;3,6,-3,-2;6,6,3,5] >> escalona(a) [ 0, -2, 3, 1] [ 3, 6, -3, -2] [ 6, 6, 3, 5] eliminaç~ao 1: linha 2 <==> linha 1 [ 3, 6, -3, -2] [ 0, -2, 3, 1] [ 6, 6, 3, 5] 1/3*linha 1 ==> linha 1 [ 1, 2, -1, -2/3] [ 0, -2, 3, 1] [ 6, 6, 3, 5] -6*linha 1 + linha 3 ==> linha 3 [ 1, 2, -1, -2/3] [ 0, -2, 3, 1] [ 0, -6, 9, 9] eliminaç~ao 2: -1/2*linha 2 ==> linha 2 [ 1, 2, -1, -2/3] [ 0, 1, -3/2, -1/2] [ 0, -6, 9, 9] -2*linha 2 + linha 1 ==> linha 1 6*linha 2 + linha 3 ==> linha 3 [ 1, 0, 2, 1/3] [ 0, 1, -3/2, -1/2] [ 0, 0, 0, 6] O sistema não tem solução! 1.2.4. >> A=[1,-2,1;2,-5,1;3,-7,2]; >> B1=[1;-2;-1];B2=[2;-1;2]; >> escalona([a,b1,b2]) [ 1, -2, 1, 1, 2] [ 2, -5, 1, -2, -1] [ 3, -7, 2, -1, 2] eliminaç~ao 1: -2*linha 1 + linha 2 ==> linha 2-3*linha 1 + linha 3 ==> linha 3 [ 1, -2, 1, 1, 2] 19 de agosto de 2000 Reginaldo J. Santos
288 Respostas dos Exercícios [ 0, -1, -1, -4, -5] [ 0, -1, -1, -4, -4] eliminaç~ao 2: -1*linha 2 ==> linha 2 [ 1, -2, 1, 1, 2] [ 0, 1, 1, 4, 5] [ 0, -1, -1, -4, -4] 2*linha 2 + linha 1 ==> linha 1 1*linha 2 + linha 3 ==> linha 3 [ 1, 0, 3, 9, 12] [ 0, 1, 1, 4, 5] [ 0, 0, 0, 0, 1] (a) X = [ x1 x 2 x 3 ] = [ 9 3α 4 α α (b) O sistema não tem solução! ], α R. 1.2.5. (a) >> A=[1,0,5;1,1,1;0,1,-4]; >> B=-4*eye(3)-A; >> escalona([b,zeros(3,1)]) [ -5, 0, -5, 0] [ -1, -5, -1, 0] [ 0, -1, 0, 0] eliminaç~ao 1: linha 2 <==> linha 1 [ -1, -5, -1, 0] [ -5, 0, -5, 0] [ 0, -1, 0, 0] -1*linha 1 ==> linha 1 [ 1, 5, 1, 0] [ -5, 0, -5, 0] [ 0, -1, 0, 0] 5*linha 1 + linha 2 ==> linha 2 [ 1, 5, 1, 0] [ 0, 25, 0, 0] [ 0, -1, 0, 0] eliminaç~ao 2: linha 3 <==> linha 2 [ 1, 5, 1, 0] [ 0, -1, 0, 0] [ 0, 25, 0, 0] -1*linha 2 ==> linha 2 [ 1, 5, 1, 0] [ 0, 1, 0, 0] [ 0, 25, 0, 0] -5*linha 2 + linha 1 ==> linha 1-25*linha 2 + linha 3 ==> linha 3 [ 1, 0, 1, 0] [ 0, 1, 0, 0] [ 0, 0, 0, 0] ] ] X = [ x y z = [ α 0 α, α R. (b) >> B=2*eye(3)-A; >> escalona([b,zeros(3,1)]) [ 1, 0, -5, 0] [ -1, 1, -1, 0] [ 0, -1, 6, 0] eliminaç~ao 1: 1*linha 1 + linha 2 ==> linha 2 [ 1, 0, -5, 0] [ 0, 1, -6, 0] [ 0, -1, 6, 0] eliminaç~ao 2: 1*linha 2 + linha 3 ==> linha 3 [ 1, 0, -5, 0] [ 0, 1, -6, 0] [ 0, 0, 0, 0] X = [ x y z ] = [ 5α 6α α ], α R. 1.2.6. (a) >> syms a >> A=[1,2,-3,4;3,-1,5,2;4,1,a^2-14,a+2]; >> escalona(a) [ 1, 2, -3, 4] [ 3, -1, 5, 2] [ 4, 1, a^2-14, a+2] eliminaç~ao 1: -3*linha 1 + linha 2 ==> linha 2-4*linha 1 + linha 3 ==> linha 3 [ 1, 2, -3, 4] [ 0, -7, 14, -10] [ 0, -7, a^2-2, a-14] eliminaç~ao 2: -1/7*linha 2 ==> linha 2 [ 1, 2, -3, 4] [ 0, 1, -2, 10/7] [ 0, -7, a^2-2, a-14] -2*linha 2 + linha 1 ==> linha 1 Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 1. Matrizes e Sistemas Lineares 289 7*linha 2 + linha 3 ==> linha 3 [ 1 0 1 8/7 0 1 2 10/7 0 0 a 2 16 a 4 i. Se a 2 16 = 0 e a 4 = 0, então o sistema tem infinitas soluções. Neste caso, a = 4; ii. Se a 2 16 = 0 e a 4 0, então o sistema não tem solução. Neste caso, a = 4; iii. Se a 2 16 0, então o sistema tem solução única. Neste caso, a ±4; (b) >> A=[1,1,1,2;2,3,2,5;2,3,a^2-1,a+1]; >> escalona(a) [ 1, 1, 1, 2] [ 2, 3, 2, 5] [ 2, 3, a^2-1, a+1] eliminaç~ao 1: -2*linha 1 + linha 2 ==> linha 2-2*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, 2] [ 0, 1, 0, 1] [ 0, 1, a^2-3, a-3] eliminaç~ao 2: -1*linha 2 + linha 1 ==> linha 1-1*linha 2 + linha 3 ==> linha 3 [ 1 0 1 1 0 1 0 1 0 0 a 2 3 a 4 i. Se a 2 3 = 0 e a 4 = 0, então o sistema tem infinitas soluções. Este caso não pode ocorrer; ii. Se a 2 3 = 0 e a 4 0, então o sistema não tem solução. Neste caso, a = ± 3; iii. Se a 2 3 0, então o sistema tem solução única. Neste caso, a ± 3; 1.2.7. >> A=[2,3,5,2500;1,1,1,1000;2,1,4,2000]; >> escalona(a) [ 2, 3, 5, 2500] [ 1, 1, 1, 1000] [ 2, 1, 4, 2000] eliminaç~ao 1: ] ] linha 2 <==> linha 1 [ 1, 1, 1, 1000] [ 2, 3, 5, 2500] [ 2, 1, 4, 2000] -2*linha 1 + linha 2 ==> linha 2-2*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, 1000] [ 0, 1, 3, 500] [ 0, -1, 2, 0] eliminaç~ao 2: -1*linha 2 + linha 1 ==> linha 1 1*linha 2 + linha 3 ==> linha 3 [ 1, 0, -2, 500] [ 0, 1, 3, 500] [ 0, 0, 5, 500] eliminaç~ao 3: 1/5*linha 3 ==> linha 3 [ 1, 0, -2, 500] [ 0, 1, 3, 500] [ 0, 0, 1, 100] 2*linha 3 + linha 1 ==> linha 1-3*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 700] [ 0, 1, 0, 200] [ 0, 0, 1, 100] Foram vendidos 700 kg do produto A, 200 kg do produto B e 100 kg do produto C. 1.2.8. Substituindo os pontos na função obtemos: d = 10 a + b + c + d = 7 27a + 9b + 3c + d = 11. 64a + 16b + 4c + d = 14 Substituindo d = 10 nas outras equações e escalonando a matriz aumentada do sistema correspondente: >> escalona(c) [ 1, 1, 1, -3] [ 27, 9, 3, -21] [ 64, 16, 4, -24] eliminaç~ao 1: -27*linha 1 + linha 2 ==> linha 2-64*linha 1 + linha 3 ==> linha 3 [ 1, 1, 1, -3] [ 0, -18, -24, 60] [ 0, -48, -60, 168] eliminaç~ao 2: 19 de agosto de 2000 Reginaldo J. Santos
290 Respostas dos Exercícios -1/18*linha 2 ==> linha 2 [ 1, 1, 1, -3] [ 0, 1, 4/3, -10/3] [ 0, -48, -60, 168] -1*linha 2 + linha 1 ==> linha 1 48*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1/3, 1/3] [ 0, 1, 4/3, -10/3] [ 0, 0, 4, 8] eliminaç~ao 3: 1/4*linha 3 ==> linha 3 [ 1, 0, -1/3, 1/3] [ 0, 1, 4/3, -10/3] [ 0, 0, 1, 2] 1/3*linha 3 + linha 1 ==> linha 1-4/3*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, 1] [ 0, 1, 0, -6] [ 0, 0, 1, 2] Assim, os coeficientes são a = 1, b = 6, c = 2 e d = 10 e o polinômio p(x) = x 3 6x 2 + 2x + 10. 1.2.9. Substituindo os pontos na equação do círculo obtemos: 2a + 7b + c = [( 2) 2 + 7 2 ] = 53 4a + 5b + c = [( 4) 2 + 5 2 ] = 41 4a 3b + c = [4 2 + 3 2 ] = 25 >> A=[-2,7,1,-53;-4,5,1,-41;4,-3,1,-25]; >> escalona(a) [ -2, 7, 1, -53] [ -4, 5, 1, -41] [ 4, -3, 1, -25] eliminaç~ao 1: -1/2*linha 1 ==> linha 1 [ 1, -7/2, -1/2, 53/2] [ -4, 5, 1, -41] [ 4, -3, 1, -25] 4*linha 1 + linha 2 ==> linha 2-4*linha 1 + linha 3 ==> linha 3 [ 1, -7/2, -1/2, 53/2] [ 0, -9, -1, 65] [ 0, 11, 3, -131] eliminaç~ao 2: -1/9*linha 2 ==> linha 2 [ 1, -7/2, -1/2, 53/2]. [ 0, 1, 1/9, -65/9] [ 0, 11, 3, -131] 7/2*linha 2 + linha 1 ==> linha 1-11*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1/9, 11/9] [ 0, 1, 1/9, -65/9] [ 0, 0, 16/9, -464/9] eliminaç~ao 3: 9/16*linha 3 ==> linha 3 [ 1, 0, -1/9, 11/9] [ 0, 1, 1/9, -65/9] [ 0, 0, 1, -29] 1/9*linha 3 + linha 1 ==> linha 1-1/9*linha 3 + linha 2 ==> linha 2 [ 1, 0, 0, -2] [ 0, 1, 0, -4] [ 0, 0, 1, -29] Os coeficientes são a = 2, b = 4 e c = 29 e a equação do círculo é x 2 + y 2 2x 4y 29 = 0. 1.2.10. (a) >> A=[1,-2,5,b1;4,-5,8,b2;-3,3,-3,b3]; >> escalona(a) [ 1, -2, 5, b1] [ 4, -5, 8, b2] [ -3, 3, -3, b3] eliminaç~ao 1: -4*linha 1 + linha 2 ==> linha 2 3*linha 1 + linha 3 ==> linha 3 [ 1, -2, 5, b1] [ 0, 3, -12, b2-4*b1] [ 0, -3, 12, b3+3*b1] eliminaç~ao 2: 1/3*linha 2 ==> linha 2 [ 1, -2, 5, b1] [ 0, 1, -4, 1/3*b2-4/3*b1] [ 0, -3, 12, b3+3*b1] 2*linha 2 + linha 1 ==> linha 1 3*linha 2 + linha 3 ==> linha 3 [ 1, 0, -3, -5/3*b1+2/3*b2] [ 0, 1, -4, 1/3*b2-4/3*b1] [ 0, 0, 0, b3-b1+b2] O sistema é consistente se, e somente se, b 3 b 1 + b 2 = 0. (b) >> syms b1 b2 b3 >> A=[1,-2,-1,b1;-4,5,2,b2;-4,7,4,b3]; >> escalona(a) Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 1. Matrizes e Sistemas Lineares 291 [ 1, -2, -1, b1] [ -4, 5, 2, b2] [ -4, 7, 4, b3] eliminaç~ao 1: 4*linha 1 + linha 2 ==> linha 2 4*linha 1 + linha 3 ==> linha 3 [ 1, -2, -1, b1] [ 0, -3, -2, b2+4*b1] [ 0, -1, 0, b3+4*b1] eliminaç~ao 2: linha 3 <==> linha 2 [ 1, -2, -1, b1] [ 0, -1, 0, b3+4*b1] [ 0, -3, -2, b2+4*b1] -1*linha 2 ==> linha 2 [ 1, -2, -1, b1] [ 0, 1, 0, -b3-4*b1] [ 0, -3, -2, b2+4*b1] 2*linha 2 + linha 1 ==> linha 1 3*linha 2 + linha 3 ==> linha 3 [ 1, 0, -1, -7*b1-2*b3] [ 0, 1, 0, -b3-4*b1] [ 0, 0, -2, b2-8*b1-3*b3] O sistema é consistente para todos os valores reais de b 1, b 2 e b 3. 1.2.11. >> A=[0,1,7,8;1,3,3,8;-2,-5,1,-8]; >> escalona(a) [ 0, 1, 7, 8] [ 1, 3, 3, 8] [ -2, -5, 1, -8] eliminaç~ao 1: linha 2 <==> linha 1 [ 1, 3, 3, 8] [ 0, 1, 7, 8] [ -2, -5, 1, -8] 2*linha 1 + linha 3 ==> linha 3 [ 1, 3, 3, 8] [ 0, 1, 7, 8] [ 0, 1, 7, 8] eliminaç~ao 2: -3*linha 2 + linha 1 ==> linha 1-1*linha 2 + linha 3 ==> linha 3 [ 1, 0, -18, -16] [ 0, 1, 7, 8] [ 0, 0, 0, 0] >> I=eye(3);E=oe(-1,2,3,I),... F=oe(-3,2,1,I),G=oe(2,1,3,I),H=oe(I,1,2) E =[ 1, 0, 0]F =[ 1, -3, 0] [ 0, 1, 0] [ 0, 1, 0] [ 0, -1, 1] [ 0, 0, 1] G =[ 1, 0, 0]H =[ 0, 1, 0] [ 0, 1, 0] [ 1, 0, 0] [ 2, 0, 1] [ 0, 0, 1] >> E*F*G*H*A [ 1, 0, -18, -16] [ 0, 1, 7, 8] [ 0, 0, 0, 0] 1.2.12. (a) >> A=[1,2,0,-3,1,0,2;1,2,1,-3,1,2,3;... 1,2,0,-3,2,1,4;3,6,1,-9,4,3,9] >> escalona(a) [ 1, 2, 0, -3, 0, -1, 0] [ 0, 0, 1, 0, 0, 2, 1] [ 0, 0, 0, 0, 1, 1, 2] [ 0, 0, 0, 0, 0, 0, 0] { x1 + 2x 2 3x 4 x 6 = 2 x 3 + 2x 6 = 1 x 5 + x 6 = 2 X = [2+α+3β 2γ γ 1 2α β 2 α α] t, α, β, γ R (b) >> A=[1,3,-2,0,2,0,0;2,6,-5,-2,4,-3,-1;... 0,0,5,10,0,15,5;2,6,0,8,4,18,6] >> escalona(a) [ 1, 3, 0, 4, 2, 0, 0] [ 0, 0, 1, 2, 0, 0, 0] [ 0, 0, 0, 0, 0, 1, 1/3] [ 0, 0, 0, 0, 0, 0, 0] { x1 + 3x 2 + 4x 4 + 2x 5 = 0 x 3 + 2x 4 = 0 x 6 = 1 3 X = [ 2α 4β 3γ γ 2β β α 1/3] t, α, β, γ R 1.2.13. >> syms a, B=[4,3,1,6] ; >> A=[1,1,1,1;1,3,-2,a; 2,2*a-2,-a-2,3*a-1;3,a+2,-3,2*a+1] >> escalona([a,b]) [ 1, 0, 0, 0, (4*a-11)/(a-5)] [ 0, 1, 0, 0, -4/(a-5)] [ 0, 0, 1, 0, -4/(a-5)] [ 0, 0, 0, 1, -1/(a-5)] >> solve(-3/2*a+5/4+1/4*a^2,a) ans = [ 1][ 5] Se a 1 e a 5, então X = [ 4a 11 a 5 4 a 5 4 a 5 1 a 5 ]t. 19 de agosto de 2000 Reginaldo J. Santos
292 Respostas dos Exercícios >> C=subs(A,a,1) >> escalona([c,b]) [ 1, 0, 0, 1, 2] [ 0, 1, 0, 0, 1] [ 0, 0, 1, 0, 1] [ 0, 0, 0, 0, 0] Se a = 1, então X = [2 α, 1, 1, α] t α R. [ 1, 1, 2, 0] [ 1, 3, 3, 0] [ 1, 0, 0, 0] [ 0, 1, 0, 0] [ 0, 0, 1, 0] [ 0, 0, 0, 0] >> D=subs(A,a,5) >> escalona([d,b]) [ 1, 0, 5/2, -1, 0] [ 0, 1, -3/2, 2, 0] [ 0, 0, 0, 0, 1] [ 0, 0, 0, 0, 0] Se a = 5, então o sistema não tem solução. 1.2.14. (a) >> A=[1,2,3,1,8;1,3,0,1,7;1,0,2,1,3]; >> escalona(a) [ 1, 2, 3, 1, 8] [ 1, 3, 0, 1, 7] [ 1, 0, 2, 1, 3] [ 1, 0, 0, 1, 1] [ 0, 1, 0, 0, 2] [ 0, 0, 1, 0, 1] {(1 α, 2, 1, α) α R} (b) >> A=[1,1,3,-3,0;0,2,1,-3,3;1,0,2,-1,-1]; >> escalona(a) [ 1, 1, 3, -3, 0] [ 0, 2, 1, -3, 3] [ 1, 0, 2, -1, -1] [ 1, 0, 0, 1, 1] [ 0, 1, 0, -1, 2] [ 0, 0, 1, -1, -1] {(1 α, 2 + α, 1 + α, α) α R} (c) >> A=[1,2,3,0;1,1,1,0;1,1,2,0;1,3,3,0]; >> escalona(a) [ 1, 2, 3, 0] [ 1, 1, 1, 0] {(0, 0, 0)} 1.2.15. >> P=randi(4,2) P = 5 4-3 3 1 0 0-5 >> A=matvand(P(:,1),3),B=P(:,2) A =125 25 5 1-27 9-3 1 1 1 1 1 0 0 0 1 B = 4 3 0-5 >> R=escalona([A,B]) [ 125, 25, 5, 1, 4] [ -27, 9, -3, 1, 3] [ 1, 1, 1, 1, 0] [ 0, 0, 0, 1, -5] R = [ 1, 0, 0, 0, -163/480] [ 0, 1, 0, 0, 99/80] [ 0, 0, 1, 0, 1969/480] [ 0, 0, 0, 1, -5] >> a=r(1,5);b=r(2,5);c=r(3,5);d=r(4,5); >> clf,po(p),syms x,plotf1(a*x^3+b*x^2+c*x+d,[-5,5]) >> eixos Pode não ser possível encontrar o polinômio, se mais de um ponto tiver a mesma ordenada y i. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 1. Matrizes e Sistemas Lineares 293 50 y 5 y 4 40 3 30 2 20 1 10 0 x 1 0 x 2 10 5 4 3 2 1 0 1 2 3 4 5 3 2 1 0 1 2 3 4 5 Observação. A sua resposta pode ser diferente da que está aqui. Observação. A sua resposta pode ser diferente da que está aqui. 1.2.16. >> P=randi(5,2) P = 3 2-1 -3 1-1 3 4 4 4 >> A=matvand(P,2) A = 9 6 4 3 2 1 1 3 9-1 -3 1 1-1 1 1-1 1 9 12 16 3 4 1 16 16 16 4 4 1 >> R=escalona([A,zeros(5,1)]) [ 9, 6, 4, 3, 2, 1, 0] [ 1, 3, 9, -1, -3, 1, 0] [ 1, -1, 1, 1, -1, 1, 0] [ 9, 12, 16, 3, 4, 1, 0] [ 16, 16, 16, 4, 4, 1, 0] R = [1, 0, 0, 0, 0, -35/8, 0] [ 0, 1, 0, 0, 0, 45/8, 0] [ 0, 0, 1, 0, 0, -2, 0] [ 0, 0, 0, 1, 0, 65/8, 0] [ 0, 0, 0, 0, 1, -39/8, 0] >> a=-r(1,6);b=-r(2,6);c=-r(3,6); >> d=-r(4,6);e=-r(5,6);f=1; >> clf,po(p),syms x y, >> plotci(a*x^2+b*x*y+c*y^2+d*x+e*y+f,[-5,5],[-5,5]) >> eixos 19 de agosto de 2000 Reginaldo J. Santos
294 Respostas dos Exercícios 2.1. Matriz Inversa (página 71) 2.1.1. A matriz é singular, pois o sistema homogêneo tem solução não trivial (Teorema 2.8 na página 68). 2.1.2. (a) >> A=[1,2,3;1,1,2;0,1,2]; >> B=[A,eye(3)]; >> escalona(b) [1, 0, 0, 0, 1,-1] [0, 1, 0, 2,-2,-1] [0, 0, 1,-1, 1, 1] (b) [1, 0, 0, 3, 2,-4] [0, 1, 0,-1, 0, 1] [0, 0, 1, 0,-1, 1] (c) [1, 0, 0, 0, 7/3,-1/3,-1/3,-2/3] [0, 1, 0, 0, 4/9,-1/9,-4/9, 1/9] [0, 0, 1, 0,-1/9,-2/9, 1/9, 2/9] [0, 0, 0, 1,-5/3, 2/3, 2/3, 1/3] (d) [1, 0, 0, 1, -1, 0] [0, 1, 0,3/2,1/2,-3/2] [0, 0, 1, -1, 0, 1] (e) [ 1 0 1 1 0-2 ] [ 0 1 1 0 0 1 ] [ 0 0 0-1 1 1 ] Continua? (s/n) n (f) [1, 0, 0,1/4, 5/4,-3/4, 1/2, 0] [0, 1, 0,1/2,-1/2, 1/2, 0, 0] [0, 0, 1,1/4, 1/4, 1/4,-1/2, 0] [0, 0, 0, 0, -2, -1, -2, 1] Continua? (s/n) n 2.1.3. >> syms a >> A=[1,1,0;1,0,0;1,2,a]; >> escalona(a) [ 1 0 0 0 1 0 0 0 a Continua? (s/n) n Para valores de a diferentes de zero a matriz A tem inversa. ] 2.1.4. >> inva=[3,2;1,3]; invb=[2,5;3,-2]; >> invab=invb*inva invab = 11 19 7 0 2.1.5. >> inva=[2,3;4,1]; B=[5;3]; >> X=invA*B X = 19 23 2.2. Determinantes (página 98) 2.2.1. det(a 2 ) = 9; det(a 3 ) = 27; det(a 1 ) = 1/3; det(a t ) = 3. 2.2.2. det(a t B 1 ) = det(a)/ det(b) = 2/3. [ ] a11 a 12 a 13 + a 12 2.2.3. (a) det a 21 a 22 a 23 + a 22 = [ a 31 a 32 a 33 + ] a 32 a11 a 12 a 13 det a 21 a 22 a 23 + [ a 31 a 32 a 33 ] a11 a 12 a 12 det a 21 a 22 a 22 = det(a) + 0 = 3 a 31 a 32 a 32 [ ] a11 + a 12 a 11 a 12 a 13 (b) det a 21 + a 22 a 21 a 22 a 23 = [ a 31 + a 32 a 31 ] a 32 a 33 a11 a 11 a 13 det a 21 a 21 a 23 + [ a 31 a 31 a 33 ] a11 a 12 a 13 det a 21 a 22 a 23 + [ a 31 a 32 a 33 ] a12 a 11 a 13 det a 22 a 21 a 23 + [ a 32 a 31 a 33 ] a12 a 12 a 13 det a 22 a 22 a 23 = 2 det(a) = 6 a 32 a 32 a 33 2.2.4. (a) >> A=[1,-2,3,1;5,-9,6,3;-1,2,-6,-2;2,8,6,1]; >> detopelp(a) [ 1, -2, 3, 1] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 2. Inversão de Matrizes e Determinantes 295 [ 5, -9, 6, 3] [ -1, 2, -6, -2] [ 2, 8, 6, 1] eliminaç~ao 1: -5*linha 1 + linha 2 ==> linha 2 1*linha 1 + linha 3 ==> linha 3-2*linha 1 + linha 4 ==> linha 4 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, -3, -1] [ 0, 12, 0, -1] eliminaç~ao 2: -12*linha 2 + linha 4 ==> linha 4 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, -3, -1] [ 0, 0, 108, 23] eliminaç~ao 3: -1/3*linha 3 ==> linha 3 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, 1, 1/3] [ 0, 0, 108, 23] det(a) = -3*det(A) -108*linha 3 + linha 4 ==> linha 4 [ 1, -2, 3, 1] [ 0, 1, -9, -2] [ 0, 0, 1, 1/3] [ 0, 0, 0, -13] ans = 39 (b) >> A=[2,1,3,1;1,0,1,1;0,2,1,0;0,1,2,3]; >> detopelp(a) [ 2, 1, 3, 1] [ 1, 0, 1, 1] [ 0, 2, 1, 0] [ 0, 1, 2, 3] eliminaç~ao 1: linha 2 <==> linha 1 [ 1, 0, 1, 1] [ 2, 1, 3, 1] [ 0, 2, 1, 0] [ 0, 1, 2, 3] det(a) = (-1)*det(A) -2*linha 1 + linha 2 ==> linha 2 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 2, 1, 0] [ 0, 1, 2, 3] eliminaç~ao 2: -2*linha 2 + linha 3 ==> linha 3-1*linha 2 + linha 4 ==> linha 4 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 0, -1, 2] [ 0, 0, 1, 4] eliminaç~ao 3: -1*linha 3 ==> linha 3 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 0, 1, -2] [ 0, 0, 1, 4] det(a) = (-1)*(-1)*det(A) -1*linha 3 + linha 4 ==> linha 4 [ 1, 0, 1, 1] [ 0, 1, 1, -1] [ 0, 0, 1, -2] [ 0, 0, 0, 6] ans = 6 2.2.5. (a) >> A=[0,1,2;0,0,3;0,0,0]; >> p=det(a-x*eye(3)) p =-x^3 >> solve(p) [0][0][0] (b) p =(1-x)*(3-x)*(-2-x) [ 1][ 3][-2] (c) p =(2-x)*(4-5*x+x^2) [2][4][1] (d) p =-8-2*x+5*x^2-x^3 [ 2][ 4][-1] 2.2.6. (a) >> A=[2,0,0;3,-1,0;0,4,3]; >> B=A-x*eye(3); >> p=det(b) p =(2-x)*(-1-x)*(3-x) >> solve(p) [ 2][-1][ 3] (b) p =(2-x)^2*(1-x) [2][2][1] (c) p =(1-x)*(2-x)*(-1-x)*(3-x) [ 1][ 2][-1][ 3] (d) p =(2-x)^2*(1-x)^2 [2][2][1][1] 2.2.7. (a) >> Bm1=subs(B,x,-1); >> escalona(bm1) [1, 0, 0] [0, 1, 1] [0, 0, 0] 19 de agosto de 2000 Reginaldo J. Santos
296 Respostas dos Exercícios >> B2=subs(B,x,2); >> escalona(b2) [1, 0, 1/4] [0, 1, 1/4] [0, 0, 0] >> B3=subs(B,x,3); >> escalona(b3) [1, 0, 0] [0, 1, 0] [0, 0, 0] (b) [1, 3, 0] [0, 0, 1] [0, 0, 0] [0, 1, 0] [0, 0, 0] [0, 0, 0] (c) [1, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] [ 0 ] W 1 = { α α α R}. [ α ] W 2 = { α 4α α R}. W 3 = {[ 0 0 α ] α R}. [ 3α ] W 1 = { α 0 α R}. W 2 = {[ α0 β ] α, β R}. W 1 = {[ α α 0 0 ] t α R}. [0, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] W 1 = {[ α 0 0 0 ] t α R}. [1, 0, 0, 29/3] [0, 1, 0, 7/3] [0, 0, 1, 3] [0, 0, 0, 0] W 2 = {[ 29α 7α 9α 3α ] t α R}. [1, 0, -9/4, 0] [0, 1, -3/4, 0] [0, 0, 0, 1] [0, 0, 0, 0] W 3 = {[ 9α 3α 4α 0 ] t α R}. (d) [1, 0, -3, 0] [0, 1, 3, 0] [0, 0, 0, 1] [0, 0, 0, 0] W 1 = {[ 3α 3α α 0 ] t α R}. [0, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] W 2 = {[ α 0 0 0 ] t α R}. 2.2.8. Concluimos que é muito raro encontrar matrizes invertíveis. 2.2.9. >> menc=lerarq( menc1 ); key=lerarq( key ); >> y=char2num(menc); M=char2num(key); >> N=escalona([M,eye(5)]) [ 37, 12, 12, 4, 93, 1, 0, 0, 0, 0] [ 0, 4, 0, 1, 0, 0, 1, 0, 0, 0] [ 3, 0, 1, 0, 0, 0, 0, 1, 0, 0] [ 9, 3, 3, 1, 0, 0, 0, 0, 1, 0] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 2. Inversão de Matrizes e Determinantes 297 [ 18, 6, 6, 2, 1, 0, 0, 0, 0, 1] N =[1,0,0,0,0, 1, 0, 0, 182, -93] [0,1,0,0,0, 0, 1, 3, -1, 0] [0,0,1,0,0,-3, 0, 1,-546, 279] [0,0,0,1,0, 0,-3,-12, 4, 0] [0,0,0,0,1, 0, 0, 0, -2, 1] >> N=N(:,6:10) N = [ 1, 0, 0, 182, -93] [ 0, 1, 3, -1, 0] [ -3, 0, 1, -546, 279] [ 0, -3, -12, 4, 0] [ 0, 0, 0, -2, 1] >> x=n*y; >> num2char(x) ans = Desejo boa sorte a todos que estudam Álgebra Linear! >> menc=lerarq( menc2 ); >> y=char2num(menc); >> x=n*y; >> num2char(x) ans = Buda tinha este nome por que vivia setado! Deve ser uma matriz com entradas entre 0 e 158 com determinante igual a ±1, para que exista inversa e a sua inversa seja uma matriz com entradas inteiras. 19 de agosto de 2000 Reginaldo J. Santos
298 Respostas dos Exercícios 3.1. Vetores no Plano e no Espaço (página 141) 3.1.1. A equação 3X 2V = 15(X U) é equivalente a 3X 2V = 15X 15U. Somando-se 15X + 2V obtemos 15X + 3X = 2V 15U ou 12X = 2V 15U multiplicando-se por 1 12 obtemos X = 5 4 U 1 6 V. 3.1.2. Multiplicando-se a segunda equação por 2 e somando-se a primeira, obtemos 12X = 3U + 2V ou X = 1 4 U + 1 6 V. Substituindo-se X na primeira equação obtemos, 3 2 U +V 2Y = U ou 2Y = 1 2 U + V ou Y = 1 4 U + 1 2 V. 3.1.3. >> OP=[ 2, 3, -5]; V=[ 3, 0, -3]; >> OQ=OP+V OQ = 5 3-8 As coordenadas da extremidade do segmento orientado são (5, 3, 8). 3.1.4. >> OP=[1,0,3]; OM=[1,2,-1]; >> MP=OP-OM; OPlinha=OM-MP OPlinha = 1 4-5 As coordenadas de P são (1, 4, 5). 3.1.5. (a) >> OA=[5,1,-3];OB=[0,3,4];OC=[0,3,-5]; >> AB=OB-OA, AC=OC-OA, AB = -5 2 7 AC = -5 2-2 Os pontos não são colineares, pois AC λ AB. (b) >> OA=[-1,1,3];OB=[4,2,-3];OC=[14,4,-15]; >> AB=OB-OA, AC=OC-OA, AB = 5 1-6 AC = 15 3-18 Os pontos são colineares, pois AC= 3 AB. 3.1.6. >> OA=[1,-2,-3];OB=[-5,2,-1];OC=[4,0,-1]; >> DC=OB-OA, OD=OC-DC DC = -6 4 2 OD = 10-4 -3 O ponto é D = (10, 4, 3). 3.1.7. (a) A equação { xv + yw = U é equivalente ao sistema 9x y = 4 12x + 7y = 6, cuja matriz au- 6x + y = 2 mentada é a matriz que tem colunas V, W e U. >> V=[9,-12,-6];W=[-1,7,1];U=[-4,-6,2]; >> escalona([v;w;u] ) [ 1, 0, -2/3] [ 0, 1, -2] [ 0, 0, 0] Assim, U = 2/3V 2W. (b) >> V=[5,4,-3];W=[2,1,1];U=[-3,-4,1]; >> escalona([v;w;u] ) [ 1, 0, -5/3] [ 0, 1, 8/3] [ 0, 0, -20/3] Assim, U não é combinação linear de V e W. 3.1.8. >> V=[1,2,-3]; W=[2,1,-2]; >> Va=(V+W)/no(V+W), Vb=(V-W)/no(V-W),... >> Vc=(2*V-3*W)/no(2*V-3*W) V a = [ ] 3 43 43 3 43 43 5 43 43 V b = [ 1 ] 3 3 1 3 3 1 3 3 V c = [ 4 ] 17 17 1 17 17 0 3.1.9. >> V=[2,2,1]; W=[6,2,-3]; >> X=V/no(V)+W/no(W), U=X/no(X) X=[32/21, 20/21, -2/21] [ 16 357 17 21 10 357 17 21 1 357 17 21 ] 3.1.10. >> syms x >> V=[x,3,4];W=[3,1,2]; >> solve(pe(v,w)) -11/3 Para x = 11/3, V e W são perpendiculares. 3.1.11. >> V=[x,2,4];W=[x,-2,3]; >> pe(v,w) x^2+8 A equação x 2 + 8 não tem solução real. 3.1.12. >> Va=[2,1,0];Wa=[0,1,-1];Vb=[1,1,1]; >> Wb=[0,-2,-2];Vc=[3,3,0];Wc=[2,1,-2]; >> cosvawa=pe(va,wa)/(no(va)*no(wa)),... >> cosvbwb=pe(vb,wb)/(no(vb)*no(wb)),... >> cosvcwc=pe(vc,wc)/(no(vc)*no(wc)) cosvawa= 1 10 5 2, cosvbwb= 1 3 3 2, cosvcwc= 1 2 2. O ângulo entre V a e W a é arccos( 10/10) entre V b e W b é arccos( 6/3) e entre V c e W c é arccos( 2/2) = π/4. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 3. Espaços Euclidianos 299 3.1.13. >> W=[-1,-3,2]; V=[0,1,3]; >> W1=(pe(W,V)/pe(V,V))*V, W2=W-W1 W1 = 0 3/10 9/10 W2 = -1-33/10 11/10 3.1.14. >> X=[x,y,z]; V=[1,1,0]; W=[-1,0,1]; U=[0,1,0]; >> expr1=pe(x,v), expr2=pe(x,w),... >> expr3=pe(x,x)-3, expr4=pe(x,u) expr1=x+y,expr2=z-x,expr3=x^2+y^2+z^2-3,expr4=y >> solve(expr1,expr2,expr3) S = x: [2x1 sym] y: [2x1 sym] z: [2x1 sym] >> S.x, S.y, S.z ans =[ -1][ 1] ans =[ 1][ -1] ans =[ -1][ 1] Como y tem que ser maior que zero, X = ( 1, 1, 1). 3.1.15. >> A=[3,0,2];B=[4,3,0];C=[8,1,-1]; >> pe(b-a,c-a), pe(a-b,c-b), pe(a-c,b-c) 14,0,21 Portanto o ângulo reto está no vértice B. 3.2. Equações de Retas e Planos (página 157) 3.2.1. >> syms x y z >> N=[2,-1,5]; P=[1,-2,1]; X=[x,y,z]; >> PX=X-P; expr=pe(px,n) expr =2*x-9-y+5*z A equação do plano é 2x y + 5z 9 = 0. 3.2.2. >> X=[x,y,z]; P=[2,1,0]; PX=X-P PX =[x-2, y-1, z] >> M=[PX;1,2,-3;2,-1,4], expr=det(m) M =[x-2, y-1, z] [ 1, 2,-3] [ 2, -1, 4] expr = 5*x-10*y-5*z A equação do plano é 5x 10y 5z = 0. 3.2.3. >> P=[1,0,0]; Q=[1,0,1]; N1=[0,1,-1]; >> X=[x,y,z]; PQ=Q-P, PX=X-P PQ =[0, 0, 1],PX =[x-1, y, z] >> M=[PX;PQ;N1], expr=det(m) M =[x-1, y, z] [ 0, 0, 1] [ 0, 1,-1] expr = -x+1 A equação do plano é x + 1 = 0. 3.2.4. >> V1=[2,2,1]; V2=[1,1,1]; P1=[2,0,0]; >> X=[x,y,z]; P1X=X-P1 P1X =[x-2, y, z] >> M=[P1X;V1;V2], expr=det(m) M =[x-2, y, z] [ 2, 2, 1] [ 1, 1, 1] expr = x-2-y A equação do plano é x y 2 = 0. 3.2.5. (a) >> solve( 4=2+t ), solve( 1=4-t ),... >> solve( -1=1+2*t ) ans = 2 ans = 3 ans = -1 Logo não existe um valor de t tal que P = (2, 4, 1)+ t(1, 1, 2). (b) >> P=[4,1,-1]; Q=[2,4,1]; V=[1,-1,2]; >> X=[x,y,z]; >> PX=X-P, PQ=Q-P PX = [x-4, y-1, z+1] PQ = [-2, 3, 2] >> M=[PX;PQ;V], expr=dete(m) M =[x-4,y-1,z+1] [ -2, 3, 2] [ 1, -1, 2] expr = 8*x-39+6*y-z A equação do plano é 8x + 6y z 39 = 0. 3.2.6. Fazendo z = 0 nas equações dos planos π 1 e π 2 e resolvendo o sistema resultante, obtemos >> expr1=x-y+1;expr2=x+y-1; >> S=solve(expr1,expr2) >> S.x, S.y ans = 0 ans = 1 Portanto, o ponto P = (0, 1, 0) pertence a π 1 e a π 2. >> P=[0,1,0]; N=[1,1,1]; X=[x,y,z]; >> PX=X-P, expr=pe(px,n) PX =[x, y-1, z] expr = x+y-1+z A equação do plano é x + y + z 1 = 0. 3.2.7. (a) >> N1=[1,2,-3]; N2=[1,-4,2]; V=pv(N1,N2) V = -8-5 -6 Os planos se interceptam segundo uma reta cujo vetor diretor é V = ( 8, 5, 6). (b) >> N1=[2,-1,4]; N2=[4,-2,8]; V=pv(N1,N2) V = 0 0 0 Os planos são paralelos. 19 de agosto de 2000 Reginaldo J. Santos
300 Respostas dos Exercícios (c) >> N1=[1,-1,0]; N2=[1,0,1]; V=pv(N1,N2) V = -1-1 1 Os planos se interceptam segundo uma reta cujo vetor diretor é V = ( 1, 1, 1). 3.2.8. (x, y, z) = (1, 2, 1) + t(1, 1, 2). 3.2.9. >> pv([2,3,1],[1,-1,1]) 4-1 -5 (x, y, z) = (1, 0, 1) + t(4, 1, 5). 3.2.10. >> escalona([1,1,-1,0;2,-1,3,1]) 1 0 2/3 1/3 0 1-5/3-1/3 A reta interseção dos planos é (x, y, z) = (1/3, 1/3, 0) + t( 2/3, 5/3, 1). >> A=[1,0,-1]; P=[1/3,-1/3,0]; >> V=[-2/3,5/3,1]; X=[x,y,z]; >> AX=X-A, AP=P-A AX = [x-1, y, z+1] AP = [-2/3, -1/3, 1] >> M=[AX;AP;V], expr=dete(m) M =[ x-1, y, z+1] [-2/3, -1/3, 1] [-2/3, 5/3, 1] expr = -2*x+2/3-4/3*z A equação do plano é 6x + 4z 2 = 0. 3.3. Os Espaços R n (página 177) 3.3.1. >> x1=[4,2,-3];x2=[2,1,-2];x3=[-2,-1,0]; >> x=[1,1,1]; >> A=[x1;x2;x3;x]. 4 2-2 1 2 1-1 1-3 -2 0 1 >> R=escalona(A) 1 0-2 0 0 1 3 0 0 0 0 1 >> x=[4,2,-6]; >> A=[x1;x2;x3;x]. 4 2-2 4 2 1-1 2-3 -2 0-6 >> R=escalona(A) 1 0-2 -2 0 1 3 6 0 0 0 0 >> x=[-2,-1,1]; >> A=[x1;x2;x3;x]. 4 2-2 -2 2 1-1 -1-3 -2 0 1 >> R=escalona(A) 1 0-2 -1 0 1 3 1 0 0 0 0 >> x=[-1,2,3]; >> A=[x1;x2;x3;x]. 4 2-2 -1 2 1-1 2-3 -2 0 3 >> R=escalona(A) 1 0-2 0 0 1 3 0 0 0 0 1 Assim, os vetores das letras (b) e (c) são combinação linear de X 1, X 2 e X 3. 3.3.2. (a) >> syms m,p1=[1,0,2];v1=[2,1,3]; >> P2=[0,1,-1];V2=[1,m,2*m]; >> expr=det([v1;v2;p2-p1]) expr = -9*m+6 >> solve(expr) ans = 2/3 Para m = 2/3 as retas são coplanares. (b) Para m = 2/3, V 1 = (2, 1, 3) e V 2 = (1, 2/3, 4/3) L.I., pois um não é múltiplo escalar do outro. Portanto, as retas são concorrentes. (c) >> syms x y z; P=[x,y,z]; >> V2=subs(V2,m,2/3) V2 = [ 1, 2/3, 4/3] >> A=[P-P1;V1;V2] A =[ x-1, y, z-2] [ 2, 1, 3] [ 1, 2/3, 4/3] >> det(a) ans = -2/3*x+1/3*y+1/3*z Assim, a equação do plano é 2x y z = 0. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 4. Subespaços do R n 301 3.3.3. (a) >> v1=[1,1,2];v2=[1,0,0]; >> v3=[4,6,12] >> A=[v1;v2;v3;zeros(1,3)]. 1 1 4 0 1 0 6 0 2 0 12 0 >> R=escalona(A) 1 0 6 0 0 1-2 0 0 0 0 0 Logo, a equação x(1, 1, 2)+y(1, 0, 0)+z(4, 6, 12) = 0 admite solução não trivial. Isto implica que os vetores do item (a) são L.D. (b) >> v1=[1,-2,3];v2=[-2,4,-6]; >> A=[v1;v2;zeros(1,3)]. 1-2 0-2 4 0 3-6 0 >> R=escalona(A) 1-2 0 0 0 0 0 0 0 Logo, a equação x(1, 2, 3) + y( 2, 4, 6) = 0 admite solução não trivial. Isto implica que os vetores da item (b) são L.D. Observe que o segundo vetor é 2 vezes o primeiro. (c) >> v1=[1,1,1];v2=[2,3,1]; >> v3=[3,1,2]; >> A=[v1;v2;v3;zeros(1,3)]. 1 2 3 0 1 3 1 0 1 1 2 0 >> R=escalona(A) 1 0 0 0 0 1 0 0 0 0 1 0 Logo, a equação x(1, 1, 1) + y(2, 3, 1) + z(3, 1, 2) = 0 só admite a solução trivial. Isto implica que os vetores do item (c) são L.I. (d) >> v1=[4,2,-1];v2=[6,5,-5];v3=[2,-1,3]; >> A=[v1;v2;v3;zeros(1,3)]. 4 6 0 2 5 0-1 -5 0 >> R=escalona(A) 1 0 2 0 1-1 0 0 0 Logo, o sistema x(4, 2, 1) + y(2, 3, 1) + z(2, 1, 3) = 0 admite solução não trivial. Isto implica que os vetores da item (d) são L.D. 3.3.4. >> syms a >> A=[3,1,0;a^2+2,2,0;0,0,0] A = [3, a^2+2, 0] [1, 2, 0] [0, 0, 0] >> escalona(a) eliminaç~ao 1: linha 2 <==> linha 1 [ 1 2 0 ] [ ] [ 2 ] [ 3 a + 2 0 ] [ ] [ 0 0 0 ] Continua? (s/n) s -(3)*linha 1 + linha 2 ==> linha 2 [ 1 2 0 ] [ ] [ 2 ] [ 0 a - 4 0 ] [ ] [ 0 0 0 ] Continua? (s/n) n >> solve(a^2-4) ans = [ 2][-2] 4.1. Definição e Exemplos (página 192) 4.1.1. São subespaços (b), (e), e (f). 4.1.2. São subespaços (b), (c), e (d). 4.1.3. (a) >> syms a b c >> A=[1,0,0;0,1,0;1,1,1;1,1,1;a,b,c]. [1, 0, 1, a] [0, 1, 1, b] [0, 0, 1, c] >> escalona(a); [ 1 0 0 a - c ] [ 0 1 0 b - c ] 19 de agosto de 2000 Reginaldo J. Santos
302 Respostas dos Exercícios [ 0 0 1 c ] Portanto, os vetores do item (a) geram o R 3. (b) >> A=[1,2,1;1,1,-1;2,3,0;a,b,c]. [1, 1, 2, a] [2, 1, 3, b] [1, -1, 0, c] >> escalona(a); [1, 0, 1, -a+b] [0, 1, 1, -b+2*a] [0, 0, 0, c+3*a-2*b] Continua? (s/n) n Portanto, os vetores do item (b) não geram o R 3. (c) >> A=[6,4,-2;2,0,0;3,2,-1;5,6,-3;a,b,c]. [ 6, 2, 3, 5, a] [ 4, 0, 2, 6, b] [-2, 0, -1, -3, c] >> escalona(a); [1 0 1/2 3/2 1/4 b ] [0 1 0-2 - 3/4 b + 1/2 a ] [0 0 0 0 c + 1/2 b ] Continua? (s/n) n Portanto, os vetores do item (c) não geram o R 3. (d) >> A=[1,1,0;1,2,-1;0,0,1;a,b,c]. A = [1, 1, 0, a] [1, 2, 0, b] [0, -1, 1, c] >> escalona(a); [1 0 0 0 2 a - b ] [0 1 0 0 b - a ] [0 0 1 0 c + b - a] Portanto, os vetores do item (d) geram o R 3. 4.1.4. (a) >> A=[1,0,1,0,0;1,2,3,1,0;2,1,3,1,0] 1 0 1 0 0 1 2 3 1 0 2 1 3 1 0 >> R=escalona(A) 1 0 1 0 0 0 1 1 0 0 0 0 0 1 0 Encontramos a forma reduzida escalonada da matriz [A 0], que corresponde ao sistema { x1 + x 3 = 0 x 2 + x 3 = 0 x 4 = 0 Este sistema tem como solução geral W = {( α, α, α, 0) α R}. Agora, para qualquer elemento de W temos: ( α, α, α, 0) = α( 1, 1, 1, 0). Logo, {V = ( 1, 1, 1, 0)} gera W. (b) >> A=[1,1,2,-1,0;2,3,6,-2,0;-2,1,2,2,0] 1 1 2-1 0 2 3 6-2 0-2 1 2 2 0 >> R=escalona(A) 1 0 0-1 0 0 1 2 0 0 0 0 0 0 0 Encontramos a forma reduzida escalonada da matriz [A 0], que corresponde ao sistema { x1 + x 4 = 0 x 2 + 2x 3 = 0 Este sistema tem como solução geral W = {(α, 2β, β, α) α, β R}. Agora, para qualquer elemento de W temos: (α, 2β, β, α) = = (α, 0, 0, α) + (0, 2β, β, 0) = α(1, 0, 0, 1) + β(0, 2, 1, 0). Logo, S = {V 1 = (1, 0, 0, 1), V 2 = (0, 2, 1, 0)} gera W. 4.1.5. O subespaço V é um plano que passa pela origem, paralelo aos vetores ( 1, 2, 3) e (1, 3, 4). O subespaço W é um plano que passa pela origem, paralelo aos vetores (1, 2, 1) e (0, 1, 1). Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 4. Subespaços do R n 303 >> V1=[-1,2,3]; V2=[1,3,4]; >> N1=pv(V1,V2) N1 = -1 7-5 >> V3=[1,2,-1]; V4=[0,1,1]; >> N2=pv(V3,V4) N2 = 3-1 1 >> V=pv(N1,N2) V = 2-14 -20 A equação paramétrica da reta interseção dos dois subespaços é (x, y, z) = t(2, 14, 20), para qualquer t R. 4.2. Base e Dimensão (página 203) 4.2.1. Como a dimensão do R 3 é 3, 3 vetores que são L.I. geram o espaço e formam portanto uma base (Teorema 4.5 na página 202). Para verificar se os vetores são L.I., precisamos saber se a equação vetorial, x 1 V 1 + x 2 V 2 + x 3 V 3 = 0 só possui a solução trivial. Esta equação é equivalente ao sistema linear, cuja matriz é formada pelos vetores V 1, V 2, V 3 escritos como colunas. Este é um sistema que tem o número de equações igual ao número de incógnitas e assim, o sistema possui somente a solução trivial se, e somente se, o determinante da matriz do sistema é diferente de zero (Proposição 3.9 na página 173). >> v1=[1,0,0];v2=[0,1,0];v3=[1,1,1]; >> A=[v1;v2;v3]. ; det(a) ans = 1 >> v1=[0,0,1];v2=[-1,1,1];v3=[1,1,0]; >> A=[v1;v2;v3]. ; det(a) ans = -2 Assim, são base os conjuntos dos itens (a) e (c). O conjunto do item (b) não é base pois como a dimensão do R 3 é igual a 3 toda base do R 3 tem que ter 3 elementos. 4.2.2. (a) (a, a, c) = (a, a, 0)+(0, 0, c) = a(1, 1, 0)+c(0, 0, 1). Logo, S = {V 1 = (1, 1, 0), V 2 = (0, 0, 1)} gera o subespaço. Além disso, S é L.I., pois um vetor não é múltiplo escalar do outro. Portanto, S é uma base do subespaço e ele tem dimensão igual a 2. (b) (0, b, c) = (0, b, 0) + (0, 0, c) = b(0, 1, 0) + c(0, 0, 1) Logo, S = {V 1 = (0, 1, 0), V 2 = (0, 0, 1)} gera o subespaço. Além disso, S é L.I., pois um vetor não é múltiplo escalar do outro. Portanto, S é uma base do subespaço e ele tem dimensão igual a 2. (c) (a b, b + c, 2a b + c) = (a, 0, 2a) + ( b, b, b) + (0, c, c) = a(1, 0, 2) + b( 1, 1, 1) + c(0, 1, 1) Logo, S = {V 1 = (1, 0, 2), V 2 = ( 1, 1, 1), V 3 = (0, 1, 1)} gera o subespaço. Agora, para verificar se S é L.I., precisamos saber se a equação x(1, 0, 2) + y( 1, 1, 1) + z(0, 1, 1) = (0, 0, 0) possui somente a solução trivial. >> v1=[1,0,2];v2=[-1,1,-1];v3=[0,1,1]; >> A=[v1;v2;v3;zeros(1,3)]. ; >> R=escalona(A) 1 0 1 0 0 1 1 0 0 0 0 0 A solução geral da equação acima é: z = α, y = α, x = α α R. Substituindo estes valores na equação vetorial acima: α(1, 0, 2) α( 1, 1, 1) + α(0, 1, 1) = (0, 0, 0). fazendo α = 1 e somando-se (1, 0, 2) + ( 1, 1, 1): (0, 1, 1) = (1, 0, 2) + ( 1, 1, 1) Assim, S = {V 1 = (1, 0, 2), V 2 = ( 1, 1, 1)} é uma base para o subespaço (eles são L.I., pois um não é múltiplo escalar do outro). 19 de agosto de 2000 Reginaldo J. Santos
304 Respostas dos Exercícios 4.2.3. (a) (a, b, c, a + b) = (a, 0, 0, a) + (0, b, 0, b) + (0, 0, c, 0) = a(1, 0, 0, 1) + b(0, 1, 0, 1) + c(0, 0, 1, 0) Logo, S = {V 1 = (1, 0, 0, 1), V 2 = (0, 1, 0, 1), V 3 = (0, 0, 1, 0)} gera o subespaço. Agora, para verificar se S é L.I., precisamos saber se a equação x(1, 0, 0, 1)+y(0, 1, 0, 1)+z(0, 0, 1, 0) = (0, 0, 0, 0) possui somente a solução trivial. >> v1=[1,0,0,1];v2=[0,1,0,1];v3=[0,0,1,0]; >> A=[v1;v2;v3;zeros(1,4)]. ; >> R=escalona(A) 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 Assim, S = {V 1 = (1, 0, 0, 1), V 2 = (0, 1, 0, 1), V 3 = (0, 0, 1, 0)} é uma base para o subespaço e a dimensão é 3. >> v1=[1,1,0,-1];v2=[0,-1,1,1];v3=[1,0,1,0]; >> A=[v1;v2;v3;zeros(1,4)]. ; >> R=escalona(A) 1 0 1 0 0 1 1 0 0 0 0 0 0 0 0 0 A solução geral da equação acima é: z = α, y = α, x = α α R Substituindo estes valores na equação vetorial acima: α(1, 1, 0, 1) α(0, 1, 1, 1)+α(1, 0, 1, 0) = (0, 0, 0, 0) fazendo α = 1 e somando-se (1, 1, 0, 1) + (0, 1, 1, 1): (1, 0, 1, 0) = (1, 1, 0, 1) + (0, 1, 1, 1) Assim, {V 1 = (1, 1, 0, 1), V 2 = (0, 1, 1, 1)} é uma base para o subespaço. E a dimensão do subespaço é 2. (b) (a, b, a b, a + b) = (a, 0, a, a) + (0, b, b, b) = a(1, 0, 1, 1) + b(0, 1, 1, 1) (c) Logo, S = {V 1 = (1, 0, 1, 1), V 2 = (0, 1, 1, 1)} gera o subespaço. Como um vetor não é múltiplo escalar do outro, eles são L.I. Portanto, S é uma base do subespaço e a dimensão do subespaço é 2. (a + c, a b, b + c, a + b) = (a, a, 0, a) + (0, b, b, b) + (c, 0, c, 0) = a(1, 1, 0, 1) + b(0, 1, 1, 1) + c(1, 0, 1, 0) Logo, S = {V 1 = (1, 1, 0, 1), V 2 = (0, 1, 1, 1), V 3 = (1, 0, 1, 0)} gera o subespaço. Agora, para verificar se são L.I., precisamos saber se a equação x(1, 1, 0, 1)+y(0, 1, 1, 1)+z(1, 0, 1, 0) = (0, 0, 0, 0) possui somente a solução trivial. 4.2.4. Como a dimensão do R 3 é 3, 3 vetores que são L.I. geram o espaço e formam portanto uma base. Para verificar se os vetores são L.I., precisamos saber se a equação vetorial, x 1 V 1 + x 2 V 2 + x 3 V 3 = 0 só possui a solução trivial. Esta equação é equivalente ao sistema linear, cuja matriz é formada pelos vetores V 1, V 2, V 3 escritos como colunas. Este é um sistema tem o número de equações igual ao número de incógnitas e assim, o sistema possui somente a solução trivial se, e somente se, o determinante da matriz do sistema é diferente de zero. >> syms a >> A=[a^2,0,1;0,a,2;1,0,1] [a^2, 0, 1] [ 0, a, 0] [ 1, 2, 1] >> expr=det(a) expr = a^3-a >> solve(expr) ans = [ 0][ 1][-1] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 4. Subespaços do R n 305 Portanto, para a 0, 1, 1 os vetores V 1, V 2 e V 3 formam uma base. 4.2.5. (a) >> syms x >> A=[0,0,1;1,0,-3;0,1,3]; >> B=A-x*eye(3) [-x, 0, 1] [ 1, -x, -3] [ 0, 1, 3-x] >> solve(det(b)) ans = [1][1][1] >> B1=subs(B,x,1) -1 0 1 1-1 -3 0 1 2 >> escalona([b1,zeros(3,1)]) 1 0-1 0 0 1 2 0 0 0 0 0 { x1 x 3 = 0 x 2 + 2x 3 = 0 Este sistema tem como solução geral W = {(α, 2α, α) α R}. Agora, para qualquer elemento de W temos: (α, 2α, α) = α(1, 2, 1). Logo, S = {V = (1, 2, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. (b) >> A=[2,2,3,4;0,2,3,2;0,0,1,1;0,0,0,1] >> B=A-x*eye(4) [2-x, 2, 3, 4] [ 0, 2-x, 3, 2] [ 0, 0, 1-x, 1] [ 0, 0, 0, 1-x] >> solve(det(b)) ans = [2][2][1][1] >> B1=subs(B,x,1) 1 2 3 4 0 1 3 2 0 0 0 1 0 0 0 0 >> escalona([b1,zeros(4,1)]) 1 0-3 0 0 0 1 3 0 0 0 0 0 1 0 0 0 0 0 0 { x1 3x 3 = 0 x 2 + 3x 3 = 0 x 4 = 0 Este sistema tem como solução geral W = {(3α, 3α, α, 0) α R}. Agora, para qualquer elemento de W temos: (3α, 3α, α, 0) = α(3, 3, 1, 0). Logo, S = {V = (3, 3, 1, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> B2=subs(B,x,2) 0 2 3 4 0 0 3 2 0 0-1 1 0 0 0-1 >> escalona([b2,zeros(4,1)]) 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 { x 2 = 0 x 3 = 0 x 4 = 0 Este sistema tem como solução geral W = {(α, 0, 0, 0) α R}. Agora, para qualquer elemento de W temos: (α, 0, 0, 0) = α(1, 0, 0, 0). Logo, S = {V = (1, 0, 0, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. 19 de agosto de 2000 Reginaldo J. Santos
306 Respostas dos Exercícios (c) >> A=[1,1,-2;-1,2,1;0,1,-1] >> B=A-x*eye(3) [1-x, 1, -2] [ -1, 2-x, 1] [ 0, 1, -1-x] >> solve(det(b)) ans = [ 1][ 2][-1] >> Bm1=subs(B,x,-1) 2 1-2 -1 3 1 0 1 0 >> escalona([bm1,zeros(3,1)]) 1 0-1 0 0 1 0 0 0 0 0 0 { x1 3x 3 = 0 x 2 = 0 Este sistema tem como solução geral W = {(α, 0, α) α R}. Agora, para qualquer elemento de W temos: (α, 0, α) = α(1, 0, 1). Logo, S = {V = (1, 0, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> B1=subs(B,x,1) 0 1-2 -1 1 1 0 1-2 >> escalona([b1,zeros(3,1)]) 1 0-3 0 0 1-2 0 0 0 0 0 { x1 3x 3 = 0 x 2 2x 3 = 0 Este sistema tem como solução geral W = {(3α, 2α, α) α R}. Agora, para qualquer elemento de W temos: (3α, 2α, α) = α(3, 2, 1). Logo, S = {V = (3, 2, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> B2=subs(B,x,2) -1 1-2 -1 0 1 0 1-3 >> escalona([b2,zeros(3,1)]) 1 0-1 0 0 1-3 0 0 0 0 0 { x1 x 3 = 0 x 2 3x 3 = 0 Este sistema tem como solução geral W = {(α, 3α, α) α R}. Agora, para qualquer elemento de W temos: (α, 3α, α) = α(1, 3, 1). Logo, S = {V = (1, 3, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. (d) >> A=[1,2,3,4;0,-1,3,2;0,0,3,3;0,0,0,2]; >> B=A-x*eye(4) [1-x, 2, 3, 4] [ 0, -1-x, 3, 2] [ 0, 0, 3-x, 3] [ 0, 0, 0, 2-x] >> solve(det(b)) ans = [ 1][-1][ 3][ 2] >> Bm1=subs(B,x,-1) 2 2 3 4 0 0 3 2 0 0 4 3 0 0 0 3 >> escalona([bm1,zeros(4,1)]) Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 4. Subespaços do R n 307 1 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 { x1 + x 2 3x 3 = 0 x 3 = 0 x 4 = 0 Este sistema tem como solução geral W = {( α, α, 0, 0) α R}. Agora, para qualquer elemento de W temos: ( α, α, 0, 0) = α( 1, 1, 0, 0). Logo, S = {V = ( 1, 1, 0, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> B1=subs(B,x,1) 0 2 3 4 0-2 3 2 0 0 2 3 0 0 0 1 >> escalona([b1,zeros(4,1)]) 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 { x 2 = 0 x 3 = 0 x 4 = 0 Este sistema tem como solução geral W = {(α, 0, 0, 0) α R}. Agora, para qualquer elemento de W temos: (α, 0, 0, 0) = α(1, 0, 0, 0). Logo, S = {V = (1, 0, 0, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> B2=subs(B,x,2) -1 2 3 4 0-3 3 2 0 0 1 3 0 0 0 0 >> escalona([b2,zeros(4,1)]) 1 0 0 29/3 0 0 1 0 7/3 0 0 0 1 3 0 0 0 0 0 0 { x1 + (29/7)x 4 = 0 x 2 + (7/3)x 4 = 0 x 3 + 3x 4 = 0 Este sistema tem como solução geral W = {( (29/3)α, (7/3)α, 3α, α) α R}. Agora, para qualquer elemento de W temos: ( (29/3)α, (7/3)α, 3α, α) = α( 29/3, 7/3, 3, 1). Logo, S = {V = ( 29/3, 7/3, 3, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> B3=subs(B,x,3) -2 2 3 4 0-4 3 2 0 0 0 3 0 0 0-1 >> escalona([b3,zeros(4,1)]) 1 0-9/4 0 0 0 1-3/4 0 0 0 0 0 1 0 0 0 0 0 0 { x1 (9/4)x 3 = 0 x 2 (3/4)x 3 = 0 x 4 = 0 Este sistema tem como solução geral W = {((9/4)α, (3/4)α, α, 0) α R}. 19 de agosto de 2000 Reginaldo J. Santos
308 Respostas dos Exercícios Agora, para qualquer elemento de W temos: ((9/4)α, (3/4)α, α, 0) = α(9/4, 3/4, 1, 0). Logo, S = {V = (9/4, 3/4, 1, 0)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. 4.2.6. (a) >> v1=[2,1,3];v2=[3,-1,4];v3=[2,6,4]; >> A=[v1;v2;v3;zeros(1,3)]. ; >> escalona(a) [ 1, 0, 4, 0] [ 0, 1, -2, 0] [ 0, 0, 0, 0] A equação xv 1 +yv 2 +zv 3 = 0 admite solução não trivial. (b) V 1 e V 2 são L.I. pois um vetor não é múltiplo escalar do outro. (c) A dimensão do subespaço gerado por V 1, V 2 e V 3, é 2, pois, pelos itens anteriores, V 1 e V 2 formam uma base para ele. (d) Este subespaço é um plano que passa pela origem com vetor normal N = V 1 V 2 = (7, 1, 5), ou seja, é o plano 7x + y 5z = 0. 4.2.7. (a) Não. O R 3 é um subespaço de dimensão 3. (b) V 3 deve ser um vetor que não seja combinação linear de V 1 e V 2. (c) >> v1=[1,1,1];v2=[3,-1,4]; >> syms a b c >> A=[v1;v2;[a,b,c]]. ; >> escalona(a) [ 1, 0, 4*a-3*c] [ 0, 1, c-a] [ 0, 0, b-5*a+4*c] Seja V 3 = (a, b, c) tal que b 5a + 4c 0. Por exemplo, V 3 = (0, 0, 1), é tal que V 1, V 2 e V 3 formam uma base de R 3. 4.2.8. Fazendo z = α e y = β, obtemos que x = 2β 4α. Assim, os pontos do plano x + 2y + 4z = 0 são da forma (x, y, z) = ( 2β 4α, β, α), α, β R, ou seja, são da forma (x, y, z) = α( 4, 0, 1) + β( 2, 1, 0) = αv 1 + βv 2 α, β R, onde V 1 = ( 4, 0, 1) e V 2 = ( 2, 1, 0). Assim, V 1 e V 2 formam uma base do plano W, pois são L.I. (um não é múltiplo escalar do outro) e geram W (todo vetor de W é combinação linear deles). Para estender V 1 e V 2 a uma base de R 3, precisamos acrescentar um vetor que não seja combinação linear de V 1 e V 2. Uma maneira de se conseguir isso é tomar um vetor que não pertença ao plano, ou seja, um vetor (x, y, z) tal que x + 2y + 4z 0. Por exemplo V 3 = (1, 0, 0). Uma outra maneira de se conseguir isso é a seguinte. Um dos vetores da base canônica não é combinação linear de V 1 e V 2. Para se descobrir qual, podemos escalonar a matriz cujas colunas são os vetores V 1, V 2, E 1, E 2, E 3, ou seja, >> V1=[-4;0;1];V2=[-2;1;0]; >> A=[V1,V2,eye(3)]; >> escalona(a) [ -4, -2, 1, 0, 0] [ 0, 1, 0, 1, 0] [ 1, 0, 0, 0, 1] [ 1, 0, 0, 0, 1] [ 0, 1, 0, 1, 0] [ 0, 0, 1, 2, 4] Assim, nenhum dos vetores da base canônica é combinação linear (somente) de V 1 e V 2. Portanto, se o vetor V 3 é qualquer um dos vetores da base canônica, então {V 1, V 2, V 3 } é uma base de R 3. 4.2.9. (a) >> V1=[1;2;3]; V2=[3;4;5]; V3=[5;6;7]; >> V=randi(3,1) V = 0 4 3 >> escalona([v1,v2,v3,v]) ans = 1 0-1 0 0 1 2 0 0 0 0 1 Assim, V não é combinação linear de V1, V2 e V3. (b) >> M=randi(3,5) M = -2-4 1-5 5 3-3 -3 3 0-5 -3-3 -1-1 >> escalona([v1,v2,v3,m]) 1 0-1 0 37/13-101/26 173/26-96/13 0 1 2 0-29/13 37/26-85/26 51/13 Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 4. Subespaços do R n 309 0 0 0 1 1/13-4/13 12/13-4/13 Assim, nenhuma das colunas de M é combinação linear de V1, V2 e V3. Como as colunas de M foram geradas aleatoriamente, o mais provável é que elas não pertençam ao plano gerado por V1, V2 e V3. (c) V3=-V1+2V2, que é a mesma relação que é válida entre as colunas de forma escalonada reduzida da matriz [V1,V2,V3,M]. 4.2.10. >> A=randi(3,2)*randi(2,5,2) A = -2 4-2 -8-8 -4 0-4 -8 0 5-3 5 13 6 >> escalona(a) ans = 1 0 1 2 0 0 1 0-1 -2 0 0 0 0 0 A 3 = 1A 1 + 0A 2, A 4 = 2A 1 A 2, A 5 = 0A 1 2A 2. Observe que as relações que são válidas entre as colunas de A são válidas entre as colunas da forma escalonada reduzida de A. 4.2.11. >> A=randi(4,3)*randi(3,5,2); >> R=escalona(A) [ 6, -2, 1, 8, 2] [ 12, 6, -1, 8, 9] [ 20, 12, 1, 15, 16] [ 0, 8, 5, 1, 4] R =[ 1, 0, 0, 1, 1/2] [ 0, 1, 0, -1/2, 1/2] [ 0, 0, 1, 1, 0] [ 0, 0, 0, 0, 0] O conjunto solução de AX = 0 é o mesmo de RX = 0. Assim, a mesma relação que é válida entre as colunas de R é válida entre as colunas de A. Portanto, as colunas de A que correspondem aos pivôs de R formam uma base para o subespaço gerado pelas colunas de A, pois as outras colunas são combinação linear destas. 4.2.12. >> A=randi(4,2) A = 2 1 2-4 3-1 0 2 >> B=[A,eye(4)]; >> R=escalona(B) [ 2, 1, 1, 0, 0, 0] [ 2, -4, 0, 1, 0, 0] [ 3, -1, 0, 0, 1, 0] [ 0, 2, 0, 0, 0, 1] R =[ 1, 0, 0, 0, 1/3, 1/6] [ 0, 1, 0, 0, 0, 1/2] [ 0, 0, 1, 0, -2/3, -5/6] [ 0, 0, 0, 1, -2/3, 5/3] As colunas de B que correspondem aos pivôs de R formam uma base para o subespaço gerado pelas colunas de B, pois as outras colunas são combinação linear destas. 4.2.13. (a) >> A=randi(4,3)*randi(3,5,2) A = 5-4 1-5 -3-9 5-4 -3 1 5-5 0-7 -5 6-3 3 11 0 >> escalona([a(:,1)+a(:,2),a]) [ 1, 5, -4, 1, -5, -3] [ -4, -9, 5, -4, -3, 1] [ 0, 5, -5, 0, -7, -5] [ 3, 6, -3, 3, 11, 0] ans = [ 1, 0, 1, 1, 0, 2] [ 0, 1, -1, 0, 0, -1] [ 0, 0, 0, 0, 1, 0] [ 0, 0, 0, 0, 0, 0] A base do subespaço é formada por V 1 = A 1 + A 2, V 2 = A 2 = (5, 9, 5, 6), V 3 = A 4 = ( 5, 3, 7, 11). (b) >> B=A*randi(5,2) B =-61-17 42-35 -78-33 11 62 >> escalona([b,a]) [ -61, -17, 5, -4, 1, -5, -3] [ 42, -35, -9, 5, -4, -3, 1] [ -78, -33, 5, -5, 0, -7, -5] [ 11, 62, 6, -3, 3, 11, 0] ans = [1, 0, 0, 1, 1, -2, 2] [0, 1, 0, -1, -1, 9/4, -2] [0, 0, 1, 8, 9, -71/4, 17] [0, 0, 0, 0, 0, 0, 0] A base do subespaço é formada por V 1 = ( 61, 42, 78, 11), V 2 = ( 17, 35, 33, 62), V 3 = A 1 = (5, 9, 5, 6). 19 de agosto de 2000 Reginaldo J. Santos
310 Respostas dos Exercícios 4.3. Espaço Linha e Espaço Coluna (página 217) 4.3.1. (a) >> A=[1,4,5,2;2,1,3,0;-1,3,2,2]; >> escalona(a) [ 1, 0, 1, -2/7] [ 0, 1, 1, 4/7] [ 0, 0, 0, 0] V 1 = (1, 0, 1, 2/7), V 2 = (0, 1, 1, 4/7) formam uma base para o espaço linha e W 1 = (1, 2, 1), W 2 = (4, 1, 3) formam uma base para o espaço coluna de A. (b) >> A=[1,-4,-5,4;-1,4,4,-5;0,0,2,0]; >> escalona(a) [ 1, -4, 0, 0] [ 0, 0, 1, 0] [ 0, 0, 0, 1] V 1 = (1, 4, 0, 0), V 2 = (0, 0, 1, 0), V 3 = (0, 0, 0, 1) formam uma base para o espaço linha de A e W 1 = (1, 1, 0), W 2 = ( 5, 4, 2), W 3 = (4, 5, 0) formam uma base para o espaço coluna de A. 4.3.2. (a) >> A=[1,-2,2;2,-2,4;-3,3,6]; >> escalona(a) [ 1, 0, 2] [ 0, 1, 0] [ 0, 0, 12] A dimensão é 3, ou seja, o subespaço é o R 3. (b) >> A=[1,-3,4;6,2,-1;2,-2,3;-4,-8,9]. >> escalona(a) [ 1, 0, 4/5, 2] [ 0, 1, 1/5, -1] [ 0, 0, 0, 0] A dimensão é 2. 4.3.3. (a) >> A=[1,2,2,3,1,4;2,4,5,5,4,9;3,6,7,8,5,9] >> U=escalona(A) U=[ 1, 2, 0, 5, -3, 0] [ 0, 0, 1, -1, 2, 0] [ 0, 0, 0, 0, 0, 1] As colunas U 2, U 4 e U 5 correspondem às variáveis livres. U 2 = 2U 1, U 4 = 5U 1 U 3, U 5 = 3U 1 + 2U 3. (b) As colunas A 1, A 3 e A 6 formam uma base para o espaço coluna de A. A 2 = 2A 1, A 4 = 5A 1 A 3, A 5 = 3A 1 + 2A 3. 4.3.4. (a) O posto é 2, pois as duas linhas são L.I. (b) O posto é 1, pois as duas linhas são L.D. (c) O posto é 2, pois o determinante da matriz é igual a zero e existem pelo menos duas linhas L.I. (d) O posto é 3, pois o determinante da submatriz formada pelas primeiras três colunas da matriz é diferente de zero. 4.3.5. (a) >> syms t; A=[1,1,t;1,t,1;t,1,1] >> escalona(a) [ 1, 1, t] [ 0, t-1, 1-t] [ 0, 1-t, 1-t^2] Continua? s [ 1, 0, t+1] [ 0, 1, -1] [ 0, 0, -t^2-t+2] Se t = 1, então o posto de A é igual a 1. Se t 1, então o posto de A é igual a 2 ou 3. Se além disso, t 2 t + 2 = (t + 2)(t 1) = 0, então o posto de A é igual a 2, ou seja, o posto de A é igual a 2, se t = 2 e é igual a 3, se t 1, 2. (b) >> A=[t,3,-1;3,6,-2;-1,-3,-t] >> escalona(a); [ 1, 0, -2*t-2] [ 0, 1, 2/3+t] [ 0, 0, -3+2*t^2-t] O posto de A é igual a 2, se 2t 2 t 3 = 0, ou seja, se t = 1, 3/2. Caso contrário, o posto de A é igual a 3. 4.3.6. (a) posto(a) 2 e nulidade(a) 1. (b) posto(a) 2 e nulidade(a) 0. (c) posto(a) 3 e nulidade(a) 0. (d) posto(a) min{m, n} e nulidade(a) n min{m, n}. 4.3.7. (a) Se posto(a) = posto([a B]) = 2, então o sistema AX = B tem solução única. Se posto(a) = posto([a B]) = 1, então o sistema AX = B tem infinitas soluções. Se posto(a) = 1 e posto([a B]) = 2, então o sistema AX = B não tem solução. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 5. Ortogonalidade 311 (b) Em nenhuma hipótese o sistema AX = B tem solução única. Se posto(a) = posto([a B]) = 1, 2, então o sistema AX = B tem infinitas soluções. Se posto(a) = 1 e posto([a B]) = 2, 3, então o sistema AX = B não tem solução. (c) Se posto(a) = posto([a B]) = 3, então o sistema AX = B tem solução única. Se posto(a) = posto([a B]) = 1, 2, então o sistema AX = B tem infinitas soluções. Se posto(a) = 1 e posto([a B]) = 2, 3 ou se posto(a) = 2 e posto([a B]) = 3, então o sistema AX = B não tem solução. (d) Se posto(a) = posto([a B]) = n, então o sistema AX = B tem solução única. Se posto(a) = posto([a B]) = 1,..., n 1, então o sistema AX = B tem infinitas soluções. Se posto(a) = i e posto([a B]) > i, para i = 1,..., n 1, então o sistema AX = B não tem solução. 5.1.4. >> v1=[1,1,1];v2=[0,1,1];v3=[1,2,3]; >> w1=v1; w2=v2-proj(w1,v2) w2 = [-2/3, 1/3, 1/3] >> w3=v3-proj(w1,v3)-proj(w2,v3) w3 = [0, -1/2, 1/2] >> u1=w1/no(w1),u2=w2/no(w2),u3=w3/no(w3) u 1 = [ ] 1 3 3 1 3 3 1 3 3 u 2 = [ 1 ] 3 2 3 1 6 2 3 1 6 2 3 u 3 = [ 0 1 ] 2 2 1 2 2 5.1.5. Este subespaço consiste dos vetores da forma: ( α β, β, α) = ( α, 0, α) + ( β, β, 0) = α( 1, 0, 1) + β( 1, 1, 0) 5.1. Produto Escalar em R-n(página 231) 5.1.1. >> syms a >> x=[1,1,-2];y=[a,-1,2]; >> solve(pe(x,y)) ans = 5 5.1.2. >> syms a b >> x=[1/2^(1/2),0,1/2^(1/2)];y=[a,1/2^(1/2),-b]; >> sol=solve(pe(x,y),no(y)-1) sol = a: [2x1 sym] b: [2x1 sym] >> sol.a, sol.b ans = [ 1/2] [ -1/2] ans = [ 1/2] [ -1/2] 5.1.3. >> v1=[1,1,-1,0];v2=[0,2,0,1];v3=[-1,0,0,1]; >> w1=v1; w2=v2-proj(w1,v2) w2 = [-2/3, 4/3, 2/3, 1] >> w3=v3-proj(w1,v3)-proj(w2,v3) w3 = [-4/11, -3/11, -7/11, 6/11] >> u1=w1/no(w1),u2=w2/no(w2),u3=w3/no(w3) u2 = [ 2 33 u3 = [ 2 55 u 1 = [ ] 1 3 3 1 3 3 1 3 3 0 ] 11 3 4 33 11 3 2 33 11 3 1 11 11 3 ] 110 3 110 110 7 110 110 3 55 110 >> v1=[-1,0,1];v2=[-1,1,0]; >> w1=v1; w2=v2-proj(w1,v2); >> u1=w1/no(w1), u2=w2/no(w2) u 1 = [ 1 ] 2 2 0 1 2 2 u 2 = [ 1 ] 6 3 2 1 3 3 2 1 6 3 2 5.1.6. Este subespaço consiste dos vetores da forma: ( α + 2β + γ, γ, β, α) = ( α, 0, 0, α) + (2β, 0, β, 0) + (γ, γ, 0, 0) = α( 1, 0, 0, 1) + β(2, 0, 1, 0) + γ(1, 1, 0, 0) >> v1=[-1,0,0,1];v2=[2,0,1,0];v3=[1,1,0,0]; >> w1=v1; w2=v2-proj(w1,v2); >> w3=v3-proj(w1,v3)-proj(w2,v3); >> u1=w1/no(w1), u2=w2/no(w2), u3=w3/no(w3) u 1 = [ 1 ] 2 2 0 0 1 2 2 u 2 = [ ] 1 3 3 0 1 3 3 1 3 3 u 3 = [ ] 1 42 42 1 7 42 1 21 42 1 42 42 19 de agosto de 2000 Reginaldo J. Santos
312 Respostas dos Exercícios 5.1.7. >> A=[1,1,-1,0;2,1,2,0]; >> escalona(a) 1 0 3 0 0 1-4 0 { x1 + 3x 3 = 0 x 2 4x 3 = 0 Este sistema tem como solução geral W = {( 3α, 4α, α) α R}. Agora, para qualquer elemento de W temos: ( 3α, 4α, α) = α( 3, 4, 1). Logo, S = {V = ( 3, 4, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. >> v=[-3,4,1]; >> u=v/no(v) u = [ 3 ] 26 26 2 13 26 1 26 26 5.1.8. >> V1=[1,2,-3]; P1=[0,0,0]; >> V2=[2,4,-6]; P2=[0,1,2]; >> pv(v1,v2) ans = 0 0 0 >> syms x y z; X=[x,y,z]; >> M=[X-P1;V1;P2-P1], expr=det(m) M =[ x, y, z] [ 1, 2, -3] [ 0, 1, 2] expr = 7*x-2*y+z Como o produto vetorial de V 1 e V 2 (os dois vetores diretores das retas) é igual ao vetor nulo, então as retas são paralelas. Neste caso, os vetores V 1 e P 1 P 2 são não colineares e paralelos ao plano procurado. Assim, 7x 2y+z = 0 é a equação do plano, que passa pela origem, logo é um subespaço. Este subespaço consiste dos vetores da forma: (α, β, 7α + 2β) = (α, 0, 7α) + (0, β, 2β) = α(1, 0, 7) + β(0, 1, 2) >> V1=[1,0,-7];V2=[0,1,2]; >> W1=V1; W2=V2-proj(W1,V2) W2 =[ 7/25, 1, 1/25] >> U1=W1/no(W1), U2=W2/no(W2) U 1 = [ 1/10 2 0 7 ] 10 2 U 2 = [ ] 7 45 3 5/9 3 1/45 3 Para completarmos a uma base ortonormal de R 3, basta acrescentarmos U 3 = U 1 U 2. >> U3=pv(U1,U2) U 3 = [ ] 7 18 2 3 1/9 2 3 1/18 2 3 5.1.9. >> syms x y z d >> expr1=2*x+2*y+2*z+d; >> P1=[0,0,-d/2]; N=[2,2,2]; P=[1,1,1]; >> expr2=abs(pe(p-p1,n))/no(n) expr2 = 1/6 6 + d 3 >> solve(expr2-sqrt(3),d) ans = [ 0][ -12] Os planos 2x+2y+2z = 0 e 2x+2y+2z 12 = 0 satisfazem as condições do exercício. Apenas o primeiro plano é um subespaço. Este subespaço consiste dos vetores da forma: (α, β, α β) = (α, 0, α) + (0, β, β) = α(1, 0, 1) + β(0, 1, 1) >> V1=[1,0,-1];V2=[0,1,-1]; >> W1=V1; W2=V2-proj(W1,V2) W2 = [ -1/2, 1, -1/2] >> U1=W1/no(W1), U2=W2/no(W2) Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 5. Ortogonalidade 313 U 1 = [ 1/2 2 0 1/2 2 ] U 2 = [ 1/6 3 2 1/3 3 2 1/6 3 2 ]. 5.2. Bases Ortogonais e Subespaços Ortogonais (página 246) u 1 = [ 1 ] 2 2 0 1 2 2 u 2 = [ 1 ] 6 3 2 1 3 3 2 1 6 3 2 5.2.4. Este subespaço consiste dos vetores da forma: 5.2.1. >> v1=[1,1,-1,0];v2=[0,2,0,1];v3=[-1,0,0,1]; >> w1=v1; w2=v2-proj(w1,v2) w2 = [-2/3, 4/3, 2/3, 1] >> w3=v3-proj(w1,v3)-proj(w2,v3) w3 = [-4/11, -3/11, -7/11, 6/11] >> u1=w1/no(w1),u2=w2/no(w2),u3=w3/no(w3) u 1 = [ ] 1 3 3 1 3 3 1 3 3 0 u2 = [ 2 33 11 3 4 33 11 3 2 33 u3 = [ 2 55 110 3 110 ] 11 3 1 11 11 3 ] 110 110 7 110 110 3 55 5.2.2. >> v1=[1,1,1];v2=[0,1,1];v3=[1,2,3]; >> w1=v1; w2=v2-proj(w1,v2) w2 = [-2/3, 1/3, 1/3] >> w3=v3-proj(w1,v3)-proj(w2,v3) w3 = [0, -1/2, 1/2] >> u1=w1/no(w1),u2=w2/no(w2),u3=w3/no(w3) u 1 = [ ] 1 3 3 1 3 3 1 3 3 u 2 = [ 1 ] 3 2 3 1 6 2 3 1 6 2 3 u 3 = [ 0 1 2 2 1 2 2 ] 5.2.3. Este subespaço consiste dos vetores da forma: ( α + 2β + γ, γ, β, α) = ( α, 0, 0, α) + (2β, 0, β, 0) + (γ, γ, 0, 0) = α( 1, 0, 0, 1) + β(2, 0, 1, 0) + γ(1, 1, 0, 0) >> v1=[-1,0,0,1];v2=[2,0,1,0];v3=[1,1,0,0]; >> w1=v1; w2=v2-proj(w1,v2); >> w3=v3-proj(w1,v3)-proj(w2,v3); >> u1=w1/no(w1), u2=w2/no(w2), u3=w3/no(w3) u 1 = [ 1 2 2 0 0 ] 1 2 2 ] 3 u 2 = [ 1 3 3 0 1 3 3 1 3 u 3 = [ 1 42 42 1 7 5.2.5. >> A=[1,1,-1,0;2,1,2,0]; >> escalona(a) 1 0 3 0 0 1-4 0 42 1 21 42 1 42 { x1 + 3x 3 = 0 x 2 4x 3 = 0 Este sistema tem como solução geral W = {( 3α, 4α, α) α R}. 42 ] ( α β, β, α) = ( α, 0, α) + ( β, β, 0) = α( 1, 0, 1) + β( 1, 1, 0) >> v1=[-1,0,1];v2=[-1,1,0]; >> w1=v1; w2=v2-proj(w1,v2); >> u1=w1/no(w1), u2=w2/no(w2) Agora, para qualquer elemento de W temos: ( 3α, 4α, α) = α( 3, 4, 1). Logo, S = {V = ( 3, 4, 1)} gera W. Como um conjunto formado por um único vetor não nulo é sempre L.I., então S é base para W. 19 de agosto de 2000 Reginaldo J. Santos
314 Respostas dos Exercícios >> v=[-3,4,1]; >> u=v/no(v) u = [ 3 ] 26 26 2 13 26 1 26 26 5.2.6. >> V1=[1,2,-3]; P1=[0,0,0]; >> V2=[2,4,-6]; P2=[0,1,2]; >> pv(v1,v2) ans = 0 0 0 >> syms x y z; X=[x,y,z]; >> M=[X-P1;V1;P2-P1], expr=det(m) M =[ x, y, z] [ 1, 2, -3] [ 0, 1, 2] expr = 7*x-2*y+z Como o produto vetorial de V 1 e V 2 (os dois vetores diretores das retas) é igual ao vetor nulo, então as retas são paralelas. Neste caso, os vetores V 1 e P 1 P 2 são não colineares e paralelos ao plano procurado. Assim, 7x 2y+z = 0 é a equação do plano, que passa pela origem, logo é um subespaço. Este subespaço consiste dos vetores da forma: (α, β, 7α + 2β) = (α, 0, 7α) + (0, β, 2β) = α(1, 0, 7) + β(0, 1, 2) >> V1=[1,0,-7];V2=[0,1,2]; >> W1=V1; W2=V2-proj(W1,V2) W2 =[ 7/25, 1, 1/25] >> U1=W1/no(W1), U2=W2/no(W2) 5.2.7. >> syms x y z d >> expr1=2*x+2*y+2*z+d; >> P1=[0,0,-d/2]; N=[2,2,2]; P=[1,1,1]; >> expr2=abs(pe(p-p1,n))/no(n) expr2 = 1/6 6 + d 3 >> solve(expr2-sqrt(3),d) ans = [ 0][ -12] Os planos 2x+2y+2z = 0 e 2x+2y+2z 12 = 0 satisfazem as condições do exercício. Apenas o primeiro plano é um subespaço. Este subespaço consiste dos vetores da forma: (α, β, α β) = (α, 0, α) + (0, β, β) = α(1, 0, 1) + β(0, 1, 1) >> V1=[1,0,-1];V2=[0,1,-1]; >> W1=V1; W2=V2-proj(W1,V2) W2 = [ -1/2, 1, -1/2] >> U1=W1/no(W1), U2=W2/no(W2) U 1 = [ 1/2 2 0 1/2 2 ] U 2 = [ 1/6 3 2 1/3 3 2 1/6 3 2 ]. U 1 = [ 1/10 2 0 7 ] 10 2 U 2 = [ ] 7 45 3 5/9 3 1/45 3 Para completarmos a uma base ortonormal de R 3, basta acrescentarmos U 3 = U 1 U 2. >> U3=pv(U1,U2) U 3 = [ ] 7 18 2 3 1/9 2 3 1/18 2 3 Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 315 6.1. Diagonalização de Matrizes (página 266) 6.1.1. (a) >> A=[1,1;1,1]; >> B=A-x*eye(2) [1-x, 1] [ 1, 1-x] >> p=det(b) p =-2*x+x^2 >> solve(p) [0][2] >> B0=subs(B,x,0) [1, 1] [1, 1] >> escalona(b0) 1 1 0 0 >> B2=subs(B,x,2) [-1, 1] [ 1, -1] >> escalona(b2) 1-1 0 0 (c) (d) V 0 = {( α, α) α R} V 2 = {(α, α) α R} >> A=[0,1,2;0,0,3;0,0,0]; >> B=A-x*eye(3) [-x, 1, 2] [ 0, -x, 3] [ 0, 0, -x] >> p=det(b) p=-x^3 >> solve(p) [0][0][0] >> A=[1,0,0;-1,3,0;3,2,-2]; >> B=A-x*eye(3) [1-x, 0, 0] [ -1, 3-x, 0] [ 3, 2, -2-x] >> p=det(b) p =(1-x)*(3-x)*(-2-x) >> solve(p) [ 1][ 3][-2] V 0 = {(α, 0, 0) α R} (b) >> A=[1,-1;2,4]; >> B=A-x*eye(2) [1-x, -1] [ 2, 4-x] >> p=det(b) p =6-5*x+x^2 >> solve(p) [3][2] >> B2=subs(B,x,2) [-1, -1] [ 2, 2] >> escalona(b2) 1 1 0 0 >> B3=subs(B,x,3) [-2, -1] [ 2, 1] >> escalona(b3) 1 1/2 0 0 >> B0=subs(B,x,0) [0, 1, 2] [0, 0, 3] [0, 0, 0] >> escalona(b0) [0, 1, 0] [0, 0, 1] [0, 0, 0] >> Bm2=subs(B,x,-2) [ 3, 0, 0] [-1, 5, 0] [ 3, 2, 0] >> escalona(bm2) [1, 0, 0] [0, 1, 0] [0, 0, 0] V 2 = {( α, α) α R} V 3 = {( α, 2α) α R} 19 de agosto de 2000 Reginaldo J. Santos
316 Respostas dos Exercícios >> B1=subst(B,x,1) [ 0, 0, 0] [-1, 2, 0] [ 3, 2, -3] >> escalona(b1) [1, 0, -3/4] [0, 1, -3/8] [0, 0, 0] >> B3=subs(B,x,3) [-2, 0, 0] [-1, 0, 0] [ 3, 2, -5] >> escalona(b3) [1, 0, 0] [0, 1, -5/2] [0, 0, 0] V 2 = {(0, 0, α) α R} V 1 = {(6α, 3α, 8α) α R} V 3 = {(0, 5α, 2α) α R} (e) >> A=[2,-2,3;0,3,-2;0,-1,2]; >> B=A-x*eye(3) [2-x, -2, 3] [ 0, 3-x, -2] [ 0, -1, 2-x] >> p=det(b) p =(2-x)*(4-5*x+x^2) >> solve(p) [2][4][1] >> B1=subs(B,x,1) [1, -2, 3] [0, 2, -2] [0, -1, 1] >> escalona(b1) [1, 0, 1] [0, 1, -1] [0, 0, 0] >> B2=subs(B,x,2) [0, -2, 3] [0, 1, -2] [0, -1, 0] >> escalona(b2) [0, 1, 0] [0, 0, 1] [0, 0, 0] >> B4=subs(B,x,4) [-2, -2, 3] [ 0, -1, -2] [ 0, -1, -2] >> escalona(b4) [1, 0, -7/2] [0, 1, 2] [0, 0, 0] V 1 = {( α, α, α) α R} V 2 = {(α, 0, 0) α R} V 4 = {(7α, 4α, 2α) α R} (f) Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 317 >> A=[2,2,3;1,2,1;2,-2,1]; >> B=A-x*eye(3) [2-x, 2, 3] [ 1, 2-x, 1] [ 2, -2, 1-x] >> p=det(b) p =-8-2*x+5*x^2-x^3 >> solve(p) [ 2][ 4][-1] >> Bm1=subs(B,x,-1) [3, 2, 3] [1, 3, 1] [2, -2, 2] >> escalona(bm1) [1, 0, 1] [0, 1, 0] [0, 0, 0] >> B2=subs(B,x,2) [0, 2, 3] [1, 0, 1] [2, -2, -1] >> escalona(b2) [1, 0, 1] [0, 1, 3/2] [0, 0, 0] >> B4=subs(B,x,4) [-2, 2, 3] [ 1, -2, 1] [ 2, -2, -3] >> escalona(b4) [1, 0, -4] [0, 1, -5/2] [0, 0, 0] V 1 = {( α, 0, α) α R}, V 2 = {( 2α, 3α, 2α) α R} e V 4 = {(8α, 5α, 2α) α R} 6.1.2. (a) (b) >> A=[2,0,0;3,-1,0;0,4,3]; >> B=A-x*eye(3) [2-x, 0, 0] [ 3, -1-x, 0] [ 0, 4, 3-x] >> p=det(b) p =(2-x)*(-1-x)*(3-x) >> solve(p) [ 2][-1][ 3] >> Bm1=subs(B,x,-1) [3, 0, 0] [3, 0, 0] [0, 4, 4] >> escalona(bm1) [1, 0, 0] [0, 1, 1] [0, 0, 0] >> B2=subs(B,x,2) [0, 0, 0] [3, -3, 0] [0, 4, 1] >> escalona(b2) [1, 0, 1/4] [0, 1, 1/4] [0, 0, 0] >> B3=subst(B,x,3) [-1, 0, 0] [ 3, -4, 0] [ 0, 4, 0] >> escalona(b3) [1, 0, 0] [0, 1, 0] [0, 0, 0] V 1 = {(0, α, α) α R}. {(0, 1, 1)} é base para V 1, pois gera V 1 ((0, α, α) = α(0, 1, 1)) e um vetor não nulo é L.I. V 2 = {( α, α, 4α) α R}. {( 1, 1, 4)} é base para V 2, pois gera V 2 (( α, α, 4α) = α( 1, 1, 4)) e um vetor não nulo é L.I. V 3 = {(0, 0, α) α R}. {(0, 0, 1)} é base para V 3, pois gera V 3 ((0, 0, α) = α(0, 0, 1)) e um vetor não nulo é L.I. 19 de agosto de 2000 Reginaldo J. Santos
318 Respostas dos Exercícios (c) >> A=[2,3,0;0,1,0;0,0,2]; >> B=A-x*eye(3) [2-x, 3, 0] [ 0, 1-x, 0] [ 0, 0, 2-x] >> p=det(b) p =(2-x)^2*(1-x) >> solve(p) [2][2][1] >> B1=subs(B,x,1) [1, 3, 0] [0, 0, 0] [0, 0, 1] >> escalona(b1) [1, 3, 0] [0, 0, 1] [0, 0, 0] >> B2=subs(B,x,2) [0, 3, 0] [0, -1, 0] [0, 0, 0] >> escalona(b2) [0, 1, 0] [0, 0, 0] [0, 0, 0] V 1 = {( 3α, α, 0) α R}. {( 3, 1, 0)} é base para V 1, pois gera V 1 (( 3α, α, 0) = α( 3, 1, 0)) e um vetor não nulo é L.I. V 2 = {(α, 0, β) α, β R}. {V 1 = (1, 0, 0), V 2 = (0, 0, 1)} é base para V 2, pois gera V 2 ((α, 0, β) = α(1, 0, 0) + β(0, 0, 1)) e é L.I. (xv 1 + yv 2 = 0 se, e somente se, (x, 0, y) = (0, 0, 0) ou x = 0 e y = 0). >> A=[1,2,3,4;0,-1,3,2;0,0,3,3;0,0,0,2]; >> B=A-x*eye(4) [1-x, 2, 3, 4] [ 0, -1-x, 3, 2] [ 0, 0, 3-x, 3] [ 0, 0, 0, 2-x] >> p=det(b) p =(1-x)*(2-x)*(-1-x)*(3-x) >> solve(p) [ 1][ 2][-1][ 3] >> Bm1=subs(B,x,-1) [2, 2, 3, 4] [0, 0, 3, 2] [0, 0, 4, 3] [0, 0, 0, 3] >> escalona(bm1) [1, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] >> B2=subs(B,x,2) [-1, 2, 3, 4] [ 0, -3, 3, 2] [ 0, 0, 1, 3] [ 0, 0, 0, 0] >> escalona(b2) [1, 0, 0, 29/3] [0, 1, 0, 7/3] [0, 0, 1, 3] [0, 0, 0, 0] >> B1=subs(B,x,1) [0, 2, 3, 4] [0, -2, 3, 2] [0, 0, 2, 3] [0, 0, 0, 1] >> escalona(b1) [0, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] >> B3=subst(B,x,3) [-2, 2, 3, 4] [ 0, -4, 3, 2] [ 0, 0, 0, 3] [ 0, 0, 0, -1] >> escalona(b3) [1, 0, -9/4, 0] [0, 1, -3/4, 0] [0, 0, 0, 1] [0, 0, 0, 0] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 319 (d) V 1 = {( α, α, 0, 0) α R}. {( 1, 1, 0, 0)} é base para V 1, pois gera V 1 (( α, α, 0, 0) = α( 1, 1, 0, 0)) e um vetor não nulo é L.I. V 1 = {(α, 0, 0, 0) α R}. {(1, 0, 0, 0)} é base para V 1, pois gera V 1 ((α, 0, 0, 0) = α(1, 0, 0, 0)) e um vetor não nulo é L.I. V 2 = {( 29α, 7α, 9α, 3α) α R}. {( 29, 7, 9, 3)} é base para V 2, pois gera V 2 (( 29α, 7α, 9α, 3α) = α( 29, 7, 9, 3)) e um vetor não nulo é L.I. V 3 = {(9α, 3α, 4α, 0) α R}. {(9, 3, 4, 0)} é base para V 3, pois gera V 3 ((9α, 3α, 4α, 0) = α(9, 3, 4, 0)) e um vetor não nulo é L.I. >> A=[2,2,3,4;0,2,3,2;0,0,1,1;0,0,0,1]; >> B=A-x*eye(4) [2-x, 2, 3, 4] [ 0, 2-x, 3, 2] [ 0, 0, 1-x, 1] [ 0, 0, 0, 1-x] >> p=det(b) p =(2-x)^2*(1-x)^2 >> solve(p) [2][2][1][1] >> B1=subs(B,x,1) [1, 2, 3, 4] [0, 1, 3, 2] [0, 0, 0, 1] [0, 0, 0, 0] >> escalona(b1) [1, 0, -3, 0] [0, 1, 3, 0] [0, 0, 0, 1] [0, 0, 0, 0] >> B2=subs(B,x,2) [0, 2, 3, 4] [0, 0, 3, 2] [0, 0, -1, 1] [0, 0, 0, -1] >> escalona(b2) [0, 1, 0, 0] [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] V 1 = {(3α, 3α, α, 0) α R}. {(3, 3, 1, 0)} é base para V 1, pois gera V 1 ((3α, 3α, α, 0) = α(3, 3, 1, 0)) e um vetor não nulo é L.I. V 2 = {(α, 0, 0, 0) α R}. {(1, 0, 0, 0)} é base para V 2, pois gera V 2 ((α, 0, 0, 0) = α(1, 0, 0, 0)) e um vetor não nulo é L.I. 6.1.3. (a) >> A=[1,4;1,-2]; >> B=A-x*eye(2) [1-x, 4] [ 1, -2-x] >> p=det(b) p =-6+x+x^2 >> solve(p) [ 2][-3] A matriz A possui dois autovalores diferentes, logo possui dois autovetores L.I. (Proposição 6.3 na página 262). A matriz A é diagonalizável pois, é 2 2 e possui dois autovetores L.I. (Teorema 6.2 na página 260). 19 de agosto de 2000 Reginaldo J. Santos
320 Respostas dos Exercícios (b) >> A=[1,0;-2,1]; >> B=A-x*eye(2) [1-x, 0] [ -2, 1-x] >> p=det(b) p =(1-x)^2 >> solve(p) [1][1] >> B1=subs(B,x,1) [ 0, 0] [-2, 0] >> escalona(numeric(b1)) [1, 0] [0, 0] V 1 = {(α, 0) α R} A matriz A não é diagonalizável pois, não possui dois autoovetores L.I. (Teorema 6.2 na página 260). (c) >> A=[1,1,-2;4,0,4;1,-1,4] A = 1 1-2 4 0 4 1-1 4 >> B=A-x*eye(3); p=det(b) p =5*x^2-6*x-x^3 >> solve(p) ans =[0][2][3] A matriz A possui três autovalores diferentes, logo possui três autovetores L.I. (Proposição 6.3 na página 262). A matriz A é diagonalizável pois, é 3 3 e possui três autovetores L.I. (Teorema 6.2 na página 260). (d) >> A=[1,2,3;0,-1,2;0,0,2]; >> B=A-x*eye(3) [1-x, 2, 3] [ 0, -1-x, 2] [ 0, 0, 2-x] >> p=det(b) p =(1-x)*(-1-x)*(2-x) >> solve(p) [ 1][-1][ 2] A matriz A possui três autovalores diferentes, logo possui três autovetores L.I. (Proposição 6.3 na página 262). A matriz A é diagonalizável pois, é 3 3 e possui três autovetores L.I. (Teorema 6.2 na página 260). 6.1.4. (a) >> A=[1,1,2;0,1,0;0,1,3]; >> B=A-x*eye(3) [1-x, 1, 2] [ 0, 1-x, 0] [ 0, 1, 3-x] >> p=det(b) p =(1-x)^2*(3-x) >> solve(p) [1][1][3] >> B3=subs(B,x,3) [ -2, 1, 2] [ 0, -2, 0] [ 0, 1, 0] >> escalona(b3) [ 1, 0, -1] [ 0, 1, 0] [ 0, 0, 0] >> B1=subs(B,x,1) [0, 1, 2] [0, 0, 0] [1, 1, 2] >> escalona(b1) [ 0, 1, 2] [ 0, 0, 0] [ 0, 0, 0] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 321 V 1 = {(β, 2α, α) α, β R}. {(1, 0, 0), (0, 2, 1)} é base para V 1, pois gera V 1 ((β, 2α, α) = α(0, 2, 1)+β(1, 0, 0)) e são L.I. (um vetor não é múltiplo escalar do outro) V 3 = {((α, 0, α) α R}. {(1, 0, 1)} é base para V 3, pois gera V 3 ((α, 0, α) = α(1, 0, 1)) e um vetor não nulo é L.I. (b) >> A=[4,2,3;2,1,2;-1,-2,0]; >> B=A-x*eye(3) [4-x, 2, 3] [ 2, 1-x, 2] [ -1, -2, -x] >> p=det(b) p =-7*x+5*x^2+3-x^3 >> solve(p) [3][1][1] >> B1=subs(B,x,1) [ 3, 2, 3] [ 2, 0, 2] [-1, -2, -1] >> escalona(b1) [1, 0, 1] [0, 1, 0] [0, 0, 0] P = [ 1 0 1 0 2 0 0 1 1 ] e D = [ 1 0 0 0 1 0 0 0 3 ] >> B3=subs(B,x,3) [ 1, 2, 3] [ 2, -2, 2] [-1, -2, -3] >> escalona(b3) [1, 0, 5/3] [0, 1, 2/3] [0, 0, 0] V 1 = {( α, 0, α) α R}. {( 1, 0, 1)} é base para V 1, pois gera V 1 (( α, 0, α) = α( 1, 0, 1)) e um vetor não nulo é L.I. V 2 = {( 5α, 2α, 3α) α R}. {( 5, 2, 3)} é base para V 2, pois gera V 2 (( 5α, 2α, 3α) = α( 5, 2, 3)) e um vetor não nulo é L.I. A matriz não é diagonalizável pois só possui dois autovalores e cada um deles só possui um autovetor L.I. associado (Teorema 6.2 na página 260). (c) >> A=[1,2,3;0,1,0;2,1,2]; >> B=A-x*eye(3) [1-x, 2, 3] [ 0, 1-x, 0] [ 2, 1, 2-x] >> p=det(b) p =-4+x+4*x^2-x^3 >> solve(p) [ 1][ 4][-1] >> B1=subst(B,x,1) [0, 2, 3] [0, 0, 0] [2, 1, 1] >> escalona(b1) [1, 0, -1/4] [0, 1, 3/2] [0, 0, 0] >> Bm1=subs(B,x,-1) [2, 2, 3] [0, 2, 0] [2, 1, 3] >> escalona(bm1) [1, 0, 3/2] [0, 1, 0] [0, 0, 0] >> B4=subs(B,x,4) [-3, 2, 3] [ 0, -3, 0] [ 2, 1, -2] >> escalona(b4) [1, 0, -1] [0, 1, 0] [0, 0, 0] 19 de agosto de 2000 Reginaldo J. Santos
322 Respostas dos Exercícios V 1 = {( 3α, 0, 2α) α R}. {( 3, 0, 2)} é base para V 1, pois gera V 1 (( 3α, 0, 2α) = α( 3, 0, 2)) e um vetor não nulo é L.I. V 1 = {(α, 6α, 4α) α R}. {(1, 6, 4)} é base para V 1, pois gera V 1 ((α, 6α, 4α) = α(1, 6, 4)) e um vetor não nulo é L.I. V 4 = {(α, 0, α) α R}. {(1, 0, 1)} é base para V 4, pois gera V 4 ((α, 0, α) = α(1, 0, 1)) e um vetor não nulo é L.I. (d) >> A=[3,-2,1;0,2,0;0,0,0]; >> B=A-x*eye(3) [3-x, -2, 1] [ 0, 2-x, 0] [ 0, 0, -x] >> p=det(b) p =-(3-x)*(2-x)*x >> solve(p) [3][2][0] >> B2=subs(B,x,2) [1, -2, 1] [0, 0, 0] [0, 0, -2] >> escalona(b2) [1, -2, 0] [0, 0, 1] P = [ 3 1 1 0 6 0 2 4 1 ] e D = [ 1 0 0 0 1 0 0 0 4 ] >> B0=subs(B,x,0) [3, -2, 1] [0, 2, 0] [0, 0, 0] >> escalona(b0) [1, 0, 1/3] [0, 1, 0] [0, 0, 0] >> B3=subs(B,x,3) [0, -2, 1] [0, -1, 0] [0, 0, -3] >> escalona(b3) [0, 1, 0] [0, 0, 1] [0, 0, 0] [0, 0, 0] V 0 = {( α, 0, 3α) α R}. {( 1, 0, 3)} é base para V 0, pois gera V 0 (( α, 0, 3α) = α( 1, 0, 3)) e um vetor não nulo é L.I. V 2 = {(2α, α, 0) α R}. {(2, 1, 0)} é base para V 2, pois gera V 2 ((2α, α, 0) = α(2, 1, 0)) e um vetor não nulo é L.I. V 3 = {(α, 0, 0) α R}. {(1, 0, 0)} é base para V 3, pois gera V 3 ((α, 0, 0) = α(1, 0, 0)) e um vetor não nulo é L.I. P = [ 1 2 1 0 1 0 3 0 0 6.1.5. >> B=randi(2), A=[B-B,zeros(2,1);zeros(1,2),randi] B = 5-1 3 0 A = 0-4 0 4 0 0 0 0-3 >> syms x, p=det(a-x*eye(3)), solve(p) p = -3*x^2-x^3-48-16*x ans = [ -3][ 4*i][ -4*i] >> escalona(a+3*eye(3)) ans =[ 1, 0, 0] ] e D = [ 0 0 0 0 2 0 0 0 3 ] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 323 [ 0, 1, 0] [ 0, 0, 0] A matriz A não é diagonalizável pois ela só tem um autovalor e auto espaço associado a este autovalor tem dimensão 2. Assim, não é possível encontrar 3 autovetores L.I. 6.1.6. >> L=[eye(2),zeros(2,1);randi(1,2),0]; A=L*L A = 1 0 2 0 1-2 2-2 8 >> syms x, p=det(a-x*eye(3)), solve(p) p = -9*x+10*x^2-x^3 ans = [ 0][ 1][ 9] >> escalona(a) ans =[ 1, 0, 2] [ 0, 1, -2] [ 0, 0, 0] O autoespaço associado ao autovalor λ = 0 é V 0 = {( 2α, 2α, α) α R}. Assim, {V 1 = ( 2, 2, 1)} é um conjunto com o maior número possível de autovetores L.I. associado a λ = 0. >> escalona(a-eye(3)) ans =[ 1, -1, 0] [ 0, 0, 1] [ 0, 0, 0] O autoespaço associado ao autovalor λ = 1 é V 1 = {(α, α, 0) α R}. Assim, {V 2 = (1, 1, 0)} é um conjunto com o maior número possível de autovetores L.I. associado a λ = 1. >> escalona(a-9*eye(3)) ans =[ 1, 0, -1/4] [ 0, 1, 1/4] [ 0, 0, 0] O autoespaço associado ao autovalor λ = 9 é V 9 = {(α, α, 4α) α R}. Assim, {V 3 = (1, 1, 4)} é um conjunto com o maior número possível de autovetores L.I. associado a λ = 9. 19 de agosto de 2000 Reginaldo J. Santos
324 Respostas dos Exercícios >> V1=[-2,2,1];V2=[1,1,0];V3=[1,-1,4]; >> P=[V1,V2,V3 ], D=diag([0,1,9]) P = -2 1 1 2 1-1 1 0 4 D = 0 0 0 0 1 0 0 0 9 >> inv(p)*a*p ans = 0 0 0 0 1 0 0 0 9 >> [P,D]=eig(sym(A)) P =[ -1, -2, 1] [ 1, 2, 1] [ -4, 1, 0] D =[ 9, 0, 0] [ 0, 0, 0] [ 0, 0, 1] Os elementos da diagonal da matriz D têm que ser os autovalores de A. As matrizes D podem diferir na ordem com que os autovalores aparecem. As colunas de P são autovetores associados aos autovalores que aparecem nas colunas correspondentes de D. Assim, fazendo uma reordenacão das colunas das matrizes P e D de forma que as matrizes D sejam iguais, as colunas de uma matriz P são múltiplos escalares das colunas correspondentes da outra matriz P. 6.2. Diagonalização de Matrizes Simétricas (página 278) 6.2.1. (a) >> A=[2,2;2,2]; >> B=A-x*eye(2) [2-x, 2] [ 2, 2-x] >> p=det(b) p =-4*x+x^2 >> solve(p) [0][4] >> B0=subs(B,x,0) [2, 2] [2, 2] >> escalona(b0) [1, 1] [0, 0] >> B4=subs(B,x,4) [-2, 2] [ 2, -2] >> escalona(b4) [1, -1] [0, 0] V 0 = {( α, α) α R}. {V 1 = ( 1, 1)} é base para V 0, pois gera V 0 (( α, α) = α( 1, 1)) e um vetor não nulo é L.I. Seja W 1 = (1/ V 1 )V 1 = ( 1/ 2, 1/ 2). {W 1 = ( 1/ 2, 1/ 2)} é base ortonormal de V 0. Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 325 V 4 = {(α, α) α R}. {V 2 = (1, 1)} é base para V 4, pois gera V 4 ((α, α) = α(1, 1)) e um vetor não nulo é L.I. Seja W 2 = (1/ V 2 )V 2 = (1/ 2, 1/ 2). {W 2 = (1/ 2, 1/ 2)} é base ortonormal de V 4. (b) >> A=[2,1;1,2]; >> B=A-x*eye(2) [2-x, 1] [ 1, 2-x] >> p=det(b) p =3-4*x+x^2 >> solve(p) [3][1] >> B1=subs(B,x,1) [1, 1] [1, 1] >> escalona(numeric(b1)) [1, 1] [0, 0] [ 1/ 2 1/ 2 P = 1/ 2 1/ 2 ] [ 0 0 e D = 0 4 ] >> B3=subs(B,x,3) [-1, 1] [ 1, -1] >> escalona(b3) [1, -1] [0, 0] V 1 = {( α, α) α R}. {V 1 = ( 1, 1)} é base para V 1, pois gera V 1 (( α, α) = α( 1, 1)) e um vetor não nulo é L.I. Seja W 1 = (1/ V 1 )V 1 = ( 1/ 2, 1/ 2). {W 1 = ( 1/ 2, 1/ 2)} é base ortonormal de V 1. V 3 = {(α, α) α R}. {V 2 = (1, 1)} é base para V 3, pois gera V 3 ((α, α) = α(1, 1)) e um vetor não nulo é L.I. Seja W 2 = (1/ V 2 )V 2 = (1/ 2, 1/ 2). {W 2 = (1/ 2, 1/ 2)} é base ortonormal de V 3. (c) >> A=[0,0,1;0,0,0;1,0,0]; >> B=A-x*eye(3) [-x, 0, 1] [ 0, -x, 0] [ 1, 0, -x] >> p=det(b) p =-x^3+x >> solve(p) [ 0][-1][ 1] >> Bm1=subs(B,x,-1) [1, 0, 1] [0, 1, 0] [1, 0, 1] >> escalona(bm1) [1, 0, 1] [0, 1, 0] [ 1/ 2 1/ 2 P = 1/ 2 1/ 2 ] [ 1 0 e D = 0 3 ] >> B0=subs(B,x,0) [0, 0, 1] [0, 0, 0] [1, 0, 0] >> escalona(b0) [1, 0, 0] [0, 0, 1] [0, 0, 0] >> B1=subs(B,x,1) [-1, 0, 1] [ 0, -1, 0] [ 1, 0, -1] >> escalona(b1) [1, 0, -1] [0, 1, 0] [0, 0, 0] [0, 0, 0] V 0 = {(0, α, 0) α R}. {V 1 = (0, 1, 0)} é base para V 0, pois gera V 0 ((0, α, 0) = α(0, 1, 0)) e um vetor não nulo é L.I. {V 1 = (0, 1, 0)} é base ortonormal de V 0, pois V 1 = 1. 19 de agosto de 2000 Reginaldo J. Santos
326 Respostas dos Exercícios V 1 = {( α, 0, α) α R}. {V 2 = ( 1, 0, 1)} é base para V 1, pois gera V 1 (( α, 0, α) = α( 1, 0, 1)) e um vetor não nulo é L.I. Seja W 2 = (1/ V 2 )V 2 = ( 1/ 2, 0, 1/ 2). {W 2 = ( 1/ 2, 0, 1/ 2)} é base ortonormal de V 1. V 1 = {(α, 0, α) α R}. {V 3 = (1, 0, 1)} é base para V 1, pois gera V 1 ((α, 0, α) = α(1, 0, 1)) e um vetor não nulo é L.I. Seja W 3 = (1/ V 3 )V 3 = (1/ 2, 0, 1/ 2). {W 3 = (1/ 2, 0, 1/ 2)} é base ortonormal de V 1. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.5 na página 275). Portanto, {W 1, W 2, W 3 } é uma base ortonormal de autovetores de A. (d) >> A=[0,0,0;0,2,2;0,2,2]; >> B=A-x*eye(3) [-x, 0, 0] [ 0, 2-x, 2] [ 0, 2, 2-x] >> p=det(b) p =-x*(-4*x+x^2) >> solve(p) [0][0][4] >> B0=subs(B,x,0) [0, 0, 0] [0, 2, 2] [0, 2, 2] P = 0 1/ 2 1/ 2 1 0 0 0 1/ 2 1/ 2 e D = [ 0 0 0 0 1 0 0 0 1 ] >> escalona(b0) [0, 1, 1] [0, 0, 0] [0, 0, 0] >> B4=subs(B,x,4) [-4, 0, 0] [ 0, -2, 2] [ 0, 2, -2] >> escalona(b4) [1, 0, 0] [0, 1, -1] [0, 0, 0] V 0 = {(α, β, β) α, β R}. {V 1 = (1, 0, 0), V 2 = (0, 1, 1)} é base para V 0, pois gera V 0 ((α, β, β) = α(1, 0, 0) + β(0, 1, 1)) e é L.I. (xv 1 + yv 2 = 0 se, e somente se, (x, y, y) = (0, 0, 0) ou x = 0 e y = 0). Sejam W 1 = V 1, W 2 = V 2 proj W1 V 2 = V 2 0 = V 2. Sejam U 1 = (1/ W 1 )W 1 = W 1 = V 1 = (1, 0, 0) e U 2 = (1/ W 2 )W 2 = (0, 1/ 2, 1/ 2). {U 1 = (1, 0, 0), U 2 = ((0, 1/ 2, 1/ 2)} é base ortonormal de V 0. V 4 = {(0, α, α) α R}. {V 3 = (0, 1, 1)} é base para V 4, pois gera V 4 ((0, α, α) = α(0, 1, 1)) e um vetor não nulo é L.I. Seja U 3 = (1/ V 3 )V 3 = (0, 1/ 2, 1/ 2). {U 3 = (0, 1/ 2, 1/ 2)} é base ortonormal de V 4. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.5 na página 275). Portanto, {U 1, U 2, U 3 } é uma base ortonormal de autovetores de A. P = 1 0 0 0 1/ 2 1/ 2 0 1/ 2 1/ 2 e D = [ 0 0 0 0 0 0 0 0 4 ] (e) >> A=[1,1,0;1,1,0;0,0,1]; >> B=A-x*eye(3) [1-x, 1, 0] [ 1, 1-x, 0] [ 0, 0, 1-x] >> p=det(b) p =-2*x+3*x^2-x^3 >> solve(p) [0][1][2] >> B0=subs(B,x,0) [1, 1, 0] [1, 1, 0] [0, 0, 1] >> escalona(b0) [1, 1, 0] [0, 0, 1] [0, 0, 0] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 327 >> B1=subs(B,x,1) [0, 1, 0] [1, 0, 0] [0, 0, 0] >> escalona(b1) [1, 0, 0] [0, 1, 0] [0, 0, 0] >> B2=subs(B,x,2) [-1, 1, 0] [ 1, -1, 0] [ 0, 0, -1] >> escalona(b2) [1, -1, 0] [0, 0, 1] [0, 0, 0] V 0 = {( α, α, 0) α R}. {V 1 = ( 1, 1, 0)} é base para V 0, pois gera V 0 (( α, α, 0) = α( 1, 1, 0)) e um vetor não nulo é L.I. Seja U 1 = (1/ V 1 )V 1 = ( 1/ 2, 1/ 2, 0). {U 1 = ( 1/ 2, 1/ 2, 0)} é base ortonormal de V 0. V 1 = {(0, 0, α) α R}. {V 2 = (0, 0, 1)} é base para V 1, pois gera V 1 ((0, 0, α) = α(0, 0, 1)) e um vetor não nulo é L.I. Seja W 2 = (1/ V 2 )V 2 = (0, 0, 1). {W 2 = (0, 0, 1)} é base ortonormal de V 1. V 2 = {(α, α, 0) α R}. {V 3 = (1, 1, 0)} é base para V 1, pois gera V 1 ((α, α, 0) = α(1, 1, 0)) e um vetor não nulo é L.I. Seja W 3 = (1/ V 3 )V 3 = (1/ 2, 1/ 2, 0). {W 3 = (1/ 2, 1/ 2, 0)} é base ortonormal de V 1. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.5 na página 275). Portanto, {W 1, W 2, W 3 } é uma base ortonormal de autovetores de A. (f) >> A=[2,1,1;1,2,1;1,1,2]; >> B=A-x*eye(3) [2-x, 1, 1] [ 1, 2-x, 1] [ 1, 1, 2-x] >> p=det(b) p =4-9*x+6*x^2-x^3 >> solve(p) [4][1][1] >> B1=subs(B,x,1) [1, 1, 1] [1, 1, 1] [1, 1, 1] P = 1/ 2 0 1/ 2 1/ 2 0 1/ 2 0 1 0 e D = [ 0 0 0 0 1 0 0 0 2 ] >> escalona(b1) [1, 1, 1] [0, 0, 0] [0, 0, 0] >> B4=subst(B,x,4) [-2, 1, 1] [ 1, -2, 1] [ 1, 1, -2] >> escalona(b4) [1, 0, -1] [0, 1, -1] [0, 0, 0] V 1 = {( α β, α, β) α, β R}. {V 1 = ( 1, 1, 0), V 2 = ( 1, 0, 1)} é base para V 1, pois gera V 0 (( α β, α, β) = α( 1, 1, 0) + β( 1, 0, 1)) e é L.I.(um vetor não é múltiplo escalar do outro). Sejam W 1 = V 1, W 2 = V 2 proj W1 V 2 = V 2 ( 1/2, 1/2, 0) = ( 1/2, 1/2, 1). Sejam U 1 = (1/ W 1 )W 1 = ( 1/ 2, 1/ 2, 0) e U 2 = (1/ W 2 )W 2 = ( 1, 1, 6 6 6 3 ). {U 1, U 2 } é base ortonormal de V 1. V 4 = {(α, α, α) α R}. {V 3 = (1, 1, 1)} é base para V 4, pois gera V 4 ((α, α, α) = α(1, 1, 1)) e um vetor não nulo é L.I. Seja U 3 = (1/ V 3 )V 3 = (1/ 3, 1/ 3, 1/ 3). {U 3 = (1/ 3, 1/ 3, 1/ 3)} é base ortonormal de V 4. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.5 na página 275). Portanto, {U 1, U 2, U 3 } é uma base ortonormal de autovetores de A. P = 2/2 6/6 3/3 2/2 6/6 3/3 e D = 0 6/3 3/3 [ 1 0 0 0 1 0 0 0 4 19 de agosto de 2000 Reginaldo J. Santos ]
328 Respostas dos Exercícios (g) >> A=[1,2,0,0;2,1,0,0;0,0,1,2;0,0,2,1]; >> B=A-x*eye(4) [1-x, 2, 0, 0] [ 2, 1-x, 0, 0] [ 0, 0, 1-x, 2] [ 0, 0, 2, 1-x] >> p=det(b) p =9+12*x-2*x^2-4*x^3+x^4 >> solve(p) [-1][-1][ 3][ 3] >> Bm1=subs(B,x,-1) [2, 2, 0, 0] [2, 2, 0, 0] [0, 0, 2, 2] [0, 0, 2, 2] >> escalona(bm1) [1, 1, 0, 0] [0, 0, 1, 1] [0, 0, 0, 0] [0, 0, 0, 0] >> B3=subs(B,x,3) [-2, 2, 0, 0] [ 2, -2, 0, 0] [ 0, 0, -2, 2] [ 0, 0, 2, -2] >> escalona(b3) [1, -1, 0, 0] [0, 0, 1, -1] [0, 0, 0, 0] [0, 0, 0, 0] V 1 = {( α, α, β, β) α, β R}. {V 1 = ( 1, 1, 0, 0), V 2 = (0, 0, 1, 1)} é base para V 1, pois gera V 1 (( α, α, β, β) = α( 1, 1, 0, 0) + β(0, 0, 1, 1)) e é L.I.(um vetor não é múltiplo escalar do outro). Sejam W 1 = V 1, W 2 = V 2 proj W1 V 2 = V 2 0 = V 2. Sejam U 1 = (1/ W 1 )W 1 = ( 1/ 2, 1/ 2, 0, 0) e U 2 = (1/ W 2 )W 2 = (0, 0, 1/ 2, 1/ 2). {U 1, U 2 } é base ortonormal de V 1. V 3 = {(α, α, β, β) α, β R}. {V 3 = (1, 1, 0, 0), V 4 = (0, 0, 1, 1)} é base para V 3, pois gera V 1 ((α, α, β, β) = α(1, 1, 0, 0) + β(0, 0, 1, 1)) e é L.I.(um vetor não é múltiplo escalar do outro). Sejam W 3 = V 3, W 4 = V 4 proj W3 V 4 = V 4 0 = V 4. Sejam U 3 = (1/ W 3 )W 3 = (1/ 2, 1/ 2, 0, 0) e U 4 = (1/ W 4 )W 4 = (0, 0, 1/ 2, 1/ 2). {U 1, U 2 } é base ortonormal de V 3. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.5 na página 275). Portanto, {U 1, U 2, U 3, U 4 } é uma base ortonormal de autovetores de A. P = 1/ 2 0 1/ 2 0 1/ 2 0 1/ 2 0 0 1/ 2 0 1/ 2 0 1/ 2 0 1/ 2 e D = 1 0 0 0 0 1 0 0 0 0 3 0 0 0 0 3 (h) >> A=[0,0,0,0;0,0,0,0;0,0,0,1;0,0,1,0]; >> B=A-x*eye(4) [-x, 0, 0, 0] [ 0, -x, 0, 0] [ 0, 0, -x, 1] [ 0, 0, 1, -x] >> p=det(b) p =x^2*(x^2-1) >> solve(p) [ 0][ 0][ 1][-1] >> B0=subs(B,x,0) [0, 0, 0, 0] [0, 0, 0, 0] [0, 0, 0, 1] [0, 0, 1, 0] >> escalona(b0) [0, 0, 1, 0] [0, 0, 0, 1] [0, 0, 0, 0] [0, 0, 0, 0] Álgebra Linear Matricial 19 de agosto de 2000
Capítulo 6. Diagonalização 329 >> Bm1=subs(B,x,-1) [1, 0, 0, 0] [0, 1, 0, 0] [0, 0, 1, 1] [0, 0, 1, 1] >> escalona(bm1) [1, 0, 0, 0] [0, 1, 0, 0] [0, 0, 1, 1] [0, 0, 0, 0] >> B1=subs(B,x,1) B1 = [-1, 0, 0, 0] [ 0, -1, 0, 0] [ 0, 0, -1, 1] [ 0, 0, 1, -1] >> escalona(b1) [1, 0, 0, 0] [0, 1, 0, 0] [0, 0, 1, -1] [0, 0, 0, 0] V 0 = {(α, β, 0, 0) α, β R}. {V 1 = (1, 0, 0, 0), V 2 = (0, 1, 0, 0)} é base para V 0, pois gera V 1 ((α, β, 0, 0) = α(1, 0, 0, 0) + β(0, 1, 0, 0)) e é L.I.(um vetor não é múltiplo escalar do outro). Claramente V 1 V 2 = 0 e possuem norma igual a 1. Sejam U 1 = V 1 e U 2 = V 2. {U 1, U 2 } é base ortonormal de V 0. V 1 = {(0, 0, α, α) α R}. {V 3 = (0, 0, 1, 1)} é base para V 1, pois gera V 1 ((0, 0, α, α) = α(0, 0, 1, 1)) e um vetor não nulo é L.I. Seja U 3 = (1/ V 3 )V 3 = (0, 0, 1/ 2, 1/ 2). {U 3 = (0, 0, 1/ 2, 1/ 2)} é base ortonormal de V 1. V 1 = {(0, 0, α, α) α R}. {V 4 = (0, 0, 1, 1)} é base para V 1, pois gera V 1 ((0, 0, α, α) = α(0, 0, 1, 1)) e um vetor não nulo é L.I. Seja U 4 = (1/ V 4 )V 4 = (0, 0, 1/ 2, 1/ 2). {U 4 = (0, 0, 1/ 2, 1/ 2)} é base ortonormal de V 1. Como a matriz A é simétrica, autovetores associados a autovalores diferentes são ortogonais (Proposição 6.5 na página 275). Portanto, {U 1, U 2, U 3, U 4 } é uma base ortonormal de autovetores de A. P = 1 0 0 0 0 1 0 0 0 0 1/ 2 1/ 2 0 0 1/ 2 1/ 2 e D = 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 19 de agosto de 2000 Reginaldo J. Santos
Bibliografia [1] Howard Anton e Chris Rorres. Elementary Linear Algebra - Applications Version. John Wiley & Sons, Inc., New York, 6a. edição, 1991. [2] José L. Boldrini, Sueli I. R. Costa, Vera L. Figueiredo, e Henry G. Wetzler. Álgebra Linear. Ed. Harbra Ltda., São Paulo, 3a. edição, 1986. [3] Paulo Boulos e Ivan de C. e Oliveira. Geometria Anaĺıtica - um tratamento vetorial. Mc Graw-Hill, São Paulo, 2a. edição, 1987. [4] Frederico F. C., filho. Introdução ao MATLAB. Departamento de Ciência da Computação - UFMG, Belo Horizonte, Fevereiro de 2000. [5] Carlos A. Callioli, Hygino H. Domingues, e Roberto C. F. Costa. Álgebra Linear e Aplicações. Atual Editora, São Paulo, 6a. edição, 1995. [6] Adilson Gonçalves e Rita M. L. de Souza. Introdução à Álgebra Linear. Edgard Blücher, Rio de Janeiro, 1977. 330
Capítulo 6. Diagonalização 331 [7] Alésio de Caroli, Carlos A. Callioli, e Miguel O. Feitosa. Matrizes, Vetores, Geometria Anaĺıtica. Nobel, São Paulo, 1976. [8] João Pitombeira de Carvalho. Álgebra Linear - Introdução. Livros Técnicos e Científicos Editora S.A., Rio de Janeiro, 2a. edição, 1977. [9] Nathan M. dos Santos. Vetores e Matrizes. Livros Técnicos e Científicos Ed. S.A., Rio de Janeiro, 3a. edição, 1988. [10] John B. Fraleigh e Raymond A. Beauregard. Linear Algebra. Addison Wesley, Reading, Massachusetts, 3a. edição, 1995. [11] Stephen H. Friedberg, Arnold J. Insel, e Lawrence E. Spence. Linear Algebra. Prentice Hall, Upper Saddle River, New Jersey, 3a. edição, 1997. [12] G. H. Golub e C. F. Van Loan. Matrix Computations. Johns Hopkins U.P., Baltimore, 3a. edição, 1996. [13] Stanley I. Grossman. Elementary Linear Algebra. Saunders College Publishing, New York, 5a. edição, 1994. [14] David R. Hill e David E. Zitarelli. Linear Algebra Labs with MATLAB. Macmillan Publishing Company, New York, 1994. [15] Morris W. Hirsch e Stephen Smale. Differential Equations, Dynamical Systems and Linear Algebra. Academic Press, Inc., New York, 1974. [16] Kenneth Hoffman e Ray Kunze. Álgebra Linear. Livros Técnicos e Científicos Ed. S.A., Rio de Janeiro, 3a. edição, 1979. [17] Bernard Kolman. Introdução à Álgebra Linear. Prentice Hall do Brasil, Rio de Janeiro, 6a. edição, 1998. 19 de agosto de 2000 Reginaldo J. Santos
332 Respostas dos Exercícios [18] Serge Lang. Introduction to Linear Algebra. Springer, New York, 2a. edição, 1986. [19] Serge Lang. Linear Algebra. Springer Verlag, New York, 3a. edição, 1987. [20] David C. Lay. Linear Algebra and its Applications. Addison-Wesley, Reading, 2a. edição, 1997. [21] Steven Leon, Eugene Herman, e Richard Faulkenberry. ATLAST Computer Exercises for Linear Algebra. Prentice Hall, Upper Saddle River, New Jersey, 1996. [22] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, New Jersey, 5a. edição, 1998. [23] Emília Giraldes, Vitor H. Fernandes, e Maria P. M Smith. Curso de Álgebra Linear e Geometria Anaĺıtica. Mc Graw Hill, Lisboa, 1995. [24] Elon L. Lima. Coordenadas no Espaço. SBM, Rio de Janeiro, 1993. [25] Elon L. Lima. Álgebra Linear. IMPA, Rio de Janeiro, 2a. edição, 1996. [26] Seymour Lipschutz. Álgebra Linear. McGraw-Hill, São Paulo, 3a. edição, 1994. [27] Mathworks Inc. MATLAB Version 5 for Windows - Student User s Guide. Prentice Hall, Upper Saddle River, New Jersey, 1997. [28] Ben Noble e James W. Daniel. Applied Linear Algebra. Prentice Hall, Upper Saddle River, New Jersey, 3a. edição, 1988. [29] Reginaldo J. Santos. Geometria Anaĺıtica e Álgebra Linear. Imprensa Universitária da UFMG, Belo Horizonte, 2000. [30] Shayle R. Searle. Matrix Algebra Useful for Statistics. John Wiley and Sons, New York, 1982. Álgebra Linear Matricial 19 de agosto de 2000
Bibliografia 333 [31] Georgi E. Shilov. Linear Algebra. Dover Publications Inc., New York, 1977. [32] Carl P. Simon and Lawrence Blume. Mathematics for Economists. W. W. Norton and Co. Inc., 1994. [33] Alfredo Steinbruch e Paulo Winterle. Geometria Anaĺıtica. Makron Books, São Paulo, 2a. edição, 1987. [34] Gilbert Strang. Linear Algebra and its Applications. Harcourt Brace Jovanovich, Inc., Orlando, 3a. edição, 1988. [35] Gilbert Strang. Introduction to Linear Algebra. Wellesley-Cambridge Press, Wellesley, 1993. 19 de agosto de 2000 Reginaldo J. Santos
Índice Alfabético Adjunta de uma matriz, 91 Ângulo entre vetores, 133, 224 Autoespaço, 260 Autovalore(s), 254 Autovetore(s), 254 axiss, 143 Base canônica, 226 canônica de, 196 de subespaço (vetorial), 195 ortogonal, 225 ortonormal, 225 box, 143 clf, 48 Cofator de um elemento, 77, 78 Combinação linear, 124, 164 Cônica, 271 Conjugado de uma matriz, 280 Decomposição polar de uma matriz, 280 Dependência linear, 168 Desigualdade de Cauchy-Schwarz, 223 Desigualdade triangular, 223 desvet, 143 det, 99 Determinante, 76 de Vandermonde, 101 desenvolvimento em cofatores do, 79, 83 propriedades do, 84 detopelp, 99 diag, 15 334
Índice Alfabético 335 Diagonalização de matrizes, 252 de matrizes simétricas, 271 Dimensão de um subespaço vetorial, 201 Distância entre dois pontos, 132 eig, 268 eixos, 49, 143 Equação (equações) da reta, 153 geral do plano, 148 linear, 24 normais, 241 paramétricas da reta, 153 paramétricas do plano, 178 Escalar, 4 escalona, 48 Espaço (espaços) coluna, 207 euclidianos, 161 linha, 207 R n, 161 solução, 185 eye, 15 format rat, 15 Geradores, 185 Grandezas vetoriais, 115 Identidade polar, 233 Imagem de uma matriz, 215 Independência linear, 168 Interpolação polinomial, 70 inv, 268 Lei do paralelogramo, 233 lin, 159 lineplan, 159 lineseg, 143 Matriz (matrizes), 1 (definida) positiva, 279 escalonada, 30 escalonada reduzida, 29 adjunta (clássica), 91 anti-simétrica, 20 aumentada, 26 coluna, 122, 163 coluna de, 2 conjugado de, 280 de rotação, 279 de Vandermonde, 70 decomposição polar de, 280 determinante de, 76 diagonal, 17, 74 19 de agosto de 2000 Reginaldo J. Santos
336 Índice Alfabético diagonal (principal) de, 2 diagonalizável, 253 diferença entre, 11 do sistema linear, 25 elemento de, 2 entrada de, 2 equivalente por linhas, 36 identidade, 9 iguais, 3 Imagem de, 215 inversa de, 56 invertível, 55 linha, 122, 163 linha de, 2 múltiplo escalar de, 4 multiplicação por escalar, 4 não invertível, 56 nilpotente, 270 núcleo de, 211 nula, 8 nulidade, 208 ortogonal, 273 particionada em blocos, 105 posto de, 208 potência, 12 produto de, 4 propriedades de, 7 quadrada, 2 raiz quadrada de, 279 semelhantes, 252 simétrica, 20 singular, 56 soma de, 3 submatriz principal de, 280 traço de, 21 transposta de, 6 triangular inferior, 80 triangular superior, 101 matvand, 48 Menor de um elemento, 76 Método de Gauss, 34 Método de Gauss-Jordan, 31 Múltiplo escalar, 4, 118, 163 no, 143 Norma de um vetor, 131, 222 Notação de somatório, 5, 7, 22 Núcleo de uma matriz, 211 Nulidade de uma matriz, 208 numeric, 268 oe, 48 opel, 48 Operação elementar, 26 pe, 143 Álgebra Linear Matricial 19 de agosto de 2000
Índice Alfabético 337 Pivô, 28 plan, 159 Plano (plano) vetor normal do, 148 Plano (planos), 148 equação geral do, 148 plotci, 49 plotf1, 49 po, 143 Polinômio característico, 256 poline, 159 Pontos colineares, 141 poplan, 159 Posição relativa de plano e reta, 178 Posto de uma matriz, 208 Problema de quadrados mínimos, 241 Processo de ortogonalização de Gram- Schmidt, 228 Produto escalar ou interno, 133, 221 propriedades do, 137 Projeção ortogonal, 139, 226 Projeção ortogonal no subespaço, 236 Raiz quadrada de uma matriz, 279 randi, 15, 268 Regra de Cramer, 97 Reta (retas), 153 equações paramétricas da, 153 vetor diretor da, 153 rota, 143 Segmento (de reta) orientado, 115 Sistema de coordenadas retangulares, 118 Sistema de equações lineares, 24 Sistema homogêneo, 38 solução trivial de, 38 Sistema(s) linear(es), 24 conjunto solução de, 24 consistente, 47 equivalentes, 27 homogêneo, 38 solução (geral) de, 24 Solução geral de sistema linear, 24 trivial de sistema homogêneo, 38 solve, 15 Soma de subespaços, 190, 194 Soma direta de subespaços, 190 Subespaço gerado, 186 Subespaço(s), 179 base de, 195 dimensão de, 201 soma de, 190, 194 soma direta, 190 19 de agosto de 2000 Reginaldo J. Santos
338 Índice Alfabético Submatriz, 209 Submatriz principal, 280 subs, 48, 268 sym, 268 syms, 15 tex, 143 Transformação linear, 215 produto escalar ou interno de, 133, 221 simétrico, 117, 163 soma de, 116, 118, 120, 162 unitário, 132, 225 zeros, 15 zoom3, 143 Variáveis livres, 33 Vetor (vetores), 115, 161 ângulo entre, 133 colineares, 118 combinação linear de, 164 componentes de, 118 121 comprimento de, 131 diferença de, 117, 163 geradores, 185 iguais, 161 independência linear de, 168 linearmente (in)dependentes, 168 multiplicação por escalar, 117, 118, 120, 162 múltiplo escalar, 118, 163 norma de, 131, 222 normal do plano, 148 nulo, 117, 163 ortogonais, 133, 224 paralelos, 117 Álgebra Linear Matricial 19 de agosto de 2000