ÁLGEBRA LINEAR. Pedro Resende 2010/2011. Departamento de Matemática, Instituto Superior Técnico, Lisboa, Portugal

Tamanho: px
Começar a partir da página:

Download "ÁLGEBRA LINEAR. Pedro Resende 2010/2011. Departamento de Matemática, Instituto Superior Técnico, Lisboa, Portugal"

Transcrição

1 ÁLGEBRA LINEAR Pedro Resende Departamento de Matemática, Instituto Superior Técnico, Lisboa, Portugal 2010/2011 Capítulo 1

2 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA 1. L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. 2. G. Strang, Linear Algebra and Its Applications, 1988, 3a. ed., Academic Press. 3. S. Lipschutz, Álgebra Linear, 1994, Schaum s Outline Series. McGraw-Hill. 4. T.M. Apostol, Cálculo, 1994, Vols. I e II. Reverté. 5. G. Strang, Introduction to Linear Algebra, 2003, Wellesley Cambridge Press. 6. H. Anton, C. Rorres, Elementary Linear Algebra Applications Version, 1994, John Wiley & Sons.

3 HORÁRIOS DE DÚVIDAS Serão afixados em breve na página da cadeira, na barra lateral esquerda com o título Horários de Dúvidas. AVALIAÇÃO TESTE 1: Nas aulas da 5 a semana (18 23/10), com 40 minutos de duração. TESTE 2: Sábado, 4/12/2010, com 50 minutos de duração. TESTE 3: Sábado, 8/1/2011, com 90 minutos de duração. Os três testes são classificados com números inteiros de 0 a 20, respectivamente T 1, T 2 e T 3. A classificação geral é o número inteiro T de 0 a 20 que resulta de arredondar o valor 2T 1 + 3T 2 + 5T 3 10.

4 AVALIAÇÃO PROVAS DE RECUPERAÇÃO: No dia 25/1/2011 haverá uma prova escrita de recuperação, com duração máxima de 3 horas. Os alunos que se apresentarem a esta prova receberão um enunciado correspondente a toda a matéria, dividido em duas partes. As classificações da primeira parte e da segunda parte são números inteiros R 12 e R 3, respectivamente, ambos de 0 a 20, havendo duas opções de recuperação: AVALIAÇÃO RECUPERAÇÃO PARCIAL: O aluno entrega a prova ao fim de um tempo máximo igual a 90 minutos e assinala qual das duas partes deve ser classificada: Se assinalar a primeira parte, no cálculo de T o valor 2T 1 + 3T 2 é substituído por 5R 12, se este for superior; Se assinalar a segunda parte, no cálculo de T o valor T 3 é substituído por R 3, se este for superior. RECUPERAÇÃO TOTAL: O aluno assinala ambas as partes e ambas são classificadas. O valor T é substituído pela média arredondada de R 12 e R 3, se esta for superior.

5 AVALIAÇÃO INSCRIÇÕES NAS PROVAS ESCRITAS: Haverá, para cada prova escrita, um período de inscrição (no fénix), o qual decorrerá durante a semana da prova (que será sempre num sábado) desde as 8:00 de 2a feira até ao meio dia da 4a feira. Todos os alunos que pretendem fazer uma prova escrita devem inscrever-se, a fim de que seja feita uma previsão correcta do número de salas necessárias e assim não venham a faltar lugares para todos. A inscrição não é vinculativa: se um aluno se inscrever e por qualquer razão tiver de faltar à prova não sofre qualquer penalização. Mas, pelo contrário, se um aluno não se inscrever poderá ver-se impedido de realizar a prova. AVALIAÇÃO AVALIAÇÃO CONTÍNUA: Durante o semestre será avaliada a resolução de problemas pelos alunos nas aulas de problemas. A classificação final desta componente é um número inteiro P {0,1,2} que contribui com uma bonificação para a nota global N de acordo com a tabela seguinte: Se T 9 então N = T + P; Se 10 T 13 então N = T + P/2 ; Se 14 T 15 então N = T + P/2 ; Se 16 T então N = T.

6 AVALIAÇÃO PROVA ORAL: Se N 18 o aluno pode fazer uma prova oral (facultativa) em data a combinar oportunamente com o responsável da cadeira. A classificação da prova oral é um número inteiro de 0 a 20. APROVAÇÃO E CLASSIFICAÇÃO FINAL: Se tiver havido prova oral, a classificação final F será a da prova oral. Caso contrário a classificação final será F = min{17,n}. Há aprovação na cadeira se e só se T 3 8 e F 10. INÍCIO DAS AULAS As aulas iniciam-se pontualmente 10 minutos depois da hora indicada no horário.

7 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações SISTEMAS DE EQUAÇÕES LINEARES EXPRESSÕES LINEARES: x + y 3z 5z 2x 2y EXPRESSÕES NÃO LINEARES: 5x 2 + y xyz 3 SISTEMA DE EQUAÇÕES LINEARES: 2y + 2z = 6 x + 2y z = 1 x + y + z = 4 Método da substituição Método da redução

8 MÉTODO DA ELIMINAÇÃO DE GAUSS FIGURA: O alemão Carl Friedrich Gauss (30/04/ /02/1855), considerado por muitos um dos mais geniais matemáticos de sempre. MÉTODO DA ELIMINAÇÃO DE GAUSS 2y + 2z = 6 x + 2y z = 1 x + y + z = 4 x + 2y z = 1 2y + 2z = 6 x + y + z = 4 (Permutámos a primeira e a segunda equações.) x + 2y z = 1 2y + 2z = 6 y + 2z = 3 (Subtraímos a primeira equação da terceira.)

9 MÉTODO DA ELIMINAÇÃO DE GAUSS x + 2y z = 1 y + z = 3 y + 2z = 3 (Dividimos por 2 ambos os lados da segunda equação.) x + 2y z = 1 y + z = 3 3z = 6 (Adicionámos a segunda equação à terceira.) x = 1 y = 1 z = 2 (Aplicámos o método da substituição.) MÉTODO DA ELIMINAÇÃO DE GAUSS COM MATRIZES 2y + 2z = 6 x + 2y z = 1 x + y + z = 4 0x + 2y + 2z = 6 1x + 2y + ( 1)z = 1 1x + 1y + 1z = Este quadro designa-se por matriz.

10 MÉTODO DA ELIMINAÇÃO DE GAUSS COM MATRIZES 2y + 2z = 6 x + 2y z = 1 x + y + z = 4 Matriz aumentada do sistema: Matriz dos coeficientes do sistema: Matriz dos termos independentes do sistema: MÉTODO DA ELIMINAÇÃO DE GAUSS COM MATRIZES x + 2y z = 1 y + z = 3 3z =

11 MÉTODO DA ELIMINAÇÃO DE GAUSS COM MATRIZES 1. Podem permutar-se linhas da matriz aumentada sem que a solução do sistema se altere. 2. Pode adicionar-se a uma linha um múltiplo de outra linha (distinta) sem que a solução do sistema se altere. 3. Pode multiplicar-se uma linha por um número diferente de zero sem que a solução do sistema se altere. NÚMEROS COMPLEXOS Os números que surgem nos sistemas de equações lineares e nas correspondentes matrizes podem ser de vários tipos. Nesta disciplina vamos sobretudo considerar os números racionais, os reais e os complexos. Os números racionais são representados por fracções m/n em que m e n são números inteiros. Os números reais são definidos a partir dos racionais e incluem números como π = 3, , e = 2, , etc., e há várias formas de os definir (uma será vista em CDI-I). Os números complexos são representados por pares de números reais: o número (a, b) é usualmente representado na forma z = a + ib, onde a é a parte real de z e b é a parte imaginária de z.

12 NÚMEROS COMPLEXOS Podemos também representar o número complexo z = a + ib geometricamente no plano de Argand, em que a parte real é a abcissa e a parte imaginária é a ordenada (coordenadas cartesianas): NÚMEROS COMPLEXOS Soma, subtracção e multiplicação de números complexos: (a + ib) + (c + id) = (a + c) + i(b + d) (a + ib) (c + id) = (a c) + i(b d) (a + ib)(c + id) = (ac bd) + i(ad + bc) (Análogo a operações com polinómios a + bx e c + dx, onde x é substituído por i e temos i 2 = 1.) Divisão de números complexos: a + ib c + id = (a + ib)(c id) (c + id)(c id) w = c id é o conjugado de w = c + id. ac + bd ad = c 2 + ibc + d2 c 2 + d 2. Na divisão usámos a igualdade ww = w 2, onde w = c 2 + d 2 é o módulo de w.

13 NÚMEROS COMPLEXOS A representação do número complexo z = a + ib pode também ser em coordenadas polares, com a = r cosθ e b = r senθ (r = z ): NÚMEROS COMPLEXOS Neste caso z é definido pela operação de exponenciação de números complexos: z = re iθ (no ensino secundário era usual a notação r cisθ, onde cis corresponde a cos...isen ). Multiplicação e divisão de números complexos em coordenadas polares: ( )( ) r 1 e iθ 1 r 2 e iθ 2 = (r 1 r 2 )e i(θ 1+θ 2 ) ( ) ( ) r 1 e iθ 1 / r 2 e iθ 2 = (r 1 /r 2 )e i(θ 1 θ 2 )

14 NÚMEROS COMPLEXOS Os conjuntos dos números racionais, dos números reais e dos números complexos denotam-se por Q, R e C, respectivamente. Munidos das operações algébricas de soma, multiplicação, divisão, etc., têm a estrutura de um corpo algébrico. (Voltaremos a ver esta noção mais à frente.) O corpo C distingue-se de Q e de R pelo facto de ser completo. Por outras palavras, verifica-se o Teorema Fundamental da Álgebra: Vamos rever o Teorema Fundamental da Álgebra: TEOREMA Qualquer polinómio com coeficientes complexos e grau maior ou igual a 1 tem pelo menos uma raiz complexa. COROLÁRIO Para qualquer polinómio p(z) = a 0 + a 1 z + a n z n de coeficientes complexos com n 1 existem z 1,...,z n C tais que p(z) = a n (z z 1 ) (z z n ). NOTA z 1,...,z n são as raízes do polinómio. Para cada i, o número de factores em que ocorre a raiz z i é a multiplicidade dessa raiz.

15 Capítulo 2 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

16 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 1.2,1.5 e o início de 1.3. REVISÃO 2y + 2z = 6 x + 2y z = 1 x + y + z = 4 Matriz aumentada do sistema: Matriz dos coeficientes do sistema: Matriz dos termos independentes do sistema: 6 1 4

17 MÉTODO DA ELIMINAÇÃO DE GAUSS COM MATRIZES x + 2y z = 1 y + z = 3 3z = ENTRADAS DUMA MATRIZ A = A = a 11 a 12 a 13 a 14 a 21 a 22 a 23 a 24 a 31 a 32 a 33 a 34 a ij é a entrada da linha i e da coluna j. a 23 = 0, a 34 = 4, etc. Exemplo: linha 2 = [ ] 1 Exemplo: coluna 2 = 1 2

18 MÉTODO DA ELIMINAÇÃO DE GAUSS COM MATRIZES REGRA DA PERMUTAÇÃO: Podem permutar-se linhas da matriz aumentada sem que a solução do sistema se altere. REGRA DA ELIMINAÇÃO: Pode adicionar-se a uma linha um múltiplo de outra linha (distinta) sem que a solução do sistema se altere. REGRA DA MULTIPLICAÇÃO: Pode multiplicar-se uma linha por um número diferente de zero sem que a solução do sistema se altere. REGRA DA ELIMINAÇÃO 2x + y + 4z = 2 6x + y = 10 x + 2y 10z = 4 Matriz aumentada do sistema: Pivot = 2 Adicionar à segunda linha 6 (primeira linha) = [ ] :

19 REGRA DA ELIMINAÇÃO Pivot = 2 Adicionar à terceira linha ( 1) (primeira linha) = [1 12 ] : REGRA DA ELIMINAÇÃO Segundo pivot = -2 Adicionar à terceira linha (5/2) (segunda linha) = [0 52 ] ( 2) O processo de eliminação terminou (o terceiro pivot teria sido 23). Um pivot é necessariamente diferente de zero! :

20 ESBOÇO DE ALGORITMO (INSUFICIENTE) Seja A a matriz aumentada dum sistema. Se a 11 0 escolhe-se a 11 como pivot para obter uma nova matriz B com b 21 = b 31 =... = 0. Se b 22 0 escolher b 22 como pivot para obter uma nova matriz C com c 32 = c 42 =... = 0. Se c 33 0 escolher c 33 como pivot, etc. Se alguma entrada que queremos usar como pivot for nula podemos recorrer à regra da permutação para tentar obter um pivot válido. A regra da multiplicação é teoricamente desnecessária mas serve para simplificar os cálculos (e às vezes para minorar problemas numéricos com arredondamentos). Um pivot não tem de ser uma entrada a ij com i = j como nos exemplos anteriores: A = (A eliminação terminou e os pivots são 2, 1 e 14.) Neste caso a regra da permutação não permite obter uma matriz com um pivot na posição i = j = 2. O objectivo da eliminação de Gauss é obter uma matriz na forma de escada de linhas, como veremos de seguida.

21 DEFINIÇÃO Seja A uma matriz com m linhas e n colunas. Para cada i seja z i o número total de zeros consecutivos a contar da esquerda na linha i (ou seja, o maior número em {0,...,n} tal que a ij = 0 para qualquer j {0,...,z i }). Diz-se que A tem a forma de escada de linhas, ou que é uma matriz em escada de linhas, se para quaisquer i,k {1,...,m} tais que i < k então: se z i = n então z k = n e se z i < n então z i < z k. EXEMPLO A matriz está na forma de escada de linhas: z 1 = 1 z 2 = 3 z 3 = 4 z 4 = 5 (= número de colunas) z 5 = 5

22 ALGORITMO Seja A uma matriz. Se z 1 z i para qualquer linha i então o primeiro pivot é a 1j com j = z Em caso contrário, primeiro permuta-se a linha 1 com uma linha i que tenha z i mínimo e só depois se escolhe o pivot da primeira linha. Aplica-se a regra da eliminação com o primeiro pivot a todas as linhas por forma a obter uma matriz B. Se z 2 z i para qualquer linha i > 2 de B então o segundo pivot é b 2j com j = z Em caso contrário, primeiro permuta-se a linha 2 de B com uma linha i > 2 que tenha z i mínimo e só depois se escolhe o pivot da segunda linha. Assim por diante até obter uma matriz na forma de escada de linhas. EXEMPLO / CARACTERÍSTICA DE UMA MATRIZ A = = B Há quatro pivots: diz-se então que a matriz B (e, conforme veremos adiante, também a matriz A) tem característica igual a 4 (numa matriz em escada de linhas a característica é igual ao número de linhas não nulas, ou seja, que têm pelo menos uma entrada não nula).

23 REVISÃO Um vector de R n é uma lista de n números reais a = (a 1,...,a n ). Vectores especiais e operações com vectores: Vector nulo: 0 = (0,...,0) Soma: a + b = (a 1 + b 1,...,a n + b n ) Produto por um escalar: ab = (ab 1,...,ab n ) Exemplos: em R 2 a interpretação geométrica é a dos vectores no plano: o vector nulo é a origem; a soma é definida pela regra do paralelogramo; o produto por escalar altera o comprimento e o sentido de um vector mas não a direcção. Idém para R 3 e vectores no espaço. DEFINIÇÃO Uma solução de um sistema de equações lineares em n incógnitas x 1,..., x n é um vector (a 1,...,a n ) R n tal que todas as equações são verdadeiras se se substituir x i por a i para cada i {1,...,n}. Um sistema diz-se: possível se tiver pelo menos uma solução. determinado se tiver exactamente uma solução. indeterminado se tiver mais do que uma solução. impossível se não tiver nenhuma solução.

24 EXEMPLOS Para as seguintes matrizes aumentadas (já na forma de escada de linhas) os respectivos sistemas são: Impossível a carac terística da matriz aumentada é superior à da matriz dos coeficientes Determinado (e portanto possível) com solução (1, 1, 2) a característica (de ambas as matrizes) é igual ao número de incógnitas. Indeterminado (e portanto possível) SOLUÇÃO GERAL DE UM SISTEMA INDETERMINADO x + 2y z = 1 2y + 2z = 6 0 = 0 0 = 0 A coluna da incógnita z (a terceira coluna) não tem nenhum pivot e portanto o valor de z não fica determinado: podemos considerar z uma incógnita livre e definir as outras incógnitas em função de z, pelo método da substituição: { x + 2( z + 3) z = 1 y = z + 3 O conjunto-solução do sistema é { x = 3z 5 y = z + 3 {(x,y,z) R 3 x = 3z 5, y = z + 3}.

25 DESCRIÇÃO PARAMÉTRICA DO CONJUNTO-SOLUÇÃO O conjunto {(x,y,z) R 3 x = 3z 5, y = z + 3} é o conjunto dos vectores da forma (3z 5, z+3,z) = (3z, z,z)+( 5,3,0) = z(3, 1,1)+( 5,3,0). A incógnita livre z é um parâmetro (neste caso único) em função do qual é definido o vector x 1 + 2x 2 x 3 + 2x 4 + 3x 5 = 1 2x 2 + 2x 3 + 2x 5 = 6 + 2x 4 + 2x 5 = 0 0 = 0 As incógnitas livres são x 3 e x 5. O grau de indeterminação é 2 = número de incógnitas livres = número de incógnitas menos o número de pivots = número de colunas da matriz dos coeficientes menos a característica (de ambas as matrizes). (Nota: um sistema é determinado é possível com grau de indeterminação = 0.)

26 x 1 + 2x 2 x 3 + 2x 4 + 3x 5 = 1 2x 2 + 2x 3 + 2x 5 = 6 + 2x 4 + 2x 5 = 0 0 = 0 O conjunto-solução é o conjunto dos vectores (x 1,x 2,x 3,x 4,x 5 ) R 5 tais que x 1 = 3x 3 + x 5 11 x 2 = x 3 x x 4 = x 5 Na forma paramétrica há dois parâmetros, x 3 e x 5 : x 1 {}}{ ( 3x 3 + x 5 11, x 2 {}}{ x 3 x 5 + 6, x 3, x 4 {}}{ x 5, x 5 ) = x 3 (3, 1, 1, 0, 0) + x 5 (1, 1, 0, 1, 1) + ( 11, 6, 0, 0, 0) PROPOSIÇÃO Qualquer sistema indeterminado tem infinitas soluções.

27 Capítulo 3 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

28 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 1.3. COMPLEMENTO DA AULA PASSADA DEFINIÇÃO Um sistema diz-se homogéneo se os termos independentes forem todos nulos, ou seja, se a matriz aumentada for da forma seguinte: a 11 a 1n a m1 a mn 0 PROPOSIÇÃO Qualquer sistema homogéneo é completamente definido pela matriz dos coeficientes e é um sistema possível cujo conjunto-solução contém o vector nulo. Se o sistema for determinado então a (única) solução é o vector nulo.

29 COMPLEMENTO DA AULA PASSADA TEOREMA Seja A uma matriz e B uma matriz em escada de linhas obtida de A aplicando as três regras do método de eliminação de Gauss por uma ordem arbitrária. Qualquer que seja a matriz B assim obtida o número de pivots é sempre o mesmo. DEFINIÇÃO A característica de uma matriz A é o número de pivots de qualquer matriz em escada de linhas B obtida de A pelo método de eliminação de Gauss. MAIS TERMINOLOGIA PARA MATRIZES Uma matriz com m linhas e n colunas a 11 a 1n A =..... a m1 a mn diz-se uma matriz m por n, ou uma matriz de dimensão m n, ou simplesmente uma matriz m n. Se m = n a matriz diz-se quadrada, caso contrário diz-se rectangular. Se a matriz for quadrada a sua diagonal principal é a lista (a 11,...,a nn ). Se m = 1 diz-se que A é uma matriz linha. Se n = 1 diz-se que A é uma matriz coluna. O conjunto de todas as matrizes m n denota-se por Mat m n.

30 VECTORES COMO MATRIZES COLUNA Há uma correspondência evidente entre os vectores x = (x 1,...,x n ) de R n e as matrizes coluna de dimensão n 1 X = x 1. x n. Por esta razão chamaremos também vectores coluna às matrizes coluna e usaremos tanto a notação X de matriz ou a notação x de vector, para este tipo de matrizes, consoante as circunstâncias. VECTORES COMO MATRIZES COLUNA SLOGAN Nesta disciplina vamos usar a convenção R n = Mat n 1. A notação de vector ou a notação de matriz serão escolhidas em função das circunstâncias. Em particular os números reais são identificados com as matrizes 1 1: R = Mat 1 1. (Também poderia estabelecer-se uma correspondência entre vectores e matrizes linha, como é óbvio, mas não adoptaremos essa convenção.)

31 OPERAÇÕES COM MATRIZES As operações de vectores de R n (soma e produto por escalar) podem ser definidas para matrizes mais gerais (desde que tenham todas a mesma dimensão): DEFINIÇÃO Sejam A e B duas matrizes m n e seja r R. Definem-se as matrizes A + B e ra da forma seguinte: a 11 + b 11 a 1n + b 1n A + B =..... a m1 + b m1 a mn + b mn ra 11 ra 1n ra =..... ra m1 ra mn NOTAÇÕES ALTERNATIVAS Usa-se por vezes a notação abreviada [a ij ] para denotar a matriz A. Com esta notação, a soma e o produto por escalar de matrizes são definidos por [a ij ] + [b ij ] = [a ij + b ij ] r[a ij ] = [ra ij ]. Para qualquer expressão E que represente uma matriz, por exemplo A + (B + 3C), a respectiva entrada da linha i e da coluna j é usualmente denotada por (E ) ij. Em particular tem-se, portanto: (A) ij = a ij (A + B) ij = a ij + b ij (ra) ij = ra ij.

32 DEFINIÇÃO Para qualquer dimensão m n denota-se por 0 a matriz nula definida por (0) ij = 0, e por A = ( 1)A o simétrico de A. PROPOSIÇÃO As operações com matrizes satisfazem as seguintes propriedades: ASSOCIATIVIDADE DA SOMA: A + (B + C) = (A + B) + C COMUTATIVIDADE DA SOMA: A + B = B + A ELEMENTO NEUTRO DA SOMA: A + 0 = A ASSOCIATIVIDADE DO PRODUTO POR ESCALAR: (rs)a = r(sa) SIMÉTRICO DE UMA MATRIZ: A + ( A) = 0 ELEMENTO ABSORVENTE À ESQUERDA: 0A = 0 ELEMENTO ABSORVENTE À DIREITA: r0 = 0 (Escrevemos habitualmente A B em vez de A + ( B).) OPERAÇÕES ENVOLVENDO DIMENSÕES DIFERENTES DEFINIÇÃO A transposta de uma matriz A m n é a matriz A T n m definida por (A T ) ij = a ji. Uma matriz A diz-se: simétrica se A = A T ; anti-simétrica se A = A T. PROPOSIÇÃO Algumas propriedades: (A T ) T = A (A + B) T = A T + B T (ra) T = ra T

33 DEFINIÇÃO Sejam A e B duas matrizes, respectivamente de dimensões m p e p n. O produto de A por B é a matriz AB de dimensão m n definida da seguinte forma: (AB) ij = p a ik b kj. k=1 O produto AB só está definido se o número de colunas de A for igual ao número de linhas de B! (AB) ij = p a ik b kj k=1 EXEMPLO Sejam x,y R n. O produto interno (ou produto escalar) de x e y (que generaliza o produto escalar de R 2 ou R 3 visto no ensino secundário) é o número real x y = x 1 y x n y n = n x i y i. i=1 Logo, o produto escalar dos vectores coincide com o produto de matrizes x T y = [ ] x 1 x n y 1. y n.

34 EXEMPLO Seja A uma matriz m n e seja x R n. Então tem-se a 11 x a 1n x n Ax =.. a m1 x a mn x n Logo, o sistema de equações a 11 x a 1n x n = b 1 a m1 x a mn x n = b m é equivalente à equação matricial Ax = b.. DEFINIÇÃO Para qualquer dimensão n n denota-se por I a matriz identidade (quadrada) definida por { 0 se i j (I) ij = 1 se i = j PROPOSIÇÃO As operações com matrizes satisfazem as seguintes propriedades: ASSOCIATIVIDADE DO PRODUTO: A(BC) = (AB)C DISTRIBUTIVIDADE À ESQUERDA: A(B + C) = AB + AC DISTRIBUTIVIDADE À DIREITA: (B + C)A = BA + CA ELEMENTO NEUTRO DO PRODUTO: AI = IA = A ELEMENTO ABSORVENTE: A0 = 0A = 0 TRANSPOSTA DUM PRODUTO: (AB) T = B T A T

35 OBSERVAÇÃO IMPORTANTE O produto de matrizes não é em geral comutativo, pois mesmo para matrizes quadradas da mesma dimensão pode ter-se AB BA: [ ][ ] = 0 [ ] = [ ][ Nota: existem matrizes A e B não quadradas tais que os produtos AB e BA também estão ambos definidos (exercício: escreva um exemplo e mostre que se tem necessariamente AB BA). Exercício: Dê exemplos de matrizes quadradas A e B distintas, com a mesma dimensão, tais que AB = BA. ] Capítulo 4

36 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 1.3 e 1.6.

37 REVISÃO DEFINIÇÃO Sejam A e B duas matrizes, respectivamente de dimensões m p e p n. O produto de A por B é a matriz AB de dimensão m n definida da seguinte forma: (AB) ij = p a ik b kj. k=1 O produto AB só está definido se o número de colunas de A for igual ao número de linhas de B! REVISÃO EXEMPLO Seja A uma matriz m n e seja x R n. O sistema de equações a 11 x a 1n x n = b 1 a m1 x a mn x n = b m é equivalente à equação matricial Ax = b..

38 DEFINIÇÃO Para qualquer dimensão n n denota-se por I a matriz identidade (quadrada) definida por { 0 se i j (I) ij = 1 se i = j PROPOSIÇÃO As operações com matrizes satisfazem as seguintes propriedades: ASSOCIATIVIDADE DO PRODUTO: A(BC) = (AB)C DISTRIBUTIVIDADE À ESQUERDA: A(B + C) = AB + AC DISTRIBUTIVIDADE À DIREITA: (B + C)A = BA + CA ELEMENTO NEUTRO DO PRODUTO: AI = IA = A ELEMENTO ABSORVENTE: A0 = 0A = 0 TRANSPOSTA DUM PRODUTO: (AB) T = B T A T OBSERVAÇÃO IMPORTANTE O produto de matrizes não é em geral comutativo, pois mesmo para matrizes quadradas da mesma dimensão pode ter-se AB BA: [ ][ ] = 0 [ ] = [ ][ Nota: existem matrizes A e B não quadradas tais que os produtos AB e BA também estão ambos definidos (exercício: escreva um exemplo e mostre que se tem necessariamente AB BA). Exercício: Dê exemplos de matrizes quadradas A e B distintas, com a mesma dimensão, tais que AB = BA. ]

39 MATRIZ INVERSA DE UMA MATRIZ QUADRADA DEFINIÇÃO Seja A uma matriz quadrada. Designa-se por inversa de A uma matriz B (necessariamente da mesma dimensão) tal que AB = BA = I. Uma matriz A para a qual existe inversa diz-se invertível. PROPOSIÇÃO 1. Qualquer matriz quadrada A tem quando muito uma matriz inversa. Se existir, a inversa de A é denotada por A Se A e B forem invertíveis então AB também é e tem-se (AB) 1 = B 1 A Se A for invertível então A T também é e tem-se (A T ) 1 = (A 1 ) T. APLICAÇÃO AOS SISTEMAS DE n EQUAÇÕES LINEARES A n INCÓGNITAS Seja A uma matriz quadrada de dimensão n n. Se A for invertível então o sistema linear é determinado e a solução é Ax = b x = A 1 b. (Note-se a analogia com a solução x = a 1 b da equação ax = b quando a 0.)

40 ELIMINAÇÃO DE GAUSS JORDAN Seja A uma matriz quadrada n n. Se o sistema Ax = b for determinado podemos encontrar a solução usando os passos do método de eliminação de Gauss por forma a transformar a matriz aumentada a 11 a 1n b a n1 a nn b n numa com a forma [I x], onde x é a solução do sistema: 1 0 x x n RESOLUÇÃO SIMULTÂNEA DE VÁRIOS SISTEMAS Seja A uma matriz dos coeficientes comum a k sistemas diferentes: Ax = b (1). Ax = b (k) Podemos fazer a eliminação de Gauss de uma só vez numa matriz aumentada que inclui todos os vectores de termos independentes: a 11 a 1n b (1) 1 b (k) a m1 a mn b (1) m b (k) m

41 Capítulo 5 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

42 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 1.6. REVISÃO INVERSAS DE MATRIZES DEFINIÇÃO Seja A uma matriz quadrada. Designa-se por inversa de A uma matriz B (necessariamente da mesma dimensão) tal que AB = BA = I. Uma matriz A para a qual existe inversa diz-se invertível. PROPOSIÇÃO Se A for invertível qualquer sistema Ax = b é determinado e a solução é dada por x = A 1 b.

43 REVISÃO ELIMINAÇÃO DE GAUSS JORDAN Seja A uma matriz quadrada n n. Se o sistema Ax = b for determinado podemos encontrar a solução usando os passos do método de eliminação de Gauss por forma a transformar a matriz aumentada a 11 a 1n b a n1 a nn b n numa com a forma [I x], onde x é a solução do sistema: 1 0 x x n REVISÃO RESOLUÇÃO DE MÚLTIPLOS SISTEMAS Seja A uma matriz dos coeficientes comum a k sistemas diferentes: Ax = b (1). Ax = b (k) Podemos fazer a eliminação de Gauss de uma só vez numa matriz aumentada que inclui todos os vectores de termos independentes: a 11 a 1n b (1) 1 b (k) a m1 a mn b (1) m b (k) m

44 Suponha-se que cada um dos sistemas Ax = b (l) é possível e tem uma solução x (l) : Ax (1) = b (1) Ax (k) = b (k) Então, sendo X e B as matrizes n k e m k definidas por x ij = x (j) i e b ij = b (j) i, tem-se. AX = B. Se A for uma matriz n n invertível (caso em que todos os sistemas Ax = b são determinados) podemos resolver os k sistemas de uma só vez por eliminação de Gauss Jordan: a 11 a 1n b (1) 1 b (k) a n1 a nn b (1) n b (k) n 1 0 x (1) 1 x (k) x n (1) x n (k)

45 Mas se A for invertível também resulta de AX = B que X = A 1 B e portanto concluímos que a eliminação de Gauss Jordan produz a seguinte transformação de matrizes: Em particular, tem-se [A B] [I A 1 B]. [A I] [I A 1 ]. Podemos assim calcular a matriz inversa de uma forma expedita pelo método de Gauss Jordan. EXEMPLO [ ] 2 1 Vamos verificar que a matriz A = tem inversa e vamos 2 2 calcular A 1. O primeiro passo é obter uma matriz em escada de linhas: [ ] [ ] Há dois pivots (2 e 1) e portanto a inversa existe (o sistema AX = I é determinado). [ ] [ ] [ / ] Portanto tem-se A 1 = [ 1 1/2 1 1 ].

46 DEFINIÇÃO Seja A uma matriz quadrada n n. Se por eliminação de Gauss encontrarmos n pivots para A então A diz-se não-singular. caso contrário diz-se singular. (Por outras palavras, A é não-singular se e só se a sua característica for n.) TEOREMA Seja A uma matriz quadrada n n. As seguintes afirmações são equivalentes: 1. A é invertível. 2. A é não-singular. OBSERVAÇÕES Se A for uma matriz quadrada então o sistema Ax = b é determinado se e só se qualquer sistema for determinado. Ax = b Esta afirmação é falsa para matrizes rectangulares: o sistema que tem a matriz aumentada é determinado mas é impossível

47 MATRIZES ESPECIAIS DEFINIÇÃO Seja A uma matriz quadrada. Diz-se que a matriz A é triangular superior se i > j a ij = 0. EXEMPLO é triangular superior Qualquer matriz quadrada em escada de linhas é triangular superior (o exemplo anterior mostra que a afirmação recíproca é falsa). PROPOSIÇÃO Uma matriz triangular superior é invertível se e só se tiver todos os elementos da diagonal principal diferentes de zero. Nesse caso a inversa também é uma matriz triangular superior.

48 DEFINIÇÃO Seja A uma matriz quadrada. Diz-se que a matriz A é triangular inferior se i < j a ij = 0 (ou seja, A T é triangular superior); elementar se for triangular inferior com todas as entradas da diagonal principal iguais a 1 e apenas uma entrada abaixo da diagonal principal diferente de zero. PROPOSIÇÃO Uma matriz triangular superior é invertível se e só se tiver todos os elementos da diagonal principal diferentes de zero. Nesse caso a inversa também é uma matriz triangular superior. PROPOSIÇÃO A inversa de uma matriz elementar obtém-se trocando o sinal da única entrada não-nula fora da diagonal principal. EXEMPLO =

49 DEFINIÇÃO Uma matriz de permutação é uma matriz quadrada cujas entradas são todas 0 ou 1, tal que em cada linha e em cada coluna existe exactamente uma entrada com o valor 1. (Equivalentemente, uma matriz que resulta da matriz identidade por uma permutação das linhas, ou por uma permutação das colunas.) EXEMPLO PROPOSIÇÃO Se P for uma matriz de permutação então é invertível e tem-se P 1 = P T. Capítulo 6

50 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 5.

51 MOTIVAÇÃO ÁREAS DE PARALELOGRAMOS Dados dois vectores x,y R 2, seja A (x,y) o número real igual, em módulo, à área do paralelogramo determinado pelos vectores, com sinal igual ao do seno do ângulo formado pelos vectores x e y (por esta ordem) por exemplo na figura seguinte tem-se A (x,y) > 0: y x ALGUMAS PROPRIEDADES DA FUNÇÃO A ANULAÇÃO: A (x,x) = 0 ALTERNÂNCIA: A (x,y) = A (y,x) ( NORMALIZAÇÃO: A (e 1,e 2 ) = 1 onde { e1 = (1,0) e 2 = (0,1) )

52 ALGUMAS PROPRIEDADES DA FUNÇÃO A LINEARIDADE À ESQUERDA: A (αx,y) = α A (x,y) A (x + x,y) = A (x,y) + A (x,y) Estas duas propriedades são equivalentes à seguinte: A (αx + βx,y) = α A (x,y) + β A (x,y) Da mesma forma existe linearidade à direita (respeitante às somas e produtos por escalar na segunda variável). O conjunto dos dois tipos de linearidade designa-se por bilinearidade. Volumes de paralelepípedos podem ser tratados de forma análoga, por meio duma função V que a cada três vectores x,y,z R 3 atribui um número real V (x,y,z) que em módulo é igual ao volume do paralelepípedo determinado pelos três vectores. Teremos agora: Linearidade em cada uma das três variáveis. Anulação: V (x,y,z) = 0 se se tiver x = y ou x = z ou y = z. Alternância: V (x,y,z) = V (y,x,z), etc. (o sinal muda sempre que se permutarem duas das variáveis). Normalização: V (e 1,e 2,e 3 ) = 1, onde e 1 = (1,0,0), e 2 = (0,1,0) e e 3 = (0,0,1).

53 DEFINIÇÃO Uma função determinante de ordem n é uma função d que a cada n vectores x 1,...,x n de R n atribui um número real d(x 1,...,x n ) satisfazendo as condições seguintes: MULTILINEARIDADE: (= linearidade em cada uma das n variáveis) d(x 1,...,αx i,...,x n ) = αd(x 1,...,x i,...,x n ) ; d(x 1,...,x i + x i,...,x n ) = d(x 1,...,x i,...,x n ) + d(x 1,...,x i,...,x n ). ANULAÇÃO: d(x 1,...,x n ) = 0 se existirem i j tais que x i = x j. NORMALIZAÇÃO: d(e 1,...,e n ) = 1, onde e 1 = (1,0,...,0), e 2 = (0,1,0,...,0),..., e n = (0,...,0,1). A alternância é uma propriedade derivada das anteriores: 0 = d(x 1,...,x + y,...,x + y,...,x n ) (Anul.) = d(x 1,...,x,...,x,...,x n ) + d(x 1,...,x,...,y,...,x n ) +d(x 1,...,y,...,x,...,x n ) + d(x 1,...,y,...,y,...,x n ) (Mult.) = d(x 1,...,x,...,y,...,x n ) +d(x 1,...,y,...,x,...,x n ) (Anul.) Nota: Na verdade a anulação também é consequência da alternância, pois se x ocorre em duas posições diferentes então trocando x com x nessas duas posições o valor da função determinante não se altera mas a alternância impõe uma mudança de sinal: d(x 1,...,x,...,x,...,x n ) = d(x 1,...,x,...,x,...,x n ) Logo, obtemos 2d(x 1,...,x,...,x,...,x n ) = 0 e portanto d(x 1,...,x,...,x,...,x n ) = 0.

54 FUNÇÕES DETERMINANTE PARA MATRIZES A nossa identificação de vectores com matrizes coluna permite-nos pensar numa função determinante de ordem n d : R n... R n R como uma função definida sobre o conjunto das matrizes n n: Sendo A uma matriz n n, d : Mat n n R. d(a) é o mesmo que d(x 1,...,x n ), onde, para cada j, o vector x j é a coluna j de A. MATRIZES DE PERMUTAÇÃO Para qualquer função determinante d tem de ter-se d(i) = 1. Se P for uma matriz de permutação que resulta de I por um número k de trocas de colunas então tem de ter-se d(p) = ( 1) k. O número ( 1) k designa-se por paridade da matriz de permutação (qualquer outro número k de permutações que levem de I a P tem de satisfazer ( 1) k = ( 1) k e portanto a noção de paridade está bem definida a paridade é um conceito associado a permutações em geral).

55 PERMUTAÇÕES Seja C = {a 1,...,a n } um conjunto de n objectos distintos (números, colunas de uma matriz, etc.). Uma permutação de C é uma função bijectiva σ : C C. Convencionando uma ordem para os elementos de C, por exemplo (a 1,...,a n ), podemos representar as permutações σ por outras listas ordenadas de elementos de C: EXEMPLO Seja C = {1,2,3,4}. Adoptando a lista (1,2,3,4) como referência, a permutação σ : C C tal que σ(1) = 3, σ(2) = 4, σ(3) = 1 e σ(4) = 2 é representada pela lista (σ(1),σ(2),σ(3),σ(4)) = (3,4,1,2). Notação simplificada: σ i em vez de σ(i). PROPOSIÇÃO Seja σ uma permutação de {1,...,n} e sejam k e k dois números de trocas de elementos aos pares que transformam a lista (1,...,n) em (σ 1,...,σ n ). Então ambos os números k e k são pares ou ambos são ímpares. DEFINIÇÃO O número ( 1) k { 1,1} da proposição anterior designa-se por paridade ou sinal da permutação σ e denota-se por sgn(σ). Se a paridade é 1 a permutação diz-se par, caso contrário diz-se ímpar. EXEMPLO A permutação que transforma (1,2,3,4) em (1,3,4,2) é par: (1,2,3,4) (1,3,2,4) (1,3,4,2).

56 Da mesma forma dizemos que uma matriz de permutação P é par ou ímpar quando a permutação das colunas que transforma I em P é par ou ímpar, respectivamente. Dada uma matriz de permutação P de dimensão n n seja σ a permutação de C = {1,...,n} tal que para cada j C a coluna j de P é igual à coluna σ j de I. Então as entradas de P que são iguais a 1 são exactamente EXEMPLO Seja P = p σ1 1,..., p σn n As entradas iguais a 1 são p 31, p 12, p 23, p 44 e portanto a permutação σ corresponde à lista (3,1,2,4) e é par. EXEMPLO Seja A = 0 a a 23 0 a a 44 e seja σ a mesma permutação do exemplo anterior. Se d for uma função determinante de ordem 4 então pela multinearidade temos d(a) = a 31 a 12 a 23 a 44 d(p) = sgn(σ)a 31 a 12 a 23 a 44 = a 31 a 12 a 23 a 44.

57 EXEMPLO Seja d uma função determinante de ordem 2. Pela multilinearidade, uma vez que (a 11,a 21 ) = a 11 (1,0) + a 21 (0,1) e (a 12,a 22 ) = a 12 (1,0) + a 22 (0,1), temos ([ a11 a d 12 a 21 a 22 ]) ([ 1 1 = a 11 a 12 d 0 0 ([ a 11 a 22 d 0 1 ([ a 21 a 12 d 1 0 ([ a 21 a 22 d 1 1 = a 11 a 22 a 21 a 12. ]) ]) ]) ]) OBSERVAÇÕES O exemplo anterior mostra que existe uma e uma só função determinante d de ordem 2. Para cada matriz A de dimensão 2 2 temos d(a) = a 11 a 22 a 21 a 12. Este resultado permite obter uma fórmula simples para a área de um paralelogramo: PROPOSIÇÃO A área do paralelogramo determinado por dois vectores x,y R 2 é igual a x 1 y 2 x 2 y 1.

58 MATRIZES 3 3 Da mesma forma se mostra que para qualquer ordem n existe uma e uma só função determinante d. Por exemplo, se A for uma matriz 3 3 ter-se-á d(a) igual a uma soma de seis parcelas (correspondendo às seis permutações de três colunas): d(a) = a 11 a 22 a 33 a 11 a 32 a 23 + a 31 a 12 a 23 a 31 a 22 a 13 + a 21 a 32 a 13 a 21 a 12 a 33. PROPOSIÇÃO O volume do paralelepípedo determinado por três vectores x,y,z R 3 é igual a x 1 y 2 z 3 x 1 y 3 z 2 + x 3 y 1 z 2 x 3 y 2 z 1 + x 2 y 3 z 1 x 2 y 1 z 3. TEOREMA Para cada n N existe uma e uma só função determinante d, que é definida, para cada matriz A de dimensão n n, pela fórmula seguinte, onde S n é o conjunto das permutações de {1,...,n}: d(a) = σ S n sgn(σ)a σ1 1...a σn n. DEFINIÇÃO O determinante de uma matriz A de dimensão n n é o valor atribuído à matriz A pela única função determinante de ordem n. Denota-se este valor por deta ou det(a). a 11 a n1 Outra notação: det(a) = a n1 a nn

59 EXERCÍCIO Calcule o determinante seguinte: Capítulo 7

60 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 5.

61 REVISÃO Uma função determinante de ordem n é uma função d que a cada n vectores x 1,...,x n de R n atribui um número real d(x 1,...,x n ) satisfazendo as condições de multilinearidade, anulação e normalização (e em consequência também alternância). Exemplos são: a área orientada determinada por dois vectores de R 2 ; o volume orientado determinado por três vectores de R 3. Para qualquer n existe uma e uma só função determinante de ordem n. (Vamos concluir isto hoje.) Pensando em vectores como colunas de matrizes obtemos a noção de determinante de uma matriz quadrada: DEFINIÇÃO O determinante de uma matriz A de dimensão n n é o valor atribuído à matriz A pela única função determinante de ordem n. Denota-se este valor por deta ou det(a). a 11 a n1 Outra notação: det(a) = a n1 a nn

62 EXERCÍCIO Calcule o determinante seguinte: TEOREMA Para cada n N existe uma e uma só função determinante det, que é definida, para cada matriz A de dimensão n n, pela fórmula seguinte, onde S n é o conjunto das permutações de {1,...,n}: det(a) = σ S n sgn(σ)a σ1 1...a σn n. Demonstração. A unicidade demonstra-se como nos exemplos. Para a existência demonstramos que det satisfaz os axiomas: Multilinearidade: Suponha-se que a coluna j de A é a combinação αx + βy. Todas as parcelas do somatório det(a) contêm exactamente um factor a σj j da coluna j, que é da forma αx σj + βy σj, pelo que se obtém det(a) = α det(a 1 ) + β det(a 2 ) onde A 1 e A 2 são as matrizes que se obtém de A substituindo a coluna j por x e por y, respectivamente.

63 Demonstração. (Continuação) Anulação: Se a coluna j e a coluna k de A forem o mesmo vector (mas j k) então cada parcela a σ1 1...a σj j...a σk k...a σn n aparece duas vezes no somatório, com sinal trocado: mais precisamente, tem-se a σ1 1...a σj j...a σk k...a σn n = a τ1 1...a τj j...a τk k...a τn n onde τ é igual a σ excepto que τ j = σ k e τ k = σ j e, como σ e τ diferem exactamente numa troca, tem-se sgn(τ) = sgn(σ). Portanto det(a) = 0. Normalização: Tem-se det(i) = 1 porque a única parcela não nula é o produto dos elementos da diagonal principal, que corresponde à permutação identidade, que é par. LEMA Qualquer matriz triangular tem determinante igual ao produto das entradas da diagonal principal. Em particular, uma matriz triangular tem determinante nulo se e só se for uma matriz singular.

64 TEOREMA Para qualquer matriz quadrada A tem-se det(a T ) = det(a). Demonstração. Cada parcela a σ1 1...a σn n pode ser escrita com os factores permutados na forma a σ1 1...a σn n = a 1τ1...a nτn onde τ = σ 1 é a permutação inversa de σ. Mas cada factor a jτj é igual a (A T ) τj j e portanto tem-se det(a) = σ S n sgn(σ)a σ1 1...a σn n = sgn(σ)(a T ) τ1 1...(A T ) τn n σ S n = sgn(σ)(a T ) σ1 1...(A T ) σn n = det(a T ), σ S n onde no fim a substituição de τ por σ é justificada pelo facto de o conjunto {σ 1 σ S n } ser igual a S n e para qualquer permutação σ se ter sgn(σ) = sgn(σ 1 ).

65 CÁLCULO DE DETERMINANTES POR ELIMINAÇÃO DE GAUSS Como det(a T ) = det(a) podemos trabalhar com as linhas de A em vez das colunas. Regra da eliminação para determinantes: a 11 a n a i1... a in..... a k1 + ra i1... a kn + ra in..... a n1 a nn = a 11 a n a i1... a in..... a k1... a kn..... a n1 a nn }{{} det(a) +r a 11 a n a i1... a in..... a i1... a in..... a n1 a nn }{{} 0 Regra da multiplicação para determinantes: a 11 a n ra i1... ra in..... a n1 a nn = r a 11 a n a i1... a in..... a n1 a nn = r det(a) Regra da permutação para determinantes: a 11 a n a k1... a kn..... a i1... a in..... a n1 a nn = a 11 a n a i1... a in..... a k1... a kn..... a n1 a nn

66 EXERCÍCIO Calcule pelo método de eliminação de Gauss o determinante seguinte: TEOREMA det(a) = 0 A é singular. Demonstração. Usando a regra da eliminação e a regra da permutação podemos obter a partir de A uma matriz triangular superior A. Tem-se det(a ) = det(a) ou det(a ) = det(a). Portanto det(a) = 0 se e só se det(a ) = 0. Como A é triangular a condição det(a ) = 0 é equivalente a A ser singular e portanto é equivalente a A ser singular.

67 TEOREMA Sejam A e B matrizes quadradas n n. Então det(ab) = det(a) det(b). Demonstração. Primeiro consideremos o caso em que B é não-singular. Podemos então definir a função f (A) = det(ab) det(b). Como as linhas da matriz produto AB são determinadas pelo produto das linhas de A pela matriz B é fácil concluir que a função f é uma função determinante das linhas de A, ou seja, f (A) = det(a T ) = det(a). Portanto tem-se det(ab) = det(a) det(b). Por outro lado, no caso em que B é singular então AB também é singular e por isso tem-se det(ab) = 0 = det(a)det(b). EXERCÍCIO Justifique detalhadamente as seguintes afirmações da demonstração anterior: Se B é não-singular então f (A) = det(ab) det(b) determinante das linhas de A. é uma função Se B é singular então AB é singular. (Sugestão: mostre que existe x 0 tal que (AB)x = 0.)

68 COROLÁRIO Se A tiver inversa então det(a 1 ) = 1 det(a). Demonstração. Se A tiver inversa tem-se 1 = det(i) = det(aa 1 ) = det(a)det(a 1 ). Capítulo 8

69 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 5.

70 REVISÃO TEOREMA det(a) = σ S n sgn(σ)a σ1 1...a σn n. Algoritmo baseado em permutações das colunas (ou das linhas). Pouco útil para cálculo excepto em casos especiais (muito pouco eficiente), mas útil ao demonstrar propriedades da função determinante. No caso de matrizes 3 3 este método é conhecido como Regra de Sarrus e é computacionalmente razoável porque envolve um somatório com apenas seis parcelas. Algoritmo baseado em eliminação de Gauss: computacionalmente eficiente. REGRA DE SARRUS deta = a 11 a 22 a 33 a 11 a 32 a 23 + a 31 a 12 a 23 a 31 a 22 a 13 + a 21 a 32 a 13 a 21 a 12 a 33. Permutações pares: Permutações ímpares:

71 deta = a 11 a 22 a 33 a 11 a 32 a 23 + a 31 a 12 a 23 a 31 a 22 a 13 + a 21 a 32 a 13 a 21 a 12 a 33. Pondo as entradas da primeira linha em evidência obtemos a deta = a 22 a a 32 a 33 a 12 a 21 a 23 a 31 a 33 + a 13 a 21 a 22 a 31 a 32. Pondo as entradas da segunda linha em evidência obtemos a deta = a 12 a a 32 a 33 + a 22 a 11 a 13 a 31 a 33 a 23 a 11 a 12 a 31 a 32. Etc. O sinal de que é afectada cada uma das três parcelas é determinado pelo sinal ( 1) i+j de cada uma das entradas ij da matriz: Outro exemplo: pondo as entradas da terceira coluna em evidência obtemos a deta = +a 21 a a 31 a 32 a 23 a 11 a 12 a 31 a 32 +a 33 a 11 a 12 a 21 a 22 É fácil generalizar estes factos para matrizes n n, como veremos de seguida..

72 FÓRMULA DE LAPLACE DEFINIÇÃO Seja A uma matriz n n, com n 2, e sejam i,j {1,...,n}. O menor-ij de A é a matriz A ij (não confundir com a entrada a ij = (A) ij ) cuja dimensão é (n 1) (n 1) e que resulta de A pela eliminação das entradas da linha i e da coluna j. TEOREMA (FÓRMULA DE LAPLACE) Seja A uma matriz n n. Para qualquer i {1,...,n} temos det(a) = n j=1 ( 1) i+j a ij det(a ij ). NOTA Como det(a) = det(a T ) também temos a Fórmula de Laplace ao longo das colunas : para qualquer j {1,...,n} temos det(a) = n i=1 ( 1) i+j a ij det(a ij ).

73 EXERCÍCIO Calcule pela regra de Laplace os seguintes determinantes: NOTA O cálculo de um determinante exclusivamente por meio da fórmula de Laplace é em geral pouco eficiente computacionalmente, uma vez que apenas se resume à reorganização, por meio de uma regra de recorrência, da fórmula baseada em permutações. Mas a fórmula de Laplace pode ser usada para decompor o cálculo de um determinante em partes mais simples, por exemplo em conjunto com a eliminação de Gauss, como no seguinte exemplo em que se aplica a fórmula à segunda linha: = =... (elim. Gauss) Outras aplicações da fórmula de Laplace são teóricas, como veremos de seguida.

74 EXEMPLO COMPLETO = (F. Laplace, linha 2) = (Elim. Gauss, pivot 1) = (F. Laplace, coluna 1) = 2 1 (( 4) ( 34) ( 11) ( 12)) = 8 CO-FACTORES E MATRIZES INVERSAS DEFINIÇÃO Seja A uma matriz n n e sejam i,j {1,...,n}. O cofactor-ij de A é o número A ij = ( 1) i+j det(a ij ). A matriz dos cofactores de A é a matriz cof(a) = [A ij ] cuja entrada (cof(a)) ij é o cofactor-ij de A. Definindo a matriz B cuja entrada b ij é o cofactor-ji de A (note-se a permutação dos índices), ou seja, B = cof(a) T, podemos rescrever a fórmula de Laplace da seguinte forma: det(a) = n a ij ( 1) i+j n det(a ij ) = a ij b ji = (AB) ii. j=1 j=1 (De igual modo, a fórmula de Laplace ao longo das colunas permite concluir que (BA) jj = det(a).)

75 TEOREMA Seja A uma matriz n n não-singular. Então A 1 = 1 deta (cofa)t. Demonstração. Continuando a denotar (cofa) T por B, já vimos que para quaisquer i e j temos (AB) ii = (BA) jj = deta. Falta apenas mostrar que se i j então (AB) ij = (BA) ji = 0 para concluir que AB = BA = (deta)i, ou seja, que A 1 = 1 detab como pretendido. Demonstração. (Continuação) Sejam então i j. Temos (AB) ij = n n a ik b kj = a ik ( 1) j+k det(a jk ). k=1 k=1 Note-se que o menor-jk de A, que aparece neste somatório, não depende da linha j de A e por isso é igual ao menor-jk da matriz à que resulta de A se substituirmos a linha j de A pela linha i. Então o somatório pode rescrever-se assim: n k=1 (Ã) jk ( 1) j+k det(ã jk ).

76 Demonstração. (Continuação) Mas a soma n k=1 (Ã) jk ( 1) j+k det(ã jk ) é precisamente o valor de det(ã) dado pela fórmula de Laplace aplicada à linha j. Uma vez que à tem duas linhas (i e j) iguais resulta que det(ã) = 0 e por isso (AB) ij = 0. De igual forma, usando a fórmula de Laplace aplicada a colunas, se conclui que (BA) ji = 0. Portanto AB = BA = (deta)i, como pretendíamos provar. EXERCÍCIO Considere a matriz A = Calcule as entradas da primeira linha de cof A. 2. Calcule det A. 3. Se A for não-singular calcule as restantes entradas de cofa e calcule a matriz A 1.

77 Capítulo 9 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

78 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 5 e Secção 4.6. REVISÃO DEFINIÇÃO Seja A uma matriz n n. O cofactor-ij de A é o número A ij = ( 1) i+j det(a ij ), onde A ij é o menor-ij de A, ou seja, a matriz que resulta de A se apagarmos a linha i e a coluna j. A matriz dos cofactores de A é cof(a) = [A ij].

79 REVISÃO TEOREMA A fórmula de Laplace ao longo da linha i é: det(a) = (linha i de A) (linha i de cofa) = n a ij ( 1) i+j det(a ij ) j=1 = (A(cofA) T ) ii. A fórmula de Laplace ao longo da coluna j é: det(a) = (coluna j de cofa) (coluna j de A) = n ( 1) i+j det(a ij )a ij i=1 = ((cofa) T A) jj. REVISÃO TEOREMA Seja A uma matriz n n. Então tem-se A(cofA) T = (deta)i = (cofa) T A. COROLÁRIO Seja A uma matriz n n não-singular. Então A 1 = 1 deta (cofa)t.

80 REGRA DE CRAMER A fórmula anterior para matrizes inversas permite-nos resolver sistemas determinados pela chamada regra de Cramer, como veremos de seguida. Se A for uma matriz não-singular então Ax = b é um sistema determinado cuja solução é x = A 1 b. Substituindo A 1 por 1 deta (cofa)t obtém-se x j = 1 deta n i=1 (cofa) ij b i. Uma vez que (cofa) ij não depende da coluna j de A temos (cofa) ij = (cofb) ij para qualquer i e qualquer matriz B que apenas difira de A na coluna j. Em particular, seja A (j) a matriz que resulta de A se substituirmos a coluna j de A pelo vector b. Tem-se então, para cada j, n i=1 (cofa) ij b i = n i=1 (cofa (j) ) ij (A (j) ) ij = deta (j). Obtivemos assim a regra de Cramer, que é uma fórmula para calcular directamente a j-ésima incógnita x j sem ter de calcular todo o vector-solução: x j = deta(j) deta.

81 EXERCÍCIO Considere as matrizes A = 1 0 1, b = , x = x y z. Calcule o valor de y determinado pelo sistema Ax = b. (Já vimos noutro exercício que A é uma matriz não-singular e calculámos det A.) RESOLUÇÃO Já calculámos deta = 2 noutra aula. A matriz que resulta de substituir a segunda coluna de A pelo vector b é A (2) = 1 1 1, pelo que, pela regra de Cramer, a incógnita y (que corresponde à segunda coluna) tem o valor y = = = =

82 PRODUTO EXTERNO DEFINIÇÃO Sejam x,y R 3 dois vectores. O produto externo de x e y é o vector de R 3 definido da seguinte forma: x y = (x 2 y 3 y 2 x 3, y 1 x 3 x 1 y 3, x 1 y 2 y 1 x 2 ). NOTA x y = x 2 x 3 y 2 y 3 e 1 x 1 x 3 y 1 y 3 e 2 + x 1 x 2 y 1 y 2 e 3 NOTA Simbolicamente podemos escrever, pensando na fórmula de Laplace aplicada à primeira linha, a seguinte fórmula para o produto externo: e 1 e 2 e 3 x y = x 1 x 2 x 3 y 1 y 2 y 3 (Note-se que não está definida uma noção de matriz cujas entradas são vectores e por isso a notação acima é apenas uma mnemónica!)

83 EXERCÍCIO Verifique as seguintes propriedades: NORMALIZAÇÃO: e 1 e 2 = e 3 e 2 e 3 = e 1 e 3 e 1 = e 2 ANULAÇÃO: x x = 0 ALTERNÂNCIA: x y = y x BILINEARIDADE: (αx) y = α(x y) x (αy) = α(x y) (x + x ) y = x y + x y x (y + y ) = x y + x y EXERCÍCIO Recorde (do ensino secundário) que dois vectores x,y R 3 são ortogonais, ou perpendiculares (e escreve-se x y), se e só se o seu produto escalar for nulo: x y x y = Mostre que se tem, para quaisquer x,y,z R 3, x 1 x 2 x 3 x (y z) = y 1 y 2 y 3 z 1 z 2 z Mostre que x y é ortogonal a x e a y.

84 NOTA O produto externo tem ainda as propriedades seguintes (a demonstração será feita oportunamente): O comprimento de x y é igual à área do paralelogramo definido por x e y. A orientação relativa do terno ordenado (x,y,x y) é semelhante à de (e 1,e 2,e 3 ). Por outras palavras, esta orientação é dada pela regra da mão direita : se os dedos da mão direita acompanharem a rotação de x para y (no sentido em que o ângulo é menor que π) então x y aponta no sentido do polegar. EXERCÍCIOS Seja A uma matriz n n (com n 2). 1. Mostre que para qualquer número real r se tem det(ra) = r n deta. 2. Mostre que A é singular se e só se cofa for singular. 3. Mostre que (deta)(det(cofa)) = (deta) n. 4. Mostre que se A for não-singular então det(cofa) = (deta) n Mostre que deta = 1 se e só se det(cofa) = 1.

85 Definindo, para uma matriz de permutação P qualquer, { +1 se P é par, sgn(p) = 1 se P é ímpar (ou seja, sgn(p) é o sinal da correspondente permutação das colunas), resolva o exercício seguinte: EXERCÍCIO Seja P uma matriz de permutação n n (com n 2) e sejam i,j {1,...,n} tais que p ij = Mostre que P ij também é uma matriz de permutação. 2. Esta conclusão manter-se-ia se p ij = 0? Explique. 3. Verifique, escolhendo uma matriz de permutação 4 4 arbitrária, que sgn(p) = ( 1) i+j sgn(p ij ). (Ou seja, P é par se e só se os sinais da entrada ij e do menor P ij forem iguais.) (Na verdade tem-se sgn(p) = ( 1) i+j sgn(p ij ) para uma matriz de permutação P qualquer.) Capítulo 10

86 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 2.1 e 2.2.

87 MOTIVAÇÕES Até agora recordámos que um vector é um elemento de um espaço R n com n = 1,2,3,..., e também adoptámos a convenção de identificar os vectores de R n com as matrizes coluna de Mat n 1. Este conceito revelou-se útil por exemplo ao definir o que se entende por solução de um sistema de equações lineares e veremos que muito mais se pode dizer a este respeito. No entanto este conceito de vector é, em muitas aplicações, insuficiente. Por exemplo, os vectores x R n podem descrever-se por meio de um número finito de coordenadas x 1,..., x n. São necessárias exactamente n coordenadas para descrever um vector e esta situação corresponde, como veremos, a dizer que R n é um espaço de dimensão igual a n. Mas encontraremos situações em que serão necessários vectores mais gerais, descritos por um número infinito de coordenadas. Como veremos, um espaço formado por tais vectores diz-se de dimensão infinita. Ou, por vezes, encontraremos espaços que, mesmo sendo de dimensão igual a n, têm um aspecto aparentemente muito diferente de R n. Por exemplo, conjuntos de soluções de certas equações diferenciais são deste tipo: os vectores são funções (por exemplo funções reais de variável real).

88 Para obter o conceito suficientemente geral de vector que permita englobar ambos os aspectos mencionados vamos recorrer a uma abordagem axiomática, estudando quais devem ser as operações algébricas com vectores e quais são as propriedades destas operações, descritas por axiomas apropriados. (Já vimos um exemplo do poder da abordagem axiomática ao calcular a área orientada de um paralelogramo a partir da descrição de um conjunto de axiomas que a função A satisfaz.) Começaremos por extrair as operações e axiomas apropriados inspirando-nos no exemplo concreto de R n. DEFINIÇÃO Um espaço vectorial real, ou espaço linear real, é um conjunto V, cujos elementos são denominados vectores, sobre o qual estão definidas as operações seguintes (satisfazendo os axiomas que descreveremos de seguida): ADIÇÃO: Dados x,y V existe um vector x + y V, designado por soma de x e y. (Esta operação diz-se binária.) ZERO: Existe um vector 0 V designado por zero. (Esta operação diz-se constante ou 0-ária.) SIMÉTRICO: Dado x V existe um vector x V designado por simétrico de x. (Esta operação diz-se unária.) Escrevemos x y em vez de x + ( y). MULTIPLICAÇÃO: Dado r R e x V existe um vector rx V, designado por produto de r por x. (Operação binária heterogénea.)

89 DEFINIÇÃO (Continuação) Os axiomas são os seguintes: ASSOCIATIVIDADE DA SOMA: (x + y) + z = x + (y + z). COMUTATIVIDADE DA SOMA: x + y = y + x. ELEMENTO NEUTRO: 0 + x = x. ELEMENTO SIMÉTRICO: x x = 0. ASSOCIATIVIDADE DA MULT.: r(sx) = (rs)x. UNITARIDADE: 1x = x. DISTRIBUTIVIDADE DIREITA: r(x + y) = rx + ry. DISTRIBUTIVIDADE ESQUERDA: (r + s)x = rx + sx. Nota 1: V é um grupo abeliano (primeiros quatro axiomas). Nota 2: 0 é o único elemento neutro; para cada vector x o único vector y tal que x + y = 0 é o vector y = x; e se x + x = x então x = 0. Nota 3: 0x = 0 e ( 1)x = x. EXEMPLO 1. R n. 2. Mat m n. 3. R A = {funções f : A R}. (f + g)(a) = f (a) + g(a) 0(a) = 0 ( f )(a) = (f (a)) (rf )(a) = r(f (a)) 4. Mais uma convenção: R {1,...,n} = R n. Um vector x R n corresponde à função f : {1,...,n} R definida por f (1) = x 1,..., f (n) = x n. 5. R N. Os vectores são as sucessões de números reais, que podemos encarar como vectores infinitos (x 1,x 2,x 3,...) (veremos que este é um exemplo de espaço de dimensão infinita).

90 EXEMPLO 6. Se A e B forem dois conjuntos, escreve-se A B = {(a,b) a A, b B}. (Por exemplo, R R = R 2.) Em particular, {1,...,m} {1,...,n} é o conjunto de pares ordenados (i,j) de números naturais tais que i {1,...,m} e j {1,...,n} e por isso podemos fazer a identificação R {1,...,m} {1,...,n} = Mat m n, segundo a qual a matriz A de dimensão m n corresponde à função f : {1,...,m} {1,...,n} R definida por f (i,j) = a ij. EXEMPLO 7. Se V e W forem dois espaços vectoriais reais então V W é um espaço vectorial real com as operações (v 1,w 1 ) + (v 2,w 2 ) = (v 1 + v 2,w 1 + w 2 ) zero = (0, 0) (v, w) = ( v, w) r(v,w) = (rv,rw). 8. R R é exactamente o mesmo que o espaço R Evidentemente, podemos identificar (R R) R com R 3, pois o vector ((x 1,x 2 ),x 3 ) de (R R) R pode identificar-se com (x 1,x 2,x 3 ) R 3.

91 AVISO O conceito de vector agora definido é abstracto. Na verdade não definimos o que se entende por vector mas sim por espaço de vectores. Ou seja, apenas faz sentido dizer que um objecto é um vector no contexto duma colecção da qual o objecto faz parte e que tem as propriedades apropriadas. DEFINIÇÃO Definimos também as seguintes noções: Um espaço vectorial racional, ou espaço linear racional tem uma definição em tudo análoga à de espaco vectorial real, mas com R substituído pelo conjunto dos números racionais Q. Um espaço vectorial complexo, ou espaço linear complexo tem uma definição em tudo análoga à de espaco vectorial real, mas com R substituído pelo conjunto dos números complexos C. NOTA Uma vez que se tem as inclusões Q R C, qualquer espaço vectorial complexo é também um espaço vectorial real e qualquer espaço vectorial real é também um espaço vectorial racional.

92 EXEMPLO Os exemplos são em tudo semelhantes aos de espaço vectorial real: Q n e C n são respectivamente um espaço vectorial racional e um espaço vectorial complexo. Dado um conjunto A definem-se os espaços de funções Q A e C A, que são respectivamente um espaço vectorial racional e um espaço vectorial complexo. C N é o espaço vectorial complexo das sucessões de números complexos. Se V e W são espaços racionais (resp. complexos) então define-se o produto cartesiano V W, que é um espaço racional (resp. complexo). Os comentários relativos às identificações, por exemplo C {1,...,n} = C n, ou Q (Q (Q Q)) = Q 4, são análogos. MUDANÇA DE ESCALARES Já referimos que qualquer espaço vectorial complexo é também um espaço vectorial real. Por exemplo, C, que é um espaço vectorial complexo, é portanto também um espaço vectorial real, cujos vectores são descritos exactamente por duas coordenadas independentes: a parte real e a parte imaginária dum número complexo. Como veremos, isto significa que C, enquanto espaço vectorial real, tem dimensão igual a 2 e por isso é análogo (dir-se-á isomorfo ) a R 2 : cada vector a + ib de C corresponde ao vector (a,b) de R 2 (o plano de Argand pode ser identificado com o plano xy).

93 Um sistema de números com as propriedades apropriadas para definir a noção de espaço vectorial, de que Q, R e C são exemplos, diz-se um corpo algébrico. Nesta disciplina os corpos mais importantes serão R e C. PROPOSIÇÃO Tudo o que foi visto a propósito de sistemas de equações lineares, matrizes e determinantes, é válido quando R é substituído por Q ou C. A partir daqui, nesta aula, faremos uma digressão sobre o conceito de corpo. Começamos pela definição rigorosa, que é a seguinte: DEFINIÇÃO Um corpo algébrico, ou simplesmente um corpo, é um conjunto K equipado com: uma estrutura de grupo abeliano (ou seja, operações +, 0 e com propriedades análogas às das correspondentes operações dos espaços vectoriais); uma operação binária associativa e comutativa de multiplicação que a cada par de elementos x,y K faz corresponder o produto xy; um elemento neutro denotado por 1 e designado por unidade do corpo (ou seja, um elemento necessariamente único e tal que 1x = x); para cada x 0 em K, um inverso x 1 (ou seja, um elemento, necessariamente único, tal que xx 1 = 1).

94 EXEMPLO Para cada número primo p o conjunto Z p = {0,1,...,p 1} dos números inteiros módulo p é um corpo. Estes corpos são finitos, ao contrário de Q, R e C. O corpo Z 2 tem apenas dois elementos e pode relacionar-se com a álgebra de Boole dos valores lógicos 0 e 1: a multiplicação corresponde à conjunção e a soma corresponde ao ou exclusivo. DEFINIÇÃO Um espaço vectorial sobre um corpo K é definido da mesma forma que um espaço vectorial real mas com R substituído por K. EXEMPLO Os exemplos básicos de espaço vectorial sobre um corpo K são novamente semelhantes aos de espaço vectorial real: K n = {(k 1,...,k n ) k 1,...,k n K}. Dado um conjunto A temos o espaço de funções K A = {funções f : A K}. Se V e W são espaços vectoriais sobre K então define-se o produto cartesiano V W, que é um espaço vectorial sobre K. Os comentários relativos às identificações, por exemplo K {1,...,n} = K n, ou (K K) (K K) = K 4, são análogos.

95 MATRIZES E DETERMINANTES SOBRE UM CORPO ARBITRÁRIO Quase tudo o que foi dito acerca de matrizes e determinantes é válido se substituirmos R por um corpo arbitrário. A excepção: para certos corpos K pode acontecer que a propriedade da anulação deixe de ser equivalente à alternância (mas a anulação implica sempre a alternância). Por exemplo, isto acontece com o corpo Z 2 : se duas colunas duma matriz A forem iguais então pela alternância concluímos apenas det(a) = det(a), ou seja, det(a) + det(a) = 0, e em Z 2 isto pode acontecer com det(a) = 1. Mais geralmente, a alternância é uma propriedade mais fraca do que a anulação precisamente quando o corpo tem característica igual a 2: DEFINIÇÃO Diz-se que um corpo tem característica n se n for o menor número natural tal que a soma com n parcelas é igual a 0; e diz-se que tem característica 0 se não existir nenhum número natural n com essa propriedade. EXEMPLO Q, R e C têm característica 0. O corpo finito Z p tem característica p. PROPOSIÇÃO Tudo o que foi dito a propósito de sistemas de equações lineares, matrizes e determinantes é válido para qualquer corpo de característica diferente de 2.

96 Capítulo 11 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

97 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 2.2. REVISÃO Um espaço vectorial sobre um corpo K, ou espaço linear sobre K, é um conjunto V, cujos elementos são denominados vectores, sobre o qual estão definidas operações que incluem adição de vectores e multiplicação de vectores por elementos de K (os quais são denominados escalares). (Nesta disciplina usaremos maioritariamente o caso K = R ou K = C, mas outros casos poderão aparecer de vez em quando, por exemplo K = Q ou K = Z p para algum p.) Todas as operações podem ser derivadas destas duas. Em particular, os axiomas de espaço vectorial são tais que V não pode ser o conjunto vazio e para cada x V o elemento 0 = 0x é o elemento neutro da adição e x = ( 1)x é o elemento simétrico (significando que V tem a estrutura de grupo abeliano).

98 Além disso a multiplicação por escalar também é associativa, ou seja, tem-se r(sx) = (rs)x para quaisquer r,s K e x V, unitária, ou seja, 1x = x para cada x V, e distributiva sobre a soma em cada uma das variáveis. O exemplo principal de espaço vectorial sobre K visto na aula passada foi o do espaço das funções f : A K, onde A é um conjunto A fixo. Como vimos, este exemplo inclui muitos outros, em particular os espaços K n, que podem ser identificados com K {1,...,n}. No caso K = R vimos que também o espaço Mat m n é deste tipo. Em geral, para um corpo K qualquer, designaremos o espaço vectorial sobre K das matrizes m n com entradas em K por Mat m n (K). Este espaço pode ser identificado com K {1,...,m} {1,...,n}. Vimos também o produto cartesiano V W de dois espaços vectoriais V e W sobre o mesmo corpo K. Por exemplo, podemos identificar K m K n com K m+n, pois cada vector ((x 1,...,x m ),(y 1,...,y n )) K m K n é o mesmo, a menos de mudança de parênteses, que o vector (x 1,...,x m,x m+1,...,x m+n ) K m+n, em que x m+1 = y 1,..., x m+n = y n. Vamos agora estudar mais exemplos e em simultâneo introduzir a noção importante de subespaço de um espaço vectorial.

99 EXEMPLO Os seguintes conjuntos também são espaços lineares com as operações habituais: O conjunto de todos os vectores de R 2 que são múltiplos de (1,2). O conjunto de todas as matrizes A Mat 2 3 (C) tais que a 12 = 0. O conjunto de todas as funções contínuas f : R R. Em todos estes casos tomámos para espaço vectorial um subconjunto de um espaço conhecido, respectivamente R 2, Mat 2 3 (C) e R R. DEFINIÇÃO Seja V um espaço vectorial sobre um corpo K. Um subconjunto S V diz-se um subespaço vectorial de V se satisfizer as seguintes condições relativamente às operações de espaço vectorial definidas em V: 1. 0 S. 2. Se x,y S então x + y S. 3. Se r K e x S então rx S. PROPOSIÇÃO Se S for um subespaço vectorial de V então S, com as mesmas operações de V, também é um espaço vectorial sobre K.

100 EXEMPLO O conjunto de todas as funções f : R R tais que f (2) = 0 é um subespaço de R R. O subconjunto de Mat 2 3 (C) formado pelas matrizes A tais que a 12 = 1 NÃO é um subespaço porque a matriz nula não lhe pertence. Qualquer recta em R 2 que passe pela origem define um subespaço de R 2. Qualquer plano em R 3 que passe pela origem define um subespaço de R 3. Nenhuma recta em R 2 que não passe pela origem pode ser um subespaço. A parábola de equação y = x 2 contém a origem mas não é um subespaço de R 2. EXEMPLO São espaços vectoriais: O conjunto P(K) de todos os polinómios a 0 + a 1 x + a 2 x a n x n com coeficientes a i K (subespaço de K K ). O conjunto P n (K) de todos os polinómios de P(K) com grau menor ou igual a n. O conjunto de todas as sucessões de números reais {x n } que satisfazem a relação de recorrência x n+2 = x n+1 + x n (subespaço de R N ). O conjunto C(a, b) de todas as funções contínuas f : ]a,b[ R, ou o conjunto C[a,b] de todas as funções contínuas f : [a,b] R (subespaços de R ]a,b[ e R [a,b], respectivamente). O subespaço C k (a,b) C(a,b) de todas as funções reais com derivada contínua até à ordem k 1 em ]a,b[.

101 EXEMPLO São espaços vectoriais: O conjunto de todas as funções y : ]a,b[ R com segunda derivada contínua e que são soluções da equação diferencial y + ry + y = 0. (Subespaço de C 2 (a,b).) O conjunto-solução de um sistema homogéneo Ax = 0 (subespaço de K n se a matriz A tiver n colunas). DEFINIÇÃO O conjunto-solução do sistema homogéneo cuja matriz dos coeficientes é A designa-se por núcleo, ou espaço nulo, de A, e denota-se por nuc(a). EXEMPLO O plano em R 3 definido pela equação x + y z = 0 é o núcleo da matriz [1 1 1] e por isso é um subespaço de R 3. Como a equação Ax = 0 significa que o produto interno (1,1, 1) (x,y,z) é nulo, deduz-se que este espaço é, geometricamente, o plano que passa pela origem e é perpendicular ao vector (1, 1, 1).

102 EXEMPLO Se V e V forem subespaços de um espaço vectorial V sobre um corpo K então a intersecção V V também é um subespaço de V (é o maior subespaço de V contido em V e em V ). O conjunto-solução do sistema { x + y z = 0 x y + z = 0 é a recta que passa pela origem de R 3 e que é a intersecção dos dois subespaços (planos passando pela origem de R 3 ) definidos pelas equações x + y z = 0 e x y + z = 0. Note-se que a intersecção é mesmo uma recta, ou seja, os dois planos não são coincidentes, porque os vectores (1,1, 1) e (1, 1,1) não são colineares. Assunto a retomar na próxima aula: EXEMPLO Se V e V forem subespaços de um espaço vectorial V sobre um corpo K então o conjunto V + V = {x + y x V, y V } é designado por soma de V e V e também é um subespaço de V (é o menor subespaço de V que contém V e V ).

103 Capítulo 12 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

104 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 2.2. REVISÃO Vimos o conceito de subespaço de um espaço vectorial V sobre um corpo K: é um subconjunto S V que satisfaz as três condições seguintes para quaisquer x,y S e qualquer k K: 0 S x + y S kx S Vimos vários exemplos, incluindo o de núcleo de uma matriz A Mat m n (K), que é um subespaço nuc(a) K n definido como o conjunto-solução do sistema homogéneo Ax = 0.

105 EXEMPLO O núcleo da matriz A = [ ] é a recta que passa pela origem de R 3 e é a intersecção dos dois planos que passam pela origem e são perpendiculares aos vectores (1,1, 1) e (1, 1,1). NOTA Se B resulta de A por eliminação de Gauss então nuc(b) = nuc(a). DEFINIÇÃO Equações que relacionam as coordenadas dos vectores de K n de modo a definir um subconjunto S K n dizem-se equações cartesianas para S.

106 EXEMPLO No exemplo anterior a recta pode ser definida pelas equações cartesianas correspondentes ao produto Ax = 0: x + y z = 0 x y + z = 0. Mas uma vez que a eliminação de Gauss não altera o conjunto-solução, também as equações seguintes são equações cartesianas da recta: x + y z = 0 x = 0. A equação cartesiana (não linear) x 2 + y 2 = 1 define a circunferência de raio 1 com centro na origem em R 2. DEFINIÇÃO Uma descrição paramétrica de um subconjunto de S K n é uma função f : P K n cujo contradomínio é S, onde P é um conjunto designado por espaço dos parâmetros. EXEMPLO A circunferência de raio igual a 1 e centro na origem de R 2 é descrita parametricamente pela função f : [0,2π[ R 2 definida por f (θ) = (cosθ,senθ). A variável θ é o parâmetro.

107 EXEMPLO A superfície esférica de raio igual a 1 e centro na origem de R 3 é descrita parametricamente pela função f : [0,2π[ [0,π] R 3 definida por f (θ,ϕ) = (senϕ cosθ,senϕ senθ,cosϕ). Neste caso há dois parâmetros θ e ϕ (por outras palavras, f é função de duas variáveis). Ao resolver sistemas de equações lineares indeterminados a descrição do conjunto-solução que obtemos em função das incógnitas livres é uma descrição paramétrica cujos parâmetros são as incógnitas livres. Em particular, podemos assim obter a descrição paramétrica do núcleo de qualquer matriz. Por outras palavras, converter a descrição por equações cartesianas de um subespaço de K n numa descrição paramétrica é o mesmo que resolver um sistema linear homogéneo.

108 EXEMPLO Seja novamente A = [ Por eliminação de Gauss podemos obter a partir de A a matriz [ ] Há portanto uma incógnita livre, z, pelo que os vectores (x, y, z) nuc(a) são descritos parametricamente, em função do único parâmetro z, pela função f : R R 3 que a cada z R faz corresponder o vector (0,z,z) = z(0,1,1). O núcleo de A, que já sabíamos ser uma recta, é portanto a recta dos múltiplos de (0,1,1). ]. EXEMPLO Seja agora A = [ ]. Agora há duas incógnitas livres, y e z, pelo que os vectores (x, y, z) nuc(a) são descritos parametricamente, em função de dois parâmetros, pela função f : R 2 R 3 que a cada (y,z) R 2 faz corresponder o vector ( y + z,y,z) = y( 1,1,0) + z(1,0,1). O núcleo de A, que já sabíamos ser o plano perpendicular ao vector (1,1, 1) passando pela origem, é portanto o subespaço de R 3 que resulta de somar todos os múltiplos de ( 1,1,0) e (1,0,1). Por outras palavras, é o plano definido pelas duas rectas que passam pela origem e cujos pontos são os múltiplos de ( 1,1,0) e (1,0,1), respectivamente. Cada ponto do plano corresponde à soma de dois vectores, um de cada uma das rectas.

109 Mais um exemplo de construção de subespaços: EXEMPLO Se V e V forem subespaços de um espaço vectorial V sobre um corpo K então o conjunto V + V = {x + y x V, y V } é designado por soma de V e V e também é um subespaço de V. Em particular, a soma de duas rectas distintas que passam pela origem em R 2 é todo o R 2. E a soma de duas rectas distintas que passam pela origem em R 3 é o plano definido pelas duas rectas. PROPOSIÇÃO Os subespaços de R 2 são: Os subespaços triviais {0} e R 2 ; As rectas que passam pela origem.

110 Demonstração. Já vimos que todos os subconjuntos indicados são exemplos de subespaços. Para ver que são os únicos possíveis raciocinamos da seguinte forma, relativamente a um subespaço V arbitrário: Se V contiver um vector x 0 então tem de conter todos os seus múltiplos, os quais formam um subespaço V que é uma recta que passa pela origem: V S. Se V contiver algum vector y fora da recta V então também contém a recta V dos múltiplos de y: V S. Então temos também V + V V porque V + V é o menor subespaço que contém V e V. Uma vez que V V o subespaço V + V é todo o plano R 2 e portanto V = R 2. PROPOSIÇÃO Os subespaços de R 3 são: Os subespaços triviais {0} e R 3 ; As rectas que passam pela origem; Os planos que passam pela origem. Demonstração. Exercício...

111 Voltemos à ideia de definir espaços por meio da soma de múltiplos de vectores fixados à partida: EXEMPLO O conjunto dos múltiplos de (1,2) é um subespaço de R 2 (o primeiro exemplo que vimos na aula passada). É um subespaço de R 3 o conjunto V dos vectores que são somas de múltiplos dos vectores (1,2,3) e (1,1,1), ou seja, dos vectores que são da forma com a,b R. (x,y,z) = a(1,2,3) + b(1,1,1) Denotando o subespaço dos múltiplos de (1,2,3) por V e o subespaço dos múltiplos de (1,1,1) por V, o subespaço V é igual à soma V + V. DEFINIÇÃO Sejam x 1,...,x n (com n 1) vectores de um espaço vectorial sobre um corpo K. Chama-se combinação linear destes vectores a qualquer vector x obtido como soma de múltiplos deles: x = a 1 x a n x n. Diz-se também que x é combinação linear de um conjunto não vazio de vectores S se existirem n 1 vectores x 1,...,x n S e n escalares a 1,...,a n K tais que x = a 1 x a n x n. Convenciona-se também dizer que o vector nulo 0 é combinação linear do conjunto vazio. O conjunto de todos os vectores de V que são combinação linear de um conjunto S V denota-se por L(S) designa-se por expansão linear do conjunto S.

112 PROPOSIÇÃO A expansão linear L(S) de um subconjunto S de um espaço vectorial V é um subespaço de V. É na verdade o menor subespaço de V que contém S, ou seja, se V V for um subespaço tal que S V então L(S) V. DEFINIÇÃO Seja V um espaço vectorial sobre um corpo K, seja V V um subespaço e S V um subconjunto qualquer. Diz-se que V é gerado por S, ou que S gera V, ou ainda que S é um conjunto de geradores de V, se V = L(S). EXEMPLO A expansão linear de (um conjunto de) dois vectores x e y de R 3 é: O espaço trivial {0} se x = y = 0; A recta dos múltiplos de x se x 0 e y for um múltiplo de x; O plano definido por x e y se nenhum dos vectores for múltiplo do outro. PROPOSIÇÃO Sejam V e V subespaços de um espaço V. Então V + V é o menor subespaço de V que contém V e V : V + V = L(V V ) Demonstração. Exercício...

113 EXERCÍCIO Verifique se o vector (1,1,1) R 3 pode ser obtido como combinação linear dos vectores (1,0,1), (1,2,3) e (0,2,2). Resolução: escrevendo os vectores como colunas, queremos encontrar escalares x, y e z tais que x y z = Esta condição é equivalente a escrever x y z = e portanto temos apenas de resolver um sistema de equações lineares! EXERCÍCIO (CONT.) A matriz aumentada é Por eliminação de Gauss transformamos esta matriz: A característica da matriz aumentada é superior à da matriz dos coeficientes, pelo que o sistema é impossível. Logo, o vector (1,1,1) não é combinação linear dos outros três vectores dados.

114 CASO GERAL A expansão linear de um conjunto finito de vectores S = {a (1),...,a (n) } de K m é igual ao conjunto de todos os vectores (b 1,...,b m ) que (escritos como colunas) são da forma seguinte para alguma lista de escalares x 1,...,x n K: b 1. b m = x 1 a (1) 1. a (1) m + + x n a (n) 1. a (n) m Ou seja, definido a matriz A tal que a ij = a (j) i conclui-se que a expansão linear de S é o conjunto dos vectores b que podem ser escritos na forma b = Ax para algum vector x K n. EXEMPLO Por outras palavras, L(S) é o espaço dos vectores b para os quais o sistema Ax = b é possível. DEFINIÇÃO Seja A Mat m n (K). O espaço das colunas de A, denotado por col(a), é a expansão linear do conjunto das colunas de A. Por outras palavras, o espaço das colunas de A é o conjunto dos vectores b K m para os quais é possível o sistema linear Ax = b.

115 EXERCÍCIO (APLICAÇÃO A ESPAÇOS DIFERENTES DE K n ) Verificar que em P 2 (R) o polinómio p(x) = 1 + x + x 2 é combinação linear dos polinómios q(x) = 1 + 2x + 3x 2 e r(x) = x + 2x 2. Resolução: a combinação linear rescreve-se na forma a(1 + 2x + 3x 2 ) + b(x + 2x 2 ) = 1 + x + x 2 a + (2a + b)x + (3a + 2b)x 2 = 1 + x + x 2. Portanto o sistema a = 1 2a + b = 1 3a + 2b = 1, se for possível, dar-nos-á valores de a e b. EXERCÍCIO (CONT.) Na forma matricial obtemos a matriz aumentada (Note-se que as colunas da matriz são os vectores dos coeficientes de p(x), q(x) e r(x), respectivamente generalize.) Este sistema é determinado e a solução é o vector (a,b) = (1, 1), pelo que se conclui p(x) = q(x) r(x).

116 EXEMPLO Já vimos que o núcleo da matriz A = [ ] consiste dos vectores da forma ( y + z,y,z) = y( 1,1,0) + z(1,0,1) com y,z R. Portanto nuc(a) coincide com o espaço das colunas da matriz 1 1 B = SLOGAN Obter uma descrição paramétrica dum subespaço vectorial V K n é o mesmo que encontrar uma matriz B com n linhas tal que V = col(b). Também podemos percorrer o sentido inverso: SLOGAN Encontrar um conjunto de equações cartesianas para um subespaço V K n é o mesmo que encontrar uma matriz A tal que nuc(a) = V.

117 EXEMPLO (EXERCÍCIO) Obter equações cartesianas para o espaço das colunas de B = Resolução: os vectores de col(b) são os vectores (w,x,y,z) R 4 para os quais é possível o sistema linear cuja matriz aumentada é a seguinte: w x y z. Apliquemos eliminação de Gauss: w x y z w w + x w + y w + z w w + z w + x w + y w w + z w + x 2z w + y 5z w w + z w + x 2z w 5 2 x + y.

118 Olhando para a matriz em escada de linhas obtida, w w + z w + x 2z w 5 2 x + y, vemos que a característica da matriz aumentada é igual à característica da matriz dos coeficientes se e só se 1 2 w 5 2 x + y = 0, sendo esta portanto uma equação cartesiana para col(b). A matriz A = [1/2 5/2 1 0] é tal que nuc(a) = col(b). Capítulo 13

119 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 2.2.

120 REVISÃO Dada uma matriz A, nuc(a) é um espaço cuja descrição mais imediata é por equações cartesianas. Dada uma matriz B, col(b) é um espaço cuja descrição mais imediata é paramétrica. Na aula passada vimos como: mudar de descrições por equações cartesianas para descrições paramétricas (resolvendo um sistema homogéneo) e vice-versa (estudando um sistema quanto à possibilidade ou impossibilidade). DEFINIÇÃO Seja A Mat m n (K). O espaço das linhas de A é col(a T ) e denota-se por lin(a). DEFINIÇÃO Seja S K n um conjunto qualquer. O complemento ortogonal S é o conjunto de todos os vectores x K n tais que x a = 0 para qualquer a S. PROPOSIÇÃO Sejam S um subconjunto de K n e A Mat m n (K). 1. S é um subespaço de K n. 2. S = L(S). 3. nuc(a) = (lin(a)).

121 EXEMPLO Em qualquer espaço K n temos (K n ) = {0} e {0} = K n. Em R 3 o complemento ortogonal de uma recta que passa pela origem é o plano que passa pela origem e é perpendicular à recta dada. EXEMPLO Seja A = [ ]. O espaço das linhas de A é o plano gerado em R 3 pelos vectores (1,1, 1) e (1, 1,1). lin(a) é ortogonal ao núcleo de A, que é a recta que passa pela origem e é perpendicular a este plano (como vimos na aula anterior, é a recta dos múltiplos de (0,1,1)). ISOMORFISMOS Vamos finalmente definir o que significa rigorosamente que dois espaços podem ser identificados. A ideia é simples: dois espaços são identificáveis quando a menos duma mudança de nome dos vectores eles são o mesmo. Suponha-se que temos dois espaços V e W (sobre um corpo K) e uma função de mudança de nome f : V W. Para que isto faça sentido é necessário que: 1. f seja bijectiva (ou seja, define um emparelhamento perfeito entre V e W); 2. f (x + y) coincida com a soma f (x) + f (y) em W; 3. f (0) seja o vector nulo de W; 4. f ( x) seja o simétrico de f (x) em W; 5. f (kx) coincida com kf (x) em W. Na verdade basta exigir as condições 1,2 e 5 (porquê?).

122 EXEMPLO As várias identificações que temos vindo a fazer são claramente deste tipo. Por exemplo, a função que a cada x vector (x,y,z) de R 3 atribui a matriz coluna y de Mat 3 1 z tem todas as propriedades exigidas. NOTA Existem outras identificações menos óbvias, como veremos. DEFINIÇÃO Sejam V e W espaços vectoriais sobre um corpo K. Um isomorfismo de V para W é uma função bijectiva f : V W que é linear, ou seja, satisfaz as duas propriedades seguintes para quaisquer x,y V e k K: 1. f (x + y) = f (x) + f (y), 2. f (kx) = kf (x).

123 NOTA A propriedade da linearidade é equivalente a preservar combinações lineares de pares de vectores, ou seja, f é linear se e só se para quaisquer x,y V e k,l K se tiver f (kx + ly) = kf (x) + lf (y). (Esta equivalência aplica-se a qualquer função, não apenas a funções bijectivas vimos um exemplo a propósito dos determinantes.) EXEMPLO A função que a cada polinómio p(x) = a a n x n P n (K) faz corresponder o vector (a 0,...,a n ) K n+1 é um isomorfismo. A função que a cada matriz A Mat m n (K) faz corresponder o vector (a 11,...,a 1n,a 21,...,a 2n,...,a m1,...,a mn ) K mn é um isomorfismo (o vector contém as entradas da matriz linha a linha, mas também poderia ser coluna a coluna ou qualquer outra ordem fixada à partida cada escolha conduz a um isomorfismo diferente).

124 PROPOSIÇÃO 1. Uma função bijectiva f é um isomorfismo se e só se f 1 for um isomorfismo. 2. Se f : V W for um isomorfismo então para quaisquer vectores y,x 1,...x n V e quaisquer escalares a 1,...a n K tem-se y = a 1 x a n x n f (y) = a 1 f (x 1 ) a n f (x n ). EXEMPLO Pela proposição anterior, para ver se o polinómio p(x) = 1 + x + x 2 de P 2 (R) é combinação linear dos polinómios q(x) = 1 + 2x + 3x 2 r(x) = x + 2x 2 basta ver se o vector (1,1,1) de R 3 é combinação linear de (1,2,3) e (0,1,2), ou seja, ver se é possível o sistema cuja matriz aumentada é (Este é um exemplo da aula passada, onde já tínhamos constatado que as colunas desta matriz são os vectores de coeficientes dos polinómios.)

125 EXERCÍCIO Seja S V um subconjunto de um espaço vectorial V sobre um corpo K e seja f : V W um isomorfismo. Mostre que V = L(S) se e só se W = L(f (S)). PROPOSIÇÃO 1. A função identidade id : V V (ou seja, a que é definida por id(x) = x) é um isomorfismo do espaço V nele próprio. 2. Sejam V f V g V isomorfismos de espaços vectoriais sobre um corpo K. Então a função composta g f : V V é um isomorfismo.

126 DEFINIÇÃO Dois espaços vectoriais V e W sobre um corpo K dizem-me isomorfos, e escrevemos V = W, se existir um isomorfismo f : V W. PROPOSIÇÃO A relação de isomorfismo é de equivalência: 1. Reflexiva: V = V 2. Simétrica: V = W W = V 3. Transitiva: V = V = V V = V EXEMPLO P n (K) = K n+1 Mat m n (K) = K mn EXEMPLO A função que a cada ponto (0,z,z) da recta dos múltiplos de (0,1,1) R 3 faz corresponder z R é um isomorfismo dessa recta para R. A função que a cada ponto y(1,1, 1) + z(1, 1,1) do plano P = L((1,1, 1),(1, 1,1)) R 3 faz corresponder o ponto (y,z) R 2 é um isomorfismo de P para R 2. EXEMPLO A função que a cada vector (x,y,z) R 3 atribui o vector x(1,1,1) + y(1,1,0) + z(1,0,0) é um isomorfismo de R 3 em R 3. Mas a função que a cada vector (x,y,z) R 3 atribui o vector x(1,1,1) + y(1,0,1) + z(2,1,2) não é um isomorfismo de R 3 em R 3 porque os três vectores são complanares.

127 Capítulo 14 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

128 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 2.3. Pergunta: será que R 3 = R 2? A resposta é, como veremos, negativa! Já vimos exemplos de espaços isomorfos. O que vamos ver a seguir dar-nos-á formas de determinar que determinados espaços não são isomorfos.

129 DEFINIÇÃO Seja V um espaço vectorial sobre um corpo K e seja x 1,...,x n uma lista de vectores de V (n 1). Diz-se que esta lista de vectores é linearmente independente (ou simplesmente que os vectores são linearmente independentes) se a única forma de obter o vector nulo como combinação linear de x 1,...,x n é tendo todos os escalares da combinação linear nulos: a 1 x a n x n = 0 = a 1 = = a n = 0. No caso contrário diz-se que os vectores x 1,...,x n são linearmente dependentes. PROPOSIÇÃO Se uma lista de vectores contiver repetições então é linearmente dependente. Demonstração. Seja x 1,...,x i,...,x j,...,x n uma lista com x i = x j. Então tem-se a 1 x a i x i + + a j x j + + a n x n = 0 com a i = 1, a j = 1 e a k = 0 para k i e k j.

130 DEFINIÇÃO Um subconjunto S V diz-se linearmente independente se qualquer lista de vectores distintos x 1,...,x n S for linearmente independente. No caso contrário diz-se que S é linearmente dependente. PROPOSIÇÃO Se 0 S então S é linearmente dependente. Demonstração. 0 é combinação linear de 0 com coeficiente não nulo, pois k0 = 0 para qualquer escalar k. TEOREMA Seja a 1,...,a n uma lista de vectores de K m, para algum corpo K (n 1). Esta lista é linearmente independente se e só se a matriz A de dimensão m n cuja coluna j é, para cada j {1,...,n}, o vector a j, tiver núcleo igual a {0}.

131 Demonstração. Os vectores são os seguintes: a 1 = a 11. a m1... a n = a 1n. a mn A combinação linear k 1 a k n a n é o mesmo que o vector Ak e portanto a afirmação é equivalente a k 1 a k n a n = 0 k 1 =... = k n = 0 Ak = 0 k = 0, ou seja, é equivalente a ter-se nuc(a) = {0}. EXERCÍCIO Verifique se o conjunto {x,y,z} formado pelos três vectores de R 3 é linearmente independente. x = (1,1,1) y = (1,1, 1) z = (1,2, 1)

132 RESOLUÇÃO A matriz cujas colunas são os três vectores x, y e z, por esta ordem, é A = e por eliminação de Gauss (eliminando as entradas 21 e 31 pela regra da eliminação e depois permutando as linhas 2 e 3) transforma-se na matriz A = A tem característica igual ao número de colunas e portanto o sistema homogéneo que tem A como matriz de coeficientes é determinado, ou seja, o núcleo de A (= nuc(a)) é nulo e conclui-se que os vectores x, y e z são linearmente independentes.. PROPOSIÇÃO Seja f : V W um isomorfismo e S V um subconjunto qualquer. Então S é linearmente independente se e só se f (S) for linearmente independente.

133 EXERCÍCIO Verifique se o conjunto {p,q,r} P 2 (R) formado pelos polinómios é linearmente independente. p(x) = 1 + x + x 2 q(x) = 1 + x x 2 r(x) = 1 + 2x x 2 RESOLUÇÃO Uma vez que a função que a cada polinómio a + bx + cx 2 atribui o vector de coeficientes (a,b,c) é um isomorfismo de P 2 (R) em R 3, aplicando o teorema anterior concluimos que apenas temos de determinar se o subconjunto de R 3 formado pelos vectores de coeficientes dos polinómios dados, ou seja, (1,1,1), (1,1, 1) e (1,2, 1), é linearmente independente em R 3. Já vimos no exercício anterior que assim é, pelo que {p,q,r} é linearmente independente em P 2 (R).

134 TEOREMA Seja V um espaço vectorial sobre um corpo K e seja S V um subconjunto. Então S é linearmente dependente se e só se existir x S tal que x L(S \ {x}). Demonstração. Vamos primeiro demonstrar a seguinte implicação: se S for linearmente dependente então existe x S tal que x L(S \ {x}). Para tal usamos como hipótese o antecedente da implicação (ou seja, assumimos que S é linearmente dependente) e vamos, usando essa hipótese, concluir o consequente da implicação (ou seja, que existe x S tal que x L(S \ {x})). A hipótese de S ser linearmente dependente permite-nos escolher n vectores distintos x 1,...,x n de S e escalares a 1,...,a n tais que a 1 x a n x n = 0 com a 1 0. ( a 2 ( a n a 1 )x n e, como todos os vectores Logo, x 1 = a 1 )x x i são distintos, concluimos x 1 L(S \ {x 1 }), ou seja, obtivemos o consequente da implicação.

135 Demonstração. (Continuação.) Vamos agora demonstrar a implicação no sentido contrário: se existe x S tal que x L(S \ {x}) então S é linearmente dependente. Usamos como hipótese o antecedente da implicação (ou seja, assumimos que existe x S tal que x L(S \ {x})) e vamos, usando essa hipótese, concluir que S é linearmente dependente. A hipótese permite-nos afirmar que existem um vector x S, n vectores distintos y 1,...,y n de S \ {x} e escalares a 1,...,a n tais que x = a 1 y a n y n. (Pudemos assumir que todos os vectores y i são distintos porque se não fossem bastaria pôr em evidência cada vector em todas as parcelas em que ocorre e obter assim uma combinação linear de vectores distintos.) Então tem-se x + ( a 1 )y ( a n )y n = 0, ou seja, obtivemos uma combinação linear nula de vectores distintos de S na qual pelo menos um coeficiente (o de x) é não nulo, pelo que S é linearmente dependente. EXEMPLO Em R 3 quaisquer três vectores x, y e z são linearmente dependentes se e só forem complanares. Em R 2 quaisquer dois vectores x e y são linearmente dependentes se e só forem colineares.

136 Capítulo 15 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

137 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 2.3. TEOREMA Em K m qualquer lista de n vectores com m < n é linearmente dependente. Demonstração. Dada uma tal lista a (1),...,a (n), a correspondente matriz A de dimensão m n cujas colunas são estes vectores (a ij = a (j) i ) tem núcleo necessariamente diferente de {0}. COROLÁRIO Se m n então K m = K n.

138 TEOREMA Em K m nenhum conjunto de vectores {a (1),...,a (n) } com m > n pode gerar o espaço todo. Demonstração. Uma vez que m > n, a matriz A definida por a ij = a (j) i tem sempre característica limitada pelo número de colunas e existirão vectores b para os quais o sistema Ax = b tem matriz aumentada com característica maior do que n. Um tal sistema é impossível e portanto um tal vector b não é gerado pelos vectores a (j). COROLÁRIO Em K n os conjuntos de geradores linearmente independentes têm exactamente n vectores. DEFINIÇÃO Seja V um espaço vectorial sobre um corpo K. Um conjunto B V diz-se uma base de V se for linearmente independente e L(B) = V. Se existir uma base finita diz-se que V tem dimensão finita. Se não existir uma base finita diz-se que V tem dimensão infinita. NOTA Veremos daqui a pouco que se existir uma base infinita então não pode existir uma base finita e portanto qualquer espaço que tenha uma base infinita é de dimensão infinita de acordo com a definição dada acima.

139 EXEMPLO K n tem dimensão finita, pois o conjunto finito formado pelos n vectores e 1 = (1,0,0,...,0,0) e 2 = (0,1,0,...,0,0) e 3 = (0,0,1,...,0,0). e n 1 = (0,0,0,...,1,0) e n = (0,0,0,...,0,1) é uma base. Chama-se a esta a base canónica de K n. EXEMPLO 1. P n (K) tem dimensão finita, pois o conjunto finito formado pelos n + 1 polinómios 1,x,x 2,...,x n é uma base. Chama-se a esta a base canónica de P n (K). 2. P(K) tem uma base infinita formada pelos polinómios 1,x,x 2,... Chama-se-lhe a base canónica de P(K).

140 EXEMPLO O conjunto formado pelos vectores é uma base de K 3. (1,0,0) (1,1,0) (1,1,1) PROPOSIÇÃO Um conjunto de n vectores distintos a (1),...,a [ (n) ] de K n é uma base se e só se for invertível a matriz A =. a (j) i Demonstração. A matriz A é quadrada e por isso tem-se col(a) = K n se e só se a característica de A for n se e só se nuc(a) = {0}. COROLÁRIO Um subconjunto S K n é uma base de K n se e só se se verificarem quaisquer duas das condições seguintes: 1. S tem n elementos; 2. S é linearmente independente; 3. S gera K n.

141 O teorema seguinte diz respeito a espaços de qualquer dimensão: TEOREMA Seja f : V W um isomorfismo e seja B V um subconjunto qualquer. Então B é uma base de V se e só se a sua imagem f (B) for uma base de W. Demonstração. Já vimos que qualquer isomorfismo f tem as propriedades seguintes: L(B) = V se e só se L(f (B)) = W; B é linearmente independente se e só se L(B) for linearmente independente. A conjunção destas propriedades é precisamente o resultado pretendido. TEOREMA Seja V um espaço vectorial sobre um corpo K, seja B V uma base formada por n vectores e 1,...,e n e seja x V um vector qualquer. Então existe uma e uma só lista k 1,...,k n de escalares tais que k 1 e k n e n = x.

142 Demonstração. Uma vez que B é uma base sabemos que x é combinação linear dos vectores de B. Suponha-se então que temos Então 0 = x x x = k 1 e k n e n x = k 1e k ne n. = (k 1 e k n e n ) (k 1e k ne n ) = (k 1 k 1)e (k n k n)e n, pelo que k 1 k 1 =... = k n k n = 0. NOTA Por vezes iremos precisar de especificar uma ordem para os vectores de uma base {e 1,...,e n }. Nesse caso dizemos que é uma base ordenada e escrevemos a lista ordenada de vectores da base na forma (e 1,...,e n ).

143 DEFINIÇÃO Seja V um espaço vectorial sobre um corpo K e seja (e 1,...,e n ) uma base ordenada de V. Dado um vector x V diz-se que as coordenadas de x nessa base são os escalares da única combinação linear x = k 1 e k n e n. O escalar k i diz-se a i-ésima coordenada nessa base ordenada. O vector (k 1,...,k n ) K n diz-se o vector de coordenadas de x nessa base. TEOREMA Seja V um espaço vectorial sobre um corpo K com uma base ordenada (e 1,...,e n ). A função C : V K n que a cada vector x V faz corresponder o vector de coordenadas de x na base dada é um isomorfismo. O inverso é a função C 1 : K n V que a cada vector (k 1,...,k n ) K n atribui a combinação linear k 1 e k n e n.

144 NOTA Simbolicamente podemos escrever a combinação linear k 1 e k n e n na forma de um produto de uma matriz linha (simbólica porque as entradas são vectores) por uma matriz coluna: [ ] e1 e n k 1. k n EXERCÍCIO Seja V um espaço vectorial V sobre um corpo K. Verifique que existe uma álgebra de matrizes vectoriais (matrizes cujas entradas são vectores de V) que as relaciona com as matrizes escalares (as matrizes habituais, cujas entradas são escalares de K): 1. Se S for uma matriz vectorial de dimensão m n defina o que se deve entender por multiplicação de AS ou SA quando A for uma matriz escalar de dimensão p m ou n p, respectivamente. 2. Verifique que se S for uma matriz vectorial e A e B forem matrizes escalares com as dimensões apropriadas para que os produtos indicados estejam definidos então temos (SA)B = S(AB), (AS)B = A(SB) e (AB)S = A(BS). 3. Defina adição de matrizes vectoriais e mostre que o produto de matrizes é distributivo sobre a soma para qualquer das combinações possíveis de matrizes vectoriais e escalares.

145 EXERCÍCIO (Continuação.) 4. Denotando por Mat m n (V) o conjunto das matrizes m n com entradas em V, mostre que este conjunto é um espaço vectorial sobre K. Demonstração. É evidente que as funções C e C 1 são de facto inversas uma da outra e portanto são bijecções. Para concluir o resultado que pretendemos demonstrar basta por isso verificar que uma delas é linear. Uma vez que a função C 1 é definida por um produto de matrizes C 1 (k) = [e 1... e n ]k concluímos imediatamente, pela distributividade do produto sobre a soma, que C 1 (k + k ) = [e 1... e n ](k + k ) = [e 1... e n ]k + [e 1... e n ]k = C 1 (k) + C 1 (k ). E, claro, se r for um escalar teremos C 1 (rk) = rc 1 (k).

146 EXERCÍCIO 1. Verifique directamente que a função C é linear (foi isto que fizemos na aula). 2. Idém para a função C 1, sem recorrer aos resultados do exercício sobre álgebra de matrizes vectoriais. COROLÁRIO Se um espaço vectorial tiver uma base com n vectores então todas as bases têm n vectores. Se um espaço tiver uma base infinita então tem dimensão infinita. EXEMPLO O espaço P(K) tem uma base infinita e portanto tem dimensão infinita. DEFINIÇÃO Um espaço vectorial com uma base de n vectores diz-se que tem dimensão igual a n.

147 Podemos assim concluir resultados análogos aos do início desta aula, para espaços de dimensão m quaisquer em vez apenas de K m : COROLÁRIO Seja V um espaço de dimensão m. 1. Qualquer conjunto de n vectores de V com m < n é linearmente dependente. 2. Nenhum conjunto de n vectores de V com m > n pode gerar o espaço V. COROLÁRIO Dois espaços de dimensão finita V e W são isomorfos se e só se tiverem a mesma dimensão. COROLÁRIO Se V for um espaço de dimensão n então um subconjunto S V é uma base se e só se se verificarem quaisquer duas das condições seguintes: 1. S tem n elementos; 2. S é linearmente independente; 3. S gera V.

148 EXERCÍCIO 1. Mostre que ((1,2,1),(2,3, 1),(3,4,0)) é uma base (ordenada) de R Calcule as coordenadas do vector (1, 1, 1) nessa base. 3. Mostre que (1 + 2x + x 2,2 + 3x x 2,3 + 4x) é uma base de P 2 (R). 4. Calcule as coordenadas do polinómio 1 + x + x 2 nessa base. Capítulo 16

149 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 2.3 e 2.4.

150 REVISÃO Conceito de base de um espaço vectorial sobre K. Dimensão de um espaço vectorial: n N ou infinita. Escrevemos dim(v) = n ou dim(v) =. dim(v) = n V = K n. Se V e W tiverem dimensão finita então V = W dim(v) = dim(w). Se W for um subespaço de V e dim(v) = n então dim(w) n. Se V contiver um subconjunto S V infinito e linearmente independente então dim(v) =. EXEMPLO 1. O espaço das sucessões de escalares x : N K tem dimensão infinita porque o conjunto das sucessões seguintes é linearmente independente: Para qualquer conjunto infinito A, o espaço K A tem dimensão infinita: é linearmente independente o conjunto das funções f a : A K definidas por { 1 se b = a f a (b) = 0 se b a 3. Por exemplo, o espaço real R R das funções reais de variável real tem dimensão infinita..

151 EXEMPLO 4. O espaço real das funções contínuas f : R R tem dimensão infinita: por exemplo, o conjunto das funções da forma sennt (n N) é linearmente independente. Veremos isto no capítulo 4 da matéria, mas para já indicamos uma forma simples de testar a independência linear de qualquer conjunto finito destas funções. Um exemplo: o conjunto {sent,sen2t,sen3t} é linearmente independente, pois é possível escolher três valores de t, digamos t 1, t 2 e t 3, para os quais a matriz sent 0 sen2t 0 sen3t 0 sent 1 sen2t 1 sen3t 1 sent 2 sen2t 2 sen3t 2 é não-singular. (Exercício: encontre valores apropriados de t 1, t 2 e t 3.) EXEMPLO 5. Podemos usar o método anterior para demonstrar a independência linear de qualquer conjunto finito de funções {f 1,...,f n } K A, onde A é um conjunto infinito. O conjunto é linearmente independente se e só se existirem n elementos a 1,...,a n A tais que é não-singular a matriz f 1 (a 1 )... f n (a 1 )..... f 1 (a n )... f n (a n ) Cuidado! Se o conjunto for linearmente dependente será impossível encontrar tais elementos de A e temos de demonstrar a dependência linear de outra forma. 6. Exemplo: o conjunto de funções reais de variável real formado pela função constante igual a 1 e pelas funções sen 2 x e cos 2 x é linearmente dependente devido à igualdade fundamental da trigonometria sen 2 x + cos 2 x = 1.

152 BASES DE ESPAÇOS ASSOCIADOS A MATRIZES TEOREMA Seja B uma matriz m n com entradas num corpo K. Uma base de col(b) é constituída pelo subconjunto do conjunto das colunas de B que no processo de eliminação de Gauss se transformam em colunas com pivot. Demonstração. Feita no quadro. (Exercício: recorde a demonstração.) EXEMPLO Seja B = Usando três vezes a regra da eliminação obtemos a matriz B = 0 1 1, cujas colunas com pivot estão assinaladas a vermelho. São as colunas 1 e 2 de B e portanto uma base de col(b) é o conjunto formado pelas colunas 1 e 2 de B: {(1,1, 1),(1,0,1)}.

153 Para obter uma base de lin(b) podemos calcular uma base de col(b T ), mas há outro método: TEOREMA Seja B uma matriz m n com entradas num corpo K. Uma base de lin(b) é constituída pelo subconjunto do conjunto das linhas não nulas de B, onde B é uma qualquer matriz em escada de linhas obtida de B por eliminação de Gauss. Demonstração. Feita no quadro. (Exercício: recorde a demonstração.) EXEMPLO Seja B = Usando três vezes a regra da eliminação obtemos a matriz em escada de linhas B = Portanto uma base de lin(b) é o conjunto formado pelas linhas não nulas de B : {(1,1,2),(0, 1, 1)}. NOTA A base obtida não está contida no conjunto de linhas de B, ao contrário do que se passará se calcularmos uma base do espaço das colunas de B T pelo método anterior..

154 EXERCÍCIO Obtenha um subconjunto de S = {1 + x x 2, 1 + x 2, 2 + x} que seja uma base de L(S) P(R). Resolução: escolhemos o primeiro dos métodos (o do espaço das colunas aplicado aos vectores de coeficientes dos polinómios) porque é esse que nos dá uma base contida num conjunto de vectores dado. Os vectores de coeficientes são (1,1, 1), (1,0,1) e (2,1,0) e são, por esta ordem, as colunas da matriz B dos dois exemplos anteriores. Uma vez que já calculámos uma base do espaço das colunas de B, {(1,1, 1),(1,0,1)}, concluimos que o conjunto {1 + x x 2, 1 + x 2 } é uma base de L(S) contida em S, conforme pretendido. TEOREMA Seja A uma matriz m n com entradas num corpo K. O conjunto de geradores de nuc(a) associados às incógnitas livres do sistema homogéneo Ax = b é uma base de nuc(a). Demonstração. Feita no quadro. (Exercício: recorde a demonstração.)

155 EXERCÍCIO Seja A = Calcule uma base e a dimensão de nuc(a).. TEOREMA Seja A uma matriz m n com entradas num corpo K. Então dim(nuc(a)) + dim(col(a)) = n. NOTA Se obtivermos uma matriz em escada de linhas B a partir de A, a característica de B é igual ao número de incógnitas livres, que é igual a dim(nuc(b)). Uma vez que nuc(b) = nuc(a), qualquer matriz em escada de linhas B obtida de A tem a mesma característica e portanto faz sentido definir a característica de uma matriz A qualquer (recordar a discussão acerca da característica nas primeiras aulas).

156 DEFINIÇÃO Seja A uma matriz m n com entradas num corpo K. Chama-se a dim(nuc(a)) a nulidade de A. COROLÁRIO Seja A uma matriz m n com entradas num corpo K. 1. Característica de A = dim(col(a)) = dim(lin(a)). 2. Característica de A + nulidade de A = número de colunas de A = n. Capítulo 17

157 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 2.3 e 2.4.

158 COMPLEMENTOS SOBRE BASES O método que usámos para determinar uma base para o espaço das colunas de de um espaço permite-nos concluir o seguinte: PROPOSIÇÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S V um conjunto finito de geradores. Então existe uma base de V contida em S. Demonstração. Sendo dim(v) = n, escolha-se um isomorfismo f : V K n. Seja A uma matriz cujas colunas são os vectores de f (S). Vimos na aula passada como obter uma base B de col(a) contida em f (S) e portanto o conjunto f 1 (B) é uma base de V contida em S. Um resultado dual do anterior é o seguinte (o livro tem uma demonstração directa, não baseada em matrizes Teorema 2.25): PROPOSIÇÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S V um conjunto linearmente independente. Então existe uma base de V que contém S.

159 Demonstração. Sendo dim(v) = n, escolha-se um isomorfismo f : V K n. Seja A uma matriz cujas colunas são os vectores de f (S) e seja A uma matriz em escada de linhas obtida de A por eliminação de Gauss. A matriz A tem de ser da forma seguinte, onde se convenciona que as entradas assinaladas com contêm valores quaisquer não nulos: (Não existirão linhas nulas se e só se S for uma base.) Demonstração. (Continuação.) Acrescentando colunas (a azul) a A obtemos uma matriz triangular inferior não singular A : A. =

160 Demonstração. (Conclusão.) Invertendo os passos da eliminação de Gauss que conduziram de A a A, mas partindo da matriz A, obtemos uma matriz não singular [A B] onde a matriz B resulta das colunas acrescentadas (a azul) à matriz A no slide anterior. Aplicando o isomorfismo f 1 às colunas da matriz [A B] obtemos uma base de V que contém S. MATRIZES DE MUDANÇA DE BASE EXERCÍCIO Calcule as coordenadas do polinómio 1 + 2x + 3x 2 na base ordenada (p, q, r) formada pelos polinómios p(x) = 1 q(x) = 1 + x r(x) = 1 + x + x 2.

161 Resolução. Traduzindo os polinómios para vectores de R 3 através do isomorfismo a + bx + cx 2 (a,b,c) temos de resolver o sistema Sx = b cuja matriz aumentada é e cuja solução é o vector ( 1, 1,3), que é portanto o vector de coordenadas pretendido. NOTA A matriz S tem como colunas os vectores de coordenadas dos polinómios p, q e r na base canónica e chama-se matriz de mudança de base (da base canónica para a base (p,q,r)). DEFINIÇÃO Seja V um espaço vectorial sobre um corpo K, de dimensão finita e sejam (v 1,...,v n ) e (w 1,...,w n ) duas bases ordenadas de V. A matriz de mudança de base (da primeira base para a segunda) é a matriz S cuja coluna j é, para cada j {1,...,n}, o vector de coordenadas de w j na base (v 1,...,v n ). NOTA Como mnemónica podemos pensar que S resulta da matriz vectorial [w 1...w n ] quando substituímos cada w j pelo seu vector de coordenadas relativamente à base antiga. PROPOSIÇÃO Dado um vector de V cujo vector de coordenadas na base antiga é b, o vector de coordenadas na base nova é a solução do sistema Sx = b. (Equivalentemente, x = S 1 b.)

162 SISTEMAS LINEARES, RECTAS E PLANOS Seja x uma solução do sistema de equações lineares Au = b. Seja x 0 uma solução do correspondente sistema homogéneo: Então Au = 0. A(x + x 0 ) = Ax + Ax 0 = b + 0 = b, ou seja, o vector u = x + x 0 é também uma solução do sistema não homogéneo Au = b. PROPOSIÇÃO Somando a uma qualquer solução x do sistema Au = b uma solução x 0 do sistema homogéneo Au = 0 obtém-se novamente uma solução do primeiro sistema: por outras palavras, para qualquer solução x do primeiro sistema, o conjunto x + nuc(a) = {x + x 0 x 0 nuc(a)} está contido no conjunto-solução desse sistema.

163 SISTEMAS LINEARES, RECTAS E PLANOS Sejam x e y duas soluções do sistema de equações lineares Au = b. Então A(y x) = Ay Ax = b b = 0, ou seja, o vector y x é uma solução do sistema homogéneo Au = 0. Logo, a solução y do sistema não homogéneo obtém-se somando à outra solução, x, uma solução x 0 = y x do sistema homogéneo. Conclui-se portanto que x + nuc(a) é o conjunto-solução do sistema não homogéneo. Resumindo: TEOREMA Considere o sistema linear Au = b. O conjunto-solução S deste sistema pode ser: S = /0 (o que significa que o sistema é impossível); ou S = x + nuc(a), onde x é uma qualquer das soluções do sistema.

164 EXEMPLO Considere o sistema cuja matriz aumentada é [A b]: [A b] = el. Gauss Existe uma incógnita livre (a que corresponde à terceira coluna), pelo que o conjunto-solução é {(t,3 2t,t) R 3 t R} = (0,3,0) + L({(1, 2,1)}) = (0,3,0) + nuc(a) = recta paralela ao vector (1, 2,1) que passa pelo ponto (0,3,0). Seja A Mat m n (K) e suponha-se que o sistema Au = b é possível. Se dim(nuc(a)) = 0 o sistema é determinado: a solução é um ponto de K n. Se dim(nuc(a)) = 1 o conjunto-solução diz-se uma recta de K n. Se dim(nuc(a)) = 2 o conjunto-solução diz-se um plano de K n. Se dim(nuc(a)) = k o conjunto-solução diz-se um plano-k de K n (portanto planos-0 são pontos, planos-1 são rectas e planos-2 são planos). Se dim(nuc(a)) = n 1 o conjunto-solução diz-se um hiperplano de K n (por exemplo os hiperplanos de K 3 são os planos e os hiperplanos de K 2 são as rectas).

165 EQUAÇÕES DIFERENCIAIS Oscilador harmónico: objecto de massa m > 0 que sofre pequenas oscilações sem atrito acoplado a uma mola perfeita com constante elástica α > 0. Em cada instante t R o valor y(t) é o deslocamento do objecto em relação à posição de equilíbrio. Assume-se que o deslocamento ocorre estritamente ao longo de uma recta (diz-se que o oscilador é unidimensional). A força exercida pela mola sobre o objecto é proporcional ao deslocamento, com sinal contrário (a força aponta na direcção contrária à do deslocamento em relação à posição de equilíbrio): F(t) = αy(t). Por outro lado, a lei de Newton diz que F(t) = my (t). Obtemos então a equação diferencial que descreve o comportamento do oscilador harmónico unidimensional: my (t) = αy(t). Escrevendo ω 2 = α m (isto é possível porque α m > 0) temos a equação y + ω 2 y = 0. O subconjunto de R R formado pelas funções com segunda derivada contínua que são soluções desta equação é um subespaço linear de R R. (Exercício: verifique.) Podemos verificar directamente que as duas funções seguintes são soluções: y 1 (t) = cos(ωt) y 2 (t) = sen(ωt) Estas funções são linearmente independentes, pelo que o espaço das soluções da equação tem dimensão maior ou igual a 2. (O valor ω é a velocidade angular do sistema, relacionado com a frequência ν de oscilação pela relação ω = 2πν.)

166 Poderá haver outras soluções linearmente independentes das anteriores? Se y(t) = c 1 y 1 (t) + c 2 y 2 (t) (é uma solução) então y(0) = c 1 cos0 + c 2 sen0 = c 1 e y (t) = c 1 ω sen(ωt) + c 2 ω cos(ωt), pelo que y (0) = c 2 ω e temos y(t) = y(0)cos(ωt) + y (0) ω sen(ωt). Seja agora y(t) uma solução qualquer. [ ] Então z(t) = y(t) y(0)cos(ωt) + y (0) ω sen(ωt) (porque é combinação linear de soluções). Verifica-se directamente que z(0) = z (0) = 0. é uma solução Vamos mostrar que na verdade z(t) = 0 para qualquer t R, e que portanto y é combinação linear de y 1 e y 2. Multiplicando ambos os lados da equação z + ω 2 z = 0 por z obtemos z z + ω 2 zz = 0. Mas zz = 1 2 (z2 ) e z z = 1 2 ((z ) 2 ), pelo que obtemos [ (z ) 2 + ω 2 z 2] = 0. Isto significa que a quantidade (z (t)) 2 + ω 2 z(t) 2 é constante, ou seja, não depende de t. Logo, como já vimos que z(0) = z (0) = 0, temos (z (t)) 2 + ω 2 z(t) 2 = (z (0)) 2 + ω 2 z(0) 2 = 0, pelo que z(t) = 0 para qualquer t R.

167 Conclusão: O espaço das soluções tem dimensão 2 e uma base é formada pelas funções y 1 e y 2. Nota: Para qualquer solução y(t) a quantidade é constante. (y (t)) 2 + ω 2 y(t) 2 Relembrando que ω 2 = α/m conclui-se que a quantidade é constante. 1 2 my (t) αy(t)2 Tendo em conta que y é a velocidade, a quantidade 1 2 m(y ) 2 é a energia cinética T. Por outro lado, 1 2 αy2 é a energia potencial V, e a constante E = T + V é assim a energia total do sistema. Capítulo 18

168 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 2.3 e 2.4.

169 COMPLEMENTOS SOBRE BASES O método que usámos para determinar uma base para o espaço das colunas de de um espaço permite-nos concluir o seguinte: PROPOSIÇÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S V um conjunto finito de geradores. Então existe uma base de V contida em S. Demonstração. Sendo dim(v) = n, escolha-se um isomorfismo f : V K n. Seja A uma matriz cujas colunas são os vectores de f (S). Vimos na aula passada como obter uma base B de col(a) contida em f (S) e portanto o conjunto f 1 (B) é uma base de V contida em S. Um resultado dual do anterior é o seguinte (o livro tem uma demonstração directa, não baseada em matrizes Teorema 2.25): PROPOSIÇÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S V um conjunto linearmente independente. Então existe uma base de V que contém S.

170 Demonstração. Sendo dim(v) = n, escolha-se um isomorfismo f : V K n. Seja A uma matriz cujas colunas são os vectores de f (S) e seja A uma matriz em escada de linhas obtida de A por eliminação de Gauss. A matriz A tem de ser da forma seguinte, onde se convenciona que as entradas assinaladas com contêm valores quaisquer não nulos: (Não existirão linhas nulas se e só se S for uma base.) Demonstração. (Continuação.) Acrescentando colunas (a azul) a A obtemos uma matriz triangular inferior não singular A : A. =

171 Demonstração. (Conclusão.) Invertendo os passos da eliminação de Gauss que conduziram de A a A, mas partindo da matriz A, obtemos uma matriz não singular [A B] onde a matriz B resulta das colunas acrescentadas (a azul) à matriz A no slide anterior. Aplicando o isomorfismo f 1 às colunas da matriz [A B] obtemos uma base de V que contém S. INTERSECÇÕES E SOMAS DE ESPAÇOS EXERCÍCIO Considere os seguintes vectores de R 3 : x 1 = (1,2,3) x 2 = (1,1,1) x 3 = (1,0,1) x 4 = (2,1,1). Sendo V 1 = L({x 1,x 2 }) e V 2 = L({x 3,x 4 )}, determine uma base e a dimensão de V 1 V 2.

172 TEOREMA Sejam V 1 e V 2 dois subespaços, ambos com dimensão finita, de V. Então dim(v 1 + V 2 ) = dim(v 1 ) + dim(v 2 ) dim(v 1 V 2 ). EXEMPLO Usando este teorema, no exercício anterior poderíamos facilmente concluir dim(v 1 V 2 ) = 1 sem calcular uma base, pois dim(v 1 ) = 2 dim(v 2 ) = 2 dim(v 1 + V 2 ) = 3. A última equação resulta de observar que, por exemplo, x 1,x 2,x 3 são linearmente independentes (exercício fácil!) e portanto geram todo o R 3. Demonstração. Seja B = {x 1,...,x n } uma base de V 1 V 2, com n 0 (considera-se o caso em que a base é vazia e portanto V 1 V 2 = {0}). Usando a segunda proposição desta aula existe uma base de V 1 que contém B e uma base de V 2 que contém B. Sejam estas bases respectivamente B 1 = {x 1,...,x n,y 1,...,y m } B 2 = {x 1,...,x n,z 1,...,z p }. (Convenciona-se que m,p 0 e que se m = 0 então B 1 = B e, analogamente, B 2 = B se p = 0.) Portanto dim(v 1 ) = n + m e dim(v 2 ) = n + p.

173 Demonstração. (Continuação.) Tem de ter-se y i V 1 \ V 2 e z j V 2 \ V 1, para cada i {1,...,m} e cada j {1,...,p}, pois se, por exemplo, y 1 pertencesse a V 2 então ter-se-ia y 1 V 1 V 2 e por isso y 1 seria combinação linear dos vectores de B; mas isto é impossível, uma vez que B 1 é uma base e, portanto, linearmente independente. Logo, B 1 B 2 contém exactamente n + m + p elementos. É claro que B 1 B 2 gera V 1 + V 2 e é simples verificar que é um conjunto linearmente independente (exercício: demonstre), pelo que a dimensão de V 1 + V 2 é, como queríamos demonstrar, n + m + p = (n + m) + (n + p) n = dim(v 1 ) + dim(v 2 ) dim(v 1 V 2 ). DEFINIÇÃO Seja V um espaço vectorial e sejam V 1 e V 2 dois subespaços tais que V 1 + V 2 = V e V 1 V 2 = {0}. Diz-se então que V é a soma directa de V 1 e V 2 e escreve-se V = V 1 V 2. PROPOSIÇÃO Se V = V 1 V 2 então qualquer vector x V se decompõe de forma única numa soma x = x 1 + x 2 com x 1 V 1 e x 2 V 2.

174 Demonstração. Uma vez que V = V 1 + V 2 sabemos, por definição de soma de subespaços, que existem x 1 V 1 e x 2 V 2 tais que x = x 1 + x 2. Para vermos que os vectores x 1 e x 2 são únicos vamos supor que existem dois outros vectores quaisquer, y 1 V 1 e y 2 V 2, tais que x = y 1 + y 2. Então 0 = x x = (x 1 + x 2 ) (y 1 + y 2 ) = (x 1 y 1 ) + (x 2 y 2 ), pelo que x 1 y }{{} 1 = (x 2 y 2 ) V }{{} 1 V 2. V 1 V 2 Como V 1 V 2 = {0} conclui-se que x 1 y 1 = x 2 y 2 = 0. COROLÁRIO Seja V = V 1 V 2. Então V = V 1 V 2. Demonstração. Cada vector x V 1 V 2 decompõe-se de forma única numa soma x = x 1 + x 2 e o isomorfismo V V 1 V 2 atribui a cada vector x o seu par de componentes únicas (x 1,x 2 ) V 1 V 2. (Verifique que esta função é mesmo um isomorfismo.) COROLÁRIO dim(v 1 V 2 ) = dim(v 1 ) + dim(v 2 ).

175 NOTA Podemos obter directamente o corolário anterior a partir da seguinte observação: se B 1 for uma base de V 1 e B 2 for uma base de V 2 então é uma base de V 1 V 2. (B 1 {0}) ({0} B 2 ) EXEMPLO Aplicando a construção acima à base canónica de R 2 obtém-se a seguinte base de R 2 R 2 que coincide, a menos de parênteses, com a base canónica de R 4 : {((1,0),(0,0)), ((0,1),(0,0)), ((0,0),(1,0)), ((0,0),(0,1))}. COMPLEMENTOS SOBRE ESPAÇOS SOBRE Q, R E C NOTA Quando um espaço vectorial pode ser visto como espaço sobre mais do que um corpo escreveremos dim K (V) em vez de apenas dim(v) para nos referirmos à dimensão de V enquanto espaço sobre o corpo K. EXEMPLO C é um espaço vectorial real com dimensão 2, portanto isomorfo a R 2 : um isomorfismo óbvio é o que atribui a cada número complexo a + ib C o vector (a,b) de R 2. C 3 é um espaço vectorial real com dimensão 6, portanto isomorfo a R 6 : um isomorfismo óbvio atribui a cada vector (a 1 + ib 1,a 2 + ib 2,a 3 + ib 3 ) C 3 o vector (a 1,b 1,a 2,b 2,a 3,b 3 ).

176 PROPOSIÇÃO Se V for um espaço vectorial sobre C com base B então também é um espaço vectorial sobre R com base B ib. Em particular, se dim C (V) = n então dim R (V) = 2n. PROPOSIÇÃO Qualquer espaço vectorial real não trivial é um espaço vectorial sobre Q de dimensão infinita. Demonstração. Basta provar que dim Q (R) =. Se assim não fosse existiria n N tal que R = Q n. Mas o conjunto Q n é numerável e R não é, pelo que não pode existir uma bijecção entre R e Q n.

177 COMPLEMENTOS SOBRE RECTAS E PLANOS EXERCÍCIO Descreva parametricamente o plano-k em R 4 descrito pelas seguintes equações cartesianas e diga qual é o valor de k: 2w + x + y z = 1 w x + 2y + 3z = 0 w + 2x y 2z = 1 EXERCÍCIO Obtenha um conjunto de equações cartesianas para o seguinte plano-k em R 4 e diga qual é o valor de k: P = (1,2,0,3) + L({(1,1,0,1),(1,2,0,1),(2,3,0,2)}).

178 EXERCÍCIO Descreva por equações cartesianas o plano em R 3 que passa pelos três pontos (1,0,1), (2,0,1) e (1,3,2). Capítulo 19

179 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 3.

180 DEFINIÇÃO Sejam V e W espaços vectoriais sobre um corpo K. Uma função f : V W diz-se linear se quaisquer vectores x,y V e qualquer escalar k K satisfizerem as duas condições seguintes: f (kx) = k(f (x)), f (x + y) = f (x) + f (y). É usual chamar às funções lineares transformações lineares (ou aplicações lineares) e denotá-las por letras maiúsculas, por exemplo T : V W. EXEMPLO 1. Seja det : R 3 R 3 R 3 R a função determinante de ordem 3 (sobre o corpo R). Sendo a,b R 3, é linear a função T 1 : R 3 R definida por T 1 (x) = det(x,a,b). Da mesma forma, são lineares as funções T 2,T 3 : R 3 R definidas por T 2 (x) = det(a,x,b) T 3 (x) = det(a,b,x). A linearidade destas três funções para todos os pares de vectores a,b R é precisamente a propriedade de det que designamos por multilinearidade. 2. Um isomorfismo T : V W é uma transformação linear bijectiva.

181 PROPOSIÇÃO 1. T : V W é uma transformação linear se e só se para quaisquer vectores x,y V e qualquer escalar a K T(ax + y) = at(x) + T(y). 2. T : V W é uma transformação linear se e só se para quaisquer vectores x,y V e quaisquer escalares a,b K T(ax + by) = at(x) + bt(y). 3. T : V W é uma transformação linear se e só se preservar combinações lineares quaisquer; isto é, se e só se para quaisquer vectores x 1,...,x n V e quaisquer escalares a 1,...,a n K ( T i ) a i x i = a i T(x i ). i (Convenção: se n = 0 as combinações lineares são 0.) Eis uma lista mais sistemática de exemplos: EXEMPLO Transformação nula: T(x) = 0. Multiplicação por escalar fixo a: T(x) = ax. 1. Se a = 0 obtemos a transformação nula. 2. Se a = 1 obtemos a transformação identidade T(x) = x, que é um isomorfismo. Multiplicação por matriz fixa: qualquer matriz A Mat m n (K) define uma transformação linear T : K n K m T(x) = Ax.

182 EXEMPLO (Continuação.) Operador derivação: É linear a função D : C 1 (a,b) C(a,b) D(f ) = f. Operador derivação: É linear a função D : P 3 (R) P 2 (R) D(p) = p. TRANSFORMAÇÕES LINEARES K n K m TEOREMA Seja T : K n K m uma transformação linear. Então existe uma e uma só matriz A Mat m n (K) tal que para qualquer x K n se tem T(x) = Ax. DEFINIÇÃO A matriz A do exemplo anterior é a matriz que representa T, ou a representação matricial de T.

183 Demonstração. Seja x K n. Então T(x) = T(x 1 e x n e n ) = x 1 T(e 1 ) + + x n T(e n ) = Ax onde A é a matriz cuja coluna j é, para cada j {1,...,n}, o vector T(e j ). Por outro lado esta é a única matriz possível, pois a condição Ax = Bx para qualquer x K n implica que se tem Ae j = Be j para cada j, ou seja, a coluna j de A é igual à coluna j de B para qualquer j {1,...,n}, sendo portanto A = B. COROLÁRIO Uma função T : K n K m é linear se e só se, para cada vector x K n, cada uma das componentes de T(x) for uma combinação linear das componentes de x. (Ou seja, cada componente de T(x) tem de ser uma expressão linear nas variáveis x 1,...,x n recordem as primeiras aulas sobre sistemas lineares.)

184 EXEMPLO É linear a função T : R 3 R 2 definida por A representação matricial é T(x,y,z) = (2x + 3y z, x z). [ Uma forma de descobrir a representação matricial, linha a linha: cada componente do vector T(x,y,z) é o produto interno duma linha da matriz pelo vector (x,y,z) (estamos habituados a raciocinar assim ao determinar a matriz dos coeficientes de um sistema linear); Outra forma de a descobrir, coluna a coluna: a primeira coluna da matriz é o vector T(e 1 ) = T(1,0,0) = (2,1); a segunda coluna é T(e 2 ) = T(0,1,0) = (3,0); a terceira coluna é T(e 3 ) = T(0,0,1) = ( 1, 1); ]. EXEMPLO Não é linear a função T : R 3 R 2 definida por T(x,y,z) = (x 2 + y, z). Não é linear a função T : R 3 R 2 definida por T(x,y,z) = (2 + x,x + y + z).

185 EXEMPLO A transformação nula 0 : K n K m é representada pela matriz nula de dimensão m n. A transformação identidade id : K n K n é representada pela matriz identidade de dimensão n n. A multiplicação por escalar fixo a K é representada pela matriz a 0 ai = a Alguns exemplos, com significado geométrico, de transformações lineares T : R 2 R 2, em termos das respectivas representações matriciais: EXEMPLO [ ] 0 1 rotação de π/2 no sentido directo em torno da 1 0 origem. [ ] cosθ senθ rotação de um ângulo θ no sentido senθ cosθ directo em torno da origem. [ ] 3 0 homotetia com factor de ampliação [ ] 2 0 homotetia com factores de ampliação 1 0 vertical ( ) e horizontal (2) diferentes. [ ] 0 1 reflexão através do eixo y = x. 1 0 [ ] 1 1 deslizamento, paralelo ao eixo xx, de comprimento igual a metade da ordenada de cada ponto.

186 TRANSFORMAÇÕES LINEARES ENTRE QUAISQUER ESPAÇOS DE DIMENSÃO FINITA DEFINIÇÃO Sejam V e W espaços vectoriais sobre um corpo K, com bases (v 1,...,v n ) e (w 1,...,w m ), respectivamente. Seja ainda T : V W uma transformação linear. A matriz que representa T relativamente às bases dadas é a matriz A Mat m n (K) cuja coluna j é, para cada j {1,...,n}, o vector de coordenadas de T(v j ) na base (w 1,...,w n ). EXEMPLO A função de derivação D : P 3 (R) P 2 (R), que a cada polinómio p de grau menor ou igual a 3 faz corresponder a sua derivada D(p) = p, é uma transformação linear entre espaços de dimensão finita e por isso pode ser representada por matrizes.

187 EXEMPLO (Continuação.) Escolhendo como bases ordenadas em P 3 (R) e P 2 (R) as bases canónicas respectivas, temos: D(1) = 0 é o polinómio cujo vector de coordenadas é (0,0,0); D(x) = 1 é o polinómio cujo vector de coordenadas é (1,0,0); D(x 2 ) = 2x é o polinómio cujo vector de coordenadas é (0,2,0); D(x 3 ) = 3x 2 é o polinónio cujo vector de coordenadas é (0,0,3). Representação matricial: EXEMPLO Seja V o espaço vectorial real das funções y : R R com segunda derivada contínua que são soluções da equação diferencial y + ω 2 y = 0. Vimos numa aula anterior que V tem uma base constituída pelas funções y 1 (t) = cos(ωt) e y 2 (t) = sen(ωt), sendo portanto um subespaço de R R com dimensão 2. O operador de derivação está bem definido em V, uma vez que y 1 = ωy 2 e y 2 = ωy 1 e portanto qualquer combinação linear a 1 y 1 + a 2 y 2 tem derivada em V. Em relação à base ordenada (y 1,y 2 ) (tanto no domínio como no espaço de chegada), a matriz que representa o operador de derivação é [ ] 0 ω. ω 0

188 Capítulo 20 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

189 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 3. REVISÃO Vimos: Noção de transformação linear T : V W: T(αx + βy) = αt(x) + βt(y). As transformações lineares T : K n K m são exactamente as funções definidas por T(x) = Ax para cada matriz fixa A Mat m n (K):.. A =. T(e 1 ).. T(e n )... Transformações lineares entre quaisquer espaços de dimensão finita V e W são também representadas por matrizes, mas as matrizes dependem das bases que escolhermos para V e W.

190 Relação entre operações com transformações lineares e operações com matrizes: PROPOSIÇÃO Sejam T : V V e T : V V transformações lineares. Então T T : V V é uma transformação linear. PROPOSIÇÃO Sejam T : K p K n e T : K n K m transformações lineares representadas pelas matrizes A e B, respectivamente. Então T T é representada pela matriz BA. Demonstração. (T T)(x) = T (T(x)) = T (Ax) = B(Ax) = (BA)x. EXERCÍCIO Diga qual é a matriz que representa em R 2 a operação que resulta de executar uma rotação em torno da origem de um ângulo igual a π/2 no sentido dos ponteiros do relógio seguida de uma reflexão através do eixo y = x. Resolução. A matriz é o produto seguinte, com θ = π/2: [ ][ ] [ ][ 0 1 cosθ senθ = 1 0 senθ cosθ ] = [ ].

191 EXEMPLO Do que vimos a respeito de rotações em R 2 conclui-se o seguinte, pois fazer duas rotações sucessivas de ângulos α e β é o mesmo que fazer uma rotação de α + β: [ ][ ] cosα senα cosβ senβ senα = cosα senβ cosβ [ cos(α + β) sen(α + β) sen(α + β) cos(α + β) ]. Calculando o produto das matrizes obtemos duas fórmulas conhecidas da trigonometria: cos(α + β) = cosα cosβ senα senβ sen(α + β) = senα cosβ + cosα senβ COROLÁRIO T : K n K m é um isomorfismo se e só se m = n e a matriz A que representa T for não-singular. Nesse caso A 1 representa T 1. Demonstração. A condição m = n resulta de as dimensões do domínio e do espaço de chegada de um isomorfismo terem de ser iguais. Se T for um isomorfismo então existe a transformação inversa T 1. Sejam A e B as matrizes que representam T e T 1, respectivamente. Então BA e AB representam a transformação identidade T 1 T = T T 1 : K n K n, que é representada pela matriz identidade I. Portanto tem-se BA = AB = I, pelo que B = A 1.

192 Demonstração. (Continuação.) Vimos portanto que se T for um isomorfismo a matriz A que representa T é não-singular. Para provar a implicação recíproca, suponha-se que a matriz A que representa T é não-singular. A matriz A 1 define uma transformação linear T. T T e T T são representadas por A 1 A e AA 1, respectivamente, ou seja, pela matriz identidade. Portanto T T = T T = id e conclui-se que T é um isomorfismo. NOTA Para o que se segue usaremos o facto de que se A for um conjunto qualquer e W for um espaço vectorial sobre um corpo K então W A é um espaço vectorial sobre K cujas operações são as habituais : a soma de vectores é a soma de funções, (f + g)(a) = f (a) + g(a), e o produto por escalar é definido por (kf )(a) = k(f (a)) para cada f W A e a A (isto generaliza o facto de conjuntos da forma K A serem espaços vectoriais sobre K).

193 Mais operações com transformações lineares: PROPOSIÇÃO Sejam V e W espaços vectoriais sobre um corpo K. O conjunto L(V,W) das transformações lineares T : V W é um subespaço vectorial de W V. Demonstração. É simples verificar as seguintes asserções (exercício): A função nula é uma transformação linear (já foi mencionado). Se T,T : V W forem transformações lineares então T + T é linear. Se T : V W for uma transformação linear e k K então kt é linear. Estas operações correspondem precisamente às operações habituais com matrizes: PROPOSIÇÃO 1. Se A representa T : K n K m e B representa T : K n K m então A + B representa T + T. 2. Se A representa T então ka representa kt (k K). COROLÁRIO L(K n,k m ) = Mat m n (K).

194 REVISÃO DEFINIÇÃO Sejam V e W espaços vectoriais sobre um corpo K, com bases (v 1,...,v n ) e (w 1,...,w m ), respectivamente. Seja ainda T : V W uma transformação linear. A matriz que representa T relativamente às bases dadas é a matriz A Mat m n (K) cuja coluna j é, para cada j {1,...,n}, o vector de coordenadas de T(v j ) na base (w 1,...,w n ). NOTA A matriz A é a da transformação linear obtida por composição com os isomorfismos determinados pelas bases de cada um dos espaços: K n = V T W = K m. NOTA A matriz A que representa uma transformação linear T : K n K m, conforme definimos anteriormente, é precisamente a matriz que representa T em relação às bases canónicas de K n e K m. Escolhendo outras bases de K n e K m obtém-se outras representações matriciais. A relação entre diferentes representações matriciais duma mesma transformação linear pode formular-se de uma forma simples em termos de matrizes de mudança de base e será estudada oportunamente.

195 REVISÃO DE EXEMPLOS EXEMPLO A função de derivação D : P 3 (R) P 2 (R), que a cada polinómio p de grau menor ou igual a 3 faz corresponder a sua derivada D(p) = p, é uma transformação linear entre espaços de dimensão finita e por isso pode ser representada por matrizes. EXEMPLO (Continuação.) Escolhendo como bases ordenadas em P 3 (R) e P 2 (R) as bases canónicas respectivas, temos: D(1) = 0 é o polinómio cujo vector de coordenadas é (0,0,0); D(x) = 1 é o polinómio cujo vector de coordenadas é (1,0,0); D(x 2 ) = 2x é o polinómio cujo vector de coordenadas é (0,2,0); D(x 3 ) = 3x 2 é o polinónio cujo vector de coordenadas é (0,0,3). Representação matricial:

196 EXEMPLO Seja V o espaço vectorial real das funções y : R R com segunda derivada contínua que são soluções da equação diferencial y + ω 2 y = 0. Vimos numa aula anterior que V tem uma base constituída pelas funções y 1 (t) = cos(ωt) e y 2 (t) = sen(ωt), sendo portanto um subespaço de R R com dimensão 2. O operador de derivação está bem definido em V, uma vez que y 1 = ωy 2 e y 2 = ωy 1 e portanto qualquer combinação linear a 1 y 1 + a 2 y 2 tem derivada em V. Em relação à base ordenada (y 1,y 2 ) (tanto no domínio como no espaço de chegada), a matriz que representa o operador de derivação é [ ] 0 ω. ω 0 Os resultados anteriores sobre representações matriciais e composição de transformações lineares, isomorfismos, adição de transformações lineares, etc., generalizam-se para transformações entre quaisquer espaços de dimensão finita, da seguinte forma: TEOREMA Seja K um corpo. Suponha-se escolhida, para cada espaço V sobre K, uma base ordenada B V e seja, para cada transformação linear T : V W, A T a matriz que representa T relativamente a B V e B W. Então tem-se, sendo n = dim(v) e m = dim(w): 1. L(V,W) = Mat m n (K) (T A T é um isomorfismo). 2. Se V T V T V então A T T = A T A T.

197 EQUAÇÕES LINEARES Se T : V W for uma transformação linear então designa-se uma igualdade do tipo por equação linear. T(x) = b O vector independente é b e o vector incógnita é x. Qualquer sistema linear Ax = b é uma equação linear. Uma equação linear T(x) = 0 diz-se homogénea. EXEMPLO A equação diferencial do oscilador harmónico y + ω 2 y = 0 é uma equação linear homogénea com T(y) = y + ω 2 y. T é uma transformação linear, pois é a soma de duas transformações lineares, T = D 2 D 1 + M ω 2, onde D 1 : C 2 (R) C 1 (R) e D 2 : C 1 (R) C(R) são as transformações lineares definidas pela operação de derivação e M ω 2 é a multiplicação pelo escalar fixo ω 2.

198 Seja T : V W uma transformação linear: O conjunto nuc(t) = {x V T(x) = 0} é um subespaço de V e designa-se por núcleo de T. O conjunto T(V) = {b W x V T(x) = b} (o contradomínio de T) é um subespaço de W. Se V = K n e W = K m e T for representada pela matriz A então nuc(t) = nuc(a), T(V) = col(a). Tal como para sistemas lineares, uma equação linear pode ser impossível, possível e determinada, ou possível e indeterminada. Tal como para sistemas lineares, a solução geral de uma equação linear que tem uma solução particular x é igual a x + nuc(t). EXEMPLO A equação diferencial do oscilador harmónico forçado y + ω 2 y = sen(ω t) é uma equação linear não homogénea. Para obter a solução geral basta encontrar uma solução particular, uma vez que já conhecemos nuc(t). (Tem de se considerar separadamente os casos ω 2 = (ω ) 2 e ω 2 (ω ) 2 ).

199 Capítulo 21 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

200 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 3. REVISÃO Vimos: Seja T : V W uma transformação linear: O conjunto nuc(t) = {x V T(x) = 0} é um subespaço de V e designa-se por núcleo de T. O conjunto T(V) = {b W x V T(x) = b} (o contradomínio de T) é um subespaço de W. Se V = K n e W = K m e T for representada pela matriz A então nuc(t) = nuc(a), T(V) = col(a). Tal como para sistemas lineares, uma equação linear pode ser impossível, possível e determinada, ou possível e indeterminada.

201 SOLUÇÃO GERAL DE UMA EQUAÇÃO LINEAR Seja T : V W uma transformação linear e seja x uma solução da equação linear T(u) = b. Seja x 0 uma solução da correspondente equação homogénea Então T(u) = 0. T(x + x 0 ) = T(x) + T(x 0 ) = b + 0 = b, ou seja, o vector u = x + x 0 é também uma solução da equação não homogénea T(u) = b. PROPOSIÇÃO Somando a uma qualquer solução x da equação T(u) = b uma solução x 0 da equação homogénea T(u) = 0 obtém-se novamente uma solução da primeira equação.

202 Sejam x e y duas soluções da equação linear T(u) = b. Então T(y x) = T(y) T(x) = b b = 0, ou seja, o vector y x é uma solução da equação homogénea T(u) = 0. Logo, a solução y da equação não homogénea obtém-se somando à outra solução, x, uma solução x 0 = y x da equação homogénea. Conclui-se portanto que x + nuc(t) é o conjunto das soluções (designado por conjunto-solução como no caso dos sistemas lineares) da equação não homogénea. Resumindo: TEOREMA Seja T : V W uma transformação linear e considere a equação linear T(u) = b. O conjunto-solução S desta equação pode ser: S = /0 (a equação é impossível); ou S = x + nuc(t), onde x é uma qualquer das soluções da equação. COROLÁRIO Seja T uma transformação linear. Então tem-se nuc(t) = {0} se e só se T for uma função injectiva. COROLÁRIO Seja T uma transformação linear. Então T é um isomorfismo se e só se T for sobrejectiva e nuc(t) = {0}.

203 NOTA Seja T uma transformação linear: A equação linear T(u) = b é possível para qualquer b W se e só se T for uma função sobrejectiva. A equação linear T(u) = b é determinada para qualquer b que a torna possível se e só se T for injectiva, ou seja, se e só se nuc(t) = 0. A equação linear T(u) = b é possível e determinada para qualquer valor de b se e só se T for um isomorfismo. EXEMPLO: OSCILADOR HARMÓNICO Vamos continuar o estudo do oscilador harmónico iniciado na aula teórica 17. Se o objecto que oscila for submetido a uma força exterior ao longo da direcção de oscilação (ou a um oscilador electrónico for aplicado um sinal exterior), a qual varia em função do tempo de acordo com uma função contínua F : R R, aplicando a lei de Newton obtemos (onde α é a constante de elasticidade da mola) my = αy + F, pelo que, fazendo f (t) = F(t)/m e novamente ω 2 = α/m, obtemos a equação não homogénea do oscilador harmónico forçado: y + ω 2 y = f.

204 A equação diferencial do oscilador harmónico forçado y + ω 2 y = f é uma equação linear não homogénea T(y) = f onde T : C 2 (R) C(R) é a transformação linear definida por T(y) = y + ω 2 y. Para obter a solução geral basta encontrar uma solução particular, uma vez que sabemos (da aula teórica 17) que nuc(t) é o conjunto de todas as funções obtidas como combinação linear y = c 1 y 1 + c 2 y 2, (c 1,c 2 R) onde y 1 (t) = cosωt e y 2 (t) = senωt. Como exemplo vamos estudar o caso em que f tem variação sinusoidal no tempo, com frequência ω ext não necessariamente igual a ω: f (t) = senω ext t. Como solução particular vamos tentar y(t) = csenω ext t. (Isto faz sentido fisicamente e também matematicamente porque y será também proporcional a senω ext t.) Substituindo na equação diferencial obtemos cω 2 ext senω ext t + ω 2 csenω ext t = senω ext t e portanto tem de ter-se c(ω 2 ω 2 ext) = 1.

205 Da condição c(ω 2 ω 2 ext) = 1 conclui-se que a função y(t) = csenω ext t é solução se e só se ω 2 ωext, 2 caso em que a amplitude da oscilação será 1 c = ω 2 ωext 2. (Quanto mais próximas forem as frequências ω e ω ext tanto maior é a amplitude.) E se ω 2 = ω 2 ext? O facto de c tender para infinito quando ω 2 ext tende para ω 2 faz-nos suspeitar de que quando as frequências coincidem o sistema terá oscilações de amplitude ilimitada. Tentemos por exemplo como solução particular a função seguinte: y(t) = t(a 1 cosωt + a 2 senωt). Substituindo na equação y + ω 2 y = f concluimos, após alguns cálculos, que tem de ter-se a 1 = 1 2ω e a 2 = 0, pelo que y(t) = t cosωt 2ω. A amplitude da oscilação tende para infinito quanto t +. A este fenómeno chama-se ressonância: a frequência ω é a frequência de ressonância ou frequência natural do oscilador.

206 Note-se que com ω 2 = ω 2 ext todas as soluções da equação têm amplitude ilimitada, uma vez que a solução geral se obtém somando à solução particular que obtivemos uma solução c 1 cosωt + c 2 senωt da equação homogénea cuja amplitude é majorada por c 1 + c 2. Nos Estados Unidos, em 1940, uma ponte (Tacoma Narrows Bridge) ruiu devido a este efeito: Gertie FIGURA: Oscilações que antecederam o colapso da primeira ponte de Tacoma, em 1940.

207 Capítulo 22 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

208 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Capítulo 3. REVISÃO Vimos, no capítulo sobre espaços lineares: Se V for um espaço vectorial sobre um corpo K com bases ordenadas B = (v 1,...,v n ) e B = (v 1,...,v n) a matriz de mudança de base da base B para a base B é a matriz n n cujas colunas são os vectores de coordenadas de v 1,...,v n (por esta ordem) calculadas na base B. Por outras palavras, se c : V K n for o isomorfismo que a cada vector x = c 1 v c n v n faz corresponder o seu vector de coordenadas c x = (c 1,...,c n ) na base ordenada B a matriz de mudança de base é.. S =. c v.. 1 c v n...

209 Sendo c : V K n o isomorfismo que a cada vector x = c 1 v c nv n faz corresponder o vector de coordenadas c x = (c 1,...,c n) de x na base ordenada B, a relação entre c x e c x é dada por Sc x = c x. Considere-se agora outro espaço vectorial W sobre K. Sejam ainda (w 1,...,w m ) e (w 1,...,w m) bases ordenadas de W e seja R a matriz de mudança de base da primeira para a segunda base. Abusando da notação, denotaremos também por c,c : W K m os isomorfismos determinados por estas duas bases, respectivamente. Então tem-se, para cada y W, Rc y = c y. Seja agora T : V W uma transformação linear. Seja A a representação matricial de T em relação ao par de bases (v 1,...,v n ) e (w 1,...,w m ): c T(x) = Ac x. Seja A a representação matricial de T em relação ao par de bases (v 1,...,v n) e (w 1,...,w m): c T(x) = A c x. Então tem-se, para qualquer x V, ASc x = Ac x = c T(x) = Rc T(x) = RA c x, pelo que AS = RA.

210 Portanto demonstrámos o seguinte teorema: TEOREMA As representações matriciais de T (A e A ) estão relacionadas pelas fórmulas de mudança de base seguintes (que são todas equivalentes): RA = AS A = R 1 AS A = RA S 1 A seguinte versão mais restrita da fórmula de mudança de base será aplicada diversas vezes: COROLÁRIO Se A for a representação matricial de uma transformação linear T em relação a uma base (v 1,...,v n ) (considerada como base tanto do domínio como do espaço de chegada), e se (v 1,...,v n) for outra base cuja matriz de mudança de base em relação à primeira base é S, então a representação matricial de T em relação à nova base é a matriz A = S 1 AS.

211 Na prática a fórmula A = R 1 AS não é aplicada directamente, ou seja, para calcular A a partir de A, R e S não invertemos primeiro a matriz R: Uma vez que A é a matriz-solução do sistema RA = AS, cuja matriz dos coeficientes é R, o mais natural e eficiente é aplicar eliminação de Gauss Jordan à matriz aumentada [R AS]: [R AS] [I R 1 AS] = [I A ]. Para calcular A a partir de A, R e S também não é necessário inverter a matriz S para aplicar directamente a fórmula A = RA S 1 : Notando que se tem S T A T = (RA ) T aplicamos novamente eliminação de Gauss Jordan: [S T (RA ) T ] [I (S T ) 1 (RA ) T ] = [I A T ]. EXERCÍCIO Seja D : P 3 (R) P 2 (R) a derivação de polinómios. Calcule a matriz que representa D em relação à base ordenada B = (1 + x 2, 1 2x, 1 + x + x 2 ) de P 2 (R) (verifique que é de facto uma base) e à base canónica de P 3 (R).

212 Resolução. A representação matricial de D em relação às bases canónicas de P 3 (R) e P 2 (R) é, conforme vimos na aula teórica 19, a seguinte: A = A matriz de mudança de base de P 2 (R) é R = (A de P 3 (R) é a identidade, uma vez que não mudámos de base neste espaço, ou seja, na fórmula da mudança de base ter-se-á S = I.). Resolução. (Continuação.) A representação matricial pedida será, neste caso, a matriz A = R 1 AS = R 1 A. Por eliminação de Gauss Jordan: [R A] =

213 Resolução. (Continuação.) = [I A ] Resolução. (Continuação.) Logo, A = e B é de facto uma base porque, como se viu, a matriz R é não-singular.

214 Capítulo 23 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

215 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 6.1 e 6.2. VALORES E VECTORES PRÓPRIOS No resto do capítulo sobre transformações lineares vamos estudar transformações lineares T : S V em que S V é um subespaço do espaço vectorial V. O corpo K será sempre R ou C. O facto de, dado x S, tanto x como T(x) pertencerem a V permite-nos comparar x com T(x), por exemplo investigando se são vectores colineares. Podemos assim descobrir direcções especiais em S segundo as quais T é particularmente simples de descrever.

216 MOTIVAÇÃO: EXEMPLO K = R [ ] S = V [ = R 2 x 4/5 3/5 T(x,y) = A A = y 3/5 4/5 Significado geométrico de T? Sejam v 1 = (3,1) e v 2 = ( 1,3). A reflexão através da recta de [ equação ] y = x/3 tem 1 0 representação matricial A = em relação à base 0 1 (v 1,v 2 ). A matriz [ de mudança ] de base (em relação à base canónica) é 3 1 S =. 1 3 Um cálculo simples revela que se tem SA = AS, pelo que T é precisamente a reflexão através da recta de equação y = x/3. ] Este exemplo foi na realidade fabricado a partir de A como no exercício do fim da aula teórica passada (não está no slideshow vejam os vossos apontamentos), mas ilustra bem o facto de que a representação matricial em relação à base errada pode obscurecer o significado geométrico de uma transformação linear, que neste caso era bastante simples. A questão agora é: que forma sistemática há de simplificar a representação matricial de uma transformação linear como no exemplo anterior? O que torna a base (v 1,v 2 ) certa? T(v 1 ) = v 1 e T(v 2 ) = v 2 : ambos os vectores são transformados em múltiplos deles próprios! (O mesmo não se passa com os vectores da base canónica, que são respectivamente transformados em 1 5 (4,3) e 1 5 (3, 4).)

217 DEFINIÇÃO Sejam: V um espaço vectorial sobre o corpo K, S V um subespaço, T : S V uma transformação linear. Sejam ainda x S e λ K tais que x 0, T(x) = λx. Diz-se então que x é um vector próprio de T associado ao escalar λ, ou que λ é um valor próprio de T associado ao vector x. EXEMPLO No exemplo do início desta aula encontrámos os seguintes vectores próprios: v 1, associado ao valor próprio 1, uma vez que T(v 1 ) = v 1 ; v 2, associado ao valor próprio 1, uma vez que T(v 2 ) = v 2. Além destes vectores próprios há também: Qualquer múltiplo não nulo de v 1, associado ao valor próprio 1; Qualquer múltiplo não nulo de v 2, associado ao valor próprio 1. Há apenas dois valores próprios, mas infinitos vectores próprios.

218 DEFINIÇÃO Sejam: V um espaço vectorial sobre o corpo K, S V um subespaço, T : S V uma transformação linear, λ K um valor próprio de T. Designa-se o conjunto E λ = {x S T(x) = λx} por espaço próprio de T associado a λ. (E λ contém, além dos vectores próprios de T associados a λ, o vector nulo 0.) EXEMPLO No exemplo do início da aula, E 1 é o conjunto de todos os vectores que permanecem inalterados quando se executa a reflexão através da recta y = x/3. Estes vectores correspondem precisamente precisamente aos pontos da recta, pelo que E 1 é a recta de equação y = x/3. Em particular, é um subespaço de R 2. E 1 é a recta que passa pela origem e é perpendicular à anterior, ou seja, a recta de equação y = 3x. Também é um subespaço de R 2.

219 PROPOSIÇÃO Sejam: V um espaço vectorial sobre o corpo K, S V um subespaço, T : S V uma transformação linear, λ K um valor próprio de T. O espaço próprio E λ é um subespaço de S. Demonstração. Denotando por id : S V a transformação linear inclusão (de S em V), que é definida por id(x) = x, a condição T(x) = λx é equivalente a T(x) = λid(x) e portanto é equivalente a (T λid)(x) = 0. Conclui-se assim que E λ coincide com o núcleo E λ = nuc(t λid) da transformação linear T λid.

220 NOTA Se λ = 0 for um valor próprio então E λ = nuc(t). Portanto, uma vez que da definição de valor próprio resulta que E λ contém sempre pelo menos um vector não nulo, conclui-se que T tem um valor próprio nulo se e só se nuc(t) {0}. DEFINIÇÃO Sejam: V um espaço vectorial sobre o corpo K, S V um subespaço, T : S V uma transformação linear, λ K um valor próprio de T. Designa-se o valor dime λ por multiplicidade geométrica de λ (é portanto a nulidade de T λid) e denota-se por mg(λ) ou mg λ.

221 EXEMPLO Vamos ver exemplos com K = R e S = V = R 2 : [ ] 0 1 reflexão através do eixo y = x. 1 0 [ [ ] λ = 1 E λ = L({(1,1)}) mg λ = 1 λ = 1 E λ = L({( 1,1)}) mg λ = 1 homotetia com factor de ampliação 3. λ = 3 E λ = R 2 mg λ = 2 ] homotetia com factores de ampliação vertical ( 1 2 ) e horizontal (2) diferentes. λ = 2 E λ = L({(1,0)}) mg λ = 1 λ = 1/2 E λ = L({(0,1)}) mg λ = 1 EXEMPLO (Continuação.) [ ] 1 0 projecção sobre o eixo xx. 0 0 λ = 1 E λ = L({(1,0)}) mg λ = 1 λ = 0 E λ = L({(0,1)}) mg λ = 1 [ ] 1 1 deslizamento, paralelo ao eixo xx, de comprimento igual a metade da ordenada de cada ponto. λ = 1 E λ = L({(1,0)}) mg λ = 1

222 EXEMPLO (Continuação.) [ ] 0 1 rotação de π/2 no sentido directo em torno da 1 0 origem. Não tem valores próprios. [ ] cosθ senθ rotação de um ângulo θ no sentido senθ cosθ directo em torno da origem. Só tem valores próprios se θ for múltiplo de π: Se θ = 2kπ (k Z): λ = 1 mg λ = 2 Se θ = 2(k + 1)π (k Z): λ = 1 mg λ = 2 NOTA Em todos os exemplos anteriores a soma das multiplicidades geométricas dos valores próprios não excede 2. Como veremos, isso acontece para qualquer transformação linear cujo domínio tem dimensão 2. Em particular, o número de valores próprios não excede 2 (pois a multiplicidade geométrica de um valor próprio é sempre pelo menos 1).

223 EXEMPLO Se no exemplo da rotação em R 2 que vimos há pouco identificarmos R 2 com o espaço vectorial complexo C identificando cada (a,b) R 2 com o número complexo a + ib, então a rotação de um ângulo θ coincide com o produto pelo escalar e iθ, pois para qualquer número complexo ρe iα temos e iθ ( ρe iα) = ρe i(α+θ). Neste caso existe um e um só valor próprio λ = e iθ. Tem-se E λ = R 2 e mg λ = 1 (porque dim C (R 2 ) = 1). Os casos em que no exemplo anterior a rotação tinha valores próprios são exactamente aqueles em que λ = e iθ é um número real. NOTA Embora pensemos habitualmente no conjunto de múltiplos de um vector não nulo x como a direcção definida por x, vemos que para espaços complexos essa noção não coincide com a intuição geométrica associada à ideia de direcção em R 2 : O produto de um vector do plano complexo por um escalar complexo é, em geral, um vector com outra direcção no plano.

224 EXEMPLO Seja D : C 1 (R) C(R) o operador de derivação de funções reais de variável real. Para cada λ R a função f (x) = e λx é um vector próprio de D associado ao valor próprio λ. Portanto D tem infinitos valores próprios. Como veremos, isto por si só indica que C 1 (R) tem dimensão infinita. Capítulo 24

225 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 6.1 e 6.2.

226 REVISÃO Seja V um espaço vectorial sobre o corpo K e seja T : S V uma transformação linear em que S V é um subespaço, seja x S e λ K. x é um vector próprio associado a λ se: x 0, T(x) = λx. λ é o valor próprio associado a x. O subespaço E λ = {x S T(x) = λx} S é o espaço próprio associado a λ. A multiplicidade geométrica de λ é mg λ = dime λ. TEOREMA Sejam: V um espaço vectorial sobre o corpo K, S V um subespaço, T : S V uma transformação linear. Então, para qualquer n N 0 e quaisquer n valores próprios (distintos) de T λ 1,...,λ n, é linearmente independente qualquer lista de vectores próprios de T v 1,...,v n associados a λ 1,...,λ n, respectivamente. Em particular, todos estes vectores próprios são necessariamente distintos uns dos outros.

227 Demonstração. A demonstração faz-se por indução matemática. Comecemos por escolher um número n N 0 arbitrário mas fixo. Como hipótese de indução vamos supor que o teorema é verdadeiro para este n em particular. Sejam agora λ 1,...,λ n+1 valores próprios distintos quaisquer e seja v 1,...,v n+1 uma lista de vectores próprios associados a λ 1,...,λ n+1, respectivamente. Vamos verificar que esta lista tem de ser linearmente independente: Sejam c 1,...,c n+1 K escalares tais que c 1 v c n+1 v n+1 = 0. (1) Aplicando T a ambos os lados da equação (1) obtemos c 1 λ 1 v c n+1 λ n+1 v n+1 = 0. (2) Demonstração. (Continuação.) Multiplicando ambos os lados da equação (1) por λ n+1 obtemos c 1 λ n+1 v c n+1 λ n+1 v n+1 = 0. (3) Subtraindo a equação (2) à equação (3) a parcela c n+1 λ n+1 v n+1 é cancelada e obtemos c 1 (λ n+1 λ 1 )v c n (λ n+1 λ n )v n = 0. (4) Usando a hipótese do slide anterior (de que os n vectores v 1,...,v n são linearmente independentes), concluimos que c 1 (λ n+1 λ 1 ) =... = c n (λ n+1 λ n ) = 0. Como por hipótese os valores próprios λ 1,...,λ n+1 são todos distintos conclui-se que c 1 =... = c n = 0.

228 Demonstração. (Continuação.) Mas então da equação (1) resulta c n+1 v n+1 = 0. Como por definição de vector próprio tem de ter-se v n+1 0 conclui-se c n+1 = 0 e portanto c 1 =... = c n+1 = 0. O que demonstrámos até aqui foi que se for verdade que forem necessariamente linearmente independentes quaisquer n vectores próprios correspondentes a n valores próprios distintos então também é verdade que são linearmente independentes quaisquer n + 1 vectores próprios correspondentes a n + 1 valores próprios distintos, ou seja, provámos o passo da indução. A base da indução é o caso n = 0 e é imediato porque a lista vazia é (trivialmente) linearmente independente. COROLÁRIO Se dim(s) = n então existem no máximo n valores próprios distintos. NOTA Já tinhamos observado que todas as transformações lineares T : R 2 R 2 vistas até agora tinham no máximo dois valores próprios. Como vemos agora, isso era inevitável. Também observámos que o operador de derivação D : C 1 (R) C(R) tem infinitos valores próprios e podemos usar esse facto para concluir que a dimensão de C 1 (R) é infinita. De caminho demonstrámos assim com facilidade que o conjunto de funções {e λt λ R} é linearmente independente.

229 EXERCÍCIO Mostre que o conjunto {senωt ω R + } é linearmente independente em R R. (Sugestão: considere a transformação linear D 2 : C 2 (R) C(R) definida por D 2 (f ) = f.) NOTA Em particular verificamos assim que as funções sen nt para n N são linearmente independentes, um facto que apenas havíamos verificado, nas aulas sobre espaços lineares, para alguns valores de n. Além do corolário anterior, do teorema conclui-se também obviamente o seguinte: COROLÁRIO Se λ 1 e λ 2 forem valores próprios distintos então E λ1 E λ2 = {0}. NOTA Portanto, dados valores próprios λ 1 λ 2 : E λ1 + E λ2 = E λ1 E λ2 = Eλ1 E λ2.

230 COROLÁRIO Se dim(s) = n então a soma das multiplicidades geométricas dos valores próprios de T é menor ou igual a n. Demonstração. Sejam λ 1,..., λ m (m n) os valores próprios de T (sem repetições). Do corolário anterior conclui-se n dim(e λ1 + + E λm ) = dim(e λ1 E λm ) = dim(e λ1 ) + + dim(e λm ) = mg(λ 1 ) + + mg(λ m ). REPRESENTAÇÃO DIAGONAL DE TRANSFORMAÇÕES LINEARES Por vezes é possível formar uma base de S constituída por vectores próprios de T : S V. Se dim(s) = n isto sucede precisamente quando a soma das multiplicidades geométricas dos valores próprios é igual a n. Vimos já alguns exemplos destes. (Isto será o caso, em particular, se houver n valores próprios distintos.) A representação matricial de uma tal transformação linear é extremamente simples.

231 Para simplificar, agora consideraremos o caso em que o domínio e o espaço de chegada são o mesmo. TEOREMA Seja T : V V uma transformação linear com dim(v) = n e seja (v 1,...,v n ) uma base ordenada de V. A representação matricial de T em relação a esta base é uma matriz diagonal λ λ n se e só se v 1,...,v n são vectores próprios de T associados aos escalares λ 1,...,λ n, respectivamente. Demonstração. Ver Teorema 6.5 do livro. EXERCÍCIO Interprete geometricamente as transformações lineares T : R 2 R 2 cujas representações matriciais, em relação uma base (v 1,v 2 ) fixa mas arbitrária, são as seguintes: [ ] [ ] [ ] [ ] [ ] [ ]

232 EXERCÍCIO Dê exemplos de transformações lineares T : R 2 R 2 que não tenham nenhuma representação diagonal. Capítulo 25

233 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 6.2 e 6.3.

234 VALORES PRÓPRIOS DE MATRIZES Adoptaremos a seguinte terminologia para matrizes: DEFINIÇÃO Seja A Mat n n (K). Os valores próprios, vectores próprios e espaços próprios de A são os valores próprios, vectores próprios e espaços próprios, respectivamente, da transformação linear T : K n K n definida por T(x) = Ax. NOTA Portanto x K n é um vector próprio (da matriz A Mat n n (K)) associado ao valor próprio λ se e só se ambas as condições seguintes se verificarem: x 0, Ax = λx. DIAGONALIZAÇÃO DE MATRIZES DEFINIÇÃO Seja A Mat n n (K). Diz-se que A é diagonalizável se existir uma matriz não-singular S Mat n n (K) tal que S 1 AS é uma matriz diagonal. Nesse caso diz-se que a matriz S é uma matriz diagonalizante para A.

235 PROPOSIÇÃO Uma matriz A Mat n n (K) é diagonalizável se e só se a transformação linear T : K n K n definida por T(x) = Ax tiver uma representação matricial diagonal. Uma matriz S é diagonalizante para A se e só se o conjunto das suas colunas for uma base de K n formada por vectores próprios de T. Se S = [ ] v 1 v n e os valores próprios associados a v 1,...,v n forem λ 1,...,λ n, respectivamente, ter-se-á λ 1 0 S 1 AS = λ n Já vimos o seguinte exemplo: DEFINIÇÃO [ 4/5 3/5 Seja A = 3/5 4/5 ] Mat 2 2 (R). A tem vectores próprios (3,1) e ( 1,3) associados aos valores próprios 1 e 1, respectivamente. A é diagonalizável. Uma matriz diagonalizante é S = S 1 AS = [ ]. [ ].

236 POLINÓMIOS CARACTERÍSTICOS Como fazer para procurar os valores próprios e os vectores próprios de uma matriz quadrada arbitrária? PROPOSIÇÃO Seja A Mat n n (K) e seja λ K um escalar qualquer. O conjunto E λ = {x K n Ax = λx} é um subespaço de K n que coincide com nuc(a λi). λ é um valor próprio de A se e só se A λi for singular. Os valores próprios de A são os escalares λ tais que det(a λi) = 0. DEFINIÇÃO p(λ) = det(a λi) é uma função polinomial de λ e designa-se por polinómio característico de A. PROPOSIÇÃO Os valores próprios de A são as raízes do polinómio característico de A.

237 EXEMPLO Seja A = [ 4/5 3/5 3/5 4/5 A matriz A λi é ] Mat 2 2 (R). [ 4/5 λ 3/5 3/5 4/5 λ ] O polinómio característico p(λ) = det(a λi) é, portanto, (4/5 λ)( 4/5 λ) (3/5) 2 = λ 2 1. A matriz A λi é singular se e só se λ 2 = 1. Há portanto dois valores próprios λ 1 = 1 e λ 2 = 1 (como já sabíamos das aulas anteriores: a transformação linear representada por A é a reflexão através de uma recta). A determinação dos valores próprios de uma matriz é um problema de álgebra não linear, uma vez que se reduz à determinação de raízes de polinómios. Mas uma vez conhecido um valor próprio λ da matriz A, o problema de encontrar vectores próprios associados a λ é um problema de álgebra linear: É o problema de encontrar vectores não nulos de E λ. Basta calcular uma base de E λ. Somos conduzidos assim ao método, que já bem conhecemos, para determinar uma base para o núcleo de uma matriz, uma vez que E λ = nuc(a λi).

238 EXEMPLO Seja novamente A = [ 4/5 3/5 3/5 4/5 Já sabemos que há dois valores próprios λ 1 = 1 e λ 2 = 1. Uma base de E λ1 obtém-se calculando uma base do núcleo da matriz [ ] [ ] 4/5 λ1 3/5 1/5 3/5 A λ 1 I = =. 3/5 4/5 λ 1 3/5 9/5 Por eliminação de Gauss pode obter-se a matriz ]. [ (A matriz A λ 1 I é singular, como não podia deixar de ser!) Os vectores do núcleo de A λ 1 I são descritos parametricamente na forma (x,y) = (3y,y) = y(3,1), pelo que uma base de E λ1 é formada pelo vector (3,1). ]. EXEMPLO (Continuação.) Concluímos assim que (3,1) é um vector próprio associado ao valor próprio λ 1 = 1. Este procedimento repete-se para cada um dos valores próprios. Vectores próprios associados a λ 2 = 1 obtém-se calculando uma base do núcleo de [ ] [ ] 4/5 λ2 3/5 9/5 3/5 A λ 2 I = =. 3/5 4/5 λ 2 3/5 1/5 Por eliminação de Gauss pode obter-se a matriz [ Os vectores do núcleo de A λ 2 I são descritos parametricamente na forma (x,y) = ( y/3,y) = y( 1/3,1), pelo que uma base de E λ2 é formada pelo vector ( 1,3). ].

239 O próximo exercício é um exemplo do livro (parágrafo 6.8, p. 261). Matriz com três valores próprios reais distintos: EXERCÍCIO 1. Calcule os valores próprios da matriz A = Para cada valor próprio λ diga qual é a multiplicidade geométrica mg λ e obtenha uma base de E λ. 3. Diga, justificando, se a matriz A é diagonalizável. Em caso afirmativo indique uma matriz diagonalizante para A.

240 Capítulo 26 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

241 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 6.3. Vamos rever o Teorema Fundamental da Álgebra: TEOREMA Qualquer polinómio com coeficientes complexos e grau maior ou igual a um tem pelo menos uma raiz complexa. COROLÁRIO Para qualquer polinómio p(z) = a 0 + a 1 z + a n z n de coeficientes complexos com n 1 existem z 1,...,z n C tais que p(z) = a n (z z 1 ) (z z n ). NOTA z 1,...,z n são as raízes do polinómio. Para cada i, o número de factores em que ocorre a raiz z i é a multiplicidade dessa raiz.

242 DEFINIÇÃO Seja A Mat n n (C) e seja λ um valor próprio complexo de A. Designa-se a multiplicidade de λ enquanto raiz do polinómio característico de A por multiplicidade algébrica do valor próprio λ e denota-se por ma(λ) ou ma λ. (É distinta da multiplicidade geométrica.) PROPOSIÇÃO Seja A Mat n n (C) e sejam λ 1,...,λ m C os valores próprios de A. Então tem-se ma λ1 + + ma λm = n. (Vimos que a mesma afirmação, para mg, é verdadeira se substituirmos = por.) TEOREMA Seja A Mat n n (K) e seja λ 0 um valor próprio de A. Então 1 mg λ0 ma λ0. Demonstração. Já sabemos que 1 mg λ0, pois por definição de valor próprio tem de existir um vector não nulo em E λ0, e portanto dime λ0 1. Suponha-se agora mg λ0 = k e seja (u 1,...,u k ) uma base ordenada de E λ0. Uma vez que estes vectores são linearmente independentes em K n existe uma base de K n que os contém. Seja (u 1,...,u k,v 1,...,v n k ) uma tal base (ordenada).

243 Demonstração. (Continuação.) Uma vez que u 1,...,u k são vectores próprios associados a λ 0, nesta base a representação matricial da transformação linear T : K n K n definida por T(x) = Ax tem a seguinte forma, em que I k é a matriz identidade de dimensão k k: λ λ 0 0 [ ]. A λ0 I = k B = 0 C 0 λ Demonstração. (Continuação.) Uma vez que A representa a mesma transformação linear, tem os mesmos valores próprios de A. Aplicando k vezes a fórmula de Laplace à primeira coluna a partir de A λi concluimos que o polinómio característico de A (e portanto o de A) é divisível por (λ λ 0 ) k : det(a λi) = (λ 0 λ)i B 0 C λi = (λ 0 λ) k det(c λi). Portanto temos ma λ0 k.

244 Os próximos três exercícios são exemplos do livro (parágrafo 6.8, pp ). O primeiro deles foi resolvido quase totalmente na aula. Recomenda-se aos alunos que resolvam os outros dois, mesmo que o façam consultando as resoluções do livro. Matriz diagonalizável cujos valores próprios são todos reais mas com menos do que três valores próprios: EXERCÍCIO 1. Calcule os valores próprios da matriz A = Para cada valor próprio λ diga qual é a multiplicidade geométrica mg λ e obtenha uma base de E λ. 3. Diga, justificando, se a matriz A é diagonalizável. Em caso afirmativo indique uma matriz diagonalizante para A.

245 Matriz não diagonalizável cujos valores próprios são todos reais: EXERCÍCIO 1. Calcule os valores próprios da matriz A = Para cada valor próprio λ diga qual é a multiplicidade geométrica mg λ e obtenha uma base de E λ. 3. Diga, justificando, se a matriz A é diagonalizável. Em caso afirmativo indique uma matriz diagonalizante para A. Matriz real diagonalizável em M 3 3 (C) mas não em Mat 3 3 (R): EXERCÍCIO 1. Calcule os valores próprios da matriz A = Para cada valor próprio λ diga qual é a multiplicidade geométrica mg λ e obtenha uma base de E λ. 3. Diga, justificando, se a matriz A é diagonalizável: (i) em Mat 3 3 (R); (ii) em Mat 3 3 (C). Em caso afirmativo indique uma matriz diagonalizante para A.

246 Capítulo 27 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

247 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 6.3. Vamos agora estudar mais em pormenor os polinómios característicos. TEOREMA O polinómio característico p(λ) = det(a λi) da matriz A Mat n n (C) tem: 1. grau igual a n; 2. coeficiente do termo de grau n igual a ( 1) n ; 3. coeficiente do termo de grau n 1 igual a ( 1) n 1 (a a nn ); 4. termo de grau 0 igual a deta.

248 Demonstração. Comecemos por escrever o polinómio na seguinte forma: p(λ) = p 0 + p 1 λ + p 2 λ 2 + É imediato que o termo de grau zero p 0 é deta porque p 0 = p(0) = det(a 0I) = deta. A fórmula para o cálculo do determinante baseada em permutações dá-nos det(a λi) = σ S n sgn(σ)(a λi) σ1 1...(A λi) σn n. Cada parcela contém um produto de exactamente n entradas da matriz A λi. Demonstração. (Continuação.) Qualquer parcela que corresponda a uma permutação diferente da identidade pode conter no máximo n 2 factores da forma a ii λ (porquê?) e portanto apenas pode contribuir para os coeficientes p 0,...,p n 2. A parcela correspondente à permutação identidade é assim a que dá origem aos coeficientes p n 1 e p n : (a 11 λ) (a nn λ) = +( 1) n 1 (a a nn ) λ n 1 +( 1) n }{{}}{{} p n 1 p n Evidentemente não existem monómios de grau superior a n, pelo que o grau de p(λ) é n. λ n

249 DEFINIÇÃO Seja A Mat n n (K). Designa-se por traço de A, e denota-se por tr(a) ou tra, a soma das entradas da diagonal principal de A: tr(a) = a a nn. NOTA O polinómio característico de uma matriz A Mat n n (K) é p(λ) = deta + + ( 1) n 1 tr(a)λ n 1 + ( 1) n λ n. Se n é ímpar obtemos p(λ) = deta + +tr(a)λ n 1 λ n. Se n é par obtemos p(λ) = deta + tr(a)λ n 1 +λ n. Em particular, se n = 2 obtemos p(λ) = deta tr(a)λ+λ 2. TEOREMA Seja A Mat n n (C) e sejam λ 1,...,λ m C os valores próprios de A (sem repetições). 1. deta = λ ma λ 1 1 λ ma λm m ; (deta é igual ao produto dos valores próprios com as respectivas repetições.) 2. tra = ma λ1 λ ma λm λ m. (tra é igual à soma dos valores próprios com as respectivas repetições.)

250 Demonstração. Do teorema fundamental da álgebra obtemos, uma vez que já sabemos que o coeficiente do termo de grau n é ( 1) n, p(λ) = ( 1) n (λ λ 1 ) (λ λ n ) onde λ 1,...,λ n é a lista dos n valores próprios complexos, onde cada um ocorre na lista tantas vezes quantas a sua multiplicidade algébrica. Portanto escrevendo p(λ) = p 0 + p 1 λ + + p n λ n obtemos p 0 = ( 1) n ( 1) n (λ 1 λ n ) = λ 1 λ n, p n 1 = ( 1) n ( λ 1 λ n ) = ( 1) n 1 (λ λ n ), e do teorema anterior resulta deta = λ 1 λ n e tra = λ λ n. As relações anteriores dão-nos um método alternativo de cálculo dos valores próprios de uma matriz A de dimensão 2 2: em vez de escrever o polinómio característico deta (tra)λ + λ 2 e calcular as raízes podemos resolver o sistema de equações não lineares { λ1 + λ 2 = tra λ 1 λ 2 = deta. O resultado, evidentemente, é o mesmo e não há grande vantagem em utilizar este método em vez de calcular directamente as raízes do polinómio característico: λ 1 = tr(a) + (tra) 2 4(detA) 2 λ 2 = tr(a) (tra) 2 4(detA) 2

251 As relações anteriores são no entanto úteis ao calcular valores próprios de matrizes de maior dimensão. Por exemplo, seja A = A soma das entradas de cada linha é igual a 6. Isto significa que o produto de A pelo vector (1,1,1) é igual a (6,6,6) = 6(1,1,1) e portanto (1,1,1) é um vector próprio associado ao valor próprio 6.. As relações { λ1 + λ 2 + λ 3 = tra λ 1 λ 2 λ 3 = deta. permitem-nos agora calcular todos os valores próprios directamente a partir de um sistema de equações não lineares de grau igual a 2. Uma vez que já sabemos que 6 é um valor próprio, podemos por exemplo escolher λ 3 = 6 e obter { λ1 + λ 2 = tra 6 = 3 λ 1 λ 2 = deta/6 = 96/6 = 16. A primeira equação dá-nos λ 2 = 3 λ 1 e substituindo na segunda equação obtemos λ 1 (3 λ 1 ) = 16. Escrevendo λ em vez de λ 1 obtemos a equação do segundo grau λ 2 3λ 16 = 0, cujas raízes são os valores de λ 1 e λ 2 procurados: λ 1 = λ 2 = = =

252 Método alternativo (mas bastante mais trabalhoso exercício!): Começar por escrever o polinómio característico p(λ) de A. Uma vez que já conhecemos uma raiz, λ 3 = 6, sabemos que o polinómio p(λ) é divisível por λ 6. Podemos portanto calcular o quociente q(λ) = p(λ)/(λ 6), que é um polinómio de grau 2. As raízes de q(λ) são os restantes valores próprios λ 1 e λ 2. Desvantagens deste método: primeiro temos de calcular o determinante det(a λi) em vez de apenas o determinante numérico deta; uma vez assim obtido p(λ) ainda temos de fazer a divisão. Por comparação, usando directamente as relações do teorema, apenas temos de calcular det A e obtemos rapidamente um polinómio de grau 2 após uma substituição muito simples. Vamos ver mais exercícios em que é possível adivinhar à partida um dos valores próprios: EXERCÍCIO Calcule os valores próprios da matriz A =

253 Resolução. As primeiras duas linhas da matriz são [2 1 1] e [2 3 2]. Subtraindo-lhes [1 0 0] e [0 1 0], respectivamente, obtemos as linhas [1 1 1] e [2 2 2], que são múltiplos uma da outra e portanto concluimos que a matriz A I é singular. Isto significa que λ 1 = 1 é um valor próprio. Uma vez que deta = 6 (confirme) e tra = 7 obtemos, para os restantes valores próprios λ 2 e λ 3, as relações seguintes: λ 2 λ 3 = 6 λ 2 + λ = 7. Logo, λ 3 = 6 λ 2 e, substituindo na primeira equação, tem-se λ 2 2 6λ = 0, ou seja, os valores próprios λ 2 e λ 3 são e 3 3. EXERCÍCIO Calcule os valores próprios da matriz A = Resolução. Neste caso a matriz A I tem segunda coluna nula e portanto é singular. Isto significa que λ 1 = 1 é um valor próprio de A. O resto do exercício é análogo ao anterior.

254 EXERCÍCIO Calcule os valores próprios da matriz A = Resolução. Neste caso a matriz A 2I tem as duas primeiras colunas iguais e portanto é singular. Isto significa que λ 1 = 2 é um valor próprio de A. O resto do exercício é análogo aos anteriores. EXERCÍCIO Calcule os valores próprios da matriz A = Resolução. Tal como no exercício anterior, um dos valores próprios é λ 1 = 2 porque a matriz A 2I tem duas colunas iguais. Desta vez temos deta = 0 e portanto outro dos valores próprios é λ 2 = 0. A relação λ 1 + λ 2 + λ 3 = tra = 5 determina o terceiro valor próprio λ 3 = 3.

255 EXERCÍCIO Calcule os valores próprios da matriz A = Sugestão: comece por calcular det A. Resolução. Seguindo a sugestão concluimos que deta = 0 e portanto um valor próprio é λ 1 = 0. Então os restantes valores próprios obedecem à relação λ 2 + λ 3 = tra = 6 mas isto não chega para os determinar porque a outra relação, λ 1 λ 2 λ 3 = deta, se resume à igualdade trivial 0 = 0. Calculando o polinómio característico obtemos, na forma canónica, p(λ) = 11λ + 6λ 2 λ 3. (Note-se que o termo de grau 0 é nulo, como teria de ser porque deta = 0, ou seja, p(λ) é divisível por λ.) Os restantes valores próprios são as raízes de λ 2 6λ + 11, ou seja, λ 2 = 3 + 2i e λ 3 = 3 2i.

256 Alguns comentários: O Teorema Fundamental da Álgebra assegura que existem n raízes complexas de qualquer polinómio de grau n com coeficientes complexos. Mas não oferece nenhum algoritmo para as determinar! Na verdade demonstra-se, no contexto de uma área da álgebra conhecida por Teoria de Galois em honra do matemático francês Évariste Galois (25 de Outubro de de Maio de 1832) que não existe nenhuma fórmula resolvente para obter as raízes de polinómios de grau maior ou igual a 5. Em engenharia a determinação de valores próprios de matrizes de grande dimensão é frequentemente feita por métodos numéricos. GALOIS FIGURA: O matemático francês Évariste Galois (25/10/ /05/1832), desenhado aos 15 anos de idade por um colega de escola.

257 Capítulo 28 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

258 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 6.6 e primeiras duas páginas da secção 6.7. FORMA NORMAL DE JORDAN Vamos ver que as matrizes não diagonalizáveis têm apesar de tudo uma forma quase-diagonal, a que se chama a forma normal de Jordan, ou forma canónica de Jordan. FIGURA: O matemático francês Camile Jordan (5/01/ /01/1922).

259 DEFINIÇÃO Seja A Mat n n (K), seja λ um valor próprio de A e seja ainda u K n um vector qualquer. Diz-se que u é um vector próprio generalizado de A associado a λ se as duas condições seguintes se verificarem, para algum k N: u 0, NOTA (A λi) k u = 0. Qualquer vector próprio u é também um vector próprio generalizado, pois (A λi) k u = 0 com k = 1. Se u for um vector próprio generalizado e k for o menor número natural tal que (A λi) k u = 0 então (A λi) k 1 u é um vector próprio associado a λ. DEFINIÇÃO Uma cadeia de Jordan de comprimento k associada a λ é uma lista u 1,...,u k de vectores não nulos tal que (A λi)u i = u i 1 (A λi)u 1 = 0. A cadeia é maximal se não existir nenhum vector v tal que (A λi)v = u k. NOTA u 1,...,u k é uma cadeia de Jordan se e só se todos os u i são vectores próprios generalizados e u i = (A λi) k i u k para cada i {1,...,k}.

260 DEFINIÇÃO Seja u um vector próprio generalizado associado a λ e seja k o menor número natural tal que (A λi) k u = 0. A cadeia de Jordan definida por u 1 = (A λi) k 1 u, u 2 = (A λi) k 2 u,. u k 1 = (A λi)u, u k = u é a cadeia de Jordan gerada por u. PROPOSIÇÃO Todos os vectores de uma cadeia de Jordan u 1,...,u k são linearmente independentes. Demonstração. Por indução matemática. Se k = 1 temos a base da indução: {u 1 } é um conjunto linearmente independente porque u 1 0. Usando como hipótese de indução que a afirmação é válida para k N vamos provar que também o é para k + 1. Se u 1,...,u k+1 for uma cadeia de Jordan então u 1,...,u k é uma cadeia de jordan de comprimento k, pelo que, pela hipótese de indução, os seus vectores são linearmente independentes. Qualquer vector v L({u 1,...,u k }) tem de satisfazer (A λi) k v = 0 e portanto u k+1 / L({u 1,...,u k }). Portanto {u 1,...,u k+1 } é linearmente independente.

261 COROLÁRIO Qualquer cadeia de Jordan u 1,...,u k associada a λ está contida numa cadeia maximal associada a λ com l N 0. u 1,...,u k,v 1,...,v l (Como de costume, usa-se a convenção de que l = 0 se e só se a lista v 1,...,v l for vazia.) LEMA Sejam λ 1,...,λ m os valores próprios de A (sem repetições) e sejam u 1,...,u m vectores próprios generalizados associados a λ 1,...,λ m, respectivamente. Então o conjunto {u 1,...,u m } é linearmente independente. Este lema é uma generalização do que já vimos para vectores próprios associados a valores próprios distintos e não o demonstraremos aqui.

262 O teorema fundamental deste capítulo é o seguinte: TEOREMA Seja A Mat n n (K). Então existe uma base de K n formada por vectores próprios generalizados de A. Não demonstraremos este resultado, mas vamos ilustrá-lo por meio de exemplos. Primeiro vamos ver o efeito de escolher uma base de vectores próprios generalizados para a representação matricial da transformação linear T : K n K n definida por T(x) = Ax. Seja (v 1,...,v n ) uma base de K n, formada por vectores próprios generalizados, obtida por concatenação de cadeias maximais de Jordan associadas a valores próprios λ 1,...,λ m : (v 1,...,v n ) = u (1) 1,...,u(1) (2) k }{{ 1,u1,...,u(2) k }}{{ 2} λ 1 λ 2 1,...,u (m) k }{{ m. } λ m (m),...,u Temos, para cada i {1,...,m}, ( ) T u (i) 1 = Au (i) 1 = λ iu (i) 1 ( ) T u (i) 2 = Au (i) 2 = (A λ ii)u (i) 2 + λ iu (i) 2 = u(i) 1 + λ iu (i) 2 ( ) T u (i) 3 = Au (i) 3 = (A λ ii)u (i) 3 + λ iu (i) 3 = u(i) 2 + λ iu (i) 3

263 Portanto T tem a seguinte representação matricial em relação à base (v 1,...,v n ): λ λ λ λ 1 λ λ λ λ DEFINIÇÃO Uma matriz da forma da anterior diz-se estar na forma normal de Jordan, ou na forma canónica de Jordan, ou simplesmente que é uma forma normal de Jordan. Cada bloco da forma λ λ λ λ chama-se um bloco de Jordan (associado a λ).

264 COROLÁRIO Qualquer matriz A Mat n n (K) tem uma forma normal de Jordan J. A multiplicidade geométrica de um valor próprio λ de A é igual ao número de blocos de Jordan associados a λ em J. APLICAÇÕES Resolução de sistemas de equações diferenciais (a ver em ACED).

265 EXERCÍCIOS A matriz seguinte não é diagonalizável e já figurou num exercício: EXERCÍCIO 1. Calcule os valores próprios da matriz A = Calcule uma forma normal de Jordan J e uma matriz não-singular S tais que J = S 1 AS. EXERCÍCIO 1. Calcule os valores próprios da matriz A = Calcule uma forma normal de Jordan J e uma matriz não-singular S tais que J = S 1 AS.

266 EXERCÍCIO 1. Calcule os valores próprios da matriz A = Calcule uma forma normal de Jordan J e uma matriz não-singular S tais que J = S 1 AS. Capítulo 29

267 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 4.1 e 4.2.

268 ESPAÇOS EUCLIDIANOS FIGURA: Impressão artística do matemático grego Euclides de Alexandria, que viveu por volta do ano 300 AC e é frequentemente referido como o Pai da Geometria. Recordar o produto escalar em R n : x y = x T y = x 1 y x n y n. É uma função em duas variáveis R n R n R. É uma função linear na primeira variável: (αx + βy) z = αx z + βy z. É uma função simétrica das variáveis: x y = y x. (E portanto também é linear na segunda variável.) É uma função positiva, ou definida positiva: x x 0 x x = 0 sse x = 0. Este facto é fundamental para poder definir a norma de um vector: x = x x. e

269 DEFINIÇÃO Seja V um espaço vectorial real. Um produto interno em V é uma função ϕ : V V R que é: LINEAR NA PRIMEIRA VARIÁVEL: ϕ(αx + βy,z) = αϕ(x,z) + βϕ(y,z). SIMÉTRICA: ϕ(x, y) = ϕ(y, x). DEFINIDA POSITIVA: Se x 0 então ϕ(x,x) > 0. O espaço V equipado com um produto interno específico designa-se por espaço Euclidiano (real). A norma de um vector x V num espaço Euclidiano V com produto interno ϕ é x = ϕ(x,x). Dois vectores x,y V são ortogonais se ϕ(x,y) = 0. NOTA É habitual usar a notação x,y para o produto interno dos vectores x e y num espaço Euclidiano real V. A linearidade implica 0,x = 0 para qualquer x V e portanto pela positividade temos x,x = 0 se e só se x = 0. Qualquer produto interno num espaço real é uma função bilinear.

270 EXEMPLO São produtos internos em espaços vectoriais reais: O produto escalar x,y = x y em R n. Em P 2 (R): p,q = p(0)q(0) + p(1)q(1) + p(2)q(2). Em P n (R), dada lista de elementos distintos x 1,...,x m R com m > n: m p,q = p(x i )q(x i ). i=1 Em C[a,b] (com a < b): f,g = b a f (t)g(t)dt. Antes de estudar mais exemplos vamos ver como se pode adaptar a noção de produto interno aos espaços vectoriais complexos. Comecemos pelo exemplo mais simples de todos: em C é natural querer que a norma z de um vector z C seja o seu módulo z = (zz) 1/2. Sendo assim é natural definir o produto interno de z e w pela fórmula z,w = zw. Mais geralmente, definimos o produto escalar dos vectores z,w C n pela fórmula z w = z 1 w z n w n.

271 DEFINIÇÃO Seja V um espaço vectorial complexo. Um produto interno em V é uma função que é:, : V V C LINEAR NA PRIMEIRA VARIÁVEL: αx + βy,z = α x,z + β y,z. HERMITEANA: x, y = y, x. DEFINIDA POSITIVA: Se x 0 então x,x R +. O espaço V equipado com um produto interno específico designa-se por espaço Euclidiano (complexo). A norma de um vector x V num espaço Euclidiano V com produto interno, é x = x,x. Dois vectores x,y V são ortogonais se x,y = 0. A palavra Hermitiana é usada em honra do matemático francês Charles Hermite: FIGURA: Charles Hermite (24/12/ /01/1901), por volta de 1887.

272 NOTA A linearidade implica 0,x = 0 para qualquer x V e portanto pela positividade temos x,x = 0 se e só se x = 0. Chama-se também à propriedade x,y = y,x simetria Hermitiana. Qualquer produto interno num espaço complexo é uma função sesquilinear, ou seja, uma função linear na primeira variável e anti-linear na segunda: x,αy + βz = α x,y + β x,z. EXEMPLO São produtos internos em espaços vectoriais complexos: O produto escalar x,y = x y em C n. Matricialmente temos x y = x T y, onde a operação de conjugação para matrizes A Mat m n (C) é definida por ( A ) ij = a ij. Em P 2 (C): p,q = p(0)q(0) + p(1)q(1) + p(i)q(i). No espaço das funções contínuas f : [a,b] C (com a < b em R): f,g = b a f (t)g(t)dt.

273 REPRESENTAÇÕES MATRICIAIS PROPOSIÇÃO Seja ϕ : C n C n C. A função ϕ é sesquilinear se e só se existir uma matriz A Mat n n (C) tal que para quaisquer x,y C n. ϕ(x,y) = x T Ay Se existir uma tal matriz A ela é única e as suas entradas são definidas por a ij = ϕ(e i,e j ). A função ϕ é Hermitiana se e só se a matriz A satisfizer a condição a ij = a ji. DEFINIÇÃO Diz-se que a matriz A da proposição anterior representa ϕ. Chama-se matriz Hermitiana a uma matriz A tal que a ij = a ji. (E anti-hermitiana se a ij = a ji.) EXERCÍCIO Dê exemplos de matrizes Hermitianas e de matrizes anti-hermitianas.

274 A adaptação para os espaços reais R n é evidente: PROPOSIÇÃO Seja ϕ : R n R n R. A função ϕ é bilinear se e só se existir uma matriz A Mat n n (R) tal que para quaisquer x,y R n. ϕ(x,y) = x T Ay Se existir uma tal matriz A ela é única e as suas entradas são definidas por a ij = ϕ(e i,e j ). A função ϕ é simétrica se e só se a matriz A for simétrica. EXEMPLO A função ϕ : R 2 R 2 R definida por ϕ(x,y) = 3x 1 y 1 + x 1 y 2 x 2 y x 2 y 2 é bilinear e é representada pela matriz [ 3 ] Portanto ϕ não é simétrica.

275 DEFINIÇÃO À matriz que representa um produto interno em C n chama-se a métrica do produto interno. LEMA A métrica dum produto interno em C n é necessariamente uma matriz Hermitiana com todas as entradas da diagonal principal reais e positivas. A métrica dum produto interno em R n é necessariamente uma matriz simétrica com todas as entradas da diagonal principal positivas. Estas condições são apenas necessárias: não são suficientes para garantir que uma dada matriz é uma métrica. EXEMPLO Os produtos escalares de R n e C n são representados por matrizes identidade. EXERCÍCIO Diga, justificando, quais das seguintes matrizes são métricas de produtos internos em R 2 : [ ] [ ] [ ] [ ]

276 Capítulo 30 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

277 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 4.2 e 4.3. ALGUMAS PROPRIEDADES DA NORMA Sendo x e y vectores de um espaço Euclidiano (real ou complexo) e a um escalar, têm-se as duas propriedades seguintes, cuja demonstração é imediata: POSITIVIDADE: x > 0 se x 0 HOMOGENEIDADE: ax = a x Ver-se-ão outras propriedades mais adiante.

278 BASES ORTONORMAIS DEFINIÇÃO Seja V um espaço Euclidiano (real ou complexo). Uma base de V diz-se ortogonal se quaisquer vectores distintos da base forem ortogonais. Uma base de V diz-se ortonormal se for ortogonal e qualquer vector da base for um vector unitário, ou seja, com norma igual a 1. EXEMPLO As bases canónicas de R n e C n são ortonormais. De qualquer vector não nulo x obtém-se um vector unitário 1 x x. Portanto podemos obter uma base ortonormal a partir de qualquer base ortogonal. EXERCÍCIO Dizendo que um conjunto X de vectores qualquer é ortogonal quando quaisquer vectores distintos de X forem ortogonais, mostre que é linearmente independente qualquer conjunto ortogonal X tal que 0 / X. EXERCÍCIO Mostre que as funções sennt (n N) definidas no intervalo [0, 2π] formam um conjunto ortogonal em relação ao produto interno f,g = 2π 0 f (t)g(t)dt.

279 PROPOSIÇÃO Seja V um espaço Euclidiano complexo com uma base ortonormal (e 1,...,e n ). Então o vector de cordenadas, nessa base, de qualquer vector x V é ( x,e 1,..., x,e n ). Por outras palavras, qualquer vector x V exprime-se como a seguinte combinação linear: x = n i=1 x,e i e i. COROLÁRIO Seja V um espaço Euclidiano complexo com uma base ortonormal (e 1,...,e n ) e sejam x,y V. Então tem-se a seguinte igualdade, conhecida como fórmula de Parseval: x,y = n i=1 x,e i y,e i. NOTA Esta fórmula mostra que o produto interno de dois vectores num espaço complexo de dimensão n é, dada uma base ortonormal, igual ao produto escalar dos seus vectores de coordenadas nessa base. NOTA Neste momento estamos equipados para compreender textos básicos sobre mecânica quântica e, em particular, computação quântica.

280 PROJECÇÕES ORTOGONAIS E ÂNGULOS DEFINIÇÃO Seja V um espaço Euclidiano (real ou complexo) e seja e um vector unitário (ou seja, com norma 1). Dado um vector qualquer x V, a projecção ortogonal de x sobre e é o vector p = x,e e. Mais geralmente, dado um vector qualquer v V \ {0}, a projecção ortogonal de x sobre v é a projecção ortogonal de x sobre o vector unitário e = 1 v v: p = x,e e = x,v v 2 v = x,v v,v v. Em R 2, sendo θ o ângulo entre dois vectores não nulos x e y, tem-se cosθ = p x onde p é a projecção ortogonal de x sobre y. Logo, tem-se cosθ = x,y x y o que motiva a definição seguinte (apenas para espaços Euclidianos reais):

281 DEFINIÇÃO Seja V um espaço Euclidiano real e sejam x,y V \ {0}. O ângulo entre os dois vectores x e y é definido por θ = arccos x,y x y. Para esta definição fazer sentido é preciso demonstrar que da nossa definição de produto interno real resulta que x,y x y 1. Na verdade esta condição verifica-se até para espaços Euclidianos complexos e tem o nome de desigualdade de Cauchy Schwarz: TEOREMA Em qualquer espaço Euclidiano (real ou complexo) tem-se, para quaisquer dois vectores x e y, a desigualdade de Cauchy Schwarz: x,y x y. Verifica-se a igualdade se e só se os dois vectores forem linearmente dependentes.

282 Demonstração. Suponha-se que x 0 e seja p a projecção ortogonal de y sobre x: p = y,x x 2 x. Então y p 2 = y p,y p = y,y y,p p,y + p,p = y 2 x 2 y,x 2 x 2. (Os passos intermédios foram feitos no quadro ver o livro, Teorema 4.3.) Uma vez que y p 2 0, obtemos a desigualdade pretendida. Demonstração. (Continuação.) O caso da igualdade corresponde a ter-se y p 2 = 0, ou seja, y = p = y,x x 2 x, e portanto y e x são linearmente dependentes. O caso com x = 0 é evidente.

283 PROPOSIÇÃO A norma de um espaço Euclidiano satisfaz a desigualdade triangular: x + y x + y. Se x e y forem ortogonais então tem-se o Teorema de Pitágoras: x + y 2 = x 2 + y 2. Demonstração. Resolver como exercício, ou consultar o livro, secção 4.2. ORTOGONALIZAÇÃO DE GRAM SCHMIDT Vamos ver que em qualquer espaço Euclidiano (real ou complexo) de dimensão finita existe uma base ortogonal (e portanto uma base ortonormal). Vamos estudar um algoritmo para obter uma base ortogonal a partir de uma base qualquer, conhecido por método de ortogonalização de Gram Schmidt. O algoritmo resulta do teorema seguinte:

284 TEOREMA Seja V um espaço Euclidiano (real ou complexo) e seja v 1,...,v n uma lista de vectores linearmente independente. Então a lista u 1,...,u n definida adiante é também linearmente independente, gera o mesmo subespaço L({v 1,...,v n }), e consiste de vectores ortogonais entre si: u 1 = v 1 u 2 = v 2 v 2,u 1 u 1 2 u 1 u 3 = v 3 v 3,u 1 u 1 2 u 1 v 3,u 2 u 2 2 u 2. u n = v n v n,u 1 u 1 2 u 1 v n,u 2 u 2 2 u 2 v n,u n 1 u n 1 2 u n 1 Demonstração. A demonstração foi explicada na aula. Quem não esteve na aula deve consultar o livro, secção 4.3.

285 O seguinte exercício foi resolvido na aula. EXERCÍCIO Dados os seguintes vectores de R 3 (que formam uma base), v 1 = (1,1,1) v 2 = (1,1,0) v 3 = (1,0,0), calcule os vectores u 1, u 2 e u 3 do teorema anterior e verifique que formam de facto uma base ortogonal de R 3. O seguinte exercício difere do anterior apenas na ordem dos vectores e serve para mostrar que o resultado de aplicar o algoritmo de Gram Schmidt depende da ordem pela qual são apresentados os vectores v 1,v 2,... EXERCÍCIO Dados os seguintes vectores de R 3, v 1 = (1,0,0) v 2 = (1,1,0) v 3 = (1,1,1), calcule os vectores u 1, u 2 e u 3 do teorema anterior.

286 Capítulo 31 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

287 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. REVISÃO Na aula anterior vimos que em qualquer espaço Euclidiano de dimensão finita existe uma base ortonormal (e apresentámos um algoritmo para obter tais bases o algoritmo de Gram Schmidt). Na aula anterior a essa tínhamos visto que em C n qualquer produto interno é representado por uma matriz M Mat n n (C) a que se chama a métrica do produto interno: x,y = x T My m ij = e i,e j. A definição de M é, como se vê, feita em termos da base canónica de C n. Mas, como veremos nesta aula, podemos defini-la em termos de uma qualquer base de um espaço complexo de dimensão finita. Tal como para a representação matricial de transformações lineares, a métrica de um produto interno depende da base escolhida.

288 MUDANÇAS DE BASE Comecemos por estudar a representação matricial de uma função sesquilinear em relação a uma base qualquer: PROPOSIÇÃO Seja V um espaço vectorial complexo com uma base ordenada (v 1,...,v n ) e seja ϕ : V V C. A função ϕ é sesquilinear se e só se existir uma matriz A Mat n n (C) tal que para quaisquer x,y V temos ϕ(x,y) = x T Ay onde x,y C n são os vectores de coordenadas de x e y, respectivamente, na base dada. A é necessariamente definida por a ij = ϕ(v i,v j ) e ϕ é Hermitiana se e só se a matriz A for Hermitiana. PROPOSIÇÃO Seja V um espaço vectorial Euclidiano de dimensão finita. Uma base é ortonormal (resp. ortogonal) se e só se a métrica do produto interno nessa base for a matriz identidade (resp. uma matriz diagonal). NOTA Dada uma base ortonormal, o produto interno de dois vectores é igual ao produto escalar dos respectivos vectores de coordenadas nessa base, tal como já tínhamos observado na aula anterior a propósito da fórmula de Parseval.

289 TEOREMA Seja V um espaço vectorial complexo com bases ordenadas B = (v 1,...,v n ) e B = (w 1,...,w n ) e matriz de mudança de base S (de B para B ). Seja ainda ϕ : V V C uma função sesquilinear representada pelas matrizes A e A nas bases B e B, respectivamente. As matrizes A e A relacionam-se pela fórmula seguinte: A = S T AS. O mesmo resultado obtém-se para espaços reais, mas com a fórmula A = S T AS. Este teorema permite-nos obter uma primeira caracterização das matrizes que são métricas de produtos internos: COROLÁRIO Uma matriz M Mat n n (C) pode ser a métrica de um produto interno se e só se existir uma matriz não-singular S Mat n n (C) tal que M = S T S. Demonstração. Seja M Mat n n (C) a métrica de um espaço Euclidiano complexo V de dimensão n em relação a uma base (v 1,...,v n ). Uma vez que qualquer espaço Euclidiano de dimensão finita tem uma base ortonormal, seja (e 1,...,e n ) uma base ortonormal de V e seja S a matriz de mudança de base da base ortonormal para a outra base. A métrica do produto interno na base ortonormal é a identidade e portanto a fórmula da mudança de base do teorema anterior dá-nos M = S T S.

290 Demonstração. (Continuação.) Acabámos de ver que qualquer métrica M é igual a S T S para alguma matriz não-singular S. A afirmação recíproca (de que S T S é necessariamente uma métrica se S for não-singular), demonstra-se observando que S T S é, por exemplo a métrica do produto escalar de C n na base ordenada formada pelas colunas de S. COROLÁRIO Seja V um espaço Euclidiano complexo com bases ortonormais B = (v 1,...,v n ) e B = (w 1,...,w n ) e matriz de mudança de base S (de B para B ). Então tem-se S T S = I. Para espaços reais o resultado é análogo, com a fórmula S T S = I. DEFINIÇÃO Diz-se que é unitária (resp. ortogonal) uma matriz quadrada S tal que S T S = I (resp. S T S = I).

291 NOTA Uma matriz quadrada S é ortogonal se e só se for não-singular com S 1 = S T. (Exemplo: as matrizes de permutação.) Isto significa precisamente que todas as colunas de S são vectores de norma 1 (em relação ao produto escalar de R n ) e ortogonais entre si. A mesma afirmação se aplica às linhas. DEFINIÇÃO Seja A Mat m n (C). A matriz adjunta de A é a matriz A = A T = A T. NOTA M é uma métrica de um produto interno num espaço complexo de dimensão finita se e só se existir uma matriz não-singular S tal que M = S S. Uma matriz quadrada S é unitária se e só se for não-singular com S 1 = S. Isto significa precisamente que todas as colunas de S são vectores de norma 1 (em relação ao produto escalar de C n ) e ortogonais entre si. Uma matriz A é Hermitiana se e só se A = A. Por esta razão também se designam as matrizes Hermitianas por auto-adjuntas.

292 EXERCÍCIO Defina um produto interno ϕ em R 2 para o qual os vectores v 1 = (2,1) e v 2 = (2, 1) tenham norma igual a 1 e sejam ortogonais. Resolução. Queremos evidentemente que o produto interno seja o produto escalar nas coordenadas definidas pela base (v 1,v 2 ). A matriz de mudança de base da base canónica para esta base é [ ] 2 2 S =. 1 1 Portanto queremos ϕ(x,y) = (S 1 x) T (S 1 y) = x T ( (S 1 ) T S 1) y, pelo que a métrica será a matriz (S 1 ) T S 1 = 1 [ ] [ ] [ /8 0 = ( 4) 2 2 ( 4) /2 ] e portanto tem-se ϕ(x,y) = 1 8 x 1y x 2y 2.

293 Capítulo 32 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

294 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 4.4, e O que se segue diz respeito tanto a espaços reais como complexos. DEFINIÇÃO Seja V um espaço Euclidiano e seja S V um subespaço qualquer. Diz-se que um vector x V é ortogonal a S se e só se é ortogonal a todos os vectores de S. O conjunto de todos os vectores ortogonais a S designa-se por complemento ortogonal de S e denota-se por S.

295 EXEMPLO Já vimos os seguintes exemplos, dada uma matriz A Mat m n (R), tomando para produto interno de R n o produto escalar: nuc(a) = (lin(a)) R n lin(a) = (nuc(a)) R n TEOREMA Se S for um subespaço de um espaço Euclidiano V de dimensão finita então V = S S. (Portanto cada vector x V escreve-se de forma única como x = x S + x S com x S S e x S S.) A função P : V S definida por P(x) = x S (designada por (operador de) projecção ortogonal de V sobre S) é uma transformação linear. Se {e 1,...,e k } for uma base ortonormal de S então Px = k i=1 x,e i e i.

296 TEOREMA (Continuação.) Tem-se: P(V) = S P 2 = P Px,y = x,py Denotando por P a projecção ortogonal de V sobre S tem-se: P + P = id x 2 = Px 2 + P x 2 (fórmula de Pitágoras). Demonstração. Ver demonstração no livro. TEOREMA (Teorema de aproximação.) Seja S um subespaço de dimensão finita de um espaço Euclidiano V e seja x V. Então existe um vector de S mais próximo de x do que todos os outros vectores de S, nomeadamente a projecção ortgonal de x sobre S. Por outras palavras, para qualquer y S tem-se x Px x y.

297 Demonstração. Da fórmula de Pitágoras temos x y 2 = P(x y) 2 + P (x y) 2. Logo, como Py = y para qualquer y S temos x y P (x y) = (id P)(x y) = x Px y + Py = x Px. COROLÁRIO Seja S um subespaço de dimensão finita de um espaço Euclidiano V e seja x V. A distância de x a S é igual a x Px = P x. Se a V então a distância de x ao plano-k a + S é P (x a). Se U S for um subespaço e b V (diz-se que os planos a + S e b + U são paralelos) a distância entre eles é P (b a).

298 APLICAÇÃO APROXIMAÇÕES DE QUADRADOS MÍNIMOS Suponha-se que o sistema seguinte com A Mat m n (R) é impossível (ou seja, b / col(a)): Ax = b Existem contudo soluções que minimizam a distância de b ao espaço col(a). Sendo P o operador de projecção ortogonal sobe col(a), o vector p = Pb é o vector de col(a) mais próximo de b (equivalentemente, p é tal que p b col(a) explique porquê). Definição: As soluções de quadrados mínimos de Ax = b são as soluções de Ax = p. TEOREMA Seja A Mat m n (R). As soluções de quadrados mínimos do sistema Ax = b são os vectores x R n que satisfazem A T Ax = A T b.

299 Demonstração. Os vectores de col(a) são da forma Ay para y R n. A condição p b (col(a)) é equivalente a impor, para qualquer y R n, Ay (p b) = 0, ou seja, (Ay) T (p b) = 0, e portanto para qualquer y R n. y T A T (p b) = 0 Isto é equivalente a ter-se A T (p b) = 0, ou seja, A T p = A T b. Portanto as soluções de quadrados mínimos são os vectores x tais que A T Ax = A T b. LEMA Seja A Mat m n (R). Então A e A T A têm a mesma característica. Demonstração. Vamos começar por provar que A e A T A têm o mesmo núcleo. Primeiro, nuc(a) nuc(a T A) pois evidentemente se Ax = 0 então A T Ax = 0. Por outro lado, se A T Ax = 0 então x T A T Ax = 0, ou seja, (Ax) (Ax) = (Ax) T Ax = 0, pelo que Ax = 0. Portanto nuc(a) = nuc(a T A). A T A tem n colunas, tal como A, e tem a mesma nulidade de A e portanto tem a mesma característica de A.

300 COROLÁRIO Seja A Mat m n (R). A matriz A T A é não-singular se e só se as colunas de A forem linearmente independentes. Nesse caso a solução de quadrados mínimos do sistema Ax = b é única e é dada pela fórmula x = (A T A) 1 A T b. REGRESSÃO LINEAR Problema: Como encontrar uma recta de equação y = Ct + D que melhor aproxime a colecção de dados experimentais da figura seguinte?

301 REGRESSÃO LINEAR Resposta: Sendo m o número de pontos do gráfico, com coordenadas (t i,y i ), queremos a solução de quadrados mínimos do sistema Ct 1 + D = y 1 ou seja, com. Ct m + D = y m. A = At = y t 1 1 t t m 1. Então as soluções de quadrados mínimos são as soluções do sistema [ ti 2 ][ ] [ ] t i C t = i y i. t i m D y i Nota: Se todos os pontos (t i,y i ) tiverem t i s distintos então as colunas de A são linearmente independentes e por isso ter-se-á uma e uma só recta, com C e D dados por pelo que [ C D ] [ t = i 2 t i t i m ] 1 [ t i y i y i C = m t i y i ( t i )( y i ) m ti 2 ( t i ) 2 ( t 2 ) i ( y i ) ( t i )( t i y i ) D = m ti 2 ( t i ) 2. ],

302 Capítulo 33 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

303 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secção 6.4 (excluindo o material da Proposição 6.19 em diante). INTRODUÇÃO Ainda falta encontrar condições suficientes para uma matriz ser uma métrica. Antes de fazer isso é conveniente estudar o que são as boas transformações entre espaços Euclidianos. Veremos que há várias soluções: transformações unitárias, Hermitianas, etc., em correspondência com as matrizes unitárias, Hermitianas, etc.

304 MÉTRICAS E TRANSFORMAÇÕES LINEARES Vimos que num espaço V de dimensão n os produtos internos são, uma vez fixada uma base, representados por matrizes únicas n n, a que chamamos métricas. Mas tais matrizes também representam transformações lineares de V em V. Daqui resulta a ideia de que há uma relação entre produtos internos e transformações lineares, que é o que começaremos por ver. TEOREMA Seja V um espaço Euclidiano complexo cujo produto interno é, como habitualmente, denotado por,. Seja ainda T : V V uma transformação linear. Então as funções φ,ψ : V V C definidas por são sesquilineares. φ(x,y) = T(x),y ψ(x, y) = x, T(y) Se V tiver dimensão finita e A for a matriz que representa T em relação a uma base ortonormal então as representações matriciais de φ e ψ em relação a essa mesma base são respectivamente A T e A.

305 Demonstração. É imediato ver que φ e ψ são sesquilineares. Suponha-se agora que V tem dimensão finita e que a transformação linear T é representada pela matriz A em relação a uma base ortonormal dada. Dados vectores x,y V, sejam x e y, respectivamente, os vectores de coordenadas de x e y nessa base. Uma vez que a base é ortonormal, a métrica do produto interno nessa base é a identidade, e portanto temos φ(x,y) = T(x),y = (Ax) y = (Ax) T y = x T A T y. Portanto φ é representada pela matriz A T. Analogamente, ψ é representada por A: ψ(x,y) = x,t(y) = x (Ay) = x T Ay = x T Ay. COROLÁRIO Seja V um espaço Euclidiano complexo de dimensão finita. Para cada transformação linear T : V V existe uma e uma só transformação linear T : V V, chamada a adjunta de T, tal que para quaisquer x,y V se tem T(x),y = x,t (y). As seguintes propriedades verificam-se: T = T (T U) = U T id = id.

306 Demonstração. Seja A a representação matricial de T em relação a uma base ortonormal dada. Então T( ), é uma função sesquilinear representada pela matriz A T. Então T é a transformação linear representada pela matriz adjunta A, pois a função sesquilinear,t ( ) é também representada por A = A T. TRANSFORMAÇÕES LINEARES ENTRE ESPAÇOS EUCLIDIANOS Os factos anteriores sugerem a seguinte definição (em que admitimos transformações lineares T : S V com S V em vez de apenas S = V): DEFINIÇÃO Seja V um espaço Euclidiano (de qualquer dimensão) e S um subespaço. Uma transformação linear T : S V diz-se HERMITIANA se T(x),y = x,t(y) para quaisquer x,y S; ANTI-HERMITIANA se T(x),y = x,t(y) para quaisquer x,y S; UNITÁRIA se T(x),T(y) = x,y para quaisquer x,y S.

307 COROLÁRIO Seja V um espaço Euclidiano complexo de dimensão finita e seja T : V V uma transformação linear com representação matricial A em relação a uma base ortonormal. T é Hermitiana (resp. anti-hermitiana, unitária) se e só se A é uma matriz Hermitiana (resp. anti-hermitiana, unitária). EXEMPLO As projecções ortogonais sobre subespaços de espaços Euclidianos de dimensão finita são transformações Hermitianas (v. aula anterior). As rotações de R 2 em torno da origem são transformações unitárias. As reflexões através de uma recta que passa pela origem em R 2 são transformações unitárias. NOTA A definição de transformação unitária faz sentido para transformações lineares entre espaços Euclidianos diferentes: DEFINIÇÃO Sejam V e W espaços Euclidianos (denotaremos por, os produtos internos de ambos). Uma isometria T : V W é uma transformação linear tal que para quaisquer x,y V se tem T(x),T(y) = x,y.

308 TEOREMA Sejam V e W espaços Euclidianos e T : V W uma transformação linear. As condições seguintes são equivalentes: 1. T é uma isometria (T preserva o produto interno); 2. T(x) = x para qualquer vector x V (T preserva as normas dos vectores de V); 3. T(x) T(y) = x y para quaisquer vectores x,y V (T preserva as distâncias entre vectores de V). Demonstração. Ver demonstração no livro (Teorema 6.14 a demonstração do livro é feita assumindo que V é um subespaço de W, mas essa hipótese é desnecessária). LEMA Os valores próprios de uma transformação Hermitiana (resp. anti-hermitiana) T : S V são reais (resp. imaginários puros). Demonstração. Suponha-se que T é uma transformação Hermitiana e seja u um vector próprio de T associado ao valor próprio λ. (Podemos assumir sem perda de generalidade que u é unitário.) Então λ é real porque: λ = λ u,u = λu,u = T(u),u = u,t(u) = u,λu = λ u,u = λ. De forma análoga, se T for anti-hermitiana mostra-se que λ = λ, pelo que λ é imaginário puro.

309 LEMA Seja V um espaço Euclidiano, S V um subespaço e T : S V uma isometria. Então os valores próprios de T são números complexos de módulo igual a 1. Demonstração. Seja u um vector próprio de T associado ao valor próprio λ. (Podemos assumir sem perda de generalidade que u é unitário.) Então λ 2 = λλ = λλ u,u = λu,λu = T(u),T(u) = u,u = 1. LEMA Seja V um espaço Euclidiano, S V um subespaço e T : S V uma transformação Hermitiana, anti-hermitiana ou unitária. Então quaisquer vectores próprios u e v de T associados a valores próprios distintos são ortogonais. Demonstração. Ver livro (Teorema 6.14).

310 REPRESENTAÇÕES DIAGONAIS DAS TRANSFORMAÇÕES HERMITIANAS Agora vamos tratar apenas de transformações Hermitianas (o objectivo é obter uma caracterização das métricas, que já sabemos serem matrizes Hermitianas). LEMA Seja T uma transformação Hermitiana com domínio V e seja S V um subespaço. Se T(S) S então T(S ) S. (Diz-se que S e S são subespaços invariantes de T v. Secção 6.2 do livro.) Demonstração. Suponha-se que T(S) S e seja x S. Então, para qualquer y S temos T(x),y = x,t(y) = 0 porque T(y) S. Logo, T(x) S e concluimos T(S ) S.

311 Qualquer transformação Hermitiana entre espaços de dimensão finita tem uma representação diagonal: TEOREMA Seja V um espaço Euclidiano de dimensão finita e seja T : V V uma transformação Hermitiana. Então existe uma base ortonormal de V constituída por vectores próprios de T. Demonstração. A demonstração faz-se por indução. A base da indução é o caso em que dim(v) = 1. Neste caso tomamos um vector unitário qualquer de V e assim obtemos uma base ortonormal de V constituída por vectores próprios. Vamos agora ver que se o enunciado do teorema for verdadeiro para dim(v) = n N também o é para dim(v) = n + 1. Seja dim(v) = n + 1. Qualquer transformação linear entre espaços de dimensão finita tem pelo menos um vector próprio (porquê?), portanto podemos assumir a existência de um vector próprio unitário u V associado ao valor próprio λ. Seja S = L({u}). Então T(u) = λu S, pelo que T(S) S. Portanto T(S ) S (pelo lema anterior).

312 Demonstração. (Continuação.) Seja U : S S a restrição de T ao subespaço S. U é uma transformação Hermitiana, uma vez que se tem, para quaisquer x,y S : U(x),y = T(x),y = x,t(y) = x,u(y). Uma vez que dims = 1 temos dim(s ) = n (porque V = S S ). Logo, usando a hipótese de indução concluimos que existe uma base ortonormal (e 1,...,e n ) de S constituída por vectores próprios de U. Mas os vectores próprios de U são-no também de T e por isso encontrámos uma base ortonormal (e 1,...,e n,u) de V constituída por vectores próprios de T. NOTA Se V tiver dimensão finita e T : V V for anti-hermitiana ou unitária também existe uma base ortonormal de V constituída por vectores próprios de T ver o livro, Secção 6.4 (Teorema 6.16).

313 MÉTRICAS E VALORES PRÓPRIOS TEOREMA Uma matriz M Mat n n (C) é uma métrica (de um produto interno num espaço Euclidiano de dimensão n) se e só se for Hermitiana e todos os seus valores próprios forem positivos. Demonstração. Vamos primeiro supor que M é uma métrica. A função, : C n C n C definida por x,y = x T My é um produto interno e portanto é definida positiva. Seja λ um valor próprio de M. Então λ também é um valor próprio de M T (porquê?). Seja u C n um vector próprio unitário de M T associado a λ. Tem-se λ = λu u = (λu) u = (M T u) u = u T Mu = u,u > 0 porque u 0. Concluímos assim que todos os valores próprios são positivos.

314 Demonstração. (Continuação.) Vamos agora demonstrar a implicação recíproca: assumindo que M é Hermitiana e que os valores próprios são positivos vamos mostrar que M é uma métrica. A função x,y = x T My é Hermitiana porque M é Hermitiana, por isso resta provar que é definida positiva. Por M T também ser Hermitiana, existe uma base (e 1,...,e n ) de C n constituída por vectores próprios de M T associados a λ 1,...,λ n, respectivamente, que é ortonormal relativamente ao produto escalar de C n (por um dos teoremas anteriores). Para cada i,j {1,...,n} temos e i,e j = (M T e i ) e j = λ i e i e j = { λi se i = j 0 se i j. Demonstração. (Continuação.) Então, se x = c 1 e c n e n, temos x,x = n n i=1 j=1 c i c j e i,e j = n n c i c i λ i = c i 2 λ i. i=1 i=1 Se x 0 então pelo menos um dos c i deve ser não nulo, pelo que o somatório anterior é maior do que 0 e portanto x,x > 0. Concluímos assim que M é definida positiva e portanto uma métrica.

315 NOTA A segunda parte da demonstração (das duas páginas anteriores) pode ser feita de forma puramente matricial, como se explica de seguida. Sendo S a matriz de mudança de base da base canónica para uma base ortonormal B de vectores próprios de M T, segue-se que S é uma matriz unitária, ou seja, S 1 = S. Portanto Λ = S M T S é uma matriz diagonal cujas entradas da diagonal principal são os valores próprios de M repetidos de acordo com as respectivas multiplicidades algébricas. Λ é uma métrica porque os valores próprios são positivos. Sendo Λ diagonal tem-se também Λ = Λ T = S T MS. Isto significa que Λ também resulta de M pela fórmula da mudança de base aplicada a representações matriciais de funções sesquilineares. Portanto M é uma métrica porque Λ é. EXERCÍCIO Mostre que uma matriz A Mat n n (C) é Hermitiana se e só se existir uma base ortonormal de C n constituída por vectores próprios de A e todos os valores próprios de A forem reais. EXERCÍCIO Mostre que uma matriz A Mat n n (C) é unitária se e só se existir uma base ortonormal de C n constituída por vectores próprios de A e todos os valores próprios de A forem complexos de módulo igual a 1.

316 Capítulo 34 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

317 BIBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. Secções 1.4 e 6.5 (excluindo o material do Teorema 6.36 em diante). INTRODUÇÃO Na aula passada estudámos as transformações lineares Hermitianas (entre outras anti-hermitianas e unitárias). Vimos que, dado um espaço Euclidiano V de dimensão finita, para qualquer transformação Hermitiana T : V V existe uma base ortonormal de V formada por vectores próprios de T. Vimos que uma matriz M Mat n n (C) é uma métrica de algum produto interno se e só se for Hermitiana e tiver os valores próprios todos positivos. Uma vez que, como já sabemos, o cálculo de valores próprios pode ser difícil, nesta aula vamos estudar critérios mais eficientes para determinar se uma dada matriz Hermitiana é uma métrica. Isto levar-nos-á de volta ao ponto de partida desta disciplina: a eliminação de Gauss!

318 LEMA Se A for uma métrica então deta > 0. Demonstração. Como vimos, uma métrica tem todos os valores próprios positivos. Logo, o determinante, que é o produto dos valores próprios, é positivo. LEMA Se A for uma métrica então são métricas todas as submatrizes A k que consistem nos elementos das primeiras k linhas e k colunas: [ ] a11 a A 1 = [a 11 ], A 2 = 12,..., A a 21 a n = A. 22 Demonstração. Cada uma das matrizes A k é obviamente Hermitiana. E também é uma métrica porque se (x 1,...,x k ) 0 temos [ x1,...,x k ] Ak x 1. x k = [ x 1,...,x k,0,...,0 ] A x 1. x k 0. 0 > 0. COROLÁRIO Se A for uma métrica então todas as submatrizes A k têm determinantes positivos.

319 LEMA Seja A Mat n n (C) uma matriz tal que têm determinantes positivos todas as submatrizes A k que consistem nos elementos das primeiras k linhas e k colunas. Então, aplicando exclusivamente a regra da eliminação do método da eliminação de Gauss, a matriz A pode transformar-se numa matriz triangular superior cujas entradas da diagonal principal (os pivots da eliminação) são todas positivas. Demonstração. Explicado na aula (ver também a demonstração do caso 2 3 do Teorema 6.32 do livro). LEMA Seja A uma matriz Hermitiana de dimensão n n. Se A puder transformar-se, usando exclusivamente a regra da eliminação do método da eliminação de Gauss, numa matriz triangular superior cujas entradas da diagonal principal (os pivots) são positivas então A é uma métrica.

320 Demonstração. A afirmação do teorema, de que podemos usar apenas a regra da eliminação, permite concluir que A tem uma factorização A = LDU em que: L é triangular inferior com entradas da diagonal principal iguais a 1, U é triangular superior com entradas da diagonal principal iguais a 1 (é a matriz que resulta de dividir cada linha pelo respectivo pivot na matriz triangular superior obtida a partir de A usando a regra da eliminação sucessivamente), D é uma matriz diagonal cuja diagonal principal contém os pivots (pela ordem em que surgiram durante a eliminação). (Isto está descrito na Secção 1.4 do livro e vai ser explicado na aula.) Pelo facto de A ser Hermitiana também se conclui que L = U (isto também será explicado na aula). Demonstração. (Continuação.) Tomando S = U temos uma matriz não-singular (porque dets = 1) tal que A = S T DS. Portanto A resulta de D por uma mudança de base de uma forma sesquilinear cuja matriz de mudança de base é S. Mas D é uma métrica (as entradas da diagonal principal são os pivots) e portanto A também é.

321 Em suma, obtemos o seguinte corolário: TEOREMA Seja A Mat n n (C) uma matriz Hermitiana. Então as seguintes condições são equivalentes: 1. A é uma métrica. 2. Os valores próprios de A são positivos. 3. Tem-se deta k > 0 para cada submatriz A k de A cujas entradas são as das primeiras k linhas e k colunas de A. 4. A pode ser transformada por eliminação de Gauss, usando apenas a regra da eliminação, numa matriz triangular superior cujas entradas da diagonal principal são positivas. NOTA O critério 4 é em geral o mais fácil de aplicar. UMA APLICAÇÃO: DIAGONALIZAÇÃO DE FORMAS QUADRÁTICAS Uma forma quadrática Q : R n R é uma função que pode ser expressa como um polinómio homogéneo de grau dois nas componentes de x R n. Por exemplo, com n = 3, Q(x,y,z) = x 2 + 3xy 4xz + z 2. (Equações baseadas em formas quadráticas podem ser usadas para descrever elipses, parábolas, hipérboles ver a classificação das quádricas no Apêndice C do livro.) Uma forma quadrática diz-se diagonal se for uma combinação linear de quadrados, por exemplo Q(x,y) = x 2 + 2y 2. Qualquer forma quadrática se pode exprimir na forma Q A (x) = x T Ax para alguma matriz quadrada A.

322 Chama-se a Q A a forma quadrática associada a A. Fazendo B = (A + A T )/2 (a parte simétrica de A) tem-se Q B = Q A. Então Q A pode ser diagonalizada: ou seja, escolhendo uma base de vectores próprios de B ortonormal, Q A será diagonal nas coordenadas dos vectores calculadas nessa base. Mais precisamente, se S for a matriz (ortogonal) de mudança de base e Λ for a matriz diagonal cujas entradas da diagonal principal são os valores próprios associados respectivamente às colunas de S ter-se-á e portanto B = SΛS 1 = SΛS T Q A (x) = x T Bx = x T SΛS T x = (S T x) T Λ(S T x) = y T Λy = n λ i y 2 i, i=1 onde y = S T x é o vector das coordenadas de x na nova base. Se A for uma métrica diz-se que Q A é definida positiva. Pelos resultados anteriores também podemos diagonalizar uma tal forma quadrática usando eliminação de Gauss a fim de obter uma factorização A = U T DU. Neste caso ter-se-á Q A (x) = x T Ax = x T U T DUx = (Ux) T D(Ux) = y T Dy = n p i y 2 i, i=1 onde p 1,...,p n são os pivots e y = Ux é o vector das novas coordenadas de x. (A matriz de mudança de base da base canónica para a nova base é portanto U 1.) Também existem outros tipos de forma quadrática Q A (semidefinida positiva, definida negativa, etc. ver Definição 6.31 do livro) e maneiras de as reconhecer em termos dos valores próprios de A.

323 Capítulo 35 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações

324 UMA APLICAÇÃO: PESQUISA NA INTERNET Há um algoritmo de pesquisa na Internet que se baseia em parte no cálculo de vectores próprios de uma matriz real simétrica. Este assunto está descrito em detalhe no artigo seguinte: O autor deste artigo, Jon Kleinberg ( recebeu em 2006 o Prémio Nevanlina ( no Congresso Internacional de Matemática, em Madrid. Vamos de seguida descrever este algoritmo com algumas simplificações (para todos os detalhes consultem o artigo). PASSO 1: Digitar a frase a pesquisar, por exemplo Bons carros usados a bom preço. PASSO 2: Fazer uma primeira selecção de endereços de, digamos, 200 páginas segundo um critério razoável, por exemplo seleccionando páginas que contêm esta frase, ou que contêm muitas palavras desta frase. Obtém-se assim um conjunto R de endereços. PASSO 3: Para cada página P cujo endereço pertence a R acrescentar a R um subconjunto do conjunto de endereços de páginas que apontam para P ou que são apontadas por P. Obtém-se assim um conjunto S bastante grande. (Mas relativamente pequeno em comparação com o número de páginas da Internet!) Tipicamente este conjunto S contém (ao contrário de R) muitas das melhores páginas sobre o assunto que estamos a pesquisar.

325 Problema: S é enorme e não está ordenado! PASSO 4: Ordenar S por ordem decrescente de interesse. Seja n N o número de elementos de S e numerem-se de 1 a n as páginas cujos endereços estão guardados em S. Para cada i {1,...,n} seja x i R + um número que representa a autoridade da página i acerca do assunto da pesquisa: quanto maior o número, maior a autoridade. As autoridades x i definem um vector x R n. Como determiná-lo? Quanto mais páginas apontarem para a página i maior, em princípio, deveria ser x i. Contudo, uma página pode apontar para outra por razões que nada têm que ver com a pesquisa, pelo que é preciso determinar quais são as boas páginas, ou seja, as que apontam para i pelo motivo certo. Vamos então ordenar também as páginas por ordem decrescente do seu interesse enquanto distribuidoras ( hubs ): para cada j {1,...,n} seja y j R + um número que representa o valor da página j enquanto hub para o assunto da pesquisa: quanto maior o número, maior o valor. Os valores y j definem um vector y R n. Como determiná-lo? A ideia chave: xi deve ser tanto maior quanto maior for a soma j y j para as páginas j que apontam para i; y j deve ser tanto maior quanto maior for a soma i x i para as páginas i apontadas por j. Seja A Mat n n (R) a matriz definida por { 1 se j aponta para i, a ij = 0 se j não aponta para i. A soma j y j indicada acima é (Ay) i. A soma i x i indicada acima é (A T x) j.

326 Processo iterativo: Começar com xi = y i = 1 n para qualquer i. Os vectores x e y estão assim normalizados: x 2 = n i=1 x 2 i = y 2 = n j=1 y 2 j = 1. Chamar aos vectores assim definidos x1 e y 1. Definir vectores x 2, x 3,... e y 2, y 3,... pela seguinte regra de recorrência: y k+1 = x k+1 = 1 Ax k Ax k 1 A T y k AT y k. Daqui resulta, para cada k N: x k+2 = 1 Ax k A T y k+1 AT Ax k. Logo, para cada k N o vector x 2k+1 é unitário e é um múltiplo de ( A T A ) k x1. A T A é diagonalizável porque é uma matriz Hermitiana.

327 A T A tem valores próprios não negativos, como se vê por um argumento semelhante ao que usámos para mostrar que as métricas têm valores próprios positivos: se λ for um valor próprio de A T A associado a um vector próprio u então temos, por um lado, e, por outro, u T A T Au = ( A T Au ) T u = λu u u T A T Au = (Au) T (Au) = (Au) (Au) 0, pelo que, sendo u 0 (porque é um vector próprio), temos λ = (Au) (Au) u u 0. Os valores próprios de (A T A) k são da forma λ k para cada valor próprio λ de A T A e os vectores próprios de (A T A) k associados a λ k são os vectores próprios u de A T A associados a λ: (A T A) k u = (A T A) k 1 A T Au = (A T A) k 1 λu = λ(a T A) k 1 u =... = λ 2 (A T A) k 2 u =... =... =... = λ k u. (Formalmente, isto demonstra-se por indução matemática.) Se λ M for o maior dos valores próprios de A T A então para qualquer um dos outros valores próprios a razão λ k /λ k M tende para zero quando k tende para infinito.

328 Seja Λ = S 1 (A T A)S a matriz diagonalizada com os valores próprios na diagonal principal, onde S é uma matriz diagonalizante. Então Λ 2 = S 1 A T ASS 1 A T AS = S 1 (A T A) 2 S e vemos que para cada k se terá Λ k = S 1 ( A T A ) k S. [Isto é outra forma de verificar que os vectores próprios de (A T A) k que são as colunas de S são os mesmos de A T A e que os valores próprios, que são as entradas da diagonal principal de Λ k, são as potências λ k para cada valor próprio λ de A T A.] ( k Portanto a matriz 1 λ M A A) T converge, quando k, para a matriz que representa a projecção ortogonal sobre o espaço próprio E λm, pois a matriz 1 λ M Λ tem entradas da diagonal principal iguais a 1 nas colunas correspondentes aos vectores próprios associados a λ M e valores menores do que 1 nas outras entradas: ( ) 1 k Λ = λ M k ( λ λ M ) k ( λ λ M ) k ( λ λ M ) k

329 Desde que o vector inicial x 1 não seja ortogonal a E λm, os vectores x 2k+1 convergem para E λm quando k. CONCLUSÃO: O que verificamos é que serve para o efeito pretendido um qualquer vector próprio associado ao maior valor próprio λ M. Ficou demonstrada a existência de soluções para o problema de ordenar os resultados da pesquisa e que o problema pode resumir-se ao cálculo de valores próprios e vectores próprios da matriz A T A. A forma de calcular os vectores próprios pode, mas não tem, de basear-se no algoritmo iterativo descrito acima. Capítulo 36

330 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços 2.2 Subespaços associados a matrizes 2.3 Isomorfismos 2.4 Independência linear, bases e dimensão 2.5 Aplicações 3. Transformações lineares 3.1 Representação matricial 3.2 Equações lineares 3.3 Mudança de base 3.4 Vectores e valores próprios 4. Espaços Euclidianos 4.1 Produtos internos e métricas 4.2 Projecções e distâncias 4.3 Transformações lineares entre espaços Euclidianos 4.4 Aplicações ASPECTOS ALGÉBRICOS BÁSICOS DA MECÂNICA QUÂNTICA Os espaços de estados de sistemas físicos são representados por espaços Euclidianos complexos especiais chamados espaços de Hilbert os espaços Euclidianos de dimensão finita são espaços deste tipo. Os estados são representados por vectores unitários. As grandezas observáveis são representadas por transformações lineares Hermitianas. Os valores que podemos fisicamente observar são os valores próprios.

331 EXEMPLO: PARTÍCULAS DE SPIN 1/2 DEFINITION As matrizes de spin de Pauli são: [ ] 0 1 σ x = 1 0 [ ] 0 i σ y = i 0 [ ] 1 0 σ z = 0 1. EXEMPLO: PARTÍCULAS DE SPIN 1/2 As matrizes de Pauli são Hermitianas (e unitárias), com valores próprios 1 e 1. Os vectores z + = (1,0) e z = (0,1) são vectores próprios unitários de σ z e representam os estados de spin positivo e spin negativo (na direcção do eixo zz), respectivamente. Os vectores x + = 1 2 (1,1) e x = 1 2 (1, 1) são vectores próprios unitários de σ x e representam os estados de spin positivo e spin negativo (na direcção do eixo xx), respectivamente. Os vectores y + = 1 2 (1,i) e y = 1 2 (1, i) são vectores próprios unitários de σ y e representam os estados de spin positivo e spin negativo (na direcção do eixo yy), respectivamente.

332 A EXPERIÊNCIA DE STERN GERLACH Deflexão de agulhas magnéticas num campo magnético não uniforme. FIGURA: Exemplo de equipamento para a experiência de Stern Gerlach (1922). As agulhas magnéticas são átomos de prata. A EXPERIÊNCIA DE STERN GERLACH FIGURA: Postal enviado por Gerlach a Bohr. No alvo da esquerda vemos o resultado de fazer a experiência sem campo magnético e no alvo da direita o resultado de fazer a experiência com o campo magnético não uniforme.

333 A EXPERIÊNCIA DE STERN GERLACH FIGURA: Visão esquemática do equipamento de Stern Gerlach. FIGURA: Equipamento de Stern Gerlach, estilo caixa preta. Matematicamente, o estado das partículas que saem pela abertura de cima é z + e o das que saem pela abertura de baixo é z. A EXPERIÊNCIA DE STERN GERLACH FIGURA: Medições repetidas na direcção do eixo zz (sentido positivo). FIGURA: Medições repetidas na direcção do eixo zz (sentidos alternados).

334 A EXPERIÊNCIA DE STERN GERLACH FIGURA: O paradoxo das medições em direcções sucessivamente diferentes (neste caso zz-yy-zz): as probabilidades de obter spin positivo ou spin negativo na medição C (ao longo do eixo zz) são ambas iguais a 1/2, embora após a medição A a probabilidade de obter spin positivo ao longo de zz fosse igual a 1. Matematicamente, após a medição B o estado da partícula é representado por y + (por outras palavras, a partícula passou a ter spin positivo ao longo de yy), 1 que é a combinação linear 2 z + + i 2 z, sendo as probabilidades referidas acima iguais aos quadrados dos módulos dos coeficientes desta combinação linear.

ficha 1 matrizes e sistemas de equações lineares

ficha 1 matrizes e sistemas de equações lineares Exercícios de Álgebra Linear ficha matrizes e sistemas de equações lineares Exercícios coligidos por Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto Superior Técnico 2 o semestre 2/2

Leia mais

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 1 Matrizes e Sistemas de Equações Lineares Geometria anaĺıtica em R 3 [1 01]

Leia mais

Aulas práticas de Álgebra Linear

Aulas práticas de Álgebra Linear Ficha Matrizes e sistemas de equações lineares Aulas práticas de Álgebra Linear Mestrado Integrado em Engenharia Eletrotécnica e de Computadores o semestre 6/7 Jorge Almeida e Lina Oliveira Departamento

Leia mais

Métodos Matemáticos II

Métodos Matemáticos II Sumário Métodos Matemáticos II Nuno Bastos Licenciatura em Tecnologias e Design Multimédia Escola Superior de Tecnologia de Viseu Gabinete 4 nbastos@mat.estv.ipv.pt http://www.estv.ipv.pt/paginaspessoais/nbastos.

Leia mais

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009 Notas para o Curso de Álgebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009 2 Sumário 1 Matrizes e Sistemas Lineares 5 11 Matrizes 6 12 Sistemas Lineares 11 121 Eliminação Gaussiana 12 122 Resolução

Leia mais

Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares

Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares FATEC Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares Prof Dr Ânderson Da Silva Vieira 2017 Sumário Introdução 2 1 Matrizes 3 11 Introdução 3 12 Tipos especiais de Matrizes 3 13 Operações

Leia mais

Álgebra Linear e Geometria Anaĺıtica

Álgebra Linear e Geometria Anaĺıtica Álgebra Linear e Geometria Anaĺıtica 2016/17 MIEI+MIEB+MIEMN Slides da 4 a Semana de aulas Cláudio Fernandes (FCT/UNL) Departamento de Matemática 1 / 27 Programa 1 Matrizes 2 Sistemas de Equações Lineares

Leia mais

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia Álgebra Linear Determinantes, Valores e Vectores Próprios Jorge Orestes Cerdeira Instituto Superior de Agronomia - 200 - ISA/UTL Álgebra Linear 200/ 2 Conteúdo Determinantes 5 2 Valores e vectores próprios

Leia mais

Aulas práticas de Álgebra Linear

Aulas práticas de Álgebra Linear Ficha 2 Determinantes Aulas práticas de Álgebra Linear Mestrado Integrado em Engenharia Eletrotécnica e de Computadores 1 o semestre 2016/17 Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto

Leia mais

ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1

ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1 ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1 *Exercícios de provas anteriores escolhidos para você estar preparado para qualquer questão na prova. Resoluções em VETORES Um vetor é uma lista ordenada de números

Leia mais

Vetores e Geometria Analítica

Vetores e Geometria Analítica Vetores e Geometria Analítica ECT2102 Prof. Ronaldo Carlotto Batista 23 de fevereiro de 2016 AVISO O propósito fundamental destes slides é servir como um guia para as aulas. Portanto eles não devem ser

Leia mais

Avaliação e programa de Álgebra Linear

Avaliação e programa de Álgebra Linear Avaliação e programa de Álgebra Linear o Teste ( de Março): Sistemas de equações lineares e matrizes. Espaços lineares. o Teste ( de Maio): Matriz de mudança de base. Transformações lineares. o Teste (

Leia mais

Parte 1 - Matrizes e Sistemas Lineares

Parte 1 - Matrizes e Sistemas Lineares Parte 1 - Matrizes e Sistemas Lineares Matrizes: Uma matriz de tipo m n é uma tabela com mn elementos, denominados entradas, e formada por m linhas e n colunas. A matriz identidade de ordem 2, por exemplo,

Leia mais

Instituto Superior Técnico Departamento de Matemática Última actualização: 18/Nov/2003 ÁLGEBRA LINEAR A

Instituto Superior Técnico Departamento de Matemática Última actualização: 18/Nov/2003 ÁLGEBRA LINEAR A Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 18/Nov/2003 ÁLGEBRA LINEAR A REVISÃO DA PARTE III Parte III - (a) Ortogonalidade Conceitos: produto

Leia mais

Maria do Rosário Grossinho, João Paulo Janela Universidade Técnica de Lisboa

Maria do Rosário Grossinho, João Paulo Janela Universidade Técnica de Lisboa Lições de Matemática Maria do Rosário Grossinho, João Paulo Janela Universidade Técnica de Lisboa Versão provisória vp Capítulo Matrizes e Determinantes Versão provisória () Generalidades Definição Dados

Leia mais

ficha 2 determinantes

ficha 2 determinantes Exercícios de Álgebra Linear ficha 2 determinantes Exercícios coligidos por Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto Superior Técnico 2 o semestre 2011/12 Determinantes 2 Sendo

Leia mais

Apontamentos III. Espaços euclidianos. Álgebra Linear aulas teóricas. Lina Oliveira Departamento de Matemática, Instituto Superior Técnico

Apontamentos III. Espaços euclidianos. Álgebra Linear aulas teóricas. Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Apontamentos III Espaços euclidianos Álgebra Linear aulas teóricas 1 o semestre 2017/18 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice Índice i 1 Espaços euclidianos 1 1.1

Leia mais

n. 1 Matrizes Cayley (1858) As matrizes surgiram para Cayley ligadas às transformações lineares do tipo:

n. 1 Matrizes Cayley (1858) As matrizes surgiram para Cayley ligadas às transformações lineares do tipo: n. Matrizes Foi um dos primeiros matemáticos a estudar matrizes, definindo a ideia de operarmos as matrizes como na Álgebra. Historicamente o estudo das Matrizes era apenas uma sombra dos Determinantes.

Leia mais

Matrizes e sistemas de equações algébricas lineares

Matrizes e sistemas de equações algébricas lineares Capítulo 1 Matrizes e sistemas de equações algébricas lineares ALGA 2007/2008 Mest Int Eng Biomédica Matrizes e sistemas de equações algébricas lineares 1 / 37 Definições Equação linear Uma equação (algébrica)

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear

Leia mais

Álgebra Linear. Curso: Engenharia Electrotécnica e de Computadores 1 ō ano/1 ō S 2006/07

Álgebra Linear. Curso: Engenharia Electrotécnica e de Computadores 1 ō ano/1 ō S 2006/07 Álgebra Linear Curso: Engenharia Electrotécnica e de Computadores ō ano/ ō S 6/7 a Lista: SISTEMAS DE EQUAÇÕES LINEARES E ÁLGEBRA DE MATRIZES Sistemas de equações lineares. Quais das seguintes equações

Leia mais

Aulas práticas de Álgebra Linear

Aulas práticas de Álgebra Linear Ficha 3 Aulas práticas de Álgebra Linear Licenciatura em Engenharia Naval e Oceânica Mestrado Integrado em Engenharia Mecânica 1 o semestre 2018/19 Jorge Almeida e Lina Oliveira Departamento de Matemática,

Leia mais

determinantes rita simões departamento de matemática - ua

determinantes rita simões departamento de matemática - ua determinantes rita simões (ritasimoes@ua.pt) departamento de matemática - ua 204-205 determinante de uma matriz sejam l,..., l n as linhas de uma matriz do tipo n n; para cada n N, existe uma única função

Leia mais

Álgebra Linear. Cursos: Química, Engenharia Química, Engenharia de Materiais,Engenharia Biológica, Engenharia do Ambiente 1 ō ano/1 ō Semestre 2006/07

Álgebra Linear. Cursos: Química, Engenharia Química, Engenharia de Materiais,Engenharia Biológica, Engenharia do Ambiente 1 ō ano/1 ō Semestre 2006/07 Álgebra Linear Cursos: Química, Engenharia Química, Engenharia de Materiais,Engenharia Biológica, Engenharia do Ambiente ō ano/ ō Semestre 2006/07 a Lista: SISTEMAS DE EQUAÇÕES LINEARES E ÁLGEBRA DE MATRIZES

Leia mais

Produto Misto, Determinante e Volume

Produto Misto, Determinante e Volume 15 Produto Misto, Determinante e Volume Sumário 15.1 Produto Misto e Determinante............ 2 15.2 Regra de Cramer.................... 10 15.3 Operações com matrizes............... 12 15.4 Exercícios........................

Leia mais

NOTAS DE AULA DE MAT 137 -PRIMEIRA SEMANA Profa. Margareth Turmas 2 e 7. Atleta 1 7, ,4. Atleta Atleta 3 9 7,5 8,5 7,9

NOTAS DE AULA DE MAT 137 -PRIMEIRA SEMANA Profa. Margareth Turmas 2 e 7. Atleta 1 7, ,4. Atleta Atleta 3 9 7,5 8,5 7,9 NOTAS DE AULA DE MAT 137 -PRIMEIRA SEMANA Profa Margareth Turmas e 7 01 Motivação Num torneio de triatlon as competições: nado, corrida e ciclismo foram pontuadas com pesos x, y e z, respectivamente A

Leia mais

4 APLICAÇÕES LINEARES Núcleo e Imagem. Classificação de um Morfismo... 52

4 APLICAÇÕES LINEARES Núcleo e Imagem. Classificação de um Morfismo... 52 Tópicos de Álgebra Linear Isabel Maria Teixeira de Matos Secção de Matemática Departamento de Engenharia de Electrónica e Telecomunicações e de Computadores (DEETC-ISEL) 1 de Dezembro de 2007 Conteúdo

Leia mais

Aulas Teóricas de Álgebra Linear

Aulas Teóricas de Álgebra Linear Aulas Teóricas de Álgebra Linear Instituto Superior Técnico - o Semestre 009/00 MEAmbi - MEBiol Matrizes De nição Uma matriz A, do tipo m n (m por n), é uma tabela de mn números dispostos em m linhas e

Leia mais

Lista 1: sistemas de equações lineares; matrizes.

Lista 1: sistemas de equações lineares; matrizes. Lista : sistemas de equações lineares; matrizes. Obs. As observações que surgem no fim desta lista de exercícios devem ser lidas antes de resolvê-los. ) Identifique as equações que são lineares nas respectivas

Leia mais

Álgebra Linear e Geometria Analítica

Álgebra Linear e Geometria Analítica Álgebra Linear e Geometria Analítica Engenharia Electrotécnica Escola Superior de Tecnologia de Viseu wwwestvipvpt/paginaspessoais/lucas lucas@matestvipvpt 007/008 Álgebra Linear e Geometria Analítica

Leia mais

exercícios de álgebra linear 2016

exercícios de álgebra linear 2016 exercícios de álgebra linear 206 maria irene falcão :: maria joana soares Conteúdo Matrizes 2 Sistemas de equações lineares 7 3 Determinantes 3 4 Espaços vetoriais 9 5 Transformações lineares 27 6 Valores

Leia mais

ALGA - Eng. Civil e Eng. Topográ ca - ISE / Matrizes 1. Matrizes

ALGA - Eng. Civil e Eng. Topográ ca - ISE / Matrizes 1. Matrizes ALGA - Eng. Civil e Eng. Topográ ca - ISE - 011/01 - Matrizes 1 Matrizes Introdução Se m e n são números naturais, chama-se matriz real de tipo m n (m vezes n ou m por n) a uma aplicação A : f1; ; :::;

Leia mais

ÁLGEBRA LINEAR A FICHA 6. Por definição do determinante de uma matriz 3 3, tem-se det A = 7.

ÁLGEBRA LINEAR A FICHA 6. Por definição do determinante de uma matriz 3 3, tem-se det A = 7. Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 20/Nov/2003 ÁLGEBRA LINEAR A FICHA 6 SOLUÇÕES SUMÁRIAS DOS EXERCÍCIOS ÍMPARES Propriedades dos Determinantes

Leia mais

3. Matrizes e Sistemas de Equações Lineares 3.1. Conceito Elementar de Matriz. Definição 1 Sejam m e n dois números naturais.

3. Matrizes e Sistemas de Equações Lineares 3.1. Conceito Elementar de Matriz. Definição 1 Sejam m e n dois números naturais. 3. Matrizes e Sistemas de Equações Lineares 3.1. Conceito Elementar de Matriz Definição 1 Sejam m e n dois números naturais. Uma matriz real m n é um conjunto de mn números reais distribuídos por m linhas

Leia mais

Matemática II /06 - Matrizes 1. Matrizes

Matemática II /06 - Matrizes 1. Matrizes Matemática II - 00/0 - Matrizes Matrizes Introdução Se m e n são números naturais, chama-se matriz real de tipo m n (m vezes n ou m por n) a uma função A : f; ; :::; mg f; ; :::; ng R: (i; j) A (i; j)

Leia mais

TEORIA BÁSICA DE DETERMINANTES

TEORIA BÁSICA DE DETERMINANTES TEORIA BÁSICA DE DETERMINANTES DANIEL V. TAUSK Neste texto apresentamos a teoria de determinantes para matrizes quadradas com entradas num anel comutativo. A primeira seção é dedicada ao estudo de permutações,

Leia mais

x 1 + b a 2 a 2 : declive da recta ;

x 1 + b a 2 a 2 : declive da recta ; - O que é a Álgebra Linear? 1 - É a Álgebra das Linhas (rectas). Equação geral das rectas no plano cartesiano R 2 : a 1 x 1 + a 2 = b Se a 2 0, = a 1 a 2 x 1 + b a 2 : m = a 1 : declive da recta ; a 2

Leia mais

Algumas Aplicações de Álgebra Linear. Análise de Redes (Network) Fluxo de Trânsito. Circuitos Eléctricos. Equilíbrio de Equações Químicas

Algumas Aplicações de Álgebra Linear. Análise de Redes (Network) Fluxo de Trânsito. Circuitos Eléctricos. Equilíbrio de Equações Químicas Algumas Aplicações de Álgebra Linear Análise de Redes (Network) Fluxo de Trânsito Circuitos Eléctricos Equilíbrio de Equações Químicas Interpolação Polinomial Estudo de Modelos Económicos Compressão de

Leia mais

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA 1 NOTAS DE AULA Professor Doutor: Jair Silvério dos Santos (i) Matrizes Reais Uma matriz real é o seguinte arranjo de números reais : a 11 a 12 a 13 a 1m a 21

Leia mais

Álgebra Linear e Geometria Anaĺıtica

Álgebra Linear e Geometria Anaĺıtica Álgebra Linear e Geometria Anaĺıtica 1-Matrizes Departamento de Matemática FCT/UNL 2016-2017 Departamento de Matemática (FCT/UNL) Álgebra Linear e Geometria Anaĺıtica 1 / 67 Programa 1 Matrizes 2 Sistemas

Leia mais

Profs. Alexandre Lima e Moraes Junior 1

Profs. Alexandre Lima e Moraes Junior  1 Raciocínio Lógico-Quantitativo para Traumatizados Aula 07 Matrizes, Determinantes e Solução de Sistemas Lineares. Conteúdo 7. Matrizes, Determinantes e Solução de Sistemas Lineares...2 7.1. Matrizes...2

Leia mais

Inversão de Matrizes

Inversão de Matrizes Inversão de Matrizes Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial - 2015.2 21 de

Leia mais

Curso Satélite de. Matemática. Sessão n.º 1. Universidade Portucalense

Curso Satélite de. Matemática. Sessão n.º 1. Universidade Portucalense Curso Satélite de Matemática Sessão n.º 1 Universidade Portucalense Conceitos Algébricos Propriedades das operações de números reais Considerem-se três números reais quaisquer, a, b e c. 1. A adição de

Leia mais

Exercícios. setor Aula 39 DETERMINANTES (DE ORDENS 1, 2 E 3) = Resposta: 6. = sen 2 x + cos 2 x Resposta: 1

Exercícios. setor Aula 39 DETERMINANTES (DE ORDENS 1, 2 E 3) = Resposta: 6. = sen 2 x + cos 2 x Resposta: 1 setor 0 00508 Aula 39 ETERMINANTES (E ORENS, E 3) A toda matriz quadrada A de ordem n é associado um único número, chamado de determinante de A e denotado, indiferentemente, por det(a) ou por A. ETERMINANTES

Leia mais

1.3 Matrizes inversas ] [ 0 1] = [ ( 1) ( 1) ] = [1 0

1.3 Matrizes inversas ] [ 0 1] = [ ( 1) ( 1) ] = [1 0 1.3 Matrizes inversas Definição: Seja A uma matriz de ordem k n, a matriz B de ordem n k é uma inversa à direita de A, se AB = I. A Matriz C de ordem n k é uma inversa à esquerda de A, se CA = I. Exemplo

Leia mais

FACULDADE DE ENGENHARIA DA UNIVERSIDADE DO PORTO LEEC EXERCÍCIOS DE ÁLGEBRA

FACULDADE DE ENGENHARIA DA UNIVERSIDADE DO PORTO LEEC EXERCÍCIOS DE ÁLGEBRA FACULDADE DE ENGENHARIA DA UNIVERSIDADE DO PORTO LEEC EXERCÍCIOS DE ÁLGEBRA Exercícios vários. Considere o conjunto C =, e a operação binária definida por a b = min(a, b). O conjunto C é, relativamente

Leia mais

MAT Resumo Teórico e Lista de

MAT Resumo Teórico e Lista de MAT 0132 - Resumo Teórico e Lista de Exercícios April 10, 2005 1 Vetores Geométricos Livres 1.1 Construção dos Vetores 1.2 Adição de Vetores 1.3 Multiplicação de um Vetor por um Número Real 2 Espaços Vetoriais

Leia mais

ALGA I. Representação matricial das aplicações lineares

ALGA I. Representação matricial das aplicações lineares Módulo 6 ALGA I Representação matricial das aplicações lineares Contents 61 Matriz de uma aplicação linear 76 62 Cálculo do núcleo e imagem 77 63 Matriz da composta 78 64 GL(n Pontos de vista passivo e

Leia mais

(Todos os cursos da Alameda) Paulo Pinto

(Todos os cursos da Alameda) Paulo Pinto Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Resumo das Aulas Teóricas de 2 o Semestre 2004/2005 (Todos os cursos da Alameda) Paulo Pinto Álgebra Linear Conteúdo Sistemas

Leia mais

Determinantes. ALGA 2007/2008 Mest. Int. Eng. Electrotécnica Determinantes 1 / 17

Determinantes. ALGA 2007/2008 Mest. Int. Eng. Electrotécnica Determinantes 1 / 17 Capítulo 2 Determinantes ALGA 2007/2008 Mest Int Eng Electrotécnica Determinantes 1 / 17 Definições ALGA 2007/2008 Mest Int Eng Electrotécnica Determinantes 2 / 17 Definições Seja A = [a kl ] uma matriz

Leia mais

Álgebra Linear e Geometria Anaĺıtica

Álgebra Linear e Geometria Anaĺıtica Álgebra Linear e Geometria Anaĺıtica 2016/17 MIEI+MIEB+MIEMN Slides da 1 a Semana de aulas Cláudio Fernandes (FCT/UNL) Departamento de Matemática 1 / 47 Cláudio Fernandes (FCT/UNL) Departamento de Matemática

Leia mais

1 Matrizes e Determinantes

1 Matrizes e Determinantes 1 Matrizes e Determinantes 11 Introdução Definição (Matriz): Uma matriz A m n é um arranjo retangular de mn elementos distribuídos em m linhas horizontais e n colunas verticais: a 11 a 12 a 1j a 1n a 21

Leia mais

EXERCÍCIOS DE ÁLGEBRA LINEAR

EXERCÍCIOS DE ÁLGEBRA LINEAR IST - o Semestre de / MEEC EXERCÍCIOS DE ÁLGEBRA LINEAR FICHA - Método de Eliminação de Gauss Sistemas de equações lineares Uma equação linear nas variáveis (ou incógnitas) x ; ; x n ; é uma equação do

Leia mais

Interbits SuperPro Web

Interbits SuperPro Web 1 (Ita 018) Uma progressão aritmética (a 1, a,, a n) satisfaz a propriedade: para cada n, a soma da progressão é igual a n 5n Nessas condições, o determinante da matriz a1 a a a4 a5 a 6 a a a 7 8 9 a)

Leia mais

Álgebra matricial exercícios 1-13; sebenta, páginas π

Álgebra matricial exercícios 1-13; sebenta, páginas π Matemática II 017/18 - Gestão - ESTG/IPBragança Constrói o teu próprio caderno de apontamentos. Resolve todos os exercícios. Cria a tua folha de soluções. Dene os conceitos indicados na última página desta

Leia mais

Matemática I. Capítulo 3 Matrizes e sistemas de equações lineares

Matemática I. Capítulo 3 Matrizes e sistemas de equações lineares Matemática I Capítulo 3 Matrizes e sistemas de equações lineares Objectivos Matrizes especiais e propriedades do produto de matrizes Matriz em escada de linhas Resolução de sistemas de equações lineares

Leia mais

apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13

apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13 apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice Índice 1 1 Matrizes,

Leia mais

Álgebra Linear e Geometria Anaĺıtica. Espaços Vetoriais Reais

Álgebra Linear e Geometria Anaĺıtica. Espaços Vetoriais Reais universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 4 Espaços Vetoriais Reais Definição de espaço vetorial real [4 01] O conjunto

Leia mais

ÁLGEBRA MATRICIAL E O METÓDO DE GAUSS: POSSIBILIDADES PARA A

ÁLGEBRA MATRICIAL E O METÓDO DE GAUSS: POSSIBILIDADES PARA A ÁLGEBRA MATRICIAL E O METÓDO DE GAUSS: POSSIBILIDADES PARA A EDUCAÇÃO BÁSICA Márcio Nascimento Universidade Estadual Vale do Acaraú VI SEPMAT - UECE 23 de março de 2017 1 / 115 Sumário 1 Brevíssimo Histórico

Leia mais

Inversão de Matrizes

Inversão de Matrizes Inversão de Matrizes Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial - 2017.1 18 de

Leia mais

Valores e vectores próprios

Valores e vectores próprios ALGA - Eng Civil e EngTopográ ca - ISE - / - Valores e vectores próprios 5 Valores e vectores próprios Neste capítulo, sempre que não haja especi cação em contrário, todas as matrizes envolvidas são quadradas

Leia mais

Sistemas de Equações Lineares e Equações Vectoriais Aula 2 Álgebra Linear Pedro A. Santos

Sistemas de Equações Lineares e Equações Vectoriais Aula 2 Álgebra Linear Pedro A. Santos Sistemas de Equações Lineares e Equações Vectoriais Aula 2 Álgebra Linear MEG Operações Elementares Trocar a posição de duas equações Multiplicar uma equação por uma constante diferente de zero Não alteram

Leia mais

Álgebra Linear. André Arbex Hallack

Álgebra Linear. André Arbex Hallack Álgebra Linear André Arbex Hallack 2017 Índice 1 Sistemas Lineares 1 1.1 Corpos............................................. 1 1.2 Sistemas de Equações Lineares............................... 3 1.3 Sistemas

Leia mais

ÁLGEBRA LINEAR I - MAT0032

ÁLGEBRA LINEAR I - MAT0032 UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT32 12 a Lista de exercícios

Leia mais

Capítulo 1. Matrizes e Sistema de Equações Lineares. 1.1 Corpos

Capítulo 1. Matrizes e Sistema de Equações Lineares. 1.1 Corpos Capítulo 1 Matrizes e Sistema de Equações Lineares Neste capítulo apresentaremos as principais de nições e resultados sobre matrizes e sistemas de equações lineares que serão necessárias para o desenvolvimento

Leia mais

Lista de Exercícios 3 (Matrizes e Sistemas Lineares) b) B 4 2, tal que b ij =

Lista de Exercícios 3 (Matrizes e Sistemas Lineares) b) B 4 2, tal que b ij = UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ Departamento Acadêmico de Matemática - DAMAT Geometria Analítica e Álgebra Linear (MA71B) Profa. Dra. Nara Bobko Lista de Exercícios 3 (Matrizes e Sistemas Lineares)

Leia mais

Matrizes - Matemática II /05 1. Matrizes

Matrizes - Matemática II /05 1. Matrizes Matrizes - Matemática II - 00/0 1 Matrizes Introdução Se m e n são números naturais, chama-se matriz real de tipo m n a uma função A de nida no conjunto f(i; j) i f1; ; ; mg e j f1; ; ; ngg e com valores

Leia mais

CEM Centro De Estudos Matemáticos

CEM Centro De Estudos Matemáticos 1. (Udesc ) Sejam A = (a ij ) e B = (b ij ) matrizes quadradas de ordem 3 de tal forma que: a ij = i + j b ij = j e os elementos de cada coluna, de cima para baixo, formam uma progressão geométrica de

Leia mais

Notas de ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

Notas de ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA Departamento de Matemática Escola Superior de Tecnologia Instituto Politécnico de Viseu Notas de ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA Lurdes Sousa i Índice Prefácio iii I Matrizes e sistemas de equações

Leia mais

MAP2110 Modelagem e Matemática 1 o Semestre de 2004

MAP2110 Modelagem e Matemática 1 o Semestre de 2004 MAP2110 Modelagem e Matemática 1 o Semestre de 2004 Determinante Notação Bibliografia: Cálculo, vol 2, Tom M Apostol M n n = conjunto das matrizes reais n n a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n A =

Leia mais

ÁLGEBRA LINEAR I - MAT0032

ÁLGEBRA LINEAR I - MAT0032 UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT003 10 a Lista de

Leia mais

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares. Um

Leia mais

Algoritmos Numéricos 2 a edição

Algoritmos Numéricos 2 a edição Algoritmos Numéricos 2 a edição Capítulo 2: Sistemas lineares c 2009 FFCf 2 2.1 Conceitos fundamentais 2.2 Sistemas triangulares 2.3 Eliminação de Gauss 2.4 Decomposição LU Capítulo 2: Sistemas lineares

Leia mais

Valores e vectores próprios

Valores e vectores próprios Valores e vectores próprios Álgebra Linear C (Engenharia Biológica) 0 de Dezembro de 006 Conteúdo Motivação e definições Propriedades 4 3 Matrizes diagonalizáveis 5 Motivação e definições Considere a matriz

Leia mais

1, , ,

1, , , Ministério da Educação Universidade Tecnológica Federal do Paraná Câmpus Francisco Beltrão Licenciatura em Informática Fundamentos de Geometria Analítica e Álgebra Linear Profª Sheila R. Oro Este texto

Leia mais

MATEMÁTICA MÓDULO 11 DETERMINANTES. Professor Matheus Secco

MATEMÁTICA MÓDULO 11 DETERMINANTES. Professor Matheus Secco MATEMÁTICA Professor Matheus Secco MÓDULO 11 DETERMINANTES INTRODUÇÃO Neste módulo, não daremos a definição padrão de determinantes via somatório envolvendo sinais de permutações, pois não há necessidade

Leia mais

Matemática II /06 - Determinantes 25. Determinantes

Matemática II /06 - Determinantes 25. Determinantes Matemática II - 00/0 - Determinantes Permutações Determinantes Seja n N. Uma permutação p (p ; p ; : : : ; p n ) do conjunto f; ; ; ng é um arranjo dos n números em alguma ordem, sem repetições ou omissões.

Leia mais

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017 º Sábado - Matrizes - //7. Plano e Programa de Ensino. Definição de Matrizes. Exemplos. Definição de Ordem de Uma Matriz. Exemplos. Representação Matriz Genérica m x n 8. Matriz Linha 9. Exemplos. Matriz

Leia mais

Exercício Obtenha, em cada caso, o módulo, o argumento e a forma trigonométrica de z: a) z = 1 + i. setor Aula 31. ρ = 1 2 +( 3 ) 2 ρ= 2.

Exercício Obtenha, em cada caso, o módulo, o argumento e a forma trigonométrica de z: a) z = 1 + i. setor Aula 31. ρ = 1 2 +( 3 ) 2 ρ= 2. setor 0 00408 Aula NÚMEROS COMPLEXOS: PLANO DE ARGAND-GAUSS Até este ponto, usamos, para representar um número complexo a expressão a + b i, em que a e b são números reais e i é a unidade imaginária Com

Leia mais

Álgebra Linear e Geometria Analítica D

Álgebra Linear e Geometria Analítica D 1 3 Departamento de Matemática Álgebra Linear e Geometria Analítica D Primeiro Teste 21 de Novembro de 2009 Nome: Número de caderno: PREENCHA DE FORMA BEM LEGÍVEL Grelha de Respostas A B C D 1 2 3 4 5

Leia mais

ALGA - Eng.Civil e Eng.Topográ ca-ise-2011/2012- Determinantes 32. Determinantes

ALGA - Eng.Civil e Eng.Topográ ca-ise-2011/2012- Determinantes 32. Determinantes ALGA - Eng.Civil e Eng.Topográ ca-ise-0/0- Determinantes Permutações Determinantes Seja n N. Uma permutação p (p ; p ; : : : ; p n ) dos elementos do conjunto f; ; ; ng é um arranjo dos n números em alguma

Leia mais

Sistemas de Equações Lineares

Sistemas de Equações Lineares Capítulo 2 Sistemas de Equações Lineares 21 Generalidades Chamamos equação linear nas variáveis (incógnitas) x 1, x 2, x 3,, x n uma igualdade da forma a a 1 x 1 + a 2 x 2 + a 3 x 3 + + a n x n = b Os

Leia mais

PROGRAMA ÁLGEBRA LINEAR, MEEC (AL-10) Aula teórica 32

PROGRAMA ÁLGEBRA LINEAR, MEEC (AL-10) Aula teórica 32 ÁLGEBRA LINEAR, MEEC (AL-10) Aula teórica 32 PROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 Espaços e subespaços

Leia mais

Referências principais (nas quais a lista foi baseada): 1. G. Strang, Álgebra linear e aplicações, 4o Edição, Cengage Learning.

Referências principais (nas quais a lista foi baseada): 1. G. Strang, Álgebra linear e aplicações, 4o Edição, Cengage Learning. 1 0 Lista de Exercício de Mat 116- Álgebra Linear para Química Turma: 01410 ( 0 semestre 014) Referências principais (nas quais a lista foi baseada): 1. G. Strang, Álgebra linear e aplicações, 4o Edição,

Leia mais

Apontamentos I. Álgebra Linear aulas teóricas. Mestrado Integrado em Engenharia Eletrotécnica e de Computadores

Apontamentos I. Álgebra Linear aulas teóricas. Mestrado Integrado em Engenharia Eletrotécnica e de Computadores Apontamentos I Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Eletrotécnica e de Computadores 1 o semestre 2016/17 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares Matemática II - / - Sistemas de Equações Lineares Sistemas de equações lineares Introdução Uma equação linear nas incógnitas ou variáveis x ; x ; :::; x n é uma expressão da forma: a x + a x + ::: + a

Leia mais

Apontamentos das aulas teóricas de Álgebra Linear

Apontamentos das aulas teóricas de Álgebra Linear Apontamentos das aulas teóricas de Álgebra Linear Cursos: MEAmbi e MEBio 1 o Semestre 2015/2016 Prof Paulo Pinto http://wwwmathtecnicoulisboapt/ ppinto Conteúdo 1 Matrizes e sistemas lineares 1 11 Álgebra

Leia mais

1 Espaços Vectoriais

1 Espaços Vectoriais Nova School of Business and Economics Apontamentos Álgebra Linear 1 Definição Espaço Vectorial Conjunto de elementos que verifica as seguintes propriedades: Existência de elementos: Contém pelo menos um

Leia mais

Determinantes. Prof. Márcio Nascimento

Determinantes. Prof. Márcio Nascimento Determinantes Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial - 2015.2 4 de fevereiro

Leia mais

I Lista de Álgebra Linear /02 Matrizes-Determinantes e Sistemas Prof. Iva Zuchi Siple

I Lista de Álgebra Linear /02 Matrizes-Determinantes e Sistemas Prof. Iva Zuchi Siple 1 I Lista de Álgebra Linear - 2012/02 Matrizes-Determinantes e Sistemas Prof. Iva Zuchi Siple 1. Determine os valores de x e y que tornam verdadeira a igualdade ( x 2 + 5x x 2 ( 6 3 2x y 2 5y y 2 = 5 0

Leia mais

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1 QUESTÕES ANPEC ÁLGEBRA LINEAR QUESTÃO 0 Assinale V (verdadeiro) ou F (falso): (0) Os vetores (,, ) (,,) e (, 0,) formam uma base de,, o espaço vetorial gerado por,, e,, passa pela origem na direção de,,

Leia mais

Determinantes - Parte 02

Determinantes - Parte 02 Determinantes - Parte 02 Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial - 2015.1 10

Leia mais

ficha 6 espaços lineares com produto interno

ficha 6 espaços lineares com produto interno Exercícios de Álgebra Linear ficha espaços lineares com produto interno Exercícios coligidos por Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto Superior Técnico o semestre 011/1 Notação

Leia mais

1. Conhecendo-se somente os produtos AB e AC, calcule A = X 2 = 2X. 3. Mostre que se A e B são matrizes que comutam com a matriz M = 1 0

1. Conhecendo-se somente os produtos AB e AC, calcule A = X 2 = 2X. 3. Mostre que se A e B são matrizes que comutam com a matriz M = 1 0 Lista de exercícios. AL. 1 sem. 2015 Prof. Fabiano Borges da Silva 1 Matrizes Notações: 0 para matriz nula; I para matriz identidade; 1. Conhecendo-se somente os produtos AB e AC calcule A(B + C) B t A

Leia mais

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do

Leia mais

é encontrado no cruzamento da linha i com a coluna j, ou seja, o primeiro índice se refere à linha e o segundo à coluna.

é encontrado no cruzamento da linha i com a coluna j, ou seja, o primeiro índice se refere à linha e o segundo à coluna. Ministério da Educação Secretaria de Educação Profissional e Tecnológica Instituto Federal De Santa Catarina Campus São José Professora: ELENIRA OLIVEIRA VILELA COMPONENTE CURRICULAR: ALG ÁLG. LINEAR MATRIZES

Leia mais

Métodos Numéricos - Notas de Aula

Métodos Numéricos - Notas de Aula Métodos Numéricos - Notas de Aula Prof a Olga Regina Bellon Junho 2007 Introdução Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares,

Leia mais