Notas de Aula. Álgebra Linear I



Documentos relacionados
Notas de Aula. Álgebra Linear

Álgebra Linear. Mauri C. Nascimento Departamento de Matemática UNESP/Bauru. 19 de fevereiro de 2013

Disciplina: Introdução à Álgebra Linear

UNIVERSIDADE FEDERAL DO ESPÍRITO SANTO PROGRAMA DE EDUCAÇÃO TUTORIAL - MATEMÁTICA PROJETO FUNDAMENTOS DE MATEMÁTICA ELEMENTAR

ficha 3 espaços lineares

Exercícios Teóricos Resolvidos

Universidade Federal de Viçosa Centro de Ciências Exatas Departamento de Matemática 3 a Lista - MAT Introdução à Álgebra Linear 2013/I

a 1 x a n x n = b,

Recordamos que Q M n n (R) diz-se ortogonal se Q T Q = I.

Álgebra Linear. André Arbex Hallack Frederico Sercio Feitosa

Álgebra Linear I Solução da 5ª Lista de Exercícios

MATRIZES Matriz quadrada Matriz linha e matriz coluna Matriz diagonal Matriz identidade

11 a LISTA DE PROBLEMAS DE ÁLGEBRA LINEAR LEIC-Taguspark, LERCI, LEGI, LEE 1 o semestre 2003/04 - semana de

4.2 Produto Vetorial. Orientação sobre uma reta r

NOÇÕES DE ÁLGEBRA LINEAR

Åaxwell Mariano de Barros

Breve referência à Teoria de Anéis. Álgebra (Curso de CC) Ano lectivo 2005/ / 204

Vetores. Definição geométrica de vetores

2.2 Subespaços Vetoriais

Def. 1: Seja a quádrupla (V, K, +, ) onde V é um conjunto, K = IR ou K = IC,

ÁLGEBRA LINEAR ISBN

1. O conjunto dos polinômios de grau m, com 2 m 5, acrescido do polinômio nulo, é um subespaço do espaço P 5.

Capítulo 2. Álgebra e imagens binárias. 2.1 Subconjuntos versus funções binárias

Universidade Estadual de Santa Cruz. Departamento de Ciências Exatas e Tecnológicas. Especialização em Matemática. Disciplina: Estruturas Algébricas

GAAL /1 - Simulado - 1 Vetores e Produto Escalar

Capítulo 5: Transformações Lineares

Exercícios 1. Determinar x de modo que a matriz

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

Exercícios Adicionais

1 Base de um Espaço Vetorial

Lista 1 para a P2. Operações com subespaços

CAPÍTULO 6 TRANSFORMAÇÃO LINEAR

1 Módulo ou norma de um vetor

Corpos. Um domínio de integridade finito é um corpo. Demonstração. Seja D um domínio de integridade com elemento identidade

Retas e Planos. Equação Paramétrica da Reta no Espaço

A ideia de coordenatização (2/2)

FACULDADE DE CIÊNCIA E TECNOLOGIA. Cursos de Engenharia. Prof. Álvaro Fernandes Serafim

Domínio, Contradomínio e Imagem

Aula 5 - Matemática (Gestão e Marketing)

Capítulo 3. Cálculo Vetorial. 3.1 Segmentos Orientados

Tópicos Matriciais Pedro Henrique O. Pantoja Natal / RN

Bases Matemáticas. Aula 2 Métodos de Demonstração. Rodrigo Hausen. v /15

UNIV ERSIDADE DO EST ADO DE SANT A CAT ARINA UDESC CENT RO DE CI ^ENCIAS T ECNOLOGICAS DEP ART AMENT O DE MAT EMAT ICA DMAT

QUESTÕES COMENTADAS E RESOLVIDAS

Conceitos Fundamentais

TRANSFORMAÇÕES LINEARES. Álgebra Linear e Geometria Analítica Prof. Aline Paliga

Álgebra Linear AL. Luiza Amalia Pinto Cantão. Depto. de Engenharia Ambiental Universidade Estadual Paulista UNESP

PARTE 2 FUNÇÕES VETORIAIS DE UMA VARIÁVEL REAL

Dicas para a 6 a Lista de Álgebra 1 (Conteúdo: Homomorfismos de Grupos e Teorema do Isomorfismo para grupos) Professor: Igor Lima.

Marília Brasil Xavier REITORA. Prof. Rubens Vilhena Fonseca COORDENADOR GERAL DOS CURSOS DE MATEMÁTICA

Expansão linear e geradores

NIVELAMENTO MATEMÁTICA 2012

RELAÇÕES BINÁRIAS Produto Cartesiano A X B

Somatórias e produtórias

9. Derivadas de ordem superior

Bem, produto interno serve para determinar ângulos e distâncias entre vetores e é representado por produto interno de v com w).

Matrizes e Determinantes

Capítulo 1. x > y ou x < y ou x = y

(os números, que constituirão os corpos numéricos) (os vetores, que constituirão os espaços vetoriais)

ESPAÇOS MUNIDOS DE PRODUTO INTERNO

E A D - S I S T E M A S L I N E A R E S INTRODUÇÃO

Álgebra linear algorítmica

ESPAÇOS QUOCIENTES DANIEL SMANIA. [x] := {y X t.q. x y}.

Matemática - UEL Compilada em 18 de Março de Prof. Ulysses Sodré Matemática Essencial:

Material Teórico - Módulo de Divisibilidade. MDC e MMC - Parte 1. Sexto Ano. Prof. Angelo Papa Neto

1 Propriedades das Funções Contínuas 2

ITA º DIA MATEMÁTICA BERNOULLI COLÉGIO E PRÉ-VESTIBULAR

Mudança de Coordenadas

Aplicações de Combinatória e Geometria na Teoria dos Números

Capítulo 2: Transformação de Matrizes e Resolução de Sistemas

Álgebra Booleana. Introdução ao Computador 2010/01 Renan Manola

[a11 a12 a1n 4. SISTEMAS LINEARES 4.1. CONCEITO. Um sistema de equações lineares é um conjunto de equações do tipo

SOCIEDADE BRASILEIRA DE MATEMÁTICA MESTRADO PROFISSIONAL EM REDE NACIONAL PROFMAT

2 Matrizes. 3 Definição Soma de duas matrizes, e ( ) 4 Propriedades Propriedades da soma de matrizes ( )

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser:

Números Complexos. Capítulo Unidade Imaginária. 1.2 Números complexos. 1.3 O Plano Complexo

Estruturas Discretas INF 1631

Só Matemática O seu portal matemático FUNÇÕES

Por que o quadrado de terminados em 5 e ta o fa cil? Ex.: 15²=225, 75²=5625,...

Sociedade Brasileira de Matemática Mestrado Profissional em Matemática em Rede Nacional. n=1

Este apêndice resume os conceitos de álgebra matricial, inclusive da álgebra de probabilidade,

Prof. Márcio Nascimento. 22 de julho de 2015

APLICAÇÕES DA DERIVADA

Resolução da Prova da Escola Naval Matemática Prova Azul

Movimentos Periódicos: representação vetorial

UNIVERSIDADE FEDERAL DA BAHIA INSTITUTO DE MATEMÁTICA 5 0 Encontro da RPM TRANSFORMAÇÕES NO PLANO

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas?

Prova de Admissão para o Mestrado em Matemática IME-USP

Nesta aula iremos continuar com os exemplos de revisão.

Módulo de Geometria Anaĺıtica 1. Paralelismo e Perpendicularismo. 3 a série E.M.

Unidade: Vetores e Forças. Unidade I:

R é o conjunto dos reais; f : A B, significa que f é definida no conjunto A (domínio - domain) e assume valores em B (contradomínio range).

Gobooks.com.br. PucQuePariu.com.br

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 6. O trabalho feito pela força para deslocar o corpo de a para b é dado por: = =

Conjuntos numéricos. Notasdeaula. Fonte: Leithold 1 e Cálculo A - Flemming. Dr. Régis Quadros

Método de Eliminação de Gauss. Eduardo Camponogara

CÁLCULO DE ZEROS DE FUNÇÕES REAIS

Aulas Teóricas e de Problemas de Álgebra Linear

AULA 6 LÓGICA DOS CONJUNTOS

Monografia sobre R ser um Domínio de Fatoração Única implicar que R[x] é um Domínio de Fatoração Única.

Transcrição:

Notas de Aula Álgebra Linear I Rodney Josué Biezuner 1 Departamento de Matemática Instituto de Ciências Exatas (ICEx) Universidade Federal de Minas Gerais (UFMG) Notas de aula da disciplina Álgebra Linear I dos cursos de graduação em Matemática e Matemática Computacional, ministrado durante o segundo semestre de 2008 20 de novembro de 2008 1 E-mail: rodney@matufmgbr; homepage: http://wwwmatufmgbr/ rodney

Sumário 1 Espaços Vetoriais 3 11 Definição 3 12 Exemplos 6 13 Bases e Dimensão 6 131 Conjuntos Linearmente Dependentes e Independentes 6 132 Conjuntos Geradores e Bases 7 133 Coordenadas de Vetores em Relação a uma Base 9 14 Subespaços Vetoriais 9 15 Somas de Subespaços Vetoriais 11 2 Matrizes 14 21 Definição 14 22 Operações com Matrizes 14 23 Mudança de Base 20 24 Matrizes Especiais 22 241 Matrizes Diagonais 22 242 Matrizes Triangulares 22 243 Matrizes Simétricas e Anti-simétricas 23 244 Matrizes Nilpotentes 24 3 Transformações Lineares 25 31 Definição 25 32 Representações de Transformações Lineares através de Matrizes 27 33 Exemplos de Operadores Lineares 28 331 Operadores Lineares no Plano R 2 28 332 Operadores Lineares no Espaço R 3 32 333 Operadores Lineares em Espaços de Dimensão Infinita 32 334 Funcionais Lineares 32 34 Composição de Transformações Lineares 32 35 Isomorfismos 34 36 Teorema do Núcleo e da Imagem 37 37 Teorema do Posto 40 38 Mudança de Base e Semelhança de Matrizes 41 4 Espaços com Produto Interno 43 41 Produto Interno 43 42 Norma 45 43 Bases Ortonormais e Projeções Ortogonais 49 44 Operador Adjunto 52 45 Operadores Unitários e Isometrias 56 1

Rodney Josué Biezuner 2 5 Determinantes 59 51 Definição 59 52 Existência 60 53 Unicidade 61 531 Permutações 61 532 Demonstração da Unicidade da Função Determinante 63 533 Fórmula do Determinante através de Permutações 65 54 Propriedades 66 55 Regra de Cramer 68 6 Diagonalização de Operadores 70 61 Polinômios 70 62 Autovalores, Autovetores e Autoespaços 74 63 Operadores Diagonalizáveis 76 64 Ideais de Polinômios 79 65 Polinômio Mínimo e o Teorema de Cayley-Hamilton 80 66 Polinômio Mínimo e Operadores Triangularizáveis e Diagonalizáveis 83 67 Diagonalização de Operadores Auto-adjuntos 87

Capítulo 1 Espaços Vetoriais 11 Definição Intuitivamente, um espaço vetorial é um conjunto de elementos, que chamamos vetores, com os quais podemos efetuar combinações lineares, isto é, somas de elementos e multiplicação de elementos por números, que chamamos escalares Matematicamente falando, os escalares são elementos de um conjunto munido de uma estrutura algébrica chamada corpo Grosseiramente, um corpo nada mais é que um conjunto de elementos que podem ser somados e multiplicados, a ordem em que estas operações são realizadas não tendo importância para o resultado, onde todo elemento possui um inverso aditivo, existe um elemento neutro na adição chamado zero (0), existe um elemento neutro na multiplicação chamado identidade (1), todo elemento possui um inverso multiplicativo com exceção do zero e existe uma relação entre as duas operações Exemplos de corpos são o conjunto dos números reais R e o conjunto dos números complexos C Neste curso, serão os únicos corpos que consideraremos 11 Definição Um corpo F é um conjunto munido de duas operações binárias F F F, adição e multiplicação que satisfazem as seguintes propriedades: Adição: 1 Comutatividade: para todos α, β F 2 Associatividade: para todos α, β, γ F α + β = β + α α + (β + γ) = (α + β) + γ 3 Existência de Elemento Neutro: existe um elemento 0 F tal que para todo α F temos α + 0 = 0 + α = α 4 Existência de Inverso: para todo α F existe α F tal que Multiplicação: α + ( α) = 0 1 Comutatividade: para todos α, β F αβ = βα 3

Rodney Josué Biezuner 4 2 Associatividade: para todos α, β, γ F α (βγ) = (αβ) γ 3 Existência de Elemento Neutro: existe um elemento 1 F tal que para todo α F temos α1 = 1α = α 4 Existência de Inverso: para todo α F existe α 1 F tal que αα 1 = 1 Distributividade: 1 Para todos α, β, γ F α (β + γ) = αβ + αγ Como mencionado acima, sempre que nos referirmos ao corpo F, fica subentendido que F pode se referir tanto ao corpo dos reais R, quanto ao corpo dos complexos C 12 Definição Um espaço vetorial sobre um corpo de escalares F é um conjunto V munido de duas operações, adição de vetores V V V e multiplicação por escalar F V V que satisfazem as seguintes propriedades: Adição: 1 Comutatividade: para todos v, w V 2 Associatividade: para todos v, w, u V v + w = w + v v + (w + u) = (v + w) + u 3 Existência de Elemento Neutro: existe um elemento 0 V tal que para todo v V temos v + 0 = 0 + v = v 4 Existência de Inverso: para todo v V existe v V tal que Multiplicação por Escalar: v + ( v) = ( v) + v = 0 1 Existência de Elemento Neutro: para todo v V vale 1v = v 2 Associatividade: para todos α, β F e para todo v V vale Distributividade: α (βv) = (αβ) v 1 Distributividade em relação à soma: para todos v, w V e para todo α F α (v + w) = αv + αw

Rodney Josué Biezuner 5 2 Distributividade em relação à multiplicação por escalar: para todo v V e para todos α, β F (α + β) v = αv + βv Quando F = R, o espaço vetorial é chamado um espaço vetorial real, enquanto que se F = C, o espaço vetorial é chamado um espaço vetorial complexo Das propriedades (ou axiomas) que definem um espaço vetorial, seguem algumas conseqüências simples: 13 Proposição As seguintes afirmativas são válidas: (i) α0 = 0 Prova: Temos logo donde (ii) 0v = 0 Prova: Temos logo donde α0 = α (0 + 0) = α0 + α0, α0 + ( α0) = α0 + α0 + ( α0), 0 = α0 0v = (0 + 0) v = 0v + 0v, 0v + ( 0v) = 0v + 0v + ( 0v), 0 = 0v (iii) Se α 0 e v 0, então αv 0 Prova: Suponha que exista α F, α 0, tal que αv = 0 para algum v V, v 0 Então α 1 (αv) = α 1 0 = 0 logo ( α 1 α ) v = 0, donde ou seja, 1v = 0, v = 0, contradição (i), (ii) e (iii) juntas implicam que αv = 0 se e somente se α = 0 ou v = 0 (iv) ( 1) v = v Prova: Temos logo donde 0 = 0v = [1 + ( 1)] v = 1v + ( 1) v = v + ( 1) v, v + 0 = v + v + ( 1) v, v = ( 1) v (v) Unicidade do vetor nulo Prova: 0 = 0 + 0 = 0

Rodney Josué Biezuner 6 12 Exemplos 14 Exemplo R n sob as operações usuais é um espaço vetorial real, enquanto que C n sob as operações usuais é um espaço vetorial complexo Ou seja, quando definimos a soma de n-uplas de números reais ou números complexos por e a multiplicação por escalares por (x 1,, x n ) + (y 1,, y n ) := (x 1 + y 1,, x n + y n ) α (x 1,, x n ) := (αx 1,, αx n ) 15 Exemplo O conjunto M m n (R) das matrizes reais m n sob as operações usuais é um espaço vetorial real O conjunto M m n (C) das matrizes complexas m n sob as operações usuais é um espaço vetorial complexo 16 Exemplo O conjunto P n (R) dos polinômios (com coeficientes) reais de grau menor que ou igual a n sob as operações usuais é um espaço vetorial real O conjunto P (R) de todos os polinômios reais também é um espaço vetorial real O conjunto P n (C) dos polinômios (com coeficientes) complexos de grau menor que ou igual a n sob as operações usuais é um espaço vetorial complexo O conjunto P (C) de todos os polinômios complexos também é um espaço vetorial complexo 17 Exemplo O conjunto F R das funções reais é um espaço vetorial real O conjunto F C é um espaço vetorial complexo 18 Exemplo O conjunto C 0 ([0, 1]) das funções reais contínuas definidas no intervalo [0, 1], o conjunto C k ([0, 1]) das funções reais com k derivadas contínuas definidas no intervalo [0, 1], e o conjunto C ([0, 1]) das funções reais infinitamente diferenciáveis definidas no intervalo [0, 1] são espaços vetoriais reais 13 Bases e Dimensão 131 Conjuntos Linearmente Dependentes e Independentes 19 Definição Seja S V um subconjunto qualquer de um espaço vetorial V sobre o corpo F Uma combinação linear de elementos de S é uma soma finita com α 1,, α k F e v 1,, v k S α 1 v 1 + + α k v k 110 Definição Dizemos que um conjunto S V é linearmente dependente se existir um número finito de elementos v 1,, v k S e escalares α 1,, α k F não todos nulos tais que α 1 v 1 + + α k v k = 0 Caso contrário, dizemos que S é linearmente independente Em outras palavras, S é linearmente dependente se o vetor nulo pode ser escrito como uma combinação linear não-trivial de elementos de S Da definição segue que um subconjunto linearmente independente não pode conter o vetor nulo 111 Lema Um subconjunto S V é linearmente dependente se e somente se algum elemento de S puder ser escrito como combinação linear de outros elementos de S

Rodney Josué Biezuner 7 Prova Se S é linearmente dependente, então existem vetores v 1,, v k S e escalares α 1,, α k não todos nulos tais que α 1 v 1 + + α k v k = 0 Suponha α i 0 Então podemos escrever v i = α 1 α i v 1 + + α i 1 α i v i 1 + α i+1 isto é, v i é combinação linear de outros elementos de S Reciprocamente, se v 0, v 1,, v k S e α 1,, α k F são tais que então α i v 0 = α 1 v 1 + + α k v k, v 0 α 1 v 1 α k v k = 0 é uma combinação linear não-trivial de elementos de S 132 Conjuntos Geradores e Bases v i+1 + + α k α i v k, 112 Definição Dizemos que um conjunto S V gera o espaço V se para todo v X existirem v 1,, v k S e escalares α 1,, α k F tais que v = α 1 v 1 + + α k v k 113 Definição Dizemos que um conjunto B V é uma base para o espaço V se: B gera V B é linearmente independente 114 Definição Dizemos que V é um espaço vetorial de dimensão finita se V possui uma base com um número finito de elementos ou se V = {0} O número de elementos nas bases de um espaço vetorial é um invariante do espaço vetorial: 115 Teorema Todas as bases de um espaço vetorial de dimensão finita possuem o mesmo número de elementos Prova A demonstração deste resultado segue do seguinte lema: 116 Lema Suponha que S = {v 1,, v k } gera o espaço vetorial V e que S = {w 1,, w l } é um subconjunto linearmente independente de V Então l k Prova Suponha por absurdo que l > k Como S gera V e S é linearmente independente (em particular, não contém o vetor nulo) temos w 1 = α 1 v 1 + + α k v k para alguns escalares α 1,, α k não todos nulos Podemos supor α 1 0, reordenando os índices se necessário Afirmamos que podemos então substituir v 1 por w 1, isto é, que o conjunto S 1 = {w 1, v 2,, v k } gera V De fato, podemos escrever v 1 = 1 w 1 α 2 v 2 α k v k, α 1 α 1 α 1

Rodney Josué Biezuner 8 de modo que se v = β 1 v 1 + β 2 v 2 + + β k v k, então v = β ( 1 α 2 w 1 + β 2 β 1 α 1 α 1 ) v 2 + + Agora, como S 1 gera V e S é linearmente independente, temos w 2 = α 1 w 1 + α 2 v 2 + + α k v k ( ) α k β k β 1 v k α 1 para alguns escalares α 1,, α k, com α 2,, α k não todos nulos (caso contrário, w 2 seria um múltiplo escalar de w 1 ) Supondo α 2 0, reordenando os índices se necessário, usamos o mesmo argumento acima para concluir que podemos substituir v 2 por w 2, de modo que o conjunto S 2 = {w 1, w 2, v 3,, v k } gera V Repetindo este procedimento sucessivamente, concluímos que podemos substituir todos os v i s por um número equivalente de w i s (já que, por hipótese de absurdo, l > k), e obter que o subconjunto próprio S k = {w 1,, w k } de S gera V Mas então, por definição de conjunto gerador, existem escalares α 1,, α k tais que w k+1 = α 1 w 1 + + α k w k contrariando o fato que S é linearmente independente Sejam B 1 = {v 1,, v k } e B 2 = {w 1,, w l } duas bases do espaço vetorial de dimensão finita V Aplicando o Lema 116 ao conjunto gerador B 1 e ao conjunto linearmente independente B 2 concluímos que l k; aplicando o Lema 116 ao conjunto gerador B 2 e ao conjunto linearmente independente B 1 concluímos que k l Portanto, k = l 117 Definição O número de elementos de uma base qualquer de um espaço vetorial de dimensão finita V é chamada a dimensão do espaço e denotada dim V Se V = {0}, então definimos dim V = 0 118 Teorema Todo espaço vetorial não-nulo gerado por um subconjunto finito possui uma base finita Prova Suponha que S seja um subconjunto finito que gera o subespaço vetorial não-nulo V Se S for linearmente independente, então S é a base procurada e não precisamos fazer nada Caso contrário, se S é linearmente dependente, podemos retirar um elemento de S e o conjunto resultante ainda gerará V (retire um elemento que seja combinação linear dos demais) Se o conjunto restante for linearmente independente, então ele será uma base finita para V Caso contrário, repetimos o procedimento, até obter um conjunto linearmente independente 119 Lema Se dim V = n, então todo subconjunto de V com mais de n vetores é linearmente dependente Prova Segue imediatamente do Lema 116 120 Lema Seja S um subconjunto linearmente independente de um espaço vetorial V Suponha que w é um vetor de V que não é gerado por S Então S {w} é linearmente independente Prova Suponha que v 1,, v k S e existem escalares α 1,, α k, β tais que Então β = 0, caso contrário α 1 v 1 + + α k v k + βw = 0 w = α 1 β v 1 + + α k β v k, o que implicaria que w é gerado por V, contrariando a hipótese Mas então e como S é LI, segue que α 1 = = α k = 0 α 1 v 1 + + α k v k = 0,

Rodney Josué Biezuner 9 121 Teorema Todo subconjunto linearmente independente de um espaço vetorial de dimensão finita pode ser completado até uma base do espaço Prova Suponha que S = {v 1,, v k } seja um subconjunto linearmente independente de V Se S não é uma base para V, ou seja, se k < n := dim V, então existe um vetor v k+1 V tal que v k+1 não é uma combinação linear de elementos de S Segue do Lema 120 que o conjunto S 1 = {v 1,, v k, v k+1 } é linearmente independente Se k + 1 < n, repetimos o processo Continuamos este argumento, repetindo o processo n k vezes até encontrar um subconjunto S n k = {v 1,, v k, v k+1,, v n } que é uma base para V 133 Coordenadas de Vetores em Relação a uma Base 122 Proposição Seja V um espaço vetorial de dimensão finita e B = {v 1,, v n } uma base para V Então todo vetor em V se escreve de maneira única como uma combinação linear de vetores de B Prova Suponha que v V pode ser representado por duas combinações lineares de vetores de B: v = α 1 v 1 + + α n v n, v = α 1v 1 + + α nv n Então donde α 1 = α 1,, α n = α n (α 1 α 1) v 1 + + (α n α n) v n = 0, 123 Definição Seja V um espaço vetorial de dimensão finita e B = {v 1,, v n } uma base ordenada para V Dado v V, se v = α 1 v 1 + + α n v n, a n-upla (α 1,, α n ) é chamada as coordenadas de v com relação à base B, e denotada por [v] B = (α 1,, α n ) As coordenadas de um vetor dependem da base escolhida No próximo capítulo, veremos como as coordenadas de um vetor em relação a uma base mudam quando mudamos de base 14 Subespaços Vetoriais 124 Definição Seja V um espaço vetorial sobre um corpo F Um subespaço de V é um subconjunto W V que é ele próprio um espaço vetorial sobre F com as operações de soma e multiplicação escalar induzidas de V 125 Proposição Um subconjunto não-vazio W V é um subespaço de V se e somente se ele é fechado com relação às operações de soma e multiplicação por escalar Em outras palavras, W V é um subespaço de V se e somente se αv + βw W para todos v, w V e para todos α, β F Prova Suponha que W V, W, é fechado com relação às operações de soma e multiplicação por escalar Como as operações de soma e multiplicação por escalar definidas em W são herdadas das operações definidas em V, comutatividade, associatividade e distributividade são imediatamente válidas e 1v = v para todo v W Basta apenas verificar as duas propriedades seguintes: 0 W : pois se v W é qualquer vetor (lembre-se que W ), então 0 = 0v W Se v W, então v W : pois v = ( 1) v W

Rodney Josué Biezuner 10 A recíproca é óbvia, pois V é um espaço vetorial sobre F e W V é um espaço vetorial sobre F com as operações de soma e multiplicação escalar induzidas do próprio V 126 Teorema A interseção de qualquer família de subespaços de um espaço vetorial V é um subespaço de V Prova Seja {W λ } λ Λ uma coleção de subespaços de V e W = W λ sua interseção Como cada W λ contém o vetor nulo, segue que W também contém o vetor nulo e podemos usar a Proposição 125 para provar que W é um subespaço Dados quaisquer v, w W, temos que v, w W λ para cada índice λ Λ (por definição de interseção de conjuntos), logo αv + βw W λ para todos α, β F (pela Proposição 125, pois cada W λ é um subespaço de V ), portanto αv + βw W para todos α, β F (novamente, pela definição de interseção de conjuntos) Segue da Proposição 125 que W é um subespaço Segue do Teorema 126 que, dado um subconjunto de um espaço vetorial, existe um menor subespaço que o contém: 127 Definição Seja V um espaço vetorial sobre um corpo F e S um subconjunto de V O subespaço gerado por S é a interseção de todos os subespaços de V que contém S Denotaremos o subespaço gerado por S por S 128 Proposição O subespaço gerado por um subconjunto não-vazio S de um espaço vetorial V é o conjunto de todas as combinações lineares de elementos de S Prova Denote por W o subespaço gerado por S e por W o conjunto de todas as combinações lineares de elementos de S Pela Proposição 125, como S W, segue que W W Por outro lado, também pela Proposição 125 o conjunto W é um subespaço de V, logo W W por definição (pois W é um subespaço de V que contém S) Assim W = W 129 Lema Seja W um subespaço de um espaço vetorial de dimensão finita V Então todo subconjunto linearmente independente de W é finito e pode ser completado até uma base de W Prova Seja S um subconjunto linearmente independente de W com k elementos e suponha que dim V = n Como S é também um conjunto linearmente independente de V, segue do Lema 116 que S é finito; mais ainda, que k n Para completar S até uma base de W seguimos um procedimento semelhante ao usado no Teorema 121: se S não gera W, obtemos um vetor w 1 W tal que W não é gerado por S Segue do Lema 120 que S 1 = S {w 1 } é linearmente independente Se S 1 gera W, então ele é uma base para W Caso contrário, existe um vetor w 2 W que não é gerado por S 1 Novamente pelo Lema 120, o conjunto S 2 = S 1 {w 2 } = S {w 1, w 2 } é linearmente independente Continuando desta forma, eventualmente encontraremos um conjunto S l = S {w 1,, w l }, com l n k, que deve ser uma base para W De fato, suponha por absurdo que S l possui n elementos e não gera W Então existe um vetor w W que não é gerado por S l, o que implica pelo Lema 120 que S l {w} é um conjunto linearmente independente em W, e portanto também em V, com n + 1 elementos, o que é uma contradição 130 Teorema Se W é um subespaço próprio de um espaço vetorial de dimensão finita V, então W também tem dimensão finita e dim W < dim V Prova O resultado é óbvio se W é o subespaço nulo Se W não é o subespaço nulo, seja v W, v 0 Pelo Lema 129, existe uma base de W contendo v Como esta base de W é em particular um subconjunto linearmente independente de V, ela não pode conter mais que dim V elementos Portanto, dim W dim V Por outro lado, como W é um subespaço próprio de V, existe um vetor w V tal que w / W Adicionando w a qualquer base de W, obtemos pelo Lema 120 um conjunto linearmente independente de V Isso implica que dim W < dim V λ Λ

Rodney Josué Biezuner 11 15 Somas de Subespaços Vetoriais 131 Definição Sejam S 1,, S k subconjuntos de um espaço vetorial V Definimos a soma dos subconjuntos S 1,, S k como sendo o conjunto k S i = S 1 + + S k = {v 1 + + v k : v i S i para i = 1, k} 132 Proposição Se W 1,, W k são subespaços de um espaço vetorial V, então a sua soma W 1 + +W k também é um subespaço vetorial de V e contém cada um dos subespaços W i, i = 1, k Prova Pois se v = w 1 + + w k, w = w 1 + + w k, são dois vetores quaisquer de W 1 + + W k com w i, w i W i para cada i e α, β são escalares quaisquer, segue que αv + βw = (αw 1 + βw 1) + + (αw k + βw k) W 1 + + W k A última afirmação do enunciado é óbvia, pois o vetor nulo esta em cada um dos subespaços 133 Teorema Se W 1, W 2 são dois subespaços de dimensão finita de um espaço vetorial V, então W 1 +W 2 também tem dimensão finita e dim (W 1 + W 2 ) = dim W 1 + dim W 2 dim (W 1 W 2 ) Prova Pelo Teorema 130, W 1 W 2 tem uma base finita Pelo Teorema 121, esta é parte de uma base para W 1 e parte de uma base {v 1,, v n } B 1 = {v 1,, v n, w 1,, w k } B 2 = {v 1,, v n, u 1,, u l } para W 2 O subespaço W 1 + W 2 é gerado pelo conjunto B = {v 1,, v n, w 1,, w k, u 1,, u l } Basta provar que B é LI para terminar a demonstração, pois então B será uma base para W 1 + W 2 e portanto dim W 1 + dim W 2 = (n + k) + (n + l) = (n + k + l) + n = dim (W 1 + W 2 ) + dim (W 1 W 2 ) De fato, suponha que Escrevendo k l α i v i + β i w i + γ i u i = 0 l k u := γ i u i = α i v i β i w i,

Rodney Josué Biezuner 12 vemos que u W 1 também (certamente u W 2 ) Em particular, existem escalares δ 1,, δ n tais que u = Logo, subtraindo as duas expressões para u, obtemos δ i v i e como {v 1,, v n, u 1,, u l } é LI, concluímos que Mas então δ i v i l γ i u i = 0, δ 1 = = δ n = γ 1 = = γ l = 0 α i v i + e como {v 1,, v n, w 1,, w k } é LI, segue que k β i w i = 0 α 1 = = α n = β 1 = = β k = 0 134 Definição Sejam W 1, W 2 dois subespaços de um espaço vetorial V Dizemos que o subespaço W = W 1 + W 2 é a soma direta dos subespaços W 1 e W 2 se W 1 W 2 = {0} Neste caso, denotamos W = W 1 W 2 135 Proposição Se W = W 1 W 2, então dim W = dim W 1 + dim W 2 Prova Segue imediatamente do Teorema 133 quando se observa que W 1 W 2 = {0} 136 Proposição W = W 1 W 2 se e somente se todo elemento w W se escrever de maneira única como uma soma w = w 1 + w 2, w 1 W 1 e w 2 W 2 (em outras palavras, W 1 e W 2 são linearmente independentes) Prova Assuma que W 1 W 2 = {0} Seja w W e suponha que w = w 1 + w 2 w = w 1 + w 2 w 1, w 1 W 1 e w 2, w 2 W 2 Então donde (w 1 w 1) + (w 2 w 2) = 0, (w 1 w 1) = (w 2 w 2) Mas então, (w 1 w 1) W 1 W 2 e (w 2 w 2) W 1 W 2, logo w 1 w 1 = 0 e w 2 w 2 = 0, ou seja, w 1 = w 1 e w 2 = w 2 Reciprocamente, assuma que todo elemento w W se escreve de maneira única como uma soma w = w 1 + w 2, w 1 W 1 e w 2 W 2, e suponha por absurdo que exista um vetor v W 1 W 2 tal que v 0 Então

Rodney Josué Biezuner 13 0 = v + ( v) é um vetor de W que se escreve pelo menos de duas maneiras como a soma de vetores de W 1 e W 2 : 0 = v + ( v), 0 = 0 + 0 137 Teorema Seja V um espaço vetorial de dimensão finita Então todo subespaço W V possui um complemento em V, isto é, existe um subespaço Z V tal que V = W Z Prova Se W = {0} ou W = V, tome Z = V ou Z = {0} Caso contrário, seja {v 1,, v k } uma base para W Complete esta base até uma base para V : {v 1,, v k, w 1,, w l } Então tomamos como Z o subespaço gerado pelos vetores w 1,, w l De fato, se W Z {0}, tomando um vetor não-nulo u W Z, teríamos escalares não todos nulos α 1,, α k, β 1,, β l tais que donde u = u = k α i v i k α i v i, l β i w i, l β i w i = 0 seria uma combinação linear não trivial produzindo o vetor nulo, contradizendo o fato que {v 1,, v k, w 1,, w l } é LI

Capítulo 2 Matrizes 21 Definição 21 Definição Uma matriz m n A sobre o corpo F é uma função A : [1, m] [1, n] F O conjunto das matrizes m n sobre F será denotado por M m n (F) e por M n (F) se n = m Se F = R dizemos que a matriz é real, e se F = C dizemos que a matriz é complexa A imagem A (i, j) é chamado uma entrada ou elemento da matriz e denotada por A ij ou a ij A matriz A também é denotada freqüentemente por A = (a ij ) e o subíndice m n pode ser usado para denotar o que chamamos o tamanho da matriz Representamos A como uma tabela de m n escalares de F dispostos em m linhas e n colunas: a 11 a 12 a 1n a 21 a 22 a 2n A = a m1 a m2 a mn A i-ésima linha de A é a matriz 1 n [ ai1 a i2 a in ], onde 1 i m, enquanto que a j-ésima coluna de A é a matriz m 1 a 1j a 2j, a mj onde 1 j n Uma matriz n n é chamada uma matriz quadrada de tamanho n 22 Operações com Matrizes Seções 31-32 do livro-texto Sobre o conjunto M m n (F) das matrizes m n definimos as operações a seguir 22 Definição A soma de matrizes é a operação binária M m n (F) M m n (F) M m n (F), (A, B) A + B definida por (A + B) ij = A ij + B ij 14

Rodney Josué Biezuner 15 23 Proposição A soma de matrizes satisfaz as seguintes propriedades: (i) Comutatividade: para todas A, B M m n (F) temos A + B = B + A Prova: (A + B) ij = A ij + B ij = B ij + A ij = (B + A) ij (ii) Associatividade: para todos A, B, C M m n (F) temos A + (B + C) = (A + B) + C Prova: [A + (B + C)] ij = A ij + (B + C) ij = A ij + (B ij + C ij ) = (A ij + B ij ) + C ij = (A + B) ij + C ij = [(A + B) + C] ij (iii) Existência de Elemento Neutro: a matriz nula 0 M m n (F) definida por 0 ij = 0 satisfaz para toda A M m n (F) Prova: A + 0 = 0 + A = A (A + 0) ij = A ij + 0 ij = A ij + 0 = A ij e a outra expressão segue por comutatividade (iv) Existência de Inverso: para toda A M m n (F) existe A M m n (F) tal que A + ( A) = ( A) + A = 0 Prova: Defina Então ( A) ij = (A ij ) ] [A + ( A)] ij = [A ij + ( A) ij = [A ij + ( (A ij ))] = 0 = 0 ij 24 Definição A multiplicação de uma matriz por um escalar é a operação binária F M m n (F) M m n (F), (α, A) αa definida por (αa) ij = αa ij 25 Proposição A multiplicação de uma matriz por um escalar satisfaz as seguintes propriedades:

Rodney Josué Biezuner 16 (i) Existência de Elemento Neutro: para todo A M m n (F) temos 1A = A Prova: (1A) ij = 1A ij = A ij (ii) Associatividade: para todos α, β F e para toda A M m n (F) temos α (βa) = (αβ) A Prova: [α (βa)] ij = α (βa) ij = α (βa ij ) = (αβ) A ij 26 Proposição A soma de matrizes e a multiplicação de uma matriz por um escalar satisfazem as seguintes propriedades: (i) Distributividade em relação à soma: para todas A, B M m n (F) e para todo α F temos Prova: α (A + B) = αa + αb [α (A + B)] ij = α (A + B) ij = αa ij + αb ij = (αa) ij + (αb) ij = [αa + αb] ij (ii) Distributividade em relação à multiplicação por escalar: para toda A M m n (F) e para todos α, β F temos (α + β) A = αa + βa Prova: [(α + β) A] ij = (α + β) A ij = αa ij + βa ij = (αa) ij + (βa) ij = (αa + βa) ij As Proposições 23, 25 e 26 juntas provam que as operações de soma de matrizes e multiplicação de uma matriz por um escalar transformam o conjunto M m n (F) em um espaço vetorial sobre o corpo F 27 Definição O produto de matrizes é a operação binária M m p (F) M p n (F) M m n (F), (A, B) AB definida por p (AB) ij = A ik B kj A motivação para definir o produto de matrizes desta forma é dada pela sua utilidade na resolução de sistemas de equações lineares 28 Proposição O produto de matrizes satisfaz as seguintes propriedades: k=1

Rodney Josué Biezuner 17 (i) Associatividade: para todas A M m p (F), B M p q (F), C M q n (F) temos Prova: [A (BC)] ij = = p A ik (BC) kj = k=1 l=1 k=1 A (BC) = (AB) C ( p n ) A ik B kl C lj = k=1 p A ik B kl C lj = = [(AB) C] ij l=1 ( p ) A ik B kl C lj = l=1 k=1 p k=1 l=1 A ik B kl C lj (AB) il C lj (ii) Existência de Elemento Neutro: a matriz identidade I n M n (F) definida por { 1 se i = j, (I n ) ij = δ ij = 0 se i j, l=1 isto é, satisfaz para toda A M m n (F) Prova: 1 0 0 0 1 0 I n =, 0 0 1 AI n = I m A = A (AI n ) ij = A ik δ kj = A ij, k=1 m (I m A) ij = δ ik A kj = A ij k=1 (iii) Distributividade em relação à soma de matrizes: para todas A M m p (F), B, C M p n (F) temos A (B + C) = AB + AC Prova: Exercício Quando for claro do contexto o valor de n, escreveremos simplesmente I para denotar a matriz identidade Diferentemente da operação de adição, a operação de produto de matrizes não possui uma inversa para cada matriz Não apenas a matriz nula não possui um inverso multiplicativo (o que também ocorre em um corpo), como existe um número de matrizes que não possuem inversas: 29 Exemplo Seja A = [ 1 1 1 1 ]

Rodney Josué Biezuner 18 Suponha que satisfaça Então AB = [ 1 1 1 1 [ ] x y B = z w ] [ ] x y = z w x + z = 1 y + w = 0 x + z = 0 y + w = 1 [ 1 0 0 1 ] = I e este sistema não possui solução O mesmo argumento mostra que qualquer matriz da forma [ ] α α α α qualquer que seja o escalar α F não possui inverso multiplicativo 210 Definição Seja A M n (F) Se existir uma matriz A 1 M n (F) tal que AA 1 = A 1 A = I dizemos que A é invertível e chamamos A 1 de a inversa de A Observe que a inversa de uma matriz é única, pois se B e C são duas matrizes tais que AB = BA = I, AC = CA = I, então B = BI = B (AC) = (BA) C = IC = C 211 Proposição Se A e B são matrizes invertíveis, então AB também é e Prova: (AB) 1 = B 1 A 1 (AB) ( B 1 A 1) = A ( BB 1) A 1 = AIA 1 = AA 1 = I, ( B 1 A 1) (AB) = B 1 ( A 1 A ) B = B 1 IB = B 1 B = I 212 Exercício Se A e B são duas matrizes tais que o produto AB é invertível, é verdade que A e B também são invertíveis? 213 Teorema Se AB = I então BA = I Prova: Se AB = I, então a única solução do sistema BX = 0 é a solução trivial, pois X = IX = ABX = A0 = 0 Em particular, isso implica que a matriz B é equivalente por linhas à matriz identidade I, caso contrário a forma escalonada reduzida de B teria uma linha nula A matriz B ser equivalente por linhas

Rodney Josué Biezuner 19 à matriz identidade significa que existem matrizes elementares E 1,, E k (correspondentes às operações elementares sobre as linhas da matriz B) tais que E k E 1 B = I Como as matrizes elementares são invertíveis (porque a inversa de uma operação elementar é também uma operação elementar), segue que B = E1 1 E 1 k Portanto, B é o produto de matrizes invertíveis, logo é invertível Seja C tal que BC = I Para terminar a demonstração deste teorema, resta apenas provar que C = A E, de fato, multiplicando a equação à direita por C, segue que donde O produto de matrizes não é comutativo: AB = I (AB) C = IC A (BC) = C AI = C A = C 214 Exemplo Sejam Então A = [ 1 0 0 0 ] e B = [ 0 1 0 0 ] [ ] [ ] [ ] 1 0 0 1 0 1 AB = =, 0 0 0 0 0 0 [ ] [ ] [ ] 0 1 1 0 0 0 BA = = 0 0 0 0 0 0 O fato de existirem matrizes que não possuem inversas e do produto de matrizes não ser comutativo faz com que muitas propriedades satisfeitas pelos números reais e complexos não serem satisfeitas pelas matrizes 215 Exercício Determine se as afirmativas a seguir são falsas ou verdadeiras Se a afirmativa for verdadeira, prove; se a afirmativa for falsa, dê um contraexemplo e determine se existe alguma situação onde a afirmativa é válida: 1 (Lei do Cancelamento) Se AB = AC, então B = C 2 Se A, B são matrizes quadradas, então (A + B) 2 = A 2 + 2AB + B 2 3 Se A, B são matrizes quadradas, então (A B) 2 = A 2 B 2 4 Se AB = 0, então A = 0 ou B = 0 5 Se AB = 0, então BA = 0 6 Se A 2 = 0, então A = 0 216 Definição A transposta de uma matriz m n A M m n (F) é a matriz n m A T M n m (F) definida por ( A T ) ij = A ij

Rodney Josué Biezuner 20 217 Proposição A transposta de matrizes satisfaz as seguintes propriedades: (i) ( A T ) T = A (ii) (A + B) T = A T + B T (iii) (αa) T = αa T (iv) (AB) T = B T A T (v) ( A 1) T = ( A T ) 1 Prova de (iv): [ (AB) T ] ij = (AB) ji = p A jk B ki = k=1 Prova de (v): Por (iv), segue que 23 Mudança de Base p [ A T ] [ kj B T ] p = [ ik B T ] [ ik A T ] = [ B T A T ] kj ij k=1 k=1 I = I T = ( AA 1) T = ( A 1 ) T A T Seção 711 do livro-texto Sejam B = {v 1,, v n } e B = {w 1,, w n } duas bases para o espaço vetorial V Suponha que um vetor v V se escreve na forma v = x 1 v 1 + + x n v n = x i v i como combinação linear dos vetores da base B, ou seja, v = (x 1,, x n ) são as coordenadas de v em relação à base B, isto é, [v] B = convencionando representar as coordenadas de vetores em relação a uma base como matrizes-coluna Como obter as coordenadas de v em relação à base B? Sabemos que existem escalares p ji F tais que v i = x 1 x n, p ji w j para i = 1,, n Então v = = x i v i = x i ( n ) p ji x i w j p ji w j = ( n ) x i p ji w j = x i p ji w j

Rodney Josué Biezuner 21 Assim, Portanto, se segue que ou seja, y j = p ji x i p 11 p 12 p 1n p 21 p 22 p 2n P = (p ij ) =, p m1 p m2 p mn y 1 y n = p 11 p 12 p 1n p 21 p 22 p 2n p m1 p m2 p mn [v] B = P [v] B Em outras palavras, as coordenadas do vetor v em relação à base B são obtidas através de multiplicar as coordenadas de v em relação à base B pela matriz P, cujas colunas são as coordenadas dos vetores da base B em relação à base B P é chamada a matriz de mudança de base da base B para a base B 218 Proposição A matriz de mudança de base é invertível Prova: Pois a única solução de P X = 0 é a solução identicamente nula, porque o único vetor que tem coordenadas nulas em relação a qualquer base é o vetor nulo Em particular, segue que [v] B = P 1 [v] B, isto é, a matriz de mudança de base da base B para a base B é a inversa P 1 219 Exemplo Obtenha as coordenadas do vetor v = (1, 2, 3) R 3 em relação à base B = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} Temos que a matriz de mudança de base é P = 1 1 0 1 0 1 0 1 1 1 = x 1 x n 1 1 2 2 1 2 1 2 1 1 2 2 1 1 1 2 2 2 Logo as coordenadas de v em relação a B são 1 1 2 2 1 2 1 2 1 1 2 2 1 1 1 2 2 2 1 2 3 = 0 1 2

Rodney Josué Biezuner 22 Observe que 1 1 2 2 1 2 1 2 1 1 2 2 1 1 1 2 2 2 1 1 2 2 1 2 1 2 1 1 2 2 1 1 1 2 2 2 1 1 2 2 1 2 1 2 1 1 2 2 1 1 1 2 2 2 1 1 = 1 0, 0 0 1 0 = 0 1, 1 0 0 1 1 = 0 0 1 pois estas são as coordenadas dos vetores da base em relação a ela própria 24 Matrizes Especiais Seção 36 do livro-texto 241 Matrizes Diagonais 220 Definição Dizemos que uma matriz quadrada D M n (F) é uma matriz diagonal se a ij = 0 para todo i j, Uma matriz diagonal tem a forma D = a 11 0 0 0 a 22 0, 0 0 a nn isto é, todos os elementos fora da diagonal principal são nulos O conjunto das matrizes diagonais D n (F) é um subespaço vetorial de dimensão n 242 Matrizes Triangulares 221 Definição Dizemos que uma matriz quadrada T M n (F) é uma matriz triangular superior se a ij = 0 para todo i > j Dizemos que T é uma matriz triangular inferior se a ij = 0 para todo i < j Uma matriz triangular superior ou inferior, é também chamada simplesmente uma matriz triangular Uma matriz triangular superior tem a forma a 11 a 12 a 13 a 1n 0 a 22 a 23 a 2n 0 0 a 33 a 3n T = 0 0 0 an 1,n 1 a n 1,n 0 0 0 a nn,

Rodney Josué Biezuner 23 isto é, todos os elementos abaixo da diagonal principal são nulos, enquanto que uma matriz triangular inferior tem a forma a 11 0 0 0 a 21 a 22 0 0 T = a 31 a 32 a 33 0, 0 a n 1,1 a n 1,n 1 0 a n1 a n,n 1 a nn isto é, todos os elementos acima da diagonal principal são nulos Ambos os conjuntos de matrizes triangulares superiores U n (F) e de matrizes triangulares inferiores L n (F) são subespaços vetoriais de dimensão n (n + 1) /2 Além disso, M n (F) = U n (F) + L n (F), mas esta soma não é direta 243 Matrizes Simétricas e Anti-simétricas 222 Definição Dizemos que uma matriz quadrada A M n (F) é uma matriz simétrica se A T = A Dizemos que A é uma matriz anti-simétrica se A T = A 223 Proposição Os conjuntos das matrizes simétricas S e das matrizes anti-simétricas A são subespaços vetoriais de M n (F) Além disso, M n (F) = S A Prova: Sejam A, B duas matrizes simétricas e α, β escalares Então, usando a Proposição 217, temos que (αa + βb) T = αa T + βb T = αa + βb e portanto αa + βb é simétrica Analogamente, se A, B são anti-simétricas, então (αa + βb) T = αa T + βb T = α ( A) + β ( B) = (αa + βb) e αa + βb é portanto anti-simétrica Para escrever uma matriz A M n (F) como a soma de uma matriz simétrica e uma matriz anti-simétrica, defina B = A + AT 2 C = A AT 2 Claramente, A = B + C Por outro lado, da Proposição 217 vemos que a matriz B é simétrica e a matriz C é anti-simétrica, pois ( ) A + A B T T T = = AT + ( A ) T T 2 2 ( ) A A C T T T = = AT ( A ) T T 2 2, = AT + A 2 = AT A 2 = B, = C Falta apenas provar que a única matriz que é ao mesmo tempo simétrica e anti-simétrica é a matriz nula De fato, se A S A, então a ij = a ji porque A é simétrica, e porque A é anti-simétrica, logo a ij = 0 a ij = a ji

Rodney Josué Biezuner 24 224 Proposição Se uma matriz é simétrica e invertível, então sua inversa também é simétrica Se uma matriz é anti-simétrica e invertível, então sua inversa também é anti-simétrica Prova: Seja A uma matriz simétrica, então da Proposição 217 (v) segue que ( A 1 ) T = ( A T ) 1 = A 1 Analogamente se A é uma matriz anti-simétrica, temos que ( A 1 ) T = ( A T ) 1 = ( A) 1 = ( A 1) 225 Proposição Se A é uma matriz qualquer, então AA T e A T A são matrizes simétricas Prova: Temos ( AA T ) T = ( A T ) T A T = AA T Analogamente se prova que ( A T A ) T = A T A 244 Matrizes Nilpotentes 226 Definição Dizemos que uma matriz quadrada A M n (F) é uma matriz nilpotente se A k = 0 para algum k O conjunto das matrizes nilpotentes não é um subespaço vetorial, já que a soma de matrizes nilpotentes em geral não é uma matriz nilpotente 227 Exemplo A matriz é nilpotente, pois A 2 = 0 A matriz B = A = [ 0 1 0 0 ] 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 também é nilpotente, pois B 3 = 0 228 Proposição Se A é uma matriz nilpotente com A k = 0, então I A é invertível e (I A) 1 = I + A + + A k 1 Prova: Temos (I A) ( I + A + + A k 1) = I + A + + A k 1 A A k 1 A k = I

Capítulo 3 Transformações Lineares 31 Definição Seções 61 e 93 do livro-texto Definida uma estrutura matemática sobre conjuntos, é importante o estudo das funções entre estes conjuntos que preservam a estrutura 31 Definição Sejam V e W dois espaços vetoriais sobre um mesmo corpo F Uma função T : V W é chamada uma transformação linear se para todos v, w V e α, β F T (αv + βw) = αt (v) + βt (w) (31) Transformações lineares preservam as operações que definem um espaço vetorial, soma e multiplicação por escalar Em outras palavras, elas preservam combinações lineares 32 Proposição Seja T : V W uma transformação linear entre dois espaços vetoriais Então T (0 V ) = 0 W Prova: Observe que estamos usando notações diferentes para os vetores nulos de cada espaço por motivos de clareza Temos T (0 V ) = T (00 V ) = 0T (0 V ) = 0 W O seguinte resultado ajuda a entender o significado de uma transformação linear: 33 Proposição Seja T : V W uma transformação linear entre dois espaços vetoriais Se U é um subespaço de V, então T (U) é um subespaço de W com dimensão menor ou igual a U Reciprocamente, se Z é um subespaço de W, então T 1 (Z) é um subespaço de V com dimensão maior ou igual a Z Prova: Seja U é um subespaço de V Como 0 U, temos T (U) Sejam w 1, w 2 T (U) Então existem u 1, u 2 U tais que T (u 1 ) = w 1, T (u 2 ) = w 2 Para todos α, β F segue que αw 1 + βw 2 = αt (u 1 ) + βt (u 2 ) = T (αu 1 + βu 2 ), e como αu 1 + βu 2 U, concluímos que αw 1 + βw 2 T (U) Temos dim T (U) dim U porque se u 1,, u k geram U então T (u 1 ),, T (u k ) geram T (U), mas enquanto que u 1,, u k podem ser LI, isso não implica necessariamente que T (u 1 ),, T (u k ) serão LI 25

Rodney Josué Biezuner 26 Reciprocamente, seja Z é um subespaço de W Sejam v 1, v 2 T 1 (Z) Então T (v 1 ) =: z 1, T (v 2 ) =: z 2 Z Para todos α, β F segue que T (αv 1 + βv 2 ) = αt (v 1 ) + βt (v 2 ) = αz 1 + βz 2 Z, logo concluímos que αv 1 + βv 2 T 1 (Z) Em outras palavras, uma transformação linear é uma aplicação que leva subespaços vetoriais de V em subespaços vetoriais de W de dimensão menor ou igual que o subespaço original Uma transformação linear leva retas em retas ou no vetor nulo, planos em planos, retas ou no vetor nulo, e assim por diante Esta conclusão vale mesmo para subespaço afins, isto é, para conjuntos obtidos pela translação de subespaços vetoriais, definidos por U x = U + x 0 = {x + x 0 : x U} (32) onde U é um subespaço vetorial de V ; exemplos são retas e planos que não passam pela origem Uma transformação linear leva subespaços afins em subespaços afins de dimensão menor que ou igual, pois T (U x ) = T (U) + T (x 0 ) (33) 34 Exemplo Sejam V e W dois espaços vetoriais sobre um mesmo corpo F de dimensão finita, B V = {x 1,, x n } uma base para V, B W = {y 1,, y m } uma base para W e A uma matriz de tamanho dim W dim V sobre F Então a aplicação [T v] BW = A [v] BV define uma transformação linear T de V em W 35 Teorema Uma transformação linear do espaço vetorial de dimensão finita V para o espaço vetorial W é completamente determinada pelos valores que ela toma em uma base qualquer de V Prova: Sejam T : V W uma transformação linear e B = {x 1,, x n } uma base para V Dado um vetor v V, ele se escreve como uma combinação linear Então v = α 1 x 1 + + α n x n T v = T (α 1 x 1 + + α n x n ) = α 1 T (x 1 ) + + α n T (x n ) Podemos dizer ainda mais: para definir uma transformação linear T : V W basta estipular os seus valores em uma base: 36 Teorema Sejam V um espaço vetorial de dimensão finita, B = {x 1,, x n } uma base para V e y 1,, y n vetores quaisquer de um espaço vetorial W Então existe uma única transformação linear T : V W tal que T x i = y i (34) para i = 1,, n Prova: Como todo vetor v V se escreve como uma combinação linear dos vetores de B de maneira única v = α 1 x 1 + + α n x n, basta definir T v = α 1 y 1 + + α n y n

Rodney Josué Biezuner 27 De fato, para todos os vetores x = α 1 x 1 + + α n x n, y = β 1 x 1 + + β n x n, de V e para todos escalares a, b F, temos ( ) ( n ) T (ax + by) = T a α i x i + b β i x i = T (aα i + bβ i ) x i = (aα i + bβ i ) y i = a α i y i + b β i y i = at (x) + bt (y) A unicidade de T decorre do teorema anterior 32 Representações de Transformações Lineares através de Matrizes Seção 61 do livro-texto Seja T : V W uma transformação linear entre espaços vetoriais de dimensão finita Escolha bases B V = {x 1,, x n } para V e B W = {y 1,, y m } para W Então, cada vetor x V se escreve com relação à base B V na forma x = α 1 x 1 + + α n x n = α i x i, para alguns escalares α 1,, α n Daí, segue que ( n ) T x = T α i x i = Escreva os vetores T x 1,, T x n em relação à base B W na forma isto é, na forma de matriz coluna: T (x i ) = α i T (x i ) m a ji y j, (35) T (x i ) = A matriz A = (a ij ) m n é chamada a representação matricial da transformação linear T com relação às bases B V e B W Esta representação de T também será denotada por a 1i a 2i a mi (36) [T ] BV,B W (37)

Rodney Josué Biezuner 28 33 Exemplos de Operadores Lineares Seções 61-62 do livro-texto Nesta seção, as transformações lineares são definidas a partir de suas matrizes com relação à base canônica de R n 37 Definição Uma transformação linear T : V V, isto é, de um espaço vetorial nele próprio, é chamada um operador linear 331 Operadores Lineares no Plano R 2 Rotações A rotação de ângulo θ em torno da origem no sentido anti-horário é definida por [ ] cos θ sen θ R θ = (38) sen θ cos θ Observe que R θ (e 1 ) = [ cos θ sen θ ] e R θ (e 2 ) = [ sen θ cos θ A inversa de uma rotação de ângulo θ é uma rotação de ângulo θ (isto é, a rotação de ângulo θ em torno da origem no sentido horário), pois [ ] [ ] cos θ sen θ cos θ sen θ R θ R θ = sen θ cos θ sen θ cos θ [ ] cos = 2 θ + sen 2 θ cos θ sen θ sen θ cos θ sen θ cos θ cos θ sen θ cos 2 θ + sen 2 θ [ ] 1 0 = 0 1 Rotações são operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o ângulo entre eles): R θ (v), R θ (w) = v, w (39) e De fato, Daí, Note ainda que [ ] [ ] cos θ sen θ v1 R θ (v), R θ (w) = sen θ cos θ v 2 [ ] cos θv1 sen θv = 2, sen θv 1 + cos θv 2 ] R θ (v) = v (310) [ cos θ sen θ, sen θ cos θ [ ] cos θw1 sen θw 2 sen θw 1 + cos θw 2 ] [ w1 w 2 ] = cos 2 θv 1 w 1 cos θ sen θv 1 w 2 sen θ cos θv 2 w 1 + sen 2 θv 2 w 2 + sen 2 θv 1 w 1 + cos θ sen θv 1 w 2 + sen θ cos θv 2 w 1 + cos 2 θv 2 w 2 = v 1 w 1 + v 2 w 2 = v, w de modo que rotações também preservam áreas R θ (v) = R θ (v), R θ (v) = v, v = v det R θ = 1, (311)

Rodney Josué Biezuner 29 Reflexões A reflexão em relação à reta passando pela origem que faz ângulo θ com o eixo x positivo é definida por [ ] cos 2θ sen 2θ H θ = (312) sen 2θ cos 2θ Observe que H θ (e 1 ) = [ cos 2θ sen 2θ ] [ e H θ (e 2 ) = sen 2θ cos 2θ A inversa de uma reflexão é ela própria, pois [ ] [ ] Hθ 2 cos 2θ sen 2θ cos 2θ sen 2θ = sen 2θ cos 2θ sen 2θ cos 2θ [ cos = 2 2θ + sen 2 2θ cos 2θ sen 2θ sen 2θ cos 2θ sen 2θ cos 2θ cos 2θ sen 2θ cos 2 2θ + sen 2 2θ [ ] 1 0 = 0 1 ] ] Reflexões são também operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o ângulo entre eles): H θ (v), H θ (w) = v, w (313) e De fato, Daí, Note ainda que H θ (v) = v (314) [ ] [ ] [ ] [ ] cos θ sen θ v1 cos θ sen θ w1 R θ (v), R θ (w) =, sen θ cos θ v 2 sen θ cos θ w 2 [ ] [ ] cos θv1 sen θv = 2 cos θw1 sen θw, 2 sen θv 1 + cos θv 2 sen θw 1 + cos θw 2 = cos 2 θv 1 w 1 cos θ sen θv 1 w 2 sen θ cos θv 2 w 1 + sen 2 θv 2 w 2 + sen 2 θv 1 w 1 + cos θ sen θv 1 w 2 + sen θ cos θv 2 w 1 + cos 2 θv 2 w 2 = v 1 w 1 + v 2 w 2 = v, w R θ (v) = R θ (v), R θ (v) = v, v = v det H θ = 1, (315) de modo que reflexões também preservam áreas Uma reflexão especial é a reflexão em torno da origem, definida por [ ] 0 1 H = (316) 1 0 Ela tem as mesmas propriedades das outras reflexões Contrações e Dilatações Uma homotetia de razão k é definida por [ ] k 0 T =, (317) 0 k

Rodney Josué Biezuner 30 ou seja, T (x, y) = (kx, ky) (318) Se 0 k < 1, T é chamada uma contração, e se k > 1, T é chamada uma dilatação Os operadores de homotetia não preservam nem a norma, nem o produto escalar de vetores, pois T (v), T (w) = kv, kw = k 2 v, w (319) e mas preservam o ângulo entre vetores: T (v) = kv = k v, (320) (T (v), T (w)) = (v, w) (321) pois T (v), T (w) (T (v), T (w)) = arccos T (v) T (w) kv, kw = arccos k v k w = arccos k2 v, w k 2 v w v, w = arccos v w = (v, w) A inversa de uma contração é uma dilatação e vice-versa Temos det T = k 2, de modo que homotetias também não preservam áreas Compressões e Expansões Uma compressão horizontal de razão k e uma expansão horizontal de razão k são definidas por [ ] k 0 T = (322) 0 1 se 0 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja, T (x, y) = (kx, y) (323) Do mesmo modo, uma compressão vertical de razão k e uma expansão vertical de razão k são definidas por [ ] 1 0 T = (324) 0 k se 0 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja, T (x, y) = (x, ky) (325)

Rodney Josué Biezuner 31 Cisalhamentos Um cisalhamento horizontal de razão k é definido por [ ] 1 k T =, (326) 0 1 ou seja, Um cisalhamento vertical de razão k é definido por [ 1 0 T = k 1 ou seja, T (x, y) = (x + ky, y) (327) ], (328) T (x, y) = (x, kx + y) (329) Compressões, expansões e cisalhamentos não preservam nem normas, nem produtos escalares, nem ângulos entre vetores Cisalhamentos preservam áreas, já que seu determinante é igual a 1 Cisalhamentos transformam quadrados em paralelogramos de mesma área Todas os operadores lineares considerados acima são bijetivos Vamos considerar agora alguns operadores não bijetivos Projeções A projeção ortogonal sobre o eixo x é definida por [ ] 1 0 P = 0 0 ou seja, A projeção ortogonal sobre o eixo y é definida por [ ] 0 0 P = 0 1 ou seja, (330) P (x, y) = (x, 0) (331) (332) P (x, y) = (0, y) (333) Em geral, a projeção ortogonal sobre a reta que passa pela origem e faz ângulo θ com o eixo x positivo é definida por [ ] cos P θ = 2 θ sen θ cos θ sen θ cos θ sen 2 (334) θ Para deduzir a última expressão, note que P θ v v = 1 2 (H θv v), logo de modo que P θ v = 1 2 (H θv + v) = 1 2 (H θ + I) v, P θ = 1 ([ ] cos 2θ sen 2θ 2 sen 2θ cos 2θ 1 + cos 2θ sen 2θ = 2 2 sen 2θ 1 cos 2θ [ 2 2 cos = 2 θ sen θ cos θ sen θ cos θ sen 2 θ [ 1 0 + 0 1 ] ])

Rodney Josué Biezuner 32 332 Operadores Lineares no Espaço R 3 Como exercício, obtenha as expressões matriciais para os correspondentes operadores lineares em R 3 333 Operadores Lineares em Espaços de Dimensão Infinita 38 Exemplo Expressões lineares envolvendo derivadas são operadores lineares em P [x] ou C k (X; R) 334 Funcionais Lineares 39 Definição Um funcional linear é uma transformação linear f : V F 310 Exemplo A projeção na i-ésima coordenada é um funcional linear, isto é, π i : F n F definida por π i (x 1,, x n ) = x i 311 Exemplo A integral é um funcional linear em C 0 (X; R): I (f) = f 34 Composição de Transformações Lineares Seção 64 do livro-texto 312 Proposição A composta de transformações lineares é uma transformação linear Prova: Sejam V, W, Z espaços vetoriais e T : V W, S : W Z transformações lineares Então S T : V Z satisfaz (S T ) (α 1 v 1 + α 2 v 2 ) = S [T (α 1 v 1 + α 2 v 2 )] = S [α 1 T (v 1 ) + α 2 T (v 2 )] = α 1 S [T (v 1 )] + α 2 S [T (v 2 )] = α 1 (S T ) (v 1 ) + α 2 (S T ) (v 2 ) 313 Teorema Sejam V, W e Z espaços vetoriais de dimensão finita com bases B V = {x 1,, x n }, B W = {y 1,, y m } e B Z = {z 1,, z p }, respectivamente Sejam T : V W e S : W Z transformações lineares Então Prova: Sejam [S T ] BV,B Z = [S] BW,B Z [T ] BV,B W X [T ] BV,B W = B = (b ij ) m n, [S] BW,B Z = A = (a ij ) p m

Rodney Josué Biezuner 33 Temos m m (S T ) (x i ) = S [T (x i )] = S b ji y j = b ji S (y j ) = = = m b ji p a kj z k = k=1 ( p m ) a kj b ji z k k=1 p (AB) ki z k k=1 ( p m ) b ji a kj z k 314 Definição Sejam V e W espaços vetoriais sobre um corpo F Denote o conjunto das transformações lineares de V em W por L (V, W ) Definimos as operações de soma e multiplicação por escalar de elementos de L (V, W ) por para todo v V k=1 (T + S) (v) := T (v) + S (v), (αt ) (v) := αt (v), Se V = W, denotamos L (V, W ) simplesmente por L(V ) 315 Proposição L (V, W ) é um espaço vetorial sobre F 316 Proposição Se V tem dimensão n e W tem dimensão m, então L (V, W ) tem dimensão nm Prova: Sejam B V = {x 1,, x n } e B W = {y 1,, y m } bases ordenadas de V e W respectivamente Para cada par de índices ji, i = 1,, n, j = 1,, m, defina E ji : V W como sendo a única transformação linear que satisfaz E ji (x k ) = δ ik y j, k = 1,, n, onde δ ik é o delta de Kronecker Em outras palavras, { yj se i = k, E ji (x k ) = 0 se i k Observe que com esta definição, a matriz que representa E ji em relação às bases B V e B W é a matriz que tem 1 na entrada ji e 0 nas demais entradas Afirmamos que B = {E ji : i = 1,, n, j = 1,, m} formam uma base para L (V, W ) Como este conjunto tem nm elementos, isto provará o resultado Para provar que B é LI, suponha que α ji E ji = 0,,n,,m é uma combinação linear dos E ij produzindo a transformação nula (que é o vetor nulo em ) Então, para cada k = 1,, n temos m α ji E ji (x k ) = 0 (x k ) = 0

Rodney Josué Biezuner 34 Como segue que m α ji E ji (x k ) = m α ji E ji (x k ) = m α jk y j = 0, m m α ji δ ik y j = α jk y j, e como y 1,, y m são LI, concluímos que α 1k = = α mk = 0 Para provar que B gera L (V, W ), seja T : V W uma transformação linear qualquer Para cada i = 1,, n escrevemos m T (x k ) = a jk y j para alguns escalares a jk F, isto é, A = (a jk ) é a matriz que representa a transformação T em relação às bases B V e B W Mostraremos que m T = α ji E ji, o que provará que B gera L (V, W ) Com efeito, para cada k = 1,, n temos m m m α ji E ji (x k ) = α ji E ji (x k ) = α ji (δ ik y j ) ( m n ) m = δ ik α ij y j = α kj y j = T (x k ) 317 Definição Em L(V ), o produto de dois operadores lineares é definido por 35 Isomorfismos Seção 93 do livro-texto T S := T S 318 Definição Uma relação de equivalência em um conjunto A é uma relação binária que satisfaz as seguintes propriedades: (i) (Reflexividade) a a para todo a A (ii) (Simetria) Se a b então b a (iii) (Transitividade) Se a b e b c então a c Estabelecer uma relação de equivalência em um conjunto é essencialmente identificar formalmente os elementos do conjunto com respeito à relação

Rodney Josué Biezuner 35 319 Exemplo Em Z Z\ {0} estabelecemos a relação de equivalência (a, b) (c, d) se ad = bc Representando elementos de Z Z\ {0} na forma de frações isso quer dizer que estamos identificando as frações da maneira usual: Assim, por exemplo e a b c d a b, se ad = bc 1 2 2 4 5 10 2 1 100 50 18 9 320 Definição Um isomorfismo entre dois espaços vetoriais V e W sobre um mesmo corpo F é uma transformação linear bijetiva T : V W cuja inversa é linear Quando existir, dizemos que V e W são isomorfos e representamos isso por V = W 321 Proposição Seja T : V W uma transformação linear injetiva entre dois espaços vetoriais Seja Z = T (V ) Então a transformação inversa T 1 : Z V também é linear Prova: Dados z 1, z 2 Z, sejam v 1, v 2 V tais que T (v 1 ) = z 1, T (v 2 ) = z 2 Dados α, β F, segue que T (αv 1 + βv 2 ) = αt (v 1 ) + βt (v 2 ) = αz 1 + βz 2 Portanto, T 1 (αz 1 + βz 2 ) = αv 1 + βv 2 = αt 1 (z 1 ) + βt 1 (z 2 ) 322 Proposição Isomorfia é uma relação de equivalência entre espaços vetoriais Prova: Com efeito: (i) V = V O operador identidade I : V V é um isomofismo (ii) V = W implica W = V Se T : V W é um isomorfismo, segue da proposição anterior que T 1 : W V também é (iii) Se V = W e W = Z, então V = Z Se T : V W e S : W Z são isomorfismos, então a composta S T : V Z também é Assim, do ponto de vista da álgebra linear, espaços isomorfos são identificados; eles são indistinguíveis do ponto de vista de operações lineares entre vetores 323 Lema Uma transformação linear T : V W é injetiva se e somente se T 1 (0 W ) = 0 V Prova: Assuma T 1 (0 W ) = 0 V Então, se T (x) = T (y), por linearidade segue que T (x y) = 0 W, logo x y = 0 V e portanto x = y, ou seja, T é injetiva Reciprocamente, assuma T : V W é injetiva Como, Se T (x) = T (y), por linearidade T (x y) = 0 W, e como T (0 V ) = 0 W, segue da injetividade de T que x y = 0 V, logo x = y 324 Teorema Todo espaço vetorial sobre F de dimensão n é isomorfo a F n

Rodney Josué Biezuner 36 Prova: Seja B = {v 1,, v n } uma base para um espaço vetorial V sobre F de dimensão n Definimos um isomorfismo T : V F n por T (v i ) = e i, e declarando T linear, ou seja, T (α 1 v 1 + + α n v n ) = α 1 e 1 + + α n e n É fácil ver que T é linear, injetiva e sobrejetiva Estabelecer coordenadas em um espaço vetorial é equivalente a estabelecer um isomorfismo entre ele e F n Uma vez que fazemos isso, estamos trabalhando essencialmente em F n Assim, do ponto de vista das operações da álgebra linear finita, existem apenas os espaços F n Todos os outros espaços vetoriais de dimensão finita sobre F são isomorfos a algum F n, independentemente se os seus vetores são n-uplas de escalares, segmentos orientados, matrizes, funções ou o que seja Tudo o que enxergamos são as relações lineares 325 Lema Se n > m, então uma transformação linear T : F n F m não pode ser injetiva Prova: Mostraremos que ker T {0} Seja A a matriz m n que representa T em relação às bases canônicas de F n e F m : a 11 a 12 a 1m a 1m+1 a 1n a 21 a 22 a 2m a 2m+1 a 2n A = a m1 a m2 a mm a mm+1 a mn Resolvendo o sistema linear homogêneo AX = 0 para encontrar o núcleo de T, chegamos à forma escalonada reduzida 1 0 0 b 1m+1 b 1n 0 0 1 0 b 2m+1 b 2n 0 0 0 1 b mm+1 b mn 0 (assumindo que não obtemos nenhuma linha nula; se obtivermos linhas nulas, melhor ainda) Esta matriz aumentada é equivalente ao sistema x 1 = b 1m+1 x m+1 b 1n x n x 2 = b 2m+1 x m+1 b 2n x n x m = b mm+1 x m+1 b mn x n Como x m+1,, x n podem assumir valores arbitrários, segue que o sistema homogêneo admite infinitas soluções 326 Lema Se n < m, então uma transformação linear T : F n F m não pode ser sobrejetiva Prova: Já vimos na Proposição 33 que T (F n ) é um subespaço vetorial de F m com dimensão menor que ou igual a n Como dim F m = m > n e a dimensão de um espaço vetorial é um invariante, segue imediatamente que não podemos ter T (F n ) = F m 327 Teorema Se n m, então F n não é isomorfo a F m 328 Corolário Se V e W são espaços vetoriais sobre F, então eles são isomorfos se e somente se dim V = dim W

Rodney Josué Biezuner 37 Prova: Segue dos Teorema 324 e 327 e do fato de isomorfismo ser uma relação de equivalência 329 Exemplo Os seguintes subespaços são isomorfos: e R 6 = M2 3 (R) = M 3 2 (R) = M 6 1 (R) = M 1 6 (R) = P 5 (R) C 24 = M1 24 (C) = M 24 1 (C) = M 2 12 (C) = M 12 2 (C) = M 3 8 (C) = M 8 3 (C) = M 4 6 (C) = M 6 4 (C) = P 23 (C) 330 Teorema Sejam B V = {v 1,, v n } e B W = {w 1,, w m } bases para os espaços vetoriais V e W, respectivamente Então a transformação Φ : L (V, W ) M m n (F) definida por T [T ] BV,B W é um isomofismo entre espaços vetoriais Mais que isso, ela também preserva o produto Prova: Exercício 36 Teorema do Núcleo e da Imagem Seção 63 73 e 74 do livro-texto Segue da Proposição 33 que o conjunto imagem im T de uma transformação linear T : V W entre espaços vetoriais é um subespaço de W e que o conjunto T 1 (0) é um subespaço de V ; este último é chamado o núcleo da transformação linear T e denotado ker T O teorema a seguir é um dos resultados mais importantes de Álgebra Linear 331 Teorema (Teorema do Núcleo e da Imagem) Seja T : V W uma transformação linear entre dois espaços vetoriais de dimensão finita Então dim V = dim (ker T ) + dim (im T ) Prova: Seja {x 1,, x k } uma base para ker T e complete este conjunto LI até uma base {x 1,, x k, x k+1,, x n } para V Afirmamos que B = {T x k+1,, T x n } é uma base para im T De fato, dado v = n α i x i, temos T v = n α i T x i, já que T x 1 = = T x k = 0, portanto B gera im T Para provar que B é LI, suponha que α i T x i = 0 Então, o que implica que nulo), logo i=k+1 i=k+1 T i=k+1 ( n i=k+1 α i x i ) = 0, i=k+1 α i x i ker T (a interseção dos subespaços x 1,, x k e x k+1,, x n é o vetor α i x i = 0 e portanto α k+1 = = α n = 0

Rodney Josué Biezuner 38 332 Corolário Sejam V e W espaços vetoriais com a mesma dimensão Então uma transformação linear T : V W é injetiva se e somente se ela é sobrejetiva Prova: Pois dim W = dim V = dim (ker T ) + dim (im T ), logo dim (ker T ) = 0 se e somente se dim (im T ) = dim W O Teorema do Núcleo e da Imagem dá uma demonstração alternativa dos Lemas 325 e 326: 333 Corolário Sejam V e W espaços vetoriais com dimensões n e m, respectivamente Se n > m uma transformação linear T : V W não pode ser injetiva e se n < m ela não pode ser sobrejetiva Prova: Como se n > m segue que Da mesma forma, como se n < m temos que n = dim (ker T ) + dim (im T ) dim (ker T ) + m, dim (ker T ) n m > 0 n = dim (ker T ) + dim (im T ) dim (im T ), dim (im T ) < m 334 Exemplo Encontre bases para ker T e im T se T : R 5 R 4 é a transformação linear representada nas bases canônicas de R 5 e R 4 pela matriz 1 4 5 0 9 A = 3 2 1 0 1 1 0 1 0 1 2 3 5 1 8 Solução Núcleo de T : Para encontrar ker T, resolvemos o sistema homogêneo AX = 0, escalonando a matriz A até chegar na forma escalonada reduzida: 1 4 5 0 9 1 4 5 0 9 3 2 1 0 1 1 0 1 0 1 l 2 3l 1 0 14 14 0 28 l 3 + l 1 0 4 4 0 8 2 3 5 1 8 l 4 2l 1 0 5 5 1 10 l 2/ ( 14) l 4 / ( 5) l 3 /4 + l 2 /14 l 1 4l 3 ( 5) (l 3 l 2 ) 1 4 5 0 9 0 1 1 0 2 0 1 1 1/5 2 0 0 0 0 0 1 0 1 0 1 0 1 1 0 2 0 0 0 1 0 0 0 0 0 0 A matriz escalonada reduzida obtida é a matriz de coeficientes do sistema homogêneo x 1 + x 3 + x 5 = 0 x 2 + x 3 + 2x 5 = 0 x 4 = 0

Rodney Josué Biezuner 39 ou x 1 = x 3 x 5 x 2 = x 3 2x 5 x 4 = 0 Logo, x 3 e x 5 podem ser atribuídos valores arbitrários α e β, de modo que obtemos Como ker T = {( α β, α 2β, α, 0, β) : α, β R} ( α β, α 2β, α, 0, β) = ( α, α, α, 0, 0) + (β, 2β, 0, 0, β) segue que uma base para ker T é dada por Em particular, e segue do Teorema do Núcleo e da Imagem que = α ( 1, 1, 1, 0, 0) + β (1, 2, 0, 0, 1), B ker T = {( 1, 1, 1, 0, 0), (1, 2, 0, 0, 1)} (335) dim (ker T ) = 2 (336) dim (im T ) = 5 2 = 3 Imagem de T : Sabemos que a imagem de T é gerada pelos vetores colunas da matriz A Para encontrar uma base para im T basta determinar quais destes geradores são LI Isso pode ser feito de várias maneiras Podemos tomar a matriz transposta de A e escaloná-la até chegar na sua forma escalonada Os vetores linha de A formarão uma base para im T : 1 3 1 2 4 2 0 3 5 1 1 5 0 0 0 1 9 1 1 8 de modo que uma base para im T é dada por l 2 4l 1 l 3 5l 1 l 5 9l 1 l 2 l 4 l 3 l 2 l 5 2l 2 1 3 1 2 0 14 4 5 0 14 4 5 0 0 0 1 0 28 8 10 1 3 1 2 0 14 4 5 0 0 0 1 0 0 0 0 0 0 0 0 B im T = {(1, 3, 1, 2), (0, 14, 4, 5), (0, 0, 0, 1)} (337) Outra maneira de encontrar uma base para im T é observar que como dim (im T ) = 3, conforme obtivemos acima, basta encontrar 3 vetores colunas de A que são linearmente independentes Isso é mais fácil de ver na matriz escalonada reduzida de A que obtivemos acima: 1 0 1 0 1 0 1 1 0 2 0 0 0 1 0 0 0 0 0 0 Chamando as colunas desta matriz de w 1, w 2, w 3, w 4 e w 5, embora elas não gerem im T (por exemplo, o vetor (0, 0, 0, 1), que está na imagem de T porque é o quarto vetor coluna da matriz A, não pode

Rodney Josué Biezuner 40 ser escrito de forma alguma como combinação linear de w 1, w 2, w 3, w 4, w 5 ), elas preservam as relações lineares entre os vetores colunas de A, que chamaremos de v 1, v 2, v 3, v 4 e v 5 Observando que w 3 = w 1 + w 2, w 5 = w 2 + w 3, e que os vetores w 1, w 2 e w 4 são LI, segue também que v 3 = v 1 + v 2, v 5 = v 2 + v 3, e que os vetores v 1, v 2 e v 4 são LI, de modo que outra base para im T é B im T = {(1, 3, 1, 2), (4, 2, 0, 3), (0, 0, 0, 1)} (338) 37 Teorema do Posto Seções 73 e 75 do livro-texto 335 Definição Se A M m n (F), então existem 3 subespaços vetoriais importantes associados com A: 1 O espaço-linha lin (A) de A é o subespaço de F n gerado pelos vetores-linha de A 2 O espaço-coluna col (A) de A é o subespaço de F n gerado pelos vetores-coluna de A 3 O núcleo ou espaço nulo ker (A) de A é o subespaço de F n solução do sistema homogêneo AX = 0 336 Definição O posto de uma matriz é a dimensão do espaço-coluna da matriz e a sua nulidade é a dimensão do seu núcleo Do Teorema do Núcleo e da Imagem segue que se A M m n (F), então posto (A) + nulidade (A) = n O resultado a seguir também é um dos mais importantes em Álgebra Linear 337 Teorema (Teorema do Posto) Seja A M m n (F) uma matriz Então dim lin (A) = dim col (A) Prova: Suponha que dimlin (A) = k Isso significa que a forma escalonada reduzida R de A tem k vetoreslinha não-nulos, digamos R 1,, R k Como A e R tem o mesmo espaço-linha, segue que os vetores-linha A 1,, A m de A podem ser escritos como combinações lineares dos vetores-linha de R, digamos A 1 = c 11 R 1 + c 12 R 2 + + c 1k R k, A 2 = c 21 R 1 + c 22 R 2 + + c 2k R k, A m = c m1 R 1 + c m2 R 2 + + c mk R k Isso implica que o j-ésimo elemento da linha A i é dado por A ij = c i1 R 1j + c i2 R 2j + + c ik R kj

Rodney Josué Biezuner 41 Logo, a j-ésima coluna da matriz A é dada por A 1j c 11 A 2j = R c 21 1j + R 2j A mj c m1 c 12 c 22 c m2 + + R kj c 1k c 2k c mk Portanto, o espaço-coluna de A também é gerado por k vetores Isso implica que dim col (A) dim lin (A), (339) já que não sabemos em princípio se estes vetores são linearmente independentes Mas isso vale para qualquer matriz, em particular também vale para a transposta de A, logo também temos Mas logo (340) é equivalente a Colocando (339) e (341) juntos, concluímos que dim col ( A T ) dim lin ( A T ) (340) dim col ( A T ) = dim lin (A), dim lin ( A T ) = dim col (A), dim lin (A) dim col (A) (341) dim lin (A) = dim col (A) Em vista do Teorema do Posto, segue que o posto de uma matriz também é a dimensão de seu espaço-linha 38 Mudança de Base e Semelhança de Matrizes Seções 81 e 82 do livro-texto 338 Teorema Sejam B = {v 1,, v n } e B = {v 1,, v n} duas bases para o espaço vetorial V Seja T : V V um operador linear Então existe uma única matriz invertível P tal que [T ] B = P [T ] B P 1, [T ] B = P 1 [T ] B P As colunas de P são dadas pelas coordenadas dos vetores da base B com relação à base B, ou seja, Prova: Sabemos que para todo vetor v V Por definição, também temos P = [[v 1 ] B [v n ] B ] [v] B = P 1 [v] B, [T v] B = P 1 [T v] B, [T v] B = [T ] B [v] B

Rodney Josué Biezuner 42 Logo, donde Mas, por definição, logo o que significa que P 1 [T v] B = [T ] B P 1 [v] B, [T v] B = P [T ] B P 1 [v] B [T v] B = [T ] B [v] B, [T ] B [v] B = P [T ] B P 1 [v] B, [T ] B = P [T ] B P 1 Observe que a matriz P nada mais é que a matriz de mudança de base da base B para a base B e portanto P 1 é a matriz de mudança de base da base B para a base B Assim, [T ] B = Muda B B [T ] B Muda B B 339 Definição Sejam A, B M n (F) duas matrizes quadradas Dizemos que A e B são semelhantes se existe uma matriz invertível P M n (F) tal que B = P 1 AP Segue da recíproca do Teorema 330 que duas matrizes são semelhantes se em cada espaço vetorial sobre F fixado elas representam a mesma transformação linear em relação a duas bases (possivelmente) distintas 340 Exemplo Seja T : R 3 R 3 a transformação linear representada na base canônica de R 3 pela matriz A = 4 2 2 4 2 2 2 2 4 Encontre a matriz de T em relação à base B = {(1, 1, 0), (1, 0, 1), (1, 1, 1)} Solução Temos donde Logo, [T ] B = P AP 1 = P = P 1 = 1 0 1 1 1 1 0 1 1 1 3 2 3 1 3 1 3 1 3 1 3 2 3 1 3 1 3 1 0 1 1 1 1 0 1 1 1 =, 1 3 2 3 1 3 1 3 1 3 1 3 2 3 1 3 1 3 4 2 2 2 4 2 1 1 1 1 0 1 = 2 0 0 0 2 0 2 2 4 0 1 1 0 0 8

Capítulo 4 Espaços com Produto Interno 41 Produto Interno 41 Definição Seja V um espaço vetorial real Um produto interno em V é uma função, : V V R que satisfaz as seguintes propriedades: (i) x + y, z = x, z + y, z para todos x, y, z V ; (ii) αx, y = α x, y para todos x, y V e para todo α R; (iii) x, y = y, x para todos x, y V ; (iv) x, x > 0 para todo x 0 Um espaço vetorial real de dimensão finita dotado de um produto interno é freqüentemente chamado um espaço euclidiano 42 Proposição Em um espaço euclidiano valem as seguintes propriedades: 1 2 x, x 0 para todo x V x, x = 0 se e somente se x = 0 Em resumo, x, αy = α x, y para todos x, y V e para todo α R αx + βy, z = α x, z + β y, z para todos x, y, z V e para todos α, β R (41) 43 Exemplo Definimos um produto interno em R n da seguinte forma Se x = (x 1,, x n ) e y = (y 1,, y n ), então x, y = x i y i (42) Este é o chamado produto interno canônico em R n 43

Rodney Josué Biezuner 44 44 Exemplo Identificando R n com o espaço das matrizes reais n 1 (matrizes colunas reais), dada uma matriz real n n invertível A, definimos um produto interno em R n por x, y = y t ( A t A ) x (43) Note que A t A é uma matriz simétrica Quando A = I, obtemos o produto interno canônico em R n Vamos verificar apenas as propriedades (iii) e (iv) da Definição 41, já que a verificação das demais propriedades é imediata Como a matriz A t A é simétrica e a transposta de uma matriz 1 1 (um número) é ela próprio, temos Em seguida, observando que Daí, x, x = x t ( A t A ) x = = i,j,r=1 x, y = y t ( A t A ) x = [ x t ( A t A ) y ] t = x t ( A t A ) y = y, x ( A t A ) n ij = a t ira rj = [( x 1i A t A ) x ] = i1 x i x j a ri a rj = r=1 r=1 n x 1i ( n ) a ri x i a ri a rj r=1 ( A t A ) x ij j1 = a rj x j = Agora, como A é invertível, se x 0 existe pelo menos algum r tal que a ri x i 0 r=1 x 1i 2 a ri x i 0 (este somatório é exatamente o r-ésimo elemento da matriz Ax) logo x, x > 0 r=1 a ri a rj x j1 45 Exemplo Se V é um espaço vetorial e W é um espaço vetorial com produto interno, ambos sobre o mesmo corpo R, se T : V V é um isomorfismo, definimos um produto interno em V a partir do produto interno em W por x, y V := T x, T y W (44) Dizemos que, V é o produto interno em V induzido pelo produto interno em W através do isomorfismo T Na verdade, é suficiente que T seja uma aplicação linear injetiva para esta definição fazer sentido (pois T é um isomorfismo de V sobre a sua imagem) 46 Exemplo Definimos um produto interno em M n (R) por A, B = a ij b ij (45) i, Usando a transposta e a função traço, este produto pode ser escrito na forma A, B = tr ( AB t)

Rodney Josué Biezuner 45 47 Exemplo Se C ([0, 1] ; R) denota o espaço das funções contínuas no intervalo [0, 1] com valores em R, definimos um produto interno neste espaço de dimensão infinita por f, g = 1 0 f (t) g (t) dt (46) 48 Proposição Seja V um espaço vetorial sobre R de dimensão n Então todo produto interno em V é determinado por uma matriz simétrica definida positiva Mais especificamente, fixe uma base de V e escreva os vetores em coordenadas com relação a esta base Se, é um produto interno em V, então existe uma matriz simétrica A sobre R tal que x, y = y t Ax, (47) A é invertível e satisfaz x t Ax > 0 para todo x V Reciprocamente, se A é uma matriz simétrica invertível que satisfaz x t Ax > 0 para todo x V, então a equação acima define um produto interno em V Prova: Seja B = {x 1,, x n } uma base para V Então afirmamos que Com efeito, se x = n a i x i e y = n b j x j, temos n x, y = a i x i, y = = a i x i, y = b j x i, x j a i = A ij = x j, x i b j a i x i, b j x j = n A ji a i1 = b 1j (Ax) j1 = y t Ax a i b j x i, x j Como x t Ax = x, x > 0 para todo x 0, em particular ker A = {0} e portanto A é invertível Reciprocamente, se A é uma matriz simétrica invertível que satisfaz x t Ax > 0 para todo x V e definimos x, y = y t Ax, este é um produto interno em V Para verificar (iii), observe que É fácil ver que as propriedades (i), (ii) e (iv) da Definição 41 são válidas x, y = y t Ax = [ x t A t y ] t = x t Ay = y, x 42 Norma 49 Definição Seja V um espaço vetorial sobre R Uma norma em V é uma função : V [0, + ) que satisfaz as seguintes propriedades: (i) x > 0 para todo x 0; (ii) αx = α x para todo x V e para todo α R; (iii) (Desigualdade Triangular) x + y x + y para todos x, y V

Rodney Josué Biezuner 46 Um espaço vetorial dotado de uma norma é chamado um espaço normado Uma norma pode ser definida a partir de um produto interno, enquanto que um produto interno pode ser definido a partir de uma norma somente se esta satisfaz a identidade do paralelogramo, como veremos a seguir 410 Definição Seja V um espaço vetorial com produto interno Se x, y = 0, dizemos que x e y são vetores ortogonais 411 Proposição (Desigualdade de Cauchy-Schwarz) Seja V um espaço vetorial com produto interno, e a norma derivada deste produto interno Então para todos x, y V Prova: Se x = αy, então x, y x y (48) x, y = αy, y = α y, y = α y 2 = α y y = x y, ou seja, a igualdade na desigualdade de Cauchy-Schwarz é atingida quando um dos vetores é múltiplo escalar do outro Se x não é múltiplo escalar de y, em particular x 0 e podemos tomar a componente ortogonal de y à direção x, isto é, o vetor y, x y x 2 x (o vetor y, x 2 x é a componente tangencial de y na direção x) De fato, temos x y, x y x 2 x, x y, x = y, x x 2 x, x y, x = y, x 2 x, x = 0 x Daí, segue que y, x y, x 0 y 2 x, y x x 2 x = y = y 2 2 y, x x 2 x, y = x, y y 2 x 2, y, x x 2 x, y donde o resultado desejado 412 Proposição Seja V um espaço vetorial com produto interno Então define uma norma em V x = x, x (49) Prova: A condição (i) da Definição 410 decorre imediatamente da condição (iv) da Definição 41 A condição (ii) da Definição 410 decorre de αx = αx, αx = α 2 x, x = α x, x = α x

Rodney Josué Biezuner 47 Finalmente, a desigualdade triangular é provada usando a desigualdade de Cauchy-Schwarz: x + y 2 = x + y, x + y = x, x + x, y + y, x + y, y = x 2 + 2 x, y + y 2 x 2 + 2 x, y + y 2 x 2 + 2 x y + y 2 = ( x + y ) 2 A norma definida na Proposição 412 é chamada a norma derivada do produto interno ou norma induzida pelo produto interno Em particular, se V é um espaço vetorial real, segue da desigualdade de Cauchy-Schwarz que 1 x, y x y 1 413 Definição Seja V um espaço vetorial real Dados dois vetores x, y V definimos o seu ângulo (x, y) por x, y (x, y) = arccos x y Em particular, se x, y são vetores ortogonais, então (x, y) = π/2 414 Proposição (Teorema de Pitágoras) Seja V um espaço vetorial com produto interno, e a norma derivada deste produto interno Se x, y V são vetores ortogonais, temos x + y 2 = x 2 + y 2 (410) Reciprocamente, se V é um espaço vetorial real e x, y V são vetores que satisfazem a identidade de Pitágoras x + y 2 = x 2 + y 2, então x, y são vetores ortogonais Prova: Temos x + y 2 = x + y, x + y = x, x + x, y + y, x + y, y = x, x + y, y = x 2 + y 2 Se V é um espaço vetorial real, então x + y 2 = x, x + 2 x, y + y, y = x 2 + 2 x, y + y 2 Logo, se x, y satisfazem a identidade de Pitágoras, necessariamente x, y = 0 415 Proposição (Identidade Polar) Seja V um espaço vetorial real com produto interno, e a norma derivada deste produto interno Se V é um espaço vetorial real, então x, y = 1 4 x + y 2 1 4 x y 2 (411) Prova: 1 4 x + y 2 1 4 x y 2 = 1 4 ( x, x + 2 x, y + y, y ) 1 ( x, x + 2 x, y + y, y ) = x, y 4

Rodney Josué Biezuner 48 416 Proposição (Identidade do Paralelogramo) Seja V um espaço vetorial com produto interno, e a norma derivada deste produto interno Então ( x + y 2 + x y 2 = 2 x 2 + y 2) (412) Prova: Temos x + y 2 + x y 2 = ( x, x + x, y + y, x + y, y ) + ( x, x x, y y, x + y, y ) ( = 2 x 2 + y 2) 417 Proposição Seja V um espaço vetorial real normado, cuja norma satisfaz a identidade do paralelogramo ( x + y 2 + x y 2 = 2 x 2 + y 2) Então a identidade polar x, y := 1 4 x + y 2 1 x y 2 4 define um produto interno, em V tal que a sua norma é derivada dele Prova: Vamos verificar que x, y := 1 4 x + y 2 1 x y 2 4 satisfaz todas as condições da Definição 41 para ser um produto interno real em V (i) Temos x, z + y, z = 1 4 x + z 2 1 4 x z 2 + 1 4 y + z 2 1 y z 2 4 = 1 ( x + z 2 + y + z 2) 1 ( x z 2 + y z 2) 4 4 = 1 ( x + z + y + z 2 + x + z (y + z) 2) 8 1 ( x z + y z 2 + x z (y z) 2) 8 = 1 ( x + z + y + z 2 + x y 2) 1 ( x z + y z 2 + x y 2) 8 8 = 1 ( x + z + y + z 2) 1 ( x z + y z 2) 8 8 = 1 (2 x + y + z 2 + 2 z 2 (x + y + z) z 2) 8 1 (2 x + y z 2 + 2 z 2 (x + y z) + z 2) 8 = 1 ( 2 x + y + z 2 x + y 2) 1 (2 x + y z 2 x + y 2) 8 8 = 1 4 x + y + z 2 1 x + y z 2 4 = x + y, z (ii) Se α = n N, por iteração de (i) obtemos nx, y = n x, y ;

Rodney Josué Biezuner 49 por exemplo, para n = 2 temos Se n = 1, notando que escrevemos de modo que Daí, se n N, 2x, y = x + x, y = x, y + x, y = 2 x, y 0, y = 1 4 0 + y 2 1 4 0 y 2 = 1 4 y 2 1 4 y 2 = 1 4 y 2 1 4 y 2 = 0, 0 = 0, y = x x, y = x, y + x, y, x, y = x, y nx, y = n ( x), y = n x, y = ( 1) n x, y = n x, y Portanto, αx, y = α x, y para todo α Z Em seguida, para provar que 1 n x, y = 1 x, y n para todo n N, notamos que x, y = 1 n x, y = 1 1 n x, y = n n x, y Reunindo os dois resultados, concluímos que αx, y = α x, y para todo α Q Para obter o resultado geral para qualquer α R, observe que a função norma é contínua em um espaço normado e como o produto interno foi definido a partir da norma, ele também é uma função contínua Assim, dado qualquer α R, tomamos uma seqüência (α n ) Q tal que α n α e obtemos α n x, y = α n x, y αx, y α x, y (iii) Temos x, y = 1 4 x + y 2 1 4 x y 2 = 1 4 y + x 2 1 4 y x 2 = y, x (iv) Se x 0, temos x, x = 1 4 x + x 2 1 4 x x 2 = 1 4 2x 2 = x 2 > 0 43 Bases Ortonormais e Projeções Ortogonais 418 Definição Seja V um espaço vetorial com produto interno Dizemos que um conjunto S V é ortogonal se os elementos de S são dois a dois ortogonais Um conjunto ortogonal cujos vetores têm todos norma 1 é chamado um conjunto ortonormal O vetor nulo é o único vetor ortogonal a todos os vetores de V

Rodney Josué Biezuner 50 419 Proposição Se um vetor y é a combinação linear dos vetores ortogonais não-nulos x 1,, x m, então y = Em particular, se os vetores x 1,, x m são ortonormais, segue que Prova: Se y = m α j x j, então y = m k=1 y, x k x k 2 x k (413) m y, x k x k (414) k=1 m m y, x k = α j x j, x k = α j x j, x k = α k x k 2 420 Corolário Qualquer conjunto ortogonal de vetores não-nulos é linearmente independente Prova: Se x 1,, x m são vetores ortogonais não-nulos e 0 = m α j x j, segue da proposição anterior que α j = 0, x k x k 2 = 0 421 Teorema (Processo de Ortogonalização de Gram-Schmidt) Todo espaço vetorial com produto interno possui uma base ortonormal Prova: Seja B = {y 1,, y n } uma base para um espaço vetorial com produto interno V Construiremos uma base ortogonal B = {x 1,, x n } a partir de B usando o algoritmo chamado processo de ortogonalização de Gram-Schmidt Para obter uma base ortonormal a partir da base ortogonal B basta dividir cada vetor de B pela sua norma Primeiro tomamos x 1 = y 1 Indutivamente, suponha obtidos vetores ortogonais x 1,, x m tais que {x 1,, x k } é uma base para o subespaço gerado pelos vetores y 1,, y k, 1 k m Para construir o vetor x m+1, consideremos a projeção ortogonal do vetor y m+1 sobre o subespaço gerado pelos vetores x 1,, x m : Tomamos m x m+1 = y m+1 y m+1, x j x j 2 x j m y m+1, x j x j 2 x j Então x m+1 0, caso contrário x m+1 está no subespaço gerado por y 1,, y m e portanto é uma combinação linear destes vetores Além disso, para todo 1 k m temos x m+1, x k = y m+1, x k m y m+1, x j x j 2 x j, x k = y m+1, x k y m+1, x k x k 2 x k, x k = 0

Rodney Josué Biezuner 51 Assim, {x 1,, x m+1 } é um conjunto de m + 1 vetores ortogonais que geram o subespaço y 1,, y m+1 de dimensão m + 1, logo é uma base para este A maior vantagem em se usar bases ortonormais é a facilidade em trabalhar com coordenadas em relação a estas bases: como vimos na Proposição 8, para obter as coordenadas de um vetor em relação a uma base ortonormal basta calcular os produtos internos dele em relação aos vetores da base 422 Proposição Seja V um espaço vetorial com produto interno de dimensão finita e T : V V um operador linear Se B = {x 1,, x n } é uma base ortonormal para V e A = [T ] B, então a ij = T x j, x i Prova: Por definição, Logo, T x j = a kj x k k=1 n T x j, x i = a kj x k, x i = a kj x k, x i = a ij k=1 k=1 423 Definição Seja V um espaço vetorial com produto interno e W V um subespaço de V O complemento ortogonal de W é o subespaço W = {y V : y, x = 0 para todo x W } A linearidade do produto interno com relação à primeira variável garante que W é um subespaço vetorial Observe que o complemento ortogonal de qualquer subconjunto S de V é um subespaço vetorial de V, mesmo se o próprio S não for 424 Proposição Para qualquer subespaço W V temos V = W W Prova: Seja {x 1,, x m } uma base ortogonal para W Dado x V defina k=1 y = m k=1 x, x k x k 2 x k W Então z = x y W porque x y, x j = 0 para todo j: m x, x k m x y, x j = x x k 2 x x, x k k, x j = x, x j x k 2 x k, x j = x, x j x, x j x j 2 x j, x j = 0 Logo, x = y + z com y W e z W Além disso, se x W W, então x, x = 0, logo x = 0 425 Definição Seja V um espaço vetorial com produto interno Dizemos que uma projeção E : V V é uma projeção ortogonal se ker E im E Na decomposição em soma direta k=1 V = im E ker E x = y + z, o vetor y é chamado a projeção ortogonal de x no subespaço W := im E

Rodney Josué Biezuner 52 426 Corolário Seja V um espaço vetorial com produto interno, W V um subespaço de V e {x 1,, x m } uma base ortogonal para W Dado x V, a projeção ortogonal de x em W é o vetor y = m k=1 x, x k x k 2 x k (415) 427 Definição Seja V um espaço vetorial com produto interno e W V um subespaço de V Dado x V, a melhor aproximação de x por vetores de W é o vetor y que satisfaz para todos os vetores z W x y x z Em outras palavras, x y = inf x z z W 428 Teorema Seja V um espaço vetorial com produto interno e W V um subespaço de V Dado x V, o vetor em W que melhor aproxima x é a projeção ortogonal de x em W Prova: Escreva x = y + y onde y é a projeção ortogonal de x em W e y W Dado z W, temos x z = y z + y, e como x z é ortogonal ao vetor y, segue da identidade de Pitágoras que x z 2 = y z 2 + y 2 Em particular, o valor mínimo para x z é atingido quando y z = 0, isto é, quando z = y 44 Operador Adjunto Denotaremos o espaço vetorial L (V, F) dos funcionais lineares sobre V por V Em um espaço vetorial com produto interno de dimensão finita, todo funcional linear é derivado do produto interno: 429 Teorema (Teorema da Representação de Riesz) Seja V um espaço vetorial com produto interno de dimensão finita e f V um funcional linear Então existe um único vetor x V tal que f (y) = y, x para todo y V Esta correspondência determina um isomorfismo entre V e V Prova: Seja {x 1,, x m } uma base ortonormal para V Se y V, então y = m y, x k x k k=1 Logo, m m m f (y) = y, x k f (x k ) = y, f (x k ) x k = y, f (x k ) x k k=1 k=1 k=1

Rodney Josué Biezuner 53 Tome x = m f (x k ) x k k=1 Se x V é outro vetor tal que f (y) = y, x para todo y V, então y, x = y, x para todo y V, donde y, x x = 0 Tomando y = x x, concluímos que x x = 0 Observe que o vetor x do Teorema da Representação de Riesz está no complemento ortogonal de ker f ou, mais precisamente, x = ker f 430 Definição Sejam V, W espaços vetoriais com produto interno e T : V W uma aplicação Dizemos que uma aplicação T : W V é uma adjunta de T se T x, y = x, T y para todos x V, y W Observe que também temos pois x, T y = T x, y, x, T y = T y, x = y, T x = T x, y 431 Lema Sejam V, W espaços vetoriais com produto interno e T : V W uma aplicação linear Se a adjunta existir, ela é única e linear Prova: Sejam y 1, y 2 W e α, β R Então, para todo x V temos x, T (αy 1 + βy 2 ) = T x, αy 1 + βy 2 = α T x, y 1 + β T x, y 2 = α x, T y 1 + β x, T y 2 = x, αt y 1 + βt y 2, o que implica, como no argumento para provar a unicidade usado na demonstração do teorema anterior, T (αy 1 + βy 2 ) = αt y 1 + βt y 2 O mesmo argumento também estabelece a unicidade de T Observe que na demonstração do Lema 431 não usamos o fato de T ser linear para provar que a adjunta T é linear Segue que, quando existe, a adjunta de qualquer aplicação é necessariamente linear Por outro lado, como a adjunta da adjunta de T é a própria aplicação T, porque T x, y = x, T y, como vimos logo acima, concluímos que T (adjunta de uma aplicação) deve ser linear Em outras palavras, para que a adjunta de uma aplicação T exista, T já deve ser uma aplicação linear Assim, não há realmente nenhum ganho em generalidade em definir a adjunta de uma aplicação arbitrária ao invés de definir apenas a adjunta de aplicações lineares, pois as únicas aplicações que possuem adjuntas são as aplicações lineares 432 Teorema Sejam V, W espaços vetoriais com produto interno de dimensão finita Então toda aplicação linear T : V W possui uma única adjunta Prova: Para cada y W, a aplicação x T x, y é um funcional linear em V Pelo Teorema de Representação de Riesz existe um único vetor z X tal que T x, y = x, z para todo x V Definimos uma aplicação T : W V adjunta de T por Pelo Lema 431, T é única e linear T y = z

Rodney Josué Biezuner 54 433 Proposição Seja V um espaço vetorial com produto interno de dimensão finita e T : V V um operador linear Se B = {x 1,, x n } é uma base ortonormal para V e então A = [T ] B, [T ] B = A t Em outras palavras, em relação a uma base ortonormal, a matriz do operador adjunto T é a transposta da matriz do operador T Prova: Seja B = [T ] B Pela Proposição 422 temos a ij = T x j, x i, b ij = T x j, x i Logo, b ij = T x j, x i = x i, T x j = T x i, x j = a ji 434 Definição Seja V um espaço vetorial com produto interno de dimensão finita e T : V V um operador linear Dizemos que T é um operador auto-adjunto se T = T 435 Corolário Seja V um espaço vetorial real com produto interno de dimensão finita e T : V V um operador linear auto-adjunto Se B = {x 1,, x n } é uma base ortonormal para V então A = [T ] B é uma matriz simétrica 436 Proposição Seja V um espaço vetorial com produto interno de dimensão finita e T, U : V V operadores lineares Então (i) (T + U) = T + U ; (ii) (αt ) = αt ; (iii) (T U) = U T ; (iv) (T ) = T ; (v) ( T 1) = (T ) 1, se T é invertível 437 Teorema Sejam V, W espaços vetoriais com produto interno e T : V W uma aplicação linear Então (i) ker T = (im T ) ; (ii) ker T = (im T ) ; (iii) dim (im T ) = dim (im T ) Em particular, V = ker T im T

Rodney Josué Biezuner 55 Prova: (i) y ker T T y = 0 x, T y = 0 T x, y = 0 y é ortogonal a im T y (im T ) para todo x V para todo x V (ii) Segue imediatamente de (i) se observarmos que (T ) = T (iii) Temos por (ii) e pelo teorema do núcleo e da imagem, respectivamente, dim V = dim (im T ) + dim (ker T ), dim V = dim (im T ) + dim (ker T ) Subtraindo uma expressão da outra obtemos o resultado 438 Corolário Seja A M m n (R) uma matriz Então dim col (A) = dim col ( A t) Prova: Segue do Teorema 437 (iii), já que a dimensão da imagem da transformação linear T representada por A na base canônica de R n é precisamente dimcol (A) e a dimensão da imagem da transformação linear adjunta T representada por A t na base canônica de R n é dimcol (A t ) 439 Corolário (Teorema do Posto e da Imagem) Seja A M m n (R) uma matriz Então dim lin (A) = dim col (A) Prova: Temos dim lin (A) = dim col ( A t) = dim col (A) 440 Teorema (Alternativa de Fredholm) Seja V um espaço vetorial com produto interno de dimensão finita e T : V V um operador linear Então vale apenas uma e somente uma das alternativas a seguir: ou T x = y tem solução, Prova: Segue do Teorema 437 que a equação ou T z = 0 tem solução z tal que y, z 0 T x = y tem solução se e somente se y (ker T ), pois (ker T ) = im T

Rodney Josué Biezuner 56 45 Operadores Unitários e Isometrias O objetivo principal desta seção é estudar operadores lineares que preservam o produto interno e, conseqüentemente, a norma de um espaço vetorial 441 Definição Sejam V, W espaços vetoriais com produto interno e T : V W uma aplicação Dizemos que T preserva o produto interno se T x, T y = x, y para todos x, y V (416) 442 Definição Sejam V, W espaços vetoriais normados e T : V W uma aplicação Dizemos que T é uma isometria (ou que T preserva a norma) se T x T y = x y para todos x, y V (417) 443 Proposição Sejam V, W espaços vetoriais com produto interno e norma derivada deste Seja T : V W uma aplicação linear Então T preserva o produto interno se e somente se T preserva a norma Prova: Suponha que T preserva o produto interno Então T x T y 2 = T x T y, T x T y = T (x y), T (x y) = x y, x y = x y 2 Reciprocamente, suponha que T preserva a norma Então T x, T y = 1 ( T x + T y 2 T x T y 2) = 1 ( T x T ( y) 2 T x T y 2) 4 4 = 1 ( x ( y) 2 x y 2) = 1 ( x + y 2 x y 2) 4 4 = x, y 444 Teorema Sejam V, W espaços vetoriais com produto interno e norma derivada deste Seja T : V W uma isometria tal que T (0) = 0 Então T é linear Prova: Do fato que T preserva norma e T (0) = 0 segue que Afirmamos que T preserva o produto interno De fato, T x = x para todo x V (418) z, z 2 z, w + w, w = z w, z w = z w 2 = T z T w 2 = T z T w, T z T w = T z, T z T z, T w T w, T z + T w, T w = z, z 2 T z, T w + w, w, donde para todos z, w V T z, T w = z, w

Rodney Josué Biezuner 57 Daí, Além disso, ou T (x + y) T (x) T (y) 2 = T (x + y) 2 + T x 2 + T y 2 + T (x + y), T x + T x, T (x + y) + T (x + y), T y + T y, T (x + y) + T x, T y + T y, T x = x + y 2 + x 2 + y 2 + x + y, x + x, x + y + x + y, y + y, x + y + x, y + y, x = (x + y) x y 2 = 0 T (αx), T y = αx, y = α x, y = α T x, T y = αt x, T y T (αx) αt x, T y = 0 para todo T y im T Como T (αx) αt x im T, temos T (αx) αt x = T y para algum y e concluímos que T (αx) = αt x Uma translação T (x) = x + a é um exemplo de uma isometria que não satisfaz T (0) = 0 445 Corolário Sejam V, W espaços vetoriais reais com produto interno e norma derivada deste Então toda isometria entre V e W é a composta de uma aplicação linear e uma translação Prova: Seja T : V W uma isometria Seja a = T (0) Então U : V W definida por U (x) = T (x) a é uma isometria que satisfaz U (0) = 0 e o resultado segue do teorema 446 Teorema Sejam V, W espaços vetoriais com produto interno e norma derivada deste Seja T : V W uma aplicação linear As seguintes afirmações são equivalentes: (i) T é uma isometria (ii) T preserva o produto interno (iii) T T = I Prova: (i) (ii) é a Proposição 443 (ii) (iii) Dado y V, como x, y = T x, T y = x, T T y para todo x V, segue que T T y = y para todo y V, isto é, T T = I (iii) (ii) Pois x, y = x, T T y = T x, T y 447 Definição Seja V um espaço vetorial com produto interno e T : V V um operador linear Dizemos que T é um operador unitário se T T = T T = I (419) Dizemos que uma matriz real A é ortogonal se AA t = A t A = I

Rodney Josué Biezuner 58 448 Corolário Seja V um espaço vetorial com produto interno e T : V V um operador unitário Então T é uma isometria e preserva o produto interno Em particular, T leva conjuntos ortonormais em conjuntos ortonormais 449 Proposição Seja V um espaço vetorial com produto interno de dimensão finita e T : V V um operador unitário Então det T = 1 Em particular, se V é real então det T = ±1 Prova: Pois e logo det (T T ) = det I = 1 det T = det T t = det T t = det T = det T, det (T T ) = det T det T = det T det T = det T 2 Em particular, uma aplicação linear que preserva normas preserva volumes 450 Proposição Seja V um espaço vetorial real com produto interno de dimensão finita e T : V V um operador linear Então T é unitário se e somente se a sua matriz em relação a uma base ortonormal é uma matriz ortogonal

Capítulo 5 Determinantes 51 Definição Definiremos a função determinante a partir das propriedades que queremos que ela satisfaça Provaremos depois que de fato existe uma função que satisfaz estas propriedades 51 Definição Identificaremos o espaço das matrizes quadradas M n (F) com o espaço F n F n, identificando colunas de uma matriz com vetores de F n Uma função determinante é uma função satisfazendo as seguintes propriedades: (D1) D é uma função multilinear: D : F n F n F D (c 1,, αc i + βc i,, c n ) = αd (c 1,, c i,, c n ) + βd (c 1,, c i,, c n ) (D2) D é uma função alternada: (D3) D (I) = 1 D (c 1,, c i,, c j,, c n ) = D (c 1,, c j,, c i,, c n ) Além de escrever D (A) ou D (c 1,, c n ) para a matriz A cujas colunas são c 1,, c n, também usaremos por exemplo a notação D (αc i + βc i) = αd (c i ) + βd (c i), D (c i, c j ) = D (c j, c i ), quando estiver claro no contexto que as outras colunas são mantidas fixadas (neste caso, a função determinante é uma função apenas da(s) coluna(s) variáveis) 52 Proposição Seja D : F n F n F uma função multilinear Então as afirmativas seguintes são equivalentes: (i) D é alternada (ii) Se c i = c j para i j, então D (c 1,, c n ) = 0 (iii) Se c i = c i+1 para algum i, então D (c 1,, c n ) = 0 59

Rodney Josué Biezuner 60 Prova: (i) (ii) Pois D (c i, c i ) = D (c i, c i ) implica D (c i, c i ) = 0 (ii) (i) Usando primeiro multilinearidade e depois (i), segue que logo 0 = D (c i + c j, c i + c j ) = D (c i, c i ) + D (c i, c j ) + D (c j, c i ) + D (c j, c j ) = D (c j, c i ) + D (c i, c j ), D (c i, c j ) = D (c j, c i ) (ii) (iii) Imediato (iii) (ii) Por indução, suponha que provamos que sempre que c i = c i+j temos D (c 1,, c k ) = 0 para todo j = 1,, k O caso k = 1 é exatamente (iii) Vamos provar que isso implica que se c i = c i+k+1 temos D (c 1,, c n ) = 0 De fato, porque D (c i,, c i+k, c i+k ) = 0 por (iii), e D (c i,, c i+k, c i+k+1 ) = D (c i,, c i+k, c i+k + c i+k+1 ), D (c i,, c i+k, c i+k + c i+k+1 ) = D (c i,, c i+k + c i+k+1, c i+k + c i+k+1 ) pois, por hipótese de indução, D (c i,, c i+k+1, c i+k + c i+k+1 ) = 0 e novamente por causa de (iii) 52 Existência D (c i,, c i+k + c i+k+1, c i+k + c i+k+1 ) = 0, 53 Definição Seja A M n (F) Denotamos por A (i j) a matriz em M n 1 (F) obtida ao se eliminar a i-ésima linha e a j-ésima coluna de A 54 Teorema (Existência da Função Determinante) Existe pelo menos uma função determinante Prova: A função determinante é construída indutivamente Em M 1 (F) = F definimos simplesmente det A = det (a) = a Em M 1 (F), definimos [ ] a11 a det A = det 12 = a a 21 a 11 a 22 a 12 a 21 22 É fácil verificar que estas funções satisfazem as propriedades (D1)-(D3) Em geral, tendo definido uma função determinante em M 1 (F),, M n 1 (F), definimos uma função determinante em M n (F) através da fórmula det A = ( 1) i+j a ij det A (i j) fixando algum i (por exemplo, i = 1) Esta é a chamada fórmula do determinante através da expansão em cofatores segundo a i-ésima linha de A Vamos verificar que a função assim definida satisfaz as propriedades (D1)-(D3): (D1) Sejam A = (a ij ) = (c 1,, αc k + βc k,, c n ), B = (b ij ) = (c 1,, c k,, c n ), C = (c ij ) = (c 1,, c k,, c n )

Rodney Josué Biezuner 61 Então Mas det A = ( 1) i+j a ij det A (i j) + ( 1) i+k (αb ik + βc ik ) det A (i k) j k ( 1) i+j a ij det A (i j) = j k = α ( 1) i+j a ij [α det B (i j) + β det C (i j)] j k ( 1) i+j a ij det B (i j) + β j k ( 1) i+j a ij det C (i j), j k enquanto que Portanto, ( 1) i+k (αb ik + βc ik ) det A (i k) = α ( 1) i+k a ik det B (i k) + β ( 1) i+k c ik det C (i k) det A = α ( 1) i+j b ij det B (i j) + β = α det B + β det C ( 1) i+j c ij det C (i j) (D2) Em vista da Proposição 52, basta provar que se A tem duas colunas adjacentes iguais então det A = 0 Seja A = (c 1,, c n ) e suponha que c k = c k+1 Se j k e j k + 1, então a matriz A (i j) tem duas colunas iguais, logo det A (i j) = 0 e det A = ( 1) i+k a i,k det A (i k) + ( 1) i+k+1 a i,k+1 det A (i k + 1) Como c k = c k+1, temos a i,k = a i,k+1 e A (i k) = A (i k + 1), portanto det A = 0 (D3) Se I n é a matriz identidade n n, então I n (i i) = I n 1 é a matriz identidade (n 1) (n 1) Logo, 53 Unicidade 531 Permutações det I n = ( 1) i+j δ ij det I n (i j) = ( 1) 2i det I n 1 = 1 55 Definição Seja I = {1,, n} Uma permutação de grau n é uma bijeção p : I I O conjunto das permutações de grau n será denotado por S n Uma permutação p pode ser representada pela matriz ( ) 1 2 n p = p 1 p 2 p n ou pela matriz A = (a ij ), onde a ij = { 1 se i = pj, 0 se i p j,

Rodney Josué Biezuner 62 ou seja, na coluna j o valor 1 é colocado na entrada da linha p j, os demais valores da coluna sendo iguais a 0 Em outras palavras, a matriz A é a representação matricial de um operador linear T : F n F n tal que T e j = e pj j = 1,, n Chamaremos a matriz A de matriz da permutação p (Apesar da primeira também ser uma matriz, a segunda representação matricial é mais importante porque a composta de permutações equivale à multiplicação destas matrizes, como veremos a seguir) O conjunto das matrizes de permutação será denotado por A n 56 Exemplo A permutação de grau 5 tem como matriz p = A = ( 1 2 3 4 5 4 2 5 3 1 0 0 0 0 1 0 1 0 0 0 0 0 0 1 0 1 0 0 0 0 0 0 1 0 0 ) 57 Definição Um grupo é um conjunto G munido de uma operação binária que satisfaz as seguintes propriedades: (i) (Associatividade) Para todos x, y, z G vale G G G (x, y) xy x (yz) = (xy) z (ii) (Existência de Elemento Neutro) Existe um elemento e G tal que para todo x G vale ex = xe = x (iii) (Existência de Inverso) Para todo elemento x G existe um elemento x 1 G tal que xx 1 = x 1 x = e Qualquer espaço vetorial é um grupo com relação à operação de soma de vetores O conjunto das matrizes invertíveis com relação à operação de multiplicação de matrizes também é um grupo Dado um conjunto S, conjunto de todas as bijeções de S em S sob a operação de composição de funções é um grupo Em particular, 58 Proposição O conjunto S n das permutações de grau n sob a operação de composição de permutações é um grupo 59 Exemplo Se então p = qp = ( 1 2 3 4 5 4 2 5 3 1 ( 1 2 3 4 5 4 1 3 5 2 ) ) e q = e p 1 = ( 1 2 3 4 5 2 1 5 4 3 ), ( 1 2 3 4 5 5 2 4 1 3 )

Rodney Josué Biezuner 63 510 Definição Dados dois grupos G e H, um homomorfismo entre eles é uma aplicação φ : G H que preserva a operação de grupo, isto é, φ (xy) = φ (x) φ (y) O homomorfismo é um isomorfismo entre grupos se φ for uma bijeção Denote por A n o grupo das matrizes cujas entradas em todas as linhas e colunas são 0 exceto em uma posição em cada linha e cada coluna, em que o valor é 1 Este é exatamente o conjunto das matrizes que representam permutações Este conjunto torna-se um grupo sob a operação de multiplicação de matrizes 511 Proposição O grupo S n é isomorfo a A n Prova: Ambos os grupos são isomorfos ao grupo das aplicações lineares T : F n F n tais que T e j = e pj j = 1,, n, para alguma permutação p Em outras palavras, a composta de duas permutações é representada pelo produto das matrizes de suas permutações 512 Definição Uma transposição é uma permutação τ : I I que satisfaz 513 Exemplo A permutação de grau 7 τ = τ i = j, τ j = i, τ k = k para todo k i, j ( 1 2 3 4 5 6 7 1 2 6 4 5 3 7 ) cuja matriz é é uma transposição A = 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 532 Demonstração da Unicidade da Função Determinante 514 Lema Se D 1, D 2 : F n F n F são duas funções multilineares alternadas (ie, satisfazem as propriedades (D1) e (D2) da Definição 1) tais que D 1 (I) = D 2 (I), então D 1 (A) = D 2 (A) para toda matriz de permutação A Prova: Seja A uma matriz de permutação Um número finito de trocas de colunas (no máximo n 1) transforma a matriz A na matriz identidade: transponha o vetor e 1 para a primeira coluna (se ele já não for a primeira coluna), obtendo uma matriz A 1 ; depois transponha o vetor e 2 para a segunda coluna (se ele já não for a segunda coluna), obtendo a matriz A 2 e assim sucessivamente

Rodney Josué Biezuner 64 Observe que trocar duas colunas de A equivale efetivamente a multiplicar a permutação p por uma transposição De fato, se no primeiro passo p 1 = j 1, p k = 1, ou seja, em termos da matriz de permutação A, o vetor e 1 ocupa a coluna k, consideramos a transposição τ 1 = k, de modo que (pτ) 1 = p (τ 1 ) = p k = 1, isto é, a matriz da permutação pτ possui o vetor e 1 na primeira coluna Em geral, se através de um certo número de permutações obtivemos uma permutação cuja matriz possui os vetores e 1,, e m 1 nas colunas 1,, m 1, respectivamente, se a coluna m está ocupada pelo vetor e j e m e o vetor e m ocupa a coluna k, isto é, a permutação representada por esta matriz satisfaz consideramos a transposição τ m = k, de modo que q m = j m, q k = m, (qτ) m = q (τ m ) = q k = m, e a matriz desta permutação possui o vetor e m na coluna m Portanto, provamos que dada uma permutação p, existem transposições τ 1,, τ k tais que pτ 1 τ k = id Em particular, como a inversa de uma transposição é ela própria, segue que p = τ k τ 1 Se forem necessárias k transposições para transformar a matriz A na matriz identidade, definindo A 0 = matriz de permutação de p = A, A 1 = matriz de permutação de pτ 1, A 2 = matriz de permutação de pτ 1 τ 2, A k 1 = matriz de permutação de pτ 1 τ 2 τ k 1, A k = matriz de permutação de pτ 1 τ 2 τ k 1 τ k = id = I, concluímos que, se D é uma função multilinear alternada, D (A) = ( 1) D (A 1 ) = ( 1) 2 D (A 2 ) = = ( 1) k 1 D (A k 1 ) = ( 1) k D (I), Assim, o valor de uma função multilinear alternada de qualquer matriz de permutação é caracterizado pelo valor que ela assume na matriz identidade Em particular, donde segue o resultado D 1 (A) = ( 1) k D 1 (I), D 2 (A) = ( 1) k D 2 (I),

Rodney Josué Biezuner 65 515 Teorema (Unicidade da Função Determinante) Se D 1, D 2 : F n F n F são duas funções multilineares alternadas (ie, satisfazem as propriedades (D1) e (D2) da Definição 1) tais que D 1 (I) = D 2 (I), então D 1 = D 2 Em particular, existe uma única função determinante Prova: Sejam c 1,, c n F n vetores arbitrários Escrevendo estes vetores em termos da base canônica de F n : c j = a ij e i, e utilizando a multilinearidade das funções D 1 e D 2, segue que D 1 (c 1,, c n ) = D 2 (c 1,, c n ) = i 1,,i n =1 p 1,,p n =1 a i1 1 a in nd 1 (e i1 e in ), a i11 a innd 2 (e i1 e in ) Como as funções são alternadas, temos que D 1 (e i1 e in ) = D 2 (e i1 e in ) = 0 sempre que a função i : I I não for uma permutação, isto é, sempre que i for tal que i k = i l para algum para k l Logo, D 1 (c 1,, c n ) = p S n a p11 a pnnd 1 (e p1 e pn ), D 2 (c 1,, c n ) = p S n a p1 1 a pn nd 2 (e p1 e pn ), e o resultado segue do Lema 514 516 Corolário O cálculo do determinante de uma matriz pode ser feito através da expansão em cofatores a partir de qualquer linha da matriz 517 Corolário (Decomposição das Permutações) Toda permutação é um produto de transposições Além disso, se p = τ 1 τ k é uma decomposição de p como um produto de transposições, então det (c p1,, c pn ) = ( 1) k det (c 1,, c n ) Em outras palavras, quando as posições das colunas de uma matriz são trocadas através de uma permutação, o sinal do determinante não se altera se esta permutação é um número par de transposições e o sinal muda se ela é um número ímpar de transposições Prova: Segue da demonstração do Lema 514 533 Fórmula do Determinante através de Permutações 518 Definição O sinal de uma permutação p é definido por onde A é a matriz de p sign p = det A 519 Proposição Se p = τ 1 τ k é uma decomposição de p como um produto de transposições, então sign p = ( 1) k

Rodney Josué Biezuner 66 Prova: Pois se A = (e p1,, e pn ), segue do Corolário 516 que sign p = det (e p1,, e pn ) = ( 1) k det (e 1,, e n ) = ( 1) k det I = ( 1) k 520 Corolário (Fórmula do Determinante através de Permutações) Temos det (c 1,, c n ) = Prova: Pelo Teorema 515, temos det (c 1,, c n ) = O resultado segue da Proposição 519 p S n (sign p) a p11 a pnn p S n a p1 1 a pn n det (e p1 e pn ) 521 Proposição O sinal de uma permutação satisfaz as seguintes propriedades: (i) Se id é a permutação identidade, então sign id = 1 (ii) Se τ é uma transposição, então sign τ = 1 (iii) Se p, q são permutações, então sign (pq) = sign p sign q Prova: Se p = τ 1 τ k e q = σ 1 σ l, então pq = τ 1 τ k σ 1 σ l, portanto 54 Propriedades 522 Proposição (Determinante da Transposta) Prova: Temos sign (pq) = ( 1) k+l = ( 1) k ( 1) l = sign p sign q det A = Agora, observe que se p i = j, então i = p 1 j det A = p 1 S n det ( A t) = det A p S n (sign p) a p11 a pnn, logo a pi i = a jp 1 Como sign p = sign p 1, segue que j = ( sign p 1 ) a 1p 1 1 a np 1 n = ( (sign q) A t ) q 1 1 ( A t) q n n q S n = det ( A t) q S n (sign q) a 1q1 a nqn 523 Corolário O cálculo do determinante de uma matriz pode ser feito através da expansão em cofatores a partir de qualquer coluna da matriz

Rodney Josué Biezuner 67 524 Proposição (Determinante do Produto) det (AB) = det A det B Prova: Denote as colunas de A, B e AB respectivamente por A j, B j e (AB) j Observe que de modo que podemos escrever Portanto, (AB) 1j = (AB) 2j = (AB) nj = (AB) j = r=1 a 1r b rj, r=1 a 2r b rj, r=1 a nr b rj, r=1 b rj A r r=1 ( n ) det (AB) = det b r1 A r,, b rn A r Expandindo esta expressão (isto é, usando a multilinearidade e alternalidade do determinante da mesma forma que fizemos no Teorema 515), obtemos det (AB) = b p11 b pnn det (A p1,, A pn ) = (sign p) b p11 b pnn det (A 1,, A n ) p S n p S n = (sign p) b p1 1 b pn n det A = det A (sign p) b p1 1 b pn n p S n p S n = det A det B 525 Corolário (Determinante da Inversa) Se A for invertível, então det A 0 e Prova: Pois e r=1 det ( A 1) = 1 det A det ( AA 1) = det A det ( A 1) det ( AA 1) = det I = 1 526 Corolário Matrizes semelhantes possuem o mesmo determinante Prova: Pois, se B = P 1 AP, então det B = det ( P 1 AP ) = det P 1 det A det P = 1 det A det P = det A det P

Rodney Josué Biezuner 68 55 Regra de Cramer Seja A uma matriz n n e b F n um vetor Considere a equação (que corresponde a um sistema linear) Ax = b Suponha que x = n x j e j seja uma solução para esta equação Se A j denota a j-ésima coluna da matriz A, temos Logo, Ax = A x j e j = x j Ae j = x j A j = b b i = x j a ij Denote por Ãk a matriz obtida de A através da substituição da k-ésima coluna de A pelo vetor b Então à k = (A 1,, A k 1, b, A k+1,, A n ) = A 1,, A k 1, x j A j, A k+1,, A n Daí, det Ãk = det A 1,, A k 1, x j A j, A k+1,, A n = x j det (A 1,, A k 1, A j, A k+1,, A n ) = x k det (A 1,, A k 1, A k, A k+1,, A n ) = x k det A Portanto, se det A 0 e existir uma solução x para o sistema Ax = b, então esta solução é única e é dada por det Ãk x k = det A (51) Podemos dizer mais: se det A 0, então a expressão acima fornece a única solução para o sistema Ax = b (veja Teorema 528 a seguir) Esta é a chamada regra de Cramer 527 Definição A adjunta clássica da matriz A é definida como sendo a matriz transposta da matriz de cofatores da matriz A, isto é, (adj A) ij = ( 1) i+j det A (j i) 528 Teorema Temos (adj A) A = A (adj A) = (det A) I Em particular, se det A 0, então A é invertível e A 1 = adj A det A

Rodney Josué Biezuner 69 Prova: Temos [(adj A) A] ij = = = (adj A) ir a rj = ( 1) i+r det A (r i) a rj r=1 r=1 ( 1) i+r a rj det A (r i) r=1 ( 1) i+r b ri det B (r i) r=1 = det B onde a matriz B é obtida a partir da matriz A quando substituímos a i-ésima coluna de A pela sua j-ésima coluna Assim, se i j, temos que a matriz B possui duas colunas iguais, logo det B = 0 e concluímos que Se i = j, então Em outras palavras, ( 1) i+r a rj det A (r i) = r=1 [(adj A) A] ij = 0 se i j ( 1) i+r a ri det A (r i) = det A r=1 [(adj A) A] ij = (det A) δ ij Portanto, (adj A) A = (det A) I Para provar que A (adj A) = (det A) I, observe que A t (i j) = A (j i) t, logo ( 1) i+j det A t (j i) = ( 1) j+i det A (j i) t = ( 1) j+i det A (j i), o que significa que o cofator i, j da transposta A t é o cofator j, i de A, ou seja, adj ( A t) = (adj A) t, ou seja, a adjunta clássica da transposta de A é a transposta da adjunta clássica de A Já sabemos que ( adj A t ) A t = ( det A t) I, donde (adj A) t A t = (det A) I Tomando a transposta de ambos os lados, obtemos o resultado desejado 529 Corolário Uma matriz é invertível se e somente se o seu determinante é diferente de zero A regra de Cramer pode ser obtida a partir da adjunta clássica De fato, se Ax = b, então donde Se det A 0, temos que ou seja, x j = 1 det A (adj A) ji b i = 1 det A (adj A) Ax = (adj A) b, (det A) x = (adj A) b x = adj A det A b, ( 1) i+j b i det A (i j) = 1 det Ãj det A

Capítulo 6 Diagonalização de Operadores 61 Polinômios Nesta seção estudaremos polinômios de maneira mais abstrata e rigorosa 61 Definição Uma álgebra linear sobre um corpo F é um espaço vetorial V sobre F munido de uma operação adicional chamada produto de vetores V V V que satisfaz as seguintes propriedades: 1 Associatividade: para todos u, v, w V u (vw) = (uv) w 2 Distributividade com relação à adição: para todos u, v, w V u (v + w) = uv + uw 3 Distributividade com relação à multiplicação por escalar: para todos v, w V e para todo α F α (vw) = (αv) w = v (αw) Uma álgebra linear é dita uma álgebra linear com identidade se ela satisfaz a propriedade adicional 4 Existência de elemento identidade: existe um elemento 1 V tal que para todo v V temos v1 = 1v = v Uma álgebra linear é dita uma álgebra linear comutativa se ela satisfaz a propriedade adicional 5 Comutatividade: para todos v, w V vw = wv 62 Definição M n (F) é uma álgebra linear com identidade que não é comutativa se n 2 P (F) é uma álgebra linear com identidade comutativa, como veremos 63 Definição Seja F = R ou C Denotaremos o espaço vetorial das funções (seqüências) f : N F por F 70

Rodney Josué Biezuner 71 Observe que os vetores em F nada mais são que seqüências de escalares em F: f = (f 0, f 1, f 2, ) Definimos um produto em F associando a cada par de vetores f, g o vetor fg definido por (fg) n = f i g n i n = 0, 1, 2, i=0 Deste modo F torna-se uma álgebra linear comutativa com identidade sobre F (o vetor 1 := (1, 0, 0, ) é a identidade) O vetor (0, 1, 0, ) desempenha um papel fundamental e é denotado por x Observe que x 2 = (0, 0, 1, 0, ), x 3 = (0, 0, 0, 1, 0, ), x n = ( ) 0, 0, 0, 0,, 0, 1, 0, n Também denotamos x 0 := 1 A álgebra linear F é as vezes chamada a álgebra das séries formais sobre F, o elemento f = (f 0, f 1, f 2, ) sendo freqüentemente denotado na forma f = f n x n O conjunto { 1, x, x 2, } é um conjunto linearmente independente mas não é uma base para F n=0 64 Definição Denotamos por F [x] o subespaço de F gerado por 1, x, x 2, Um elemento de F [x] é chamado um polinômio sobre F O grau de um polinômio f 0 é o inteiro n tal que f n 0 e f i = 0 para todo i > n Em vista das definições acima, um polinômio f F [x] pode então ser denotado na forma f = f 0 x 0 + f 1 x + f 2 x 2 + + f n x n Os escalares f 0, f 1, f 2,, f n são chamados os coeficientes do polinômio f Um polinômio f de grau n é chamado um polinômio mônico se f n = 1 65 Proposição Sejam f, g polinômios não nulos sobre F Então (i) fg é um polinômio não-nulo (ii) grau (fg) = grau f+ grau g (iii) Se f, g são mônicos, então fg é mônico (iv) fg é um polinômio escalar se e somente se f, g são polinômios escalares (v) Se f + g 0, então grau (f + g) max ( grau f, grau g) Prova: Suponha que f e g tem graus n e m, respectivamente, ou seja, com m f = f i x i e g = g i x i, i=0 i=0 f n 0 e g m 0

Rodney Josué Biezuner 72 Por definição, se k é um natural, temos (fg) n+m+k = n+m+k i=0 f i g n+m+k i Claramente, para que tenhamos f i g m+n+k+i 0, é necessário que i n (pois f i = 0 se i > n) e que n + m + k i m (pois g n+m+k i = 0 se n + m + k i > m), ou seja, i n + k Assim, se f i g m+n+k+i 0, então n + k i n, o que implica k = 0 e i = n Portanto, e As afirmações (i), (ii) e (iii) seguem destes dois fatos afirmação (v) é óbvia (fg) n+m = f n g m (61) (fg) n+m+k = 0 se k > 0 (62) 66 Corolário F [x] é uma álgebra linear comutativa com identidade sobre F A afirmação (iv) é uma conseqüência de (ii) e a 67 Corolário Sejam f, g, h polinômios sobre F tais que f 0 e fg = fh Então g = h Prova: O resultado segue imediatamente da Proposição 65 (i) quando escrevemos f (g h) = 0 68 Corolário Sejam Então fg = n+m j=0 f = m f i x i e g = g j x j i=0 ( j ) f i g j i x j = i=0 j=0 i=0 j=0 m f i g j x i+j 69 Definição Seja A uma álgebra linear comutativa com identidade sobre F e para cada elemento a A adote a convenção a 0 = 1, onde 1 é a identidade de A A cada polinômio f = n f i x i sobre F associamos um elemento f (a) A pela regra f (a) = f i a i 610 Proposição Seja A uma álgebra linear comutativa com identidade sobre o corpo F Sejam f, g polinômios sobre F, a A e α, β F Então (i) (αf + βg) (a) = αf (a) + βg (a) (ii) (fg) (a) = f (a) g (a) Prova: Provaremos apenas (ii) Sejam f = i=0 i=0 m f i x i e g = g j x j j=0 i=0 Então, pelo Corolário 68, fg = n,m i,j=0 f i g j x i+j,

Rodney Josué Biezuner 73 de modo que (usando (i)), (fg) (a) = n,m i,j=0 f i g j a i+j = ( n i=0 f i a i ) m g j a j = f (a) g (a) 611 Corolário Se T : V V é um operador linear definido sobre o espaço vetorial V sobre o corpo F e p é um polinômio sobre F tal que p = (x r 1 ) (x r n ), então j=0 p (T ) = (T r 1 I) (T r n I) 612 Lema Sejam f, d polinômios não nulos sobre F tais que grau d grau f Então existe um polinômio g sobre F tal que ou f dg = 0, ou Prova: Escreva com Então m n e ou ou ( ) fn Tomamos g = f x n m d d m grau (f dg) < grau f n 1 m 1 f = f n x n + f i x i e d = d m x m + d i x i, grau i=0 f n 0 e d m 0 ( fn f [ f d m ( fn d m ) x n m d = 0, i=0 ) ] x n m d < grau f 613 Teorema (Divisão de Polinômios) Se f, d são polinômios sobre F com d 0, Então existem polinômios únicos q, r sobre F tais que f = dq + r com ou r = 0 ou grau r < grau d Prova: Se f = 0 ou grau f < grau d, podemos tomar q = 0 e r = d No caso em que f 0 e grau d grau f, existe um polinômio g 1 tal que f dg 1 = 0 ou grau (f dg 1 ) < grau f Se grau (f dg 1 ) < grau d, tomamos q = g 1 e r = f dg 1 Caso contrário, usamos novamente o lema anterior e encontramos um polinômio g 2 tal que ou (f dg 1 ) dg 2 = 0 ou grau [(f dg 1 ) dg 2 ] < grau (f dg 1 ) Este processo pode ser continuado até obter o resultado deste teorema Para provar a unicidade dos polinômios q e r, suponha que também existam outros polinômios q 1, r 1 tais que f = dq 1 + r 1 com r 1 = 0 ou grau r 1 < grau d Então dq + r = dq 1 + r 1, donde Se q q 1, então d (q q 1 ) = r 1 r grau d + grau (q q 1 ) = grau (r 1 r), mas isso contradiz grau (r 1 r) < grau d Portanto q = q 1, o que implica r = r 1

Rodney Josué Biezuner 74 614 Definição Dados f, d polinômios sobre F com d 0, se existe um polinômio q sobre F tal que f = dq, dizemos que d divide f (ou, alternativamente, que f é divisível por d, ou ainda que f é um múltiplo de d) e chamamos q o quociente de f por d e denotamos q = f/d Se f = dq + r com r 0, dizemos que r é o resto da divisão de f por q 615 Corolário Seja f um polinômio sobre F e α F Então f é divisível por x α se e somente se f (α) = 0 Prova: Pelo teorema, f = (x α) q + r, onde r é um polinômio escalar (isto é, ou r = 0 ou grau r < grau (x α) = 1, isto é, grau r = 0) Segue da Proposição 02 que Portanto, r = 0 se e somente se f (α) = 0 f (α) = (α α) q (α) + r (α) = r (α) = r 616 Definição Dado um polinômio f sobre F, dizemos que α F é uma raiz de f se f (α) = 0 Se α é uma raiz de f, a multiplicidade de α como uma raiz de f é o maior inteiro positivo r tal que (x α) r divide f 617 Corolário Um polinômio de grau n sobre F tem no máximo n raízes Prova: Por indução em n O resultado é obviamente verdadeiro para polinômios de grau 0 e de grau 1 Assuma o resultado verdadeiro para polinômios de grau n 1 Se f possui grau n e α é uma raiz de f então f = (x α) q e q é um polinômio de grau n 1, que tem no máximo n 1 raízes, pela hipótese de indução Como f (β) = (β α) q (β) = 0 se e somente se α = β ou se β for uma raiz de q, segue o resultado 618 Teorema (Teorema Fundamental da Álgebra) Todo polinômio sobre o corpo C dos complexos possui pelo menos uma raiz 619 Corolário Todo polinômio complexo f pode ser escrito, a menos de uma constante complexa, como o produto de polinômios de grau 1, ou seja, f = c (x r 1 ) (x r n ) Prova: Pelo Teorema Fundamental da Álgebra, se f tem grau n, temos f = (x r 1) q 1 e q 1 tem grau n 1 Podemos aplicar novamente o Teorema Fundamental da Álgebra ao polinômio q Procedendo desta forma, chegamos a f = (x r 1 ) (x r n ) q n, com grau q n = 0, isto é, q n = c C 62 Autovalores, Autovetores e Autoespaços 620 Definição Seja V um espaço vetorial sobre o corpo F e T : V V um um operador linear Dizemos que λ F é um autovalor de T se existe um vetor v V, v 0, tal que T v = λv Se λ é um autovalor de T e v é qualquer vetor (mesmo nulo) tal que T v = λv, dizemos que v é um autovetor de T associado a λ Observe que o conjunto V λ = {v V : T v = λv} dos autovetores de T associados ao autovalor λ é um subespaço de V, pois é o núcleo do operador T λi; ele é chamado o autoespaço de T associado a λ Como λ é um autovalor de T se e somente se o operador T λi não é injetivo, segue que λ é um autovalor de T se e somente se det (T λi) = 0 Portanto, é importante estudar o polinômio det (xi T ) 621 Definição O polinômio p c (x) = det (xi T ) é chamado o polinômio característico de T

Rodney Josué Biezuner 75 O polinômio característico de T é um polinômio mônico de grau n, como pode-se ver da fórmula para o determinante em termos de cofatores (exercício) e os autovalores de T são exatamente as raízes do seu polinômio característico (o nome polinômio característico vem do fato de que autovalores são também chamados valores característicos) Este último fato também implica que a análise de um operador linear depende muito do corpo sobre o qual o espaço vetorial está definido, pois se um polinômio possui raízes em um corpo F, estas raízes podem não estar presentes em um subcorpo F ; assim, o mesmo operador T : V V pode não possuir autovalores quando V é considerado sobre F, ao invés de ser considerado sobre F Em particular, ele pode ser diagonalizável quando considerado sobre F, mas não quando considerado sobre F 622 Proposição Um operador linear sobre um espaço de dimensão n possui no máximo n autovalores distintos Prova: Pois um polinômio em F [x] possui no máximo n raízes 623 Proposição Um operador linear sobre um espaço vetorial complexo possui pelo menos um autovalor Prova: Pois todo polinômio em C [x] possui pelo menos uma raiz Vamos dar uma segunda demonstração deste resultado sem usar o polinômio característico Seja T : V V um um operador linear sobre um espaço vetorial complexo V de dimensão n Então, dado v 0, os vetores v, T v,, T n v são linearmente dependentes em V (pois constituem um conjunto com n + 1 vetores), logo existem escalares a 0, a 1,, a n não todos nulos tais que a 0 v + a 1 T v + + a n T n v = 0 Considere o polinômio em C [z] com estes coeficientes, isto é, a 0 + a 1 z + + a n z n Em C [z] este polinômio pode ser fatorado em um produto de termos lineares: a 0 + a 1 z + + a n z n = c (z λ 1 ) (z λ m ) (se a n 0, teríamos exatamente n termos e c = a n ) Segue que 0 = (a 0 I + a 1 T + + a n T n ) v = a n (T λ 1 I) (T λ m I) v Em particular, necessariamente temos que pelo menos algum operador T λ j I não é injetivo (pois a composta de bijeções é uma bijeção), e neste caso λ j é um autovalor para T 624 Definição O conjunto dos autovalores de T é chamado o espectro de T e será denotado por σ (T ) A multiplicidade algébrica de um autovalor de T é a sua multiplicidade como raiz do polinômio característico, isto é, d é a multiplicidade algébrica do autovalor λ se o polinômio característico de T se escreve na forma p c (x) = (x λ) d q (x) e q (x) não possui λ como raiz De maneira análoga definimos os autovalores e o polinômio característico de uma matriz É claro que os autovalores e o polinômio característico de um operador são os autovalores e o polinômio característico de qualquer uma de suas representações matriciais Uma demonstração independente deste resultado é dada a seguir: 625 Proposição Matrizes semelhantes possuem os mesmos autovalores Prova: Pois se B = P 1 AP, então det (xi B) = det ( xi P 1 AP ) = det [ P 1 (xi A) P ] = det P 1 det (xi A) det P = det (xi A)

Rodney Josué Biezuner 76 626 Exemplo A matriz A = [ 0 1 1 0 possui o polinômio característico [ x 1 det (xi A) = det 1 x ] ] = x 2 + 1 Se A é considerada uma matriz sobre C, então A possui dois autovalores distintos, ±i, enquanto que sobre R A não possui autovalores 63 Operadores Diagonalizáveis A importância do estudo de autovalores está contida na próxima definição: 627 Definição Dizemos que um operador linear T : V V é diagonalizável se existir uma base para V formada por autovetores de T Se B = {v 1,, v n } é uma base para V constituída de autovetores de T, isto é, se T v i = λ i v i para i = 1,, n, então a matriz de T com relação a esta base é uma matriz diagonal, com os autovalores de T ocupando a diagonal principal da matriz: λ 1 0 0 0 λ 2 0 [T ] B = 0 0 λ n Observe que os autovalores de T não precisam ser distintos para isso acontecer (de fato, eles podem ser todos iguais, caso em que o operador T é um múltiplo escalar da identidade, o múltiplo escalar sendo precisamente o único autovalor de T ) 628 Proposição Um conjunto de autovetores não-nulos correspondentes a autovalores dois a dois distintos é linearmente independente Prova: A demonstração é por indução sobre o número de autovetores Suponha o resultado provado para um conjunto de k 1 autovetores Sejam λ 1,, λ k um conjunto de autovalores de T, dois a dois distintos Sejam v 1,, v k autovetores não-nulos respectivamente correspondentes a estes autovalores Suponha que Aplicando T a esta equação obtemos α 1 v 1 + + α k v k = 0 α 1 T v 1 + + α k T v k = 0, ou seja, α 1 λ 1 v 1 + + α k λ k v k = 0 (63) Por outro lado, se ao invés de aplicar T à equação como fizemos, nós a multiplicarmos pelo autovalor λ k obtemos α 1 λ k v 1 + + α k λ k v k = 0 (64)

Rodney Josué Biezuner 77 Subtraindo as duas equações, segue que α 1 (λ 1 λ k ) v 1 + + α k 1 (λ k 1 λ k ) v k 1 = 0 (65) Pela hipótese de indução, sabemos que v 1,, v k 1 são linearmente independentes, logo Como λ k λ i 0 para todo i k, segue que α 1 (λ 1 λ k ) = = α k 1 (λ k 1 λ k ) = 0 α 1 = = α k 1 = 0 Em particular, de α 1 v 1 + + α k 1 v k 1 + α k v k = 0 segue que logo α k = 0 também α k v k = 0, 629 Teorema Seja V um espaço vetorial de dimensão n Se o operador linear T : V V possui n autovalores distintos, então ele é diagonalizável Prova: Sejam λ 1,, λ n os autovalores de T e v 1,, v n autovetores respectivamente correspondentes Segue do resultado anterior que {v 1,, v n } é um subconjunto linearmente independente de V, logo é uma base para V 630 Exemplo A matriz possui o polinômio característico A = det (xi A) = det 0 1 0 0 1 0 0 0 0 0 0 1 0 0 1 0 x 1 0 0 1 x 0 0 0 0 x 1 0 0 1 x = ( x 2 + 1 ) 2 Se A é considerada uma matriz sobre C, então A possui dois autovalores distintos, ±i, enquanto que sobre R A não possui autovalores Apesar disso, A é diagonalizável sobre C, possuindo 4 autovetores distintos: 0 i 0 i, 1 0 associados ao autovalor i, 1 0 e 0 0 i 1, i 1 0 0 associados ao autovalor i

Rodney Josué Biezuner 78 631 Exemplo A matriz possui o polinômio característico A = det (xi A) = det [ 0 1 0 0 ] [ x 1 0 x ] = x 2 Tanto faz se A for considerada uma matriz sobre R ou sobre C, A possui apenas um autovalor e o autoespaço associado a este autovalor tem dimensão 1, com o vetor (1, 0) sendo um autovetor associado ao autovalor 0 Portanto, A não é diagonalizável 632 Lema Se T v = λv e p é um polinômio qualquer, então p (T ) v = p (λ) v 633 Lema Seja V um espaço vetorial de dimensão finita sobre o corpo F e T : V V um um operador linear Sejam λ 1,, λ k autovalores de T e W i o autoespaço associado a λ i Se W = W 1 + + W k, então W = W 1 W k Equivalentemente, se B i é uma base para W i, então B = {B 1,, B k } é uma base para W e dim W = dim W 1 + + dim W k Prova: Para provar que os autoespaços de T são linearmente independentes, precisamos mostrar que dados x i W i tais que x 1 + + x k = 0, então x i = 0 para todo i (isso provará que se B i é uma base para W i, então B = {B 1,, B k } é uma base para W, pois qualquer combinação linear de vetores de B se escreve desta forma) Se p é um polinômio qualquer, então 0 = p (T ) 0 = p (T ) (x 1 + + x k ) = p (T ) x 1 + + p (T ) x k = p (λ 1 ) x 1 + + p (λ k ) x k Escolha polinômios p 1,, p k tais que Por exemplo, p i (λ j ) = δ ij p i = j i x λ j λ i λ j Então 0 = p i (T ) 0 = p i (λ j ) x j = δ ij x j = x i 634 Teorema Seja V um espaço vetorial de dimensão finita sobre o corpo F e T : V V um um operador linear Sejam λ 1,, λ k os autovalores distintos de T e W i o autoespaço associado a λ i As seguintes afirmações são equivalentes: (i) T é diagonalizável (ii) O polinômio característico de T é f = (x λ 1 ) d 1 (x λ k ) d k e dim W i = d i para todo i (iii) Temos dim V = dim W 1 + + dim W k

Rodney Josué Biezuner 79 Prova: (i) (ii) Se T é diagonalizável, então T possui uma representação matricial em blocos na forma λ 1 I 1 0 0 0 λ 2 I 2 0 [T ] B = 0 0 λ k I k em relação a alguma base B de V, onde cada bloco identidade I i tem tamanho d i Segue imediatamente que o polinômio característico de T é det (xi T ) = (x λ 1 ) d1 (x λ k ) d k Como a matriz [T λ i I] B tem exatamente d i zeros em sua diagonal principal, segue que dim W i = d i (ii) (iii) Se f = (x λ 1 ) d 1 (x λ k ) d k, então dim V = grau f = d 1 + + d k (iii) (i) Segue do lema que V = W 1 W k, logo V possui uma base formada por autovetores de T 635 Exemplo A matriz A = 5 6 6 1 4 2 3 6 4 possui o polinômio característico det (xi A) = (x 2) 2 (x 1), com autoespaços W 1 = (3, 1, 3) e W 2 = (2, 1, 0), (2, 0, 1) Portanto, A é diagonalizável 636 Exemplo Determine se a matriz B = 6 3 2 4 1 2 10 5 3 é diagonalizável sobre R e sobre C Encontre bases para os autoespaços de B 64 Ideais de Polinômios 637 Definição Seja F um corpo Um ideal em F [x] é um subespaço M de F [x] tal que fg M sempre que f F [x] e g M Em outras palavras, um ideal de polinômios é um subespaço de F [x] que é fechado com relação à multplicação, não só de seus próprios elementos, mas também por outros elementos de F [x] Ele deixa de ser uma subálgebra de F [x] porque não precisa conter a identidade 638 Exemplo Dado d F [x], o conjunto M = df [x] de todos os múltiplos polinomiais de d é um ideal De fato, M é não-vazio pois contém d e se f, g F [x] e α, β F, então M é chamado o ideal principal gerado por d α (df) + β (dg) = d (αf + βg), f (dg) = d (fg) 639 Teorema Se M é um ideal de F [x], então existe um único polinômio mônico d em F [x] tal que M é o ideal principal gerado por d

Rodney Josué Biezuner 80 Prova: Por hipótese, M contém um polinômio não-nulo Entre todos os polinômios não-nulos de M existe um polinômio d de grau mínimo, que podemos assumir mônico, multiplicando d pelo (polinômio) escalar apropriado, se necessário Agora, se f M, então f = dq + r com r = 0 ou grau r < grau d Como d M, dq M e f dq = r M também Por escolha de d (não existe polinômio não-nulo em M de grau menor que d), concluímos que r = 0 Portanto M = df [x] Se d fosse outro polinômio mônico em F [x] tal que M = d F [x], então existem polinômios não-nulos f, g tais que d = d f e d = dg Logo, d = dgf e daí grau d = grau d + grau f + grau g, donde grau f = grau g = 0 Como f, g são mônicos, segue que f = g = 1 e portanto d = d 65 Polinômio Mínimo e o Teorema de Cayley-Hamilton Seja V um espaço vetorial de dimensão finita sobre o corpo F e T : V V um um operador linear Considere as primeiras n 2 + 1 potências de T : I, T, T 2,, T n2 Como o espaço L (V ) dos operadores lineares sobre V tem dimensão n 2, estes vetores são linearmente dependentes, isto é, existem escalares a 0, a 1,, a n 2 tais que a 0 I + a 1 T + + a n 2T n2 = 0 Em outras palavras, o polinômio p = a 0 + a 1 x + + a n 2x n2 anula o operador T, isto é, p (T ) = 0 640 Proposição O conjunto dos polinômios que anulam um operador é um ideal em F [x] Prova: Pois, se f, g anulam T e α, β F, então (αf + βg) (T ) = αf (T ) + βg (T ) = 0 e se f F [x] e g anula T, (fg) (T ) = f (T ) g (T ) = 0 641 Definição Seja V um espaço vetorial de dimensão finita sobre o corpo F e T : V V um um operador linear O polinômio mínimo para T é o gerador mônico do ideal dos polinômios anuladores de T Assim, se um polinômio anula T, ele é um múltiplo polinomial do polinômio mínimo 642 Teorema Os polinômios mínimo e característico de um operador linear possuem as mesmas raízes, exceto por multiplicidades Prova: Seja p o polinômio mínimo de um operador linear T Para provar o teorema, basta provar que p (λ) = 0 se e somente se λ é um autovalor de T Suponha em primeiro lugar que p (λ) = 0 para algum λ R Então p = (x λ) q

Rodney Josué Biezuner 81 e daí 0 = p (T ) = (x λ) (T ) q (T ) = (T λi) q (T ) Como grau q < grau p, pela definição de polinômio mínimo não podemos ter q (T ) = 0 Seja v um vetor tal que q (T ) v = w 0 Então, 0 = (T λi) q (T ) v = (T λi) w e portanto λ é um autovalor de T Reciprocamente, seja λ é um autovalor de T Então existe um vetor v 0 tal que T v = λv Pelo Lema 632, 0 = p (T ) v = p (λ) v, donde p (λ) = 0 643 Corolário Se T : V V é um operador diagonalizável e λ 1,, λ k são os seus autovalores distintos, então seu polinômio mínimo é o polinômio p = (x λ 1 ) (x λ k ) Prova: Por definição de operador diagonalizável (existe uma base para V consistindo apenas de autovetores de T ), qualquer vetor v escreve-se na forma v = v 1 + + v k com v j um autovetor associado a λ j Como (T λ 1 I) (T λ k I) v j = 0 para todo i, porque (T λ j I) v j = 0 e polinômios em T comutam, segue que p (T ) v = p (T ) k v j = k p (T ) v j = k (T λ 1 I) (T λ k I) v j = 0 para todo v V Veremos na próxima seção que o polinômio mínimo de um operador linear ser um produto de fatores distintos é de fato equivalente a ele ser diagonalizável 644 Exemplo Encontre o polinômio mínimo para a matriz 5 6 6 A = 1 4 2 3 6 4 Vimos no Exemplo 635 que A possui o polinômio (x 2) 2 (x 1) como polinômio característico e que A é diagonalizável Logo seu polinômio mínimo é p = (x 2) (x 1) = x 2 3x + 2 Em particular, A 2 3A + 2I = 0 645 Exemplo Encontre o polinômio mínimo sobre R para a matriz [ ] 0 1 B = 1 0 Vimos no Exemplo 631 que B possui o polinômio x 2 + 1 como polinômio característico e que B não é diagonalizável sobre R, pois seu polinômio característico não possui raízes reais No entanto, sobre C, o polinômio característico se fatora x 2 + 1 = (x + i) (x i) e B possui dois autovalores distintos, e portanto é diagonalizável Assim, o polinômio mínimo sobre C para esta matriz é x 2 + 1 Como este polinômio possui coeficientes reais, ele também é o polinômio mínimo para B sobre R

Rodney Josué Biezuner 82 646 Teorema (Teorema de Cayley-Hamilton) O polinômio característico de um operador linear anula este operador Em particular, segue que o polinômio característico de um operador é divisível pelo polinômio mínimo deste operador Prova: Seja T : V V um operador linear A demonstração será por indução sobre n = dim V Se n = 1, o resultado é óbvio Suponha o resultado válido para qualquer operador linear definido sobre qualquer espaço vetorial de dimensão n 1 Seja T : V V um operador linear definido sobre um espaço vetorial de dimensão n Seja T : V V um operador linear e B = {x 1,, x n } uma base para V Seja A = [T ] B, ou seja, T x j = a ij x i para j = 1,, n Estas equações podem ser reescritas na forma equivalente (δ ij T a ij I) x i = 0 para j = 1,, n Considere matrizes sobre a álgebra comutativa com identidade A dos polinômios em T Em outras palavras, matrizes sobre A possuem polinômios em T em suas entradas Considere em particular a matriz B definida por b ij = δ ij T a ji I Afirmamos que det B = f (T ) onde f é o polinômio característico de T Por exemplo, quando n = 2, temos [ ] T a11 I a B = 21 I a 12 I T a 22 I e det B = (T a 11 I) (T a 22 I) a 12 a 21 I = T 2 (a 11 + a 22 ) T + (a 11 a 22 a 12 a 21 ) I = f (T ) onde f = x 2 (a 11 + a 22 ) x + (a 11 a 22 a 12 a 21 ) é o polinômio característico de T No caso geral isso também é claro, porque o polinômio característico de T é o determinante da matriz xi A, cujas entradas são polinômios da forma (xi A) ij = δ ij x a ij I, e o determinante não se altera se considerarmos a transposta desta matriz Logo, para mostrar que f (T ) = 0, basta mostrar que (det B) x k = 0 para k = 1,, n Por definição de B, os vetores x 1,, x n satisfazem as equações b ji x i = 0 para j = 1,, n

Rodney Josué Biezuner 83 Seja B = adj B a adjunta clássica de B, isto é, BB = (det B) I Da equação acima, para cada par k, j temos Logo, somando em j, temos Daí, 0 = bkj b ji x i = bkj b ji x i = b kj bkj b ji x i = n bkj b ji x i = 0 ( ) BB b ji x i = 0 ki x i = δ ki (det B) x i = (det B) x k Mais tarde daremos uma demonstração independente deste teorema independente de determinantes 66 Polinômio Mínimo e Operadores Triangularizáveis e Diagonalizáveis 647 Definição Seja T : V V um operador linear Dizemos que um subespaço W V é um subespaço invariante sob T se T (W ) W 648 Exemplo O subespaço nulo e o espaço todo são invariantes sob qualquer operador linear T O núcleo de T e a imagem de T também são invariantes sob T 649 Exemplo Considere o espaço vetorial F [x] e o operador linear derivada D Então o subespaço dos polinômios de grau menor que ou igual a n, onde n é um inteiro não-negativo qualquer, é invariante sob D 650 Exemplo Qualquer autoespaço de T é invariante sob T 651 Exemplo O operador linear em R 2 representado na base canônica pela matriz [ ] 0 1 A = 1 0 não possui outros subespaços invariantes além dos triviais, isto é, além do subespaço nulo e de R 2 Quando um subespaço W V é invariante sob T, T induz um operador linear sobre W, o operador restrição T W : W W Denotaremos o operador restrição por T W Seja B W = {x 1,, x m } uma base para W e B = {x 1,, x m, x m+1,, x n } um completamento desta base até uma base para V Seja A = [T ] B a representação matricial do operador T com relação a B, de modo que Como W é invariante sob T, temos T x j = T x j = a ij x i para j = 1,, n m a ij x i para j = 1,, m,

Rodney Josué Biezuner 84 isto é, a ij = 0 para i > m, se j m Em outras palavras, a matriz para T tem a forma em blocos [ ] B C A =, 0 D onde B é uma matriz m m, C é uma matriz m (n m) e D é uma matriz (n m) (n m) Além disso, o bloco B é a representação matricial do operador restrição T W com relação à base B W de W, isto é, B = [T W ] BW 652 Proposição Seja W um espaço invariante de V sob T Então o polinômio característico para o operador restrição T W divide o polinômio característico para T e o polinômio mínimo para o operador restrição T W divide o polinômio mínimo para T Prova: Escrevendo como na discussão acima A = [ B C 0 D onde A = [T ] B e B = [T W ] BW, segue imediatamente que ], det (xi n A) = det (xi m B) det (xi n m D) o que prova a afirmação sobre polinômios característicos Para provar a afirmação sobre polinômios mínimos, note que [ ] A k B k C = k 0 D k, para todo k, onde C k é alguma matriz m (n m), donde, se p é um polinômio qualquer, temos [ ] p (B) Ck p (A) = 0 p (D) para alguma matriz C k, m (n m) Portanto, qualquer polinômio que anula A também anula B (e D) 653 Definição Seja W um espaço invariante de V sob T e v V O conjunto dos polinômios é chamado o T -condutor de v para W S (v; W ) = {f F [x] : f (T ) v W } 654 Proposição Seja W um espaço invariante de V sob T Então W é invariante sob qualquer polinômio em T Em particular, para qualquer v V, o T -condutor de v para W é um ideal de polinômios Prova: Se w W, então T w W e por indução T k w W para todo k; tomando combinações lineares (porque W é um subespaço vetorial), concluímos que f (T ) w W para todo polinômio f S (v; W ) é um subespaço vetorial, pois se f, g S (v; W ) então (αf + βg) (T ) v = α [f (T ) v]+β [g (T ) v] W Se f F [x] e g S (v; W ), então [(fg) (T )] v = [f (T ) g (T )] v = f (T ) [g (T ) v] W porque g (T ) v W e W é invariante sob qualquer polinômio em T O único gerador mônico do ideal S (v; W ) também é chamado o T -condutor de v para W 655 Corolário Todo T -condutor divide o polinômio mínimo para T

Rodney Josué Biezuner 85 Prova: Pois todo T -condutor contém o polinômio mínimo por definição 656 Lema Sejam V um espaço vetorial de dimensão finita e T : V V um operador linear tal que o polinômio mínimo para T é um produto de fatores lineares p = (x λ 1 ) r1 (x λ k ) r k Seja W um subespaço próprio de V invariante sob T (T λi) v W para algum autovalor λ de T Então existe um vetor v V \W tal que Em outras palavras, existe um vetor v V \W tal que o seu T -condutor para W é um polinômio linear Prova: Seja z V \W um vetor qualquer Seja f o T -condutor de z para W Então f divide o polinômio mínimo de T Como z / W, f não é um polinômio escalar Portanto, f = (x λ 1 ) s1 (x λ k ) s k onde s j < r j e pelo menos algum s j 0 Escolha um índice j tal que s j 0 e escreva Por definição de f, o vetor v = g (T ) z / W, mas f = (x λ j ) g (T λ j I) v = (T λ j I) g (T ) z = f (T ) z W 657 Definição Uma matriz A = (a ij ) é uma matriz triangular se a ij = 0 sempre que i < j (triangular superior) ou se a ij = 0 sempre que i > j (triangular inferior) 658 Definição Seja T : V V um operador linear Dizemos que T é triangularizável se existe uma base de V tal que a matriz de T em relação a esta base é uma matriz triangular 659 Teorema Seja T : V V um operador linear sobre um espaço vetorial de dimensão finita sobre F Então T é triangularizável se e somente se o seu polinômio mínimo é um produto de fatores lineares sobre F Prova: Se T é triangularizável, então existe uma base B = {x 1,, x n } para V tal que a 11 a 12 a 13 a 1n 0 a 22 a 23 a 2n [T ] B = 0 0 a 33 a 3n 0 0 0 a nn Segue que o polinômio característico de T é o produto de fatores lineares det (xi T ) = (x a 11 ) (x a nn ) Como o polinômio mínimo divide o polinômio característico, o mesmo vale para ele Reciprocamente, se o polinômio mínimo para T se escreve na forma p = (x λ 1 ) r 1 (x λ k ) r k, aplicamos o Lema 656 repetidamente da seguinte forma para encontrar uma base B = {x 1,, x n } para V em relação à qual a matriz de T é triangular Aplique o lema ao subespaço invariante W = {0} para

Rodney Josué Biezuner 86 obter o vetor x 1 Como (T λ 1 I) x 1 = 0 para algum autovalor λ 1, segue que o subespaço W 1 = x 1 é invariante sob T Podemos então aplicar novamente o lema ao subespaço W 2 para obter o vetor x 2 V \W 1 Em particular, {x 1, x 2 } é LI, e como (T λ 2 I) x 2 W 1 para algum autovalor λ 2, segue que o subespaço W 2 = x 1, x 2 é invariante sob T ; observe que T x 2 = a 12 x 1 + λ 2 x 2 para algum escalar a 12 Continuando desta forma, em cada passo j encontramos vetores x 1,, x j linearmente independentes tais que T x j = a 1j x 1 + + a j 1,j x j 1 + λ j x j e o subespaço W j = x 1,, x j é portanto invariante sob T 660 Corolário Todo operador complexo é triangularizável Obteremos agora uma terceira caracterização para operadores diagonalizáveis em termos do polinômio mínimo: 661 Teorema Seja T : V V um operador linear sobre um espaço vetorial de dimensão finita sobre F Então T é diagonalizável se e somente se o seu polinômio mínimo é um produto de fatores lineares distintos sobre F Prova: Já vimos no Corolário 643 que se T é diagonalizável, então seu polinômio mínimo é um produto de fatores lineares distintos Reciprocamente, suponha que o polinômio mínimo de um operador T é o produto p = (x λ 1 ) (x λ k ) de fatores lineares distintos e suponha por absurdo que T não é diagonalizável Então, por definição, se W é o subespaço gerado pelos autovetores de T, segue que W V Mas W é um subespaço invariante sob T, logo pelo Lema 656 existe um vetor v V \W e um autovalor λ j tal que w = (T λ j I) v W Como w W, existem vetores w i W i, onde W i é o autoespaço associado a λ i tal que Portanto, para qualquer polinômio f, temos w = w 1 + + w k f (T ) w = f (λ 1 ) w 1 + + f (λ k ) w k W Agora, escrevendo p = (x λ j ) q para algum polinômio q que não possui λ j como raiz e q q (λ j ) = (x λ j ) g para algum polinômio g (pois λ j é uma raiz do polinômio q q (λ j )), temos Como q (T ) v q (λ j ) v = g (T ) (T λ j I) v = g (T ) w W 0 = p (T ) v = (T λ j I) q (T ) v, concluímos que q (T ) v é um autovetor de T associado a λ j e, em particular, q (T ) v W também Logo, q (λ j ) v = q (T ) v g (T ) w W e como v / W, necessariamente q (λ j ) = 0, contradição Assim, para determinar se T é diagonalizável, basta encontrar os autovalores distintos λ 1,, λ k de T e determinar se o operador (T λ 1 I) (T λ k I) é o operador nulo ou não Demonstração alternativa do Teorema de Cayley-Hamilton É fácil ver que o teorema de Cayley- Hamilton vale para matrizes triangulares De fato, se B = {x 1,, x n } é uma base para V em relação à qual T é representada por uma matriz triangular A = (a ij ), então o polinômio característico para A é f = (x a 11 ) (x a nn )

Rodney Josué Biezuner 87 Para provar que f anula T, isto é, que (T a 11 I) (T a nn I) é operador nulo sobre V, podemos proceder por indução na dimensão de V O resultado é claramente válido para n = 1 Assuma o resultado válido para n 1 e escreva a matriz A em blocos [ ] B C A = 0 a nn onde B é uma matriz (n 1) (n 1) e C é uma matriz coluna (n 1) 1 Observe que (T a nn I) V x 1,, x n 1 =: W W é um subespaço invariante por T de dimensão n 1, com cujo polinômio característico é exatamente Logo, por hipótese de indução, é o operador nulo sobre W Portanto a composta [T W ] {x1,,x n 1} = B, f = (x a 11 ) (x a n 1,n 1 ) (T W a 11 I n 1 ) (T W a n 1,n 1 I n 1 ) (T a 11 I) (T a n 1,n 1 I) (T a nn I) = (T W a 11 I n 1 ) (T W a n 1,n 1 I n 1 ) (T a nn I) é o operador nulo sobre V (observe que os vetores de W têm as últimas coordenadas nulas, logo faz sentido aplicar o lado direito a vetores de V, apesar das matrizes identidade possuírem tamanho n 1) Do Teorema 5 segue que todo operador linear definido em um espaço vetorial sobre um corpo algebricamente fechado é triangularizável (lembre-se que dizemos que um corpo é algebricamente fechado se todo polinômio sobre este corpo possui uma raiz ou, equivalentemente, todo polinômio sobre o corpo se escreve como um produto de fatores lineares) [Observe que para provar esta afirmação do Teorema 659, que se o polinômio mínimo de um operador se fatora como um produto de fatores lineares então o operador é triangularizável, não usamos o teorema de Cayley-Hamilton Ele foi usado no Teorema 659 para provar a recíproca desta afirmação, que não entra no presente argumento] Qualquer corpo é um subcorpo de um corpo algebricamente fechado 67 Diagonalização de Operadores Auto-adjuntos O objetivo principal desta seção é resolver o seguinte problema: em que condições um operador linear possui uma base ortonormal em relação à qual a sua matriz é diagonal Trabalharemos apenas com operadores reais 662 Definição Se v = (z 1,, z n ) C n, definimos o conjugado v de v por v = (z 1,, z n ) Se A = (a ij ) M n (C), definimos a conjugada A de A por ( A ) ij = a ij

Rodney Josué Biezuner 88 Observe que v t v = v 2 663 Lema Sejam α C, v C n e A M n (C) Então αv = αv, Av = Av Prova: Sejam v = (z 1,, z n ) e A = (a ij ) Temos αv = (αz 1,, αz n ), logo Temos também logo αv = (αz 1,, αz n ) = (αz 1,, αz n ) = α (z 1,, z n ) = αv (Av) i = a ij z j, (Av) i = a ij z j = a ij z j = a ij z j = ( Av ) i 664 Lema Seja A uma matriz real Se v é um autovetor de A associado a λ, então o vetor conjugado v é um autovetor de A associado ao autovalor conjugado λ Prova: Como A é uma matriz real, temos A = A, logo Av = Av = Av = λv = λv 665 Teorema Seja V um espaço vetorial com produto interno e T : V V um operador linear autoadjunto Então todo autovalor de T é real Em particular, todo operador linear auto-adjunto possui pelo menos um autovalor real Além disso, autovetores de T associados a autovalores distintos são ortogonais Prova: Suponha que λ é um autovalor de T Seja v um autovetor não-nulo associado a λ Seja A uma matriz simétrica que representa T (em relação a alguma base ortonormal) Então e, ao mesmo tempo, de modo que v t Av = v t λv = λv t v = λ v 2 v t Av = v t A t v = (Av) t v = λv t v = λ v 2, λ = λ, isto é, λ R Sejam λ 1, λ 2 autovalores reais distintos de T e v 1, v 2 autovetores não-nulos associado a λ 1, λ 2, respectivamente Então λ 1 v 1, v 2 = λ 1 v 1, v 2 = T v 1, v 2 = v 1, T v 2 = v 1, λ 2 v 2 = λ 2 v 1, v 2 e como λ 1 λ 2, concluímos que v 1, v 2 = 0

Rodney Josué Biezuner 89 666 Lema Seja V um espaço vetorial com produto interno e T : V V um operador linear Se W V é um subespaço invariante sob T, então W é invariante sob T Prova: Se y W, então x, y = 0 para todo x W Logo x, T y = T x, y = 0 para todo x W, pois T x W Portanto, T y W 667 Teorema Seja V um espaço vetorial com produto interno de dimensão finita e T : V V um operador linear auto-adjunto Então T é diagonalizável através de uma base ortonormal Prova: A demonstração será por indução em dim V Pelo Teorema 665, T possui um autovalor real Se dim V = 1, isso dá uma base ortonormal para V constituída de autovetores de T Assuma o teorema verdadeiro para espaços com produto interno de dimensão menor que n e seja dim V = n Novamente usando o Teorema 665, seja x 1 um autovetor de norma 1 associado a um autovalor real de T Seja W = x 1 Então W é invariante sob T e pela proposição anterior W é invariante sob T = T Mas dim W = n 1, logo pela hipótese de indução existe uma base ortonormal {x 2,, x n } para W de autovetores de T W e portanto de T Como V = W W, segue que {x 1, x 2,, x n } é uma base ortonormal para V de autovetores de T 668 Corolário Seja V um espaço vetorial real com produto interno de dimensão finita Então um operador linear sobre V é diagonalizável através de uma base ortonormal se e somente se ele é auto-adjunto Prova: Se T : V V é um operador linear diagonalizável através de uma base ortonormal e A é uma matriz que representa T em relação a alguma base, então existe uma matriz ortogonal P tal que D = P t AP Em particular, e A = P DP t A t = ( P DP t) t = ( P t ) t D t P t = P DP t = A 669 Teorema (Teorema Espectral) Seja T : V V um operador auto-adjunto sobre um espaço real com produto interno de dimensão finita Sejam λ 1,, λ k os autovalores distintos de T Seja W i o autoespaço associado a λ i e E i : V V a projeção ortogonal de V sobre W i Então W i é ortogonal a W j se i j, V = W 1 W k e Prova: Sejam v i W i e v j W j com i j Então, T = λ 1 E 1 + + λ k E k λ i v i, v j = λ i v i, v j = T v i, v j = v i, T v j = v i, T v j = v i, λ j v j = λ j v i, v j e como λ i λ 2, concluímos que v i, v j = 0 Dos Teoremas 634 e 665 segue imediatamente que V = W 1 + + W k Se x i W i e x 1 + + x k = 0,

Rodney Josué Biezuner 90 então 0 = x j, 0 = x j, x 1 + + x k = x j 2, logo os espaços W i são LI e a soma é direta Finalmente, como a soma é direta, temos donde E 1 + + E k = I, T = T I = T E 1 + + T E k = λ 1 E 1 + + λ k E k Esta decomposição é chamada a resolução espectral do operador T O espectro de um operador linear é o conjunto de seus autovalores

Referências Bibliográficas [1] H ANTON e C RORRES, Álgebra Linear com Aplicações, 8a Ed, Bookman, 2001 [2] H ANTON e R C BUSBY, Álgebra Linear Contemporânea, Bookman, 2006 [3] K HOFFMAN e R KUNZE, Linear Algebra, 2nd Ed, Prentice Hall, 1971 91