Departamento de Estatística

Documentos relacionados
Algoritmos Numéricos 2 a edição

Notas para o Curso de Algebra Linear Il Dayse Haime Pastore 20 de fevereiro de 2009

Parte 1 - Matrizes e Sistemas Lineares

Baseado no Capítulo 2 do livro: Material preparado pelo

Matrizes Semelhantes e Matrizes Diagonalizáveis

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

Álgebra Linear Teoria de Matrizes

Vetores e Geometria Analítica

Noções de Álgebra Linear

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares

CM005 Álgebra Linear Lista 3

1 Auto vetores e autovalores

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

Capítulo 1. Matrizes e Sistema de Equações Lineares. 1.1 Corpos

Métodos Numéricos - Notas de Aula

Modelagem Computacional. Parte 6 2

Profs. Alexandre Lima e Moraes Junior 1

Laboratório de Simulação Matemática. Parte 6 2

Aula 1 Autovetores e Autovalores de Matrizes Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17

Renato Martins Assunção

= o A MATRIZ IDENTIDADE. a(i, :) = (aii, ai2,, ai.) i = 1,, m

Resolução de sistemas de equações lineares: Fatorações de matrizes

Resolução de sistemas de equações lineares: Fatorações de matrizes

Notas de Aulas de Matrizes, Determinantes e Sistemas Lineares

Dou Mó Valor aos Autovalores

1 Álgebra linear matricial

Matrizes e sistemas de equações algébricas lineares

Matrizes e Linearidade

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

FUNDAMENTOS DE SISTEMAS LINEARES PARTE 1

Processamento de Imagens CPS755

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

2. Sistemas lineares

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B =

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia

AUTOVALORES E AUTOVETORES

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação

decomposição de Cholesky.

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos

Álgebra Linear. André Arbex Hallack

Instituto Superior Técnico Departamento de Matemática Última actualização: 18/Nov/2003 ÁLGEBRA LINEAR A

Matriz, Sistema Linear e Determinante

Autovalores e Autovetores

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.

Análise multivariada

Márcio Antônio de Andrade Bortoloti

Resolução de Sistemas Lineares. Ana Paula

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.

Matrizes hermitianas e unitárias

Parte 3 - Produto Interno e Diagonalização

SME0812 Modelos Lineares. Álgebra Matricial. 17 de março de / 1

ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1

Álgebra Linear e Geometria Analítica

Teorema da Triangularização de Schur e Diagonalização de Matrizes Normais

1.3 Matrizes inversas ] [ 0 1] = [ ( 1) ( 1) ] = [1 0

Álgebra Linear e suas Aplicações Notas de Aula. Petronio Pulino = Q

ficha 2 determinantes

1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55

Métodos Matemáticos II

Álgebra Linear I - Aula 22

Aula 25 - Espaços Vetoriais

Pré-requisitos Algebra Linear. Lorí Viali. Afiliação

Afiliação. Professor Titular do Departamento de Estatística Faculdade de Matemática da PUCRS

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável

Aulas práticas de Álgebra Linear

3 a Avaliação Parcial - Álgebra Linear

Produto Misto, Determinante e Volume

Interbits SuperPro Web

Álgebra Linear AL. Luiza Amalia Pinto Cantão. Depto. de Engenharia Ambiental Universidade Estadual Paulista UNESP

exercícios de álgebra linear 2016

GAN00140-Álg. Linear GAN00007 Int à Alg. Linear Aula 3 2ª. Parte: Matrizes e Operações Matriciais

Ferramentas Matemáticas para Sistemas Lineares: Álgebra Linear

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:

Resolução de Sistemas de Equações Lineares

Determinantes e Matrizes Inversas

SME Gustavo C. Buscaglia

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão Encontre os autovalores, os autovetores e a exponencial e At para

ÁLGEBRA LINEAR I - MAT0032

1 5 = = = = = = = = 5

1 a Lista de Exercícios MAT 3211 Álgebra Linear Prof. Vyacheslav Futorny

Parte I. Álgebra Linear. Sistemas Dinâmicos Lineares. Autovalores, autovetores. Autovalores, autovetores. Autovalores e Autovetores.

Matrizes e Sistemas Lineares

PLANO DE ENSINO E APRENDIZAGEM

n. 1 Matrizes Cayley (1858) As matrizes surgiram para Cayley ligadas às transformações lineares do tipo:

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Produto Interno - Mauri C. Nascimento - Depto. de Matemática - FC UNESP Bauru

MAE125 Álgebra Linear /1 Turmas EQN/QIN

Uma equação linear com n variáveis tem a seguinte forma:

Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor.

apontamentos Álgebra Linear aulas teóricas Mestrado Integrado em Engenharia Mecânica, 1 o semestre 2012/13

SISTEMAS LINEARES PROF. EDÉZIO

1 Determinante. det(a) = ρ. ( 1) J a 1j1 a 2j2... a njn. Exemplo 1.6. Determinante de 3a. ordem: a 11 a 12 a 13. a 21 a 22 a 23.

ÁLGEBRA LINEAR I - MAT0032

Álgebra Linear /2 Turma 11852

Álgebra Linear /2 Turma EM1 (unificada)

Transcrição:

Departamento de Estatística Universidade Federal de São Carlos José Carlos Fogo São Carlos Julho de 207

Sumário Vetores Definição Representação gráfica no R 2 2 2 Propriedades algébricas 2 2 Vetores especiais 3 3 Produto entre vetores 3 3 Propriedades algébricas do produto interno entre vetores 5 4 Módulo ou comprimento de um vetor 5 5 Outros resultados 5 6 Representação vetorial dos dados 7 2 Matrizes 0 2 Casos especiais 2 Matriz Transposta 22 Matriz Quadrada 23 Matriz de Zeros 24 Matriz Diagonal 25 Matriz Simétrica 2 26 Matriz de Uns 2 27 Matrizes Triangulares Superior e Inferior 2 22 Operações com matrizes 3 23 Medidas relacionadas 6 23 Determinante 6 232 Posto ou rank 7 233 Traço 8 24 Autovalores e autovetores 9 25 Matriz dos cofatores e matriz adjunta 23 26 Matriz inversa 25 27 Matriz não singular 28 i

Sumário 28 Matriz ortogonal 28 29 Matriz definida positiva 29 20 Operações elementares 30 2 Matrizes similares 30 3 Matrizes particionadas 32 3 Casos especiais 33 32 Operações com matrizes particionadas 33 33 Decomposição LDU 35 34 Rank, ou posto, de matrizes particionadas 38 35 Determinante de matrizes particionadas 38 36 A inversa de uma matriz particionada 40 4 Decomposição de matrizes 42 4 Decomposição espectral 42 42 Decomposição em valores singulares 45 43 Decomposição LU 49 43 Determinação das matrizes L e U 50 432 O algoritmo de Crout 52 44 Decomposição de Cholesky 56 44 Determinação da matriz G 57 5 Vetores aleatórios 60 5 Vetores aleatórios 60 5 Valor esperado de um vetor aleatório 62 52 Matriz de variâncias-covariâncias de um vetor aleatório 63 53 Matriz de correlações de um vetor aleatório 67 54 Vetores aleatórios particionados 70 52 Representação vetorial dos dados 74 52 A representação dos dados 75 522 O vetor de médias amostrais 75 523 A matriz de variâncias e covariâncias amostrais 76 6 Espaços Vetoriais 82 6 Subespaços vetoriais 83 62 Dependência linear de vetores 83 63 Base de um espaço vetorial 86 7 Formas quadráticas 9 7 Diagonalização de formas quadráticas 92 72 Formas quadráticas e cônicas 94 73 Distribuição de formas quadráticas 95 74 Otimização de formas quadráticas 00 74 Derivada de uma forma quadrática 00 ii

Sumário 8 Sistemas lineares 04 8 Notação Matricial 06 82 Sistemas homogêneos 83 Uso da decomposição LU na solução de sistemas lineares 2 9 Projeções Ortogonais 5 9 Matriz canônica de uma projeção ortogonal 6 92 Decomposição ortogonal de um vetor 7 iii

Vetores Definição Na Física: é uma forma de se representar matematicamente grandezas físicas que possuam mais de um aspecto para ser definida Exemplo: a força, necessita da magnitude, direção e sentido em que é aplicada; Na Matemática: é uma tripla constituída de uma direção, um sentido e um número não negatico (módulo), Venturini, JJ Obs: Usando a teoria de matrizes, pode-se definir um vetor como qalquer matriz coluna, ou matriz linha Na Wikipédia: é um conceito caracterizado por uma magnitude (módulo) e uma orientação (direção e sentido) Notação: v, x, a (letras minúsculas) Nas notas da disciplina, vamos adotar a notação usual em publicações, ou seja, com letras minúsculas, em negrito: v, x, a x = x x 2 x p, é um vetor de dimensão p

Vetores Exemplo: x = 2 3 4, é um vetor de dimensão 4 Representação gráfica no R 2 Exemplo: Sejam 2 3 x = 5 e y = 05, Figura : Representação gráfica de vetores no plano 2 Propriedades algébricas i) u + v = v + u; ii) (u + v) + w = u + (v + w); iii) a (u + v) = a v + a u, iv) (a + b) u = a u + b u, a = escalar; a, b = escalares 2

Vetores 2 Vetores especiais i) vetor nulo: 0 n = 0 0 0 ; ii) vetor de s: n = ; () n iii) vetor transposto: v t = v, v 2,, v p 3 Produto entre vetores Os produtos entre de vetores mais comuns são o produto escalar euclidiano, ou produto interno e o produto vetorial, ou produto externo, sendo que nos dois casos os vetores devem ter mesmas dimensões Além das duas formas de produtos acima, temos ainda o produto direto, ou produto Kronecker e o produto elemento-a-elemento Nota: Na disciplina serão destacados os produtos interno, Kronecker e elemento-a-elemento Considere os vetores v = v v 2 e x = x x 2 v p x p a) Produto elemento-a-elemento : x v x 2 v 2 x v = x p v p Como não temos uma notação para um operador elemento-a-elemento, vamos utilizar o asterisco (*) 3

Vetores b) Produto interno ou produto escalar: x, v = x v = x t v = p x i v i i= c) Produto Kronecker ou produto direto: sejam x e v vetores com dimensões p e q, respectivamente x v x 2 v x v = x p v pq Exemplos: de (a): Sejam x = x v = 2 5 e v = (2) (3) ( 5) (2) ( ) ( 3) = 3 2 3, 6 0 3 ; de (b): x, v = x t v = (2) (3) + ( 5) (2) + ( ) ( 3) = de (c): x v = 2 v 5 v v = 6 4 6 5 0 5 3 2 3 4

Vetores Obs: Para o produto Kronecker as dimensões não precisam ser necessariamente iguais Se x = 2 3 e v = 2 3 4, então: x v = 2 4 6 8 3 6 9 2 3 Propriedades algébricas do produto interno entre vetores i) u t v = v t u ou u,v = v,u ; ii) (u t + v t )w = u t w + v t w ou (u+v),w = u,w + v,w ; iii) (k v t )u = k (v t u) = v t (k u), ou kv,u = k v,u = v, ku k = escalar; iv) u t u 0 ou u,u 0; v) u t u = 0 u = 0 ou u,u = 0 u = 0 4 Módulo ou comprimento de um vetor O comprimento, módulo ou norma de um vetor v é definido por v = v t v = v 2 + v2 2 + + v2 p Exemplo: Dados os vetores v t = (2, 5, ), x t = (3, 2, 3) e u t = (08, 06), então v = 4 + 25 + = 30; x = 9 + 4 + 9 = 22; u = 064 + 036 = = O vetor que tem norma igial a, ou seja, v t v =, é chamado de vetor normal No exemplo acima o vetor u t = (064, 036) é um vetor normal 5 Outros resultados i) Ângulo entre vetores: considere o angulo θ formado por dois vetores u e v, então: cos(θ) = ut v u v = u t v u t u v t v 5

Vetores Se θ = 90, cos(θ) = 0, então u e v são ortogonais, ou seja, u v, portanto, dois vetores são ortogonais se u t v = 0 Figura 2: Ângulo entre vetores ii) Projeção de um vetor sobre outro: Considere os vetores u e v Então, a projeção de u sobre v é obtida por: P u/v = O módulo da projeção, por sua vez, é dado por: u t v P u/v = v t v v t v = P u/v = cos(θ) u ( u t ) v v t v = (ut v) v v 2 v u t v v 2 v = u t v v u u Exemplo: Dados os vetores u t = (, 2), v t = (2, ), encontar a projeção de u sobre v e calcular o seu módulo Cálculos: u = + 2 2 = 5 v = u = 5 u t v = 2 + 2 = 4 cos(θ) = ut v u v = 4 5 5 = 08 θ = 369 Projeção de u sobre v: P u/v = ( u t ) v v t v = 4 2 v 5 = 6 08 6

Vetores Comprimento da projeção: P u/v = cos(θ) u = 08 5 = 32 De fato P u/v 2 = P u/v = 32 6 08 6 08 = 32, logo, Figura 3: Projeção de um vetor u sobre um vetor v 6 Representação vetorial dos dados Na estatística os dados são usualmente representados em vetores (os softwares usam esse conceito) Exemplo: Seja uma amostra de tamanho n = 0 representando o ganho líquido de um grupo 7

Vetores de empresas da bolsa de valores (em milhões de reais) Pode-se representar os dados por 564 389 203 25 385 x = 87 27 297 432 45 Como x i = 3250 e x 2 i = 234408, tem-se que: x = 3250 0 = 325; s 2 = 234408 0(325)2 (0 ) = 979533 Os resultados acima da média amostral x e variância amostral s 2 podem ser facilmente obtidos utilizando as operações vetoriais i) Para a soma dos elementos de x, tem-se n t n x = x i = x + + x n i= ii) Para a soma dos quadrados dos elementos de x, Assim, de (i) e (ii) tem-se que: n x t x = x 2 i = x 2 + + x 2 n i= x = t n x n ; s 2 = x t x (t n x) 2 (n ) n 8

Vetores No exemplo: t n x = 3250; x t x (t n x) 2 n = 234408 (3250)2 0 = 7858 9

2 Matrizes Definição 2 Matriz Matriz é uma coleção retangular n p de valores reais, representada por a a 2 a p a 2 a 22 a 2p A n p =, a n a n2 a np em que: n é o número de linhas e p é o número de colunas da matriz Segundo Graybill (983), uma matriz pode, ainda, ser representada da seguinte forma: A n p = a ij n p Nós podemos obter uma matriz n p pela multiplicação de um vetor u, n, com um vetor linha v t, p u u v u v 2 u v p uv t u 2 u 2 v u 2 v 2 u 2 v p = v v 2 v p = (2) u n u n v u n v 2 u n v p (22) Nota: O produto uv t é muitas vezes chamado de produto exterior ou produto externo (Banerjee e Roy, 204) 0

Matrizes 2 Casos especiais 2 Matriz Transposta Denotada por A ou A t, é obtida trocando-se as linhas de A pelas colunas Exemplo: A 2 3 = 22 Matriz Quadrada 3 2 5 4 A t 3 2 = É uma matriz para a qual o número de linhas é igual ao de colunas Exemplo: A 3 3 = a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33 3 2 5 4 23 Matriz de Zeros Denotada 0 n p, é a matriz cujos elementos são todos iguais a zero Exemplo: 0 n p = 24 Matriz Diagonal 0 0 0 0 0 0 0 0 0 n p É uma matriz quadrada na qual apenas os elementos da diagonal são diferentes de zero a 0 0 0 a 22 0 Exemplo: A p p = 0 0 a pp Casos especiciais:

Matrizes a) Matriz escalar: é uma matriz diagonal na qual todos os elementos da diagonal são iguais, ou seja, d ii = d, i =, 2,, n d 0 0 0 d 0 Exemplo: D = 0 0 d b) Matriz identidade: é um caso particular da matriz diagonal Denotada por I p = I p p, seus elementos da diagonal são todos iguais a, ou seja, a = a 22 = = a pp = 25 Matriz Simétrica Exemplo: I 3 = 0 0 0 0 0 0 Matriz quadrada em que A = A t, ou seja, quando a ij = a ji, i, j =, 2,, p 26 Matriz de Uns Exemplo: A 3 3 = 2 3 2 4 5 3 5 6 Denotada J n, é uma matriz quadrada cujos elementos são todos iguais a um Exemplo: J n = n n A matriz J n é definida pelo produto J n = n t n, ver (), e apresenta a seguinte propriedade: a) J 2 = JJ = nj; b) J 3 = JJJ = n 2 J; c) J k = n k J 27 Matrizes Triangulares Superior e Inferior A matriz quadrada U n n, é uma matriz triangular superior se todos os elementos abaixo da diagonal forem iguais a zero e, a matriz quadrada quadrada L n n, é uma matriz triangular inferior se todos os elementos acima da diagonal forem iguais a zero 2

Matrizes Exemplo: matrizes triangulares superior e inferior de dimensões 4 4 u u 2 u 3 u 4 l 0 0 0 0 u 22 u 23 u 24 l 2 l 22 0 0 U 4 4 = L 0 0 u 33 u 34 4 4 = l 3 l 32 l 33 0 0 0 0 u 44 l 4 l 42 l 43 l 44 Teorema 2 Sejam matrizes U n n e L n n, triangulares superior e inferior, respectivamente Então seus determinantes são obtidos pela multiplicação dos elementos das diagonais, ou seja: n U = u ii i= n L = l ii i= Teorema 22 Sejam matrizes A n n e B n n, então: i) Se A e B são ambas triangulares inferiores, o produto AB é uma matriz triangular inferior ii) Se A e B são ambas triangulares superiores, o produto AB é uma matriz triangular superior Teorema 23 Seja A n n : i) Se A é triangular inferior (ou superior) com todos os elementos da diagonal diferentes de zero, então A é invertível e sua inversa A é triangular inferior (ou superior) ii) Os elementos da diagonal de A são os recíprocos dos elementos da diagonal de A, ou seja a ii = a ii, i =, 2,, n, em que a ii são os elementos da diagonal de A e a ii, os elementos da diagonal de A 22 Operações com matrizes i) Multiplicação por um escalar: c A n p = c a c a 2 c a p c a 2 c a 22 c a 2p c a n c a n2 c a np 3

Matrizes ii) Adição de matrizes de mesmas dimensões: A n p + B n p = a + b a 2 + b 2 a p + b p a 2 + b 2 a 22 + b 22 a 2p + b 2p a n + b n a n2 + b n2 a np + b np Resultados: a) A + B = B + A; b) (A + B) + C = A + (B + C); c) c (A + B) = c A + c B; d) A + 0 = A e A A = 0; e) (c + d) A = c A + d A; f) (c d) A = c (da); g) (A + B) t = A t + B t Nota: A matriz 0 é o elemento neutro da adição de matrizes, ou seja, A + 0 = A iii) Multiplicação de matrizes: o produto de duas matrizes A n k e B k p é dado pelos produtos internos das linhas de A pelas colunas de B A n k B k p = (A B) n p, desta forma, o número de colunas da primeira (A) deve ser igual ao número de linhas da segunda (B) e o resultado será uma matriz cujo número de linhas será igual ao número de linhas da primeira e o número de colunas, igual ao da segunda Exemplo: A 2 3 = A B = 3 2 5 4 ( 6 7 + 8) (3 6) ( 2 + 35 36) ( + 2) B 3 2 = = 2 7 0 9 3 5 3 3 3, Uma matriz A n k pode ser representada como uma coleção de k vetores nas colunas, assim como n vetores transpostos nas linhas Seja ai t vetor transposto representando a i-ésima linha, i =, 2,, n, então, a matriz A pode ser escrita por: A n k = a t a2 t an t 4

Matrizes como: Da mesma forma, considerando as colunas de A n k como vetores, pode-se, ainda, escrever A A n k = a a 2 a k Desta forma, o produto entre duas matrizes A n k e B k p pode ser representado por A n k B k p = a t a2 t b b 2 b p a t n A n k B k p = a b t a b 2 t a b p t a2 b t a2 b 2 t a2 b p t a t n b a t n b 2 a t n b p A partir de (22) podemos, ainda, representar o produto entre duas matrizes por: A n k B k p = a a 2 a p b t b t 2 p = a j b t j j= b t n Resultados: (as matrizes A, B e C são de dimensões tais que os produtos abaixo sejam definidos) a) A (B C) = (A B) C; b) A (B + C) = A B + A C; c) c (A B) = (c A) B; d) c (A B) = (c A) B; e) (α A)(β B) = (αβ)(ab); f) (A B) t = B t A t Notas: ) Em geral não vale a propriedade comutativa, ou seja, A B B A, 2) Se A B = 0, não implica, necessariamente, que A = 0 ou que B = 0; 3) A identidade é o elemento neutro da multiplicação de matrizes, ou seja, A I = I A = A 5

Matrizes 23 Medidas relacionadas 23 Determinante Seja uma matriz quadrada A, então, seu determinante é um escalar denotado por A e é definido por: k A = a j ( ) j+ A j, k > j= em que a j é o j-ésimo elemento da primeira linha de A e A j é a matriz obtida eliminando-se a primeira linha e a j-ésima coluna de A O resultado também é válido quando excluímos qualquer uma das outras linhas, ou seja k A = a ij ( ) i+j A ij, k >, i =, 2,, k j= Nota: o termo ( ) i+j A ij é definido como cofator do elemento a ij e será visto mais adiante Exemplo: A = 2 3 0 2 2 2 0 3 3 4 2 Eliminando-se a primeira linha: A = (2) ( ) + (3) ( ) +3 2 2 0 3 3 2 2 2 0 3 4 2 + () ( ) +2 + (0) ( ) +4 2 2 2 3 3 + 4 2 3 2 0 3 4 A = (2) ( ) 2 ( 9) + () ( ) 3 (2) + (3) ( ) 4 ( 23) + (0) ( ) 5 (7) A = 8 2 69 = 08 Eliminando-se a terceira linha: A = ( 2) ( ) 2 (8) + (0) ( ) 3 (30) + (3) ( ) 4 ( 2) + (3) ( ) 5 (22) A = 36 6 66 = 08 6

Matrizes Casos especiais: a) k = 2: A = a a 2 a 2 a 22, A = a a 22 a 2 a 2 Exemplo: b) k = 3: A = A = a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33 3 6 4,, A = 4 3 6 = 4 A = a 2 a 32 a 3 + a a 22 a 33 + a 2 a 23 a 3 a 2 a 2 a 33 a 3 a 22 a 3 a a 23 a 32 Exemplo: A = 3 6 7 4 5 2 7, A = 0 + 2 294 7 48 + 05 = 222 Resultados (as matrizes A, B são tais que os produtos sejam definidos) a) A = A t, b) Se os elementos de uma linha (ou coluna) são iguais a zero, então, A = 0, c) Se duas linhas (ou colunas) são iguais ou proporcionais, então, A = 0, d) A B = A B, e) c A = c k A, em que k é o número de linhas (ou colunas) de A, f) I = 232 Posto ou rank O posto ou rank de uma matriz A n p é dado pelo número máximo de linhas ou colunas linearmente independentes (LI), ou seja, posto(a) min(n, p) 7

Matrizes Exemplos: A = 3 0 2 3 0 4 3 4 5, posto(a) = 3, todas as linhas, de A são LI B = 4 3 4 5 2 2 0, posto(b) = 2, a primeira coluna de B é combinação linear das demais Notas: ) Uma matriz A n p é dita ser de posto completo se o seu posto for igual a min(n, p), 2) Nos exemplos acima, a matriz A é de posto completo, enquanto que, a matriz B não é de posto completo 233 Traço Seja uma matriz quadrada A k k, então o traço de A, denotado por tr(a), é dado pela soma dos elementos de sua diagonal principal k tr(a) = a ii i= Exemplos: A = 3 0 3 4 3 4, tr(a) = 3 + 3 + 4 = 0 B = 4 3 4 5 2 2 0, tr(b) = 8 Resultados a) tr(c A) = c tr(a), d) tr(b A B) = tr(a) b) tr(a ± B) = tr(a) ± tr(b), k e) tr(a t A) = tr(a A t ) = c) tr(a B) = tr(b A), k a 2 ij i= j= 8

Matrizes 24 Autovalores e autovetores Considere a matriz A e os vetores u e v: 3 2 2 A = 0 u = v = Então, as transformações operadas por A resultam em A u = A v = 3 2 0 3 2 0 5 = 2 4 = = 2 v 2 Tomando como foco as transformações lineares do tipo A x = λ x, com λ constante, temos transformações nas quais o vetor x tem seu tamanho expandido ou diminuido Representando as transformações graficamente temos: Figura 2: Transformações do tipo Ax 9

Matrizes Por exemplo, A = resulta em A x = 2 x + x 2 x + 2x 2 x x 2 aplicada no vetor x = x x 2 Definição 22 Autovetor Um autovetor de uma matriz A k k é um vetor x, não nulo, tal que A x = λx, para algum escalar λ Definição 23 Autovalor Um escalar λ é chamado de autovalor de A se existe solução não trivial x para A x = λx Considere a transformação A x = λ x, então, podemos escrever A x = λ Ix Logo, uma forma de encontrar os autovalores de A é resolver o sistema A x λ I x = (A λ I) x = 0 (23) O sistema (23) tem solução não trivial se, e somente se, a matriz A λi for singular, então, os autovalores de A são soluções da equação A λ I = 0 (24) Teorema 24 Seja uma matriz A k k e λ um escalar, então, as seguintes afirmações são equivalentes: a) λ é um autovalor de A b) λ é solução de A λ I = 0 c) o sistema (A λ I) x = 0 tem soluções não triviais Notas: ) A equação polinomial A x λ I = 0 é chamada função característica de A; ) Os valores λ e x e são chamados autovalor e autovetor associados; 2) Normalmente, os autovetores são dados na forma padronizada e, tal que e t e =, em que e t e = x x = x x t x 20

Matrizes Resultado: Seja A k k uma matriz quadrada; como o polinômio (24) é de grau k, então existem k autovalores λ, λ 2,, λ k que satisfazem a equação polinomial A λ I = 0 Assim sendo, existem k autovetores e, e 2,, e k associados Exemplos: i) Seja a matriz: 0 A =, então 3 ( λ) 0 A λ I = (3 λ) = ( λ) (3 λ) = 0 3 4λ + λ 2 = 0 λ = 4 + 6 2 2 = 3 e λ 2 = 4 6 2 2 = Portanto, os autovalores de A são λ = 3 e λ 2 = Para encontrar os autovetores associados devemos fazer: Autovetor e associado ao autovalor λ = 3: A x = λ x 0 { 3 x x = 3 x 2 x 2 x = 3x x + 3x 2 = 3x 2 Do sistema acima temos que x = 0 e x 2 pode ser um valor arbitrário, o qual será considerado igual a O primeiro autovetor é, portanto, x t = (0, ) Padronizando o autovetor x temos e = x 0 = x t x 2

Matrizes Autovetor e 2 associado ao autovalor λ 2 = : A x 2 = λ 2 x 2 0 { 3 x2 x2 = x 22 x 22 x 2 = x 2 Da segunda equação temos x 2 = 2x 22 x 2 + 3x 22 = x 22 x 2 = 2 e o segundo autovetor é, portanto, x 2 t = ( 2, ) Padronizando o autovetor x 2 temos e 2 = x 2 x2 t x 2 = 5 2 Tomando x 22 =, então x 2 fica igual a = 2/ 5 / 5 ii) Outro exemplo: 3 4 A = 6, então (3 λ) 4 (6 λ) = 4 9λ + λ2 = 0 λ = 7 λ 2 = 2 Autovetor e associado ao autovalor λ = 7: { 3x + 4x 2 = 7x x + 6x 2 = 7x 2 Do sistema acima temos que x = x 2, portando, x t = (, ) e, / 2 e = / 2 Autovetor e 2 associado ao autovalor λ 2 = 2: { 3x2 + 4x 22 = 2x 2 x 2 + 6x 22 = 2x 22 Do sistema acima temos que x 2 = 4x 22, portando, x 2 t = (, /4) e, e 2 = Resultados: 22 4/ 7 / 7

Matrizes a) Seja A p p com autovalores λ, λ 2,, λ p, então, os autovalores de A t A e AA t, denotados por δ, δ 2,, δ p, serão os mesmos e p p λ 2 i = δ i ; i= i= b) Se, além disso, A for simétrica, com autovetores v, v 2,, v p, A t A e AA t terão autovalores δ = λ 2, δ 2 = λ 2 2,, δ p = λ 2 p e mesmos autovetores; c) Os autovalores δ, δ 2,, δ p de A t A e AA t recebem o nome de valores singulares 25 Matriz dos cofatores e matriz adjunta i) Matriz dos Cofatores: Seja uma matriz quadrada A p p Considere A ij como sendo o determinante da submatriz resultante ao se retirar a i-ésima linha e j-ésima coluna de A, i, j =, 2,, p Então a quantidade C ij = ( ) i+j A ij, é definida como cofator do elemento a ij A matriz que se obtém substituindo-se cada termo a i,j de A pelo seu respectivo cofator é chamada matriz dos cofatores de A e será denotada por cof(a) C C 2 C p C 2 C 22 C 2p cof(a) = C p C p2 C pp Casos especiais: Matriz 2 2: cof (A) = a22 a 2 a 2 a 23

Matrizes Matriz 3 3: cof (A) = a 22 a 23 a 32 a 33 a 2 a 3 a 3 a 33 a a 3 a 22 a 23 a 2 a 23 a 3 a 33 a a 3 a 3 a 33 a a 3 a 2 a 23 a 2 a 22 a 3 a 32 a a 2 a 3 a 32 a 2 a 2 a 2 a 22 Exemplos: a) Matriz 2 2: A = 3 6 4, cof(a) = 4 6 3 b) Matriz 3 3: A = 3 0 2 3 3 4 C = ( ) (+) 2 3 4 C 3 = ( ) (+3) 2 3 3 =, C 2 = ( ) (+2) = 9 3 4 = Ainda, C 2 = 3, C 22 = 9, C 23 = 9, C 3 = 2, C 32 = 2 e C 33 = 6, logo cof(a) = 9 3 9 9 2 2 6 ii) Matriz Adjunta: A matriz adjunta de uma matriz quadrada, denotada por adj(a), é a transposta da matriz dos cofatores Caso especial: Matriz 2 2: adj (A) = a22 a 2 a 2 a Exemplos: 24

Matrizes a) Matriz 2 2: A = 3 6 4, adj(a) = 4 3 6 b) Matriz 3 3: A = 3 0 2 3 3 4, adj(a) = 3 2 9 2 9 9 6 26 Matriz inversa A inversa de uma matriz quadrada A, denotada por A, é tal que: A A = A A = I Pode-se encontrar a inversa de uma matriz de uma maneira rápida por meio da relação com sua matriz adjunta em que A é o determinante da matriz A A = adj (A), A Caso especial: a inversa de uma matriz 2 2 é dada por A = a a 2 a 2 a 22, A = a22 a 2 A a 2 a Exemplo: 3 4 3 A = 6 4, A = 4 2 O procedimento acima, apesar de simples, não é prático quando se tem matrizes com dimensões muito grandes messes casos O método da diagonalização (ou pivoteamento), mais prático, é mais indicado O método do pivoteamento consiste em se colocar a matriz A ou lado da matriz identidade I, de mesma dimensão, formando uma matriz estendida A I Por meio de operações elementares aplicadas nas linhas de A I, efetuar a diagonalização de A transformando-a numa matriz identidade (as mesmas transformações devem ser aplicadas em I) Após a finalização do processo, tem-se à esquerda uma matriz identidade e à direita a matriz inversa de A, ou seja, I A Exemplo: Encontrar a matriz inversa de A pelo método do pivoteamento 25

Matrizes A = 2 2 2 0 3 0 3 2 3 0 4 a) Montar a matriz estendida A I : 2 0 0 0 2 2 0 3 0 0 0 0 3 2 0 0 0 3 0 4 0 0 0 b) Multiplicar a primeira linha por ( 2) e somar à segunda linha e multiplicar a primeira linha por (3) e somar à quarta linha: 2 0 0 0 0 2 2 2 0 0 0 3 2 0 0 0 0 6 4 3 0 0 26

Matrizes c) Dividir a segunda linha por ( 2) Na sequência, multiplicar a segunda linha por (3) e somar à terceira linha e multiplicar a segunda linha por ( 6) e somar à quarta linha: 2 0 0 0 0 /2 /2 0 0 0 0 /2 3 3/2 0 0 0 2 2 3 3 0 d) Multiplicar a terceira linha por ( ) Na sequência, multiplicar a terceira linha por ( 2) e somar à quarta linha: 2 0 0 0 0 /2 /2 0 0 0 0 /2 3 3/2 0 0 0 0 3 0 2 d) Multiplicar a quarta linha por ( /2) e somar à terceira linha; multiplicar a quarta linha por (/2) e somar à segunda linha e multiplicar a quarta linha por ( ) e somar à primeira linha: 2 0 2 0 2 0 0 5/2 /2 /2 0 0 0 9/2 3/2 2 /2 0 0 0 3 0 2 e) Multiplicar a terceira linha por () e somar às segunda e primeira linhas: 2 0 0 3/2 3/2 4 3/2 0 0 0 2 0 0 0 0 9/2 3/2 2 /2 0 0 0 3 0 2 f) Multiplicar a segunda linha por ( 2) e somar à primeira linha, com o pivoteamento completo: 0 0 0 5/2 /2 2 3/2 0 0 0 2 0 0 0 0 9/2 3/2 2 /2 0 0 0 3 0 2 Portanto, a inversa de A é: A = 5/2 /2 2 3/2 2 0 9/2 3/2 2 /2 3 0 2 27

Matrizes Resultados (as matrizes A, B e C são tais que as inversas existam e os produtos sejam definidos) a) (A ) t = (A t ) ; b) (A B) = B A ; c) (ka) = (/k)a ; d) Se existe a inversa A de uma matriz A, então A é única 27 Matriz não singular Uma matriz quadrada A k k é não singular se: A x = 0 = x = 0 Notas: ) Note que A x = a x + a 2 x 2 + + a k x k, onde a i é a i-ésima coluna de A, i =, 2,, k Portanto, uma matriz A k k é não singular se as suas colunas forem linearmente independentes, 2) Uma matriz quadrada é de posto completo se, e só se, ela é não singular, 3) Se A k k é não singular, então existe uma única matriz inversa A, 4) Se A k k é não singular, então A = / A, isto é A A =, 5) Para uma matriz A k k não singular, os resultados a seguir são equivalentes A x = 0 x = 0, A 0, Existe A tal que, A A = I 28 Matriz ortogonal Uma matriz quadrada é dita ser ortogonal se P = P t, ou seja, uma matriz P k k e dita ser ortogonal se suas colunas, consideradas como vetores, são mutuamente perpendiculares e de comprimento, o que equivale a dizer que P P t = I Exemplo: /2 /2 /2 /2 /2 /2 /2 /2 P =, então P P t = I /2 /2 /2 /2 /2 /2 /2 /2 Nota: Uma matriz P é ortogonal, se e somente se, P t = P Propriedades: a) Sejam p ij, i, j =, 2,, k, elementos de uma matriz ortogonal P, então, p ij ; b) Se P é ortogonal = P é não singular; 28

Matrizes c) det(p) = ± ; d) Sejam P, P 2,, P k ortogonais, então o produto P P 2 P k é uma matriz ortogonal; Teorema 25 Seja uma matriz quadrada A, e uma matriz orotogonal P, então: det(a) = det(p t AP) Teorema 26 Seja uma matriz quadrada A, então existe P ortogonal, tal que P t AP = D, D diagonal, se, e só se, A é simétrica Exemplo: A = P = 0 4 2 2 2 2 det(a) = 3 2 P t AP = 2 29 Matriz definida positiva det(p t AP) = Considere o produto x t A x Como temos apenas termos quadráticos x 2 i e termos cruzados x i x j, x t A x recebe o nome de forma quadrática Se uma matriz A k k, simetrica, é tal que x t A x > 0, x não nulo, então, dizemos que A é uma matriz definida positiva Nota: Se uma matriz A k k é definida positiva, então os seus autovalores são todos positivos, isto é λ i > 0, i =, 2,, k Exemplo: Considere a forma quadrática 6x 2 + 4x x 2 + 3x 2 2, então x t A x = x x 2 6 2 2 3 x x 2 Como 6x 2 + 4x x 2 + 3x 2 2 > 0, x 0, então, A = 6 2 2 3 é definida positiva Notas: ) Se x t A x 0, x não nulo, então A é semi-definida positiva, 2) Se x t A x < 0, x não nulo, então A é definida negativa, 3) Se x t A x 0, x não nulo, então A é semi-definida negativa 29

Matrizes 20 Operações elementares Operações elementares são transformações aplicadas nas linhas e colunas de uma matriz, podendo ser do tipo: i) troca de 2 linhas (ou colunas); ii) multiplicação de uma linha (ou coluna) por um esclar; iii) combinações lineares de linhas (ou colunas) As operações elementares podem ser representadas por meio de matrizes que recebem o nome de matrizes elementares Por exemplo, considere o operador P = 0 0 4 0 0 0 Operando numa matriz A 3 k, tem como resultado PA que preserva as linhas e 3 e a segunda linha dada por 4 vezes a linha mais a linha 2 Exemplo: Resultados: 0 0 3 2 2 PA = 4 0 4 2 3 0 0 6 8 3 = 3 2 2 8 4 5 7 6 8 3 a) o posto de uma matriz não é alterado pela aplicação de operações elementares; b) duas matrizes de mesmo posto e dimensões são ditas serem equivalentes; c) duas matrizes equivalentes podem ser transformadas uma na outra por meio de operações elementares Sejam matrizes não singulares P e Q, então, para alguma matriz A, os produtos PA, AQ e PAQ têm todas o mesmo posto 2 Matrizes similares Sejam A e B quadradas de mesmas dimensões, se existe Q não singular, tal que: B = Q AQ, então A e B são chamadas de similares e a transformação Q AQ é chamada transformação similar 30

Matrizes Resultados: i) Os determinantes de matrizes similares são iguais; no caso, A = B ; ii) Matrizes similares têm mesmos autovalores Exemplo 2 Sejam 04 06 A = 02 08 e Q = 3 Então: 3/4 /4 04 06 6 B = /4 /4 02 08 3 = 0 02 Neste caso, A = 02 = B Resultado: Seja A k k, então existe uma matriz Q tal que Q AQ = T, em que T é triangular superior e os autovalores de A serão a diagonal de T Teorema 27 Se A k k é simétrica, então, seus autovalores serão reais Teorema 28 Se A k k é simétrica, então, para dois autovalores λ i e λ j, i j, teremos autovetores associados x i e x j e xi t x j = 0, ou seja, x i e x j são ortogonais Teorema 29 Se A k k é simétrica, então existe uma matriz P tal que P t AP = Λ, em que Λ é diagonal com os autovalores de A Exemplo 22 Seja A = 6 4 4 0 Seus autovalores são λ = 8 e λ 2 = 8, com autovetores associados: e = 2/ 5 / 5 e e = / 5 2/ 5, logo, P = 2/ 5 / 5 / 5 2/ 5 Então: 2/ 5 / 5 6 4 2/ 5 / 5 8 0 / 5 2/ 5 4 0 / 5 2/ 5 = 0 8 = Λ 3

3 Matrizes particionadas Uma matriz particionada é uma matriz cujo conteúdo é subdividido em submatrizes, ou blocos Por exemplo, seja A m n não singular, então, a matriz A particionada em blocos 2 2 é definida por: A = A A 2 m n m n 2, A 2 A 22 m 2 n m 2 n 2 em que: m + m 2 = m e n + n 2 = n O caso geral da partição em blocos l c é dado por: A A 2 A c A 2 A 22 A 2c A = A l A l2 A lc, sendo A ij de dimensões m i n j, i =, 2,, l e j =, 2,, c, tal que l m i = m i= e c n i = n j= Nota 3 i) A partição pode ser quadrada, como é o caso 2 2, mas os blocos A ij, i =, 2,, l e j =, 2,, c, não são necessariamente quadrados; Nota 32 ii) Neste material vamos considerar apenas as partições em blocos 2 2 32

Matrizes particionadas 3 Casos especiais a) Bloco triangulares inferior (L) e superior (U): A 0 L = A 2 A 22, U = A A 2 0 A 22 b) Bloco diagonal: D = A 0 0 A 22, c) Simétrica: com A e A 22 simétricas d) Transposta: A A 2 A = A t 2 A 22 A A t t = A t 2 A t 2 A t 22, 32 Operações com matrizes particionadas a) Traço: seja A particionada em blocos 2 2, então o traço de A pode ser escrito por traço(a) = traço(a ) + traço(a 22 ) b) Soma: Sejam A e B com mesmas dimensões, particionadas em blocos 2 2, tais que seus blocos equivalentes também têm mesmas dimensões, então: A + B A 2 + B 2 A + B = A 2 + B 2 A 22 + B 22 b) Produto: Sejam A m n e B n k, cujas partições têm dimensões compatíveis para o produto, 33

Matrizes particionadas ou seja, A e B são do tipo: A m n = A A 2 m n m n 2 A 2 A 22 e B m n = B B 2 n k n k 2 B 2 B 22, m 2 n m 2 n 2 n 2 k n 2 k 2 em que: m + m 2 = m, n + n 2 = n e k + k 2 = k, então o produto entre A e B é definido por: A B + A 2 B 2 A B 2 + A 2 B 22 C m k = AB = A 2 B + A 22 B 2 A 2 B 2 + A 22 B 22 C m k = C C 2 m k m k 2 C 2 C 22 m 2 k m 2 k 2 Exemplo 3 Sejam duas matrizes A e B, tais que: A 5 5 = 2 4 2 3 0 3 2 2 0 2 3 0 2 0, B 5 6 = 0 3 4 3 0 3 3 2 0 0 3 0 0 2 3 3 2 2 Fazendo os produtos parciais, temos: A B + A 2 B 2 = 4 5 4 9 9 2, 34

Matrizes particionadas A B 2 + A 2 B 22 = 2 4 2 4 3 5 7 5 2 2 0, A 2 B + A 22 B 2 = 0 9 0, A 2 B 2 + A 22 B 22 = 0 3 4 2 8 2 9 2 Portanto, o produto AB é dado por: AB 5 6 = 4 5 2 4 2 4 4 9 3 5 7 5 9 2 2 2 0 0 9 0 3 4 2 0 8 2 9 2 33 Decomposição LDU A decomposição LDU trata-se de um processo de diagonalização de uma matriz particionada, em que: L é uma matriz bloco triangular inferior; D é uma matriz bloco diagonal; U é uma matriz bloco triangular superior Assim sendo, dada uma a matriz A não singular, podemos escrever A = L D U e D = L A U Seja A dada por: A = A A 2 A 2 A 22 i) Transformamos A numa matriz bloco triangular superior por meio da operação I 0 A 2 A I em que F = A 22 A 2 A A 2 A A 2 A 2 A 22 35 A A 2 = 0 F, (3)

Matrizes particionadas ii) De maneira semelhante, podemos transformar A numa matriz bloco triangular inferior fazendo A A 2 A 2 A 22 I A A 2 0 I com F definido da mesma forma como no caso anterior = A 0 iii) Combinando as duas operações anteriores, ou seja, pre-multiplicando a matriz A pela matriz dada em (i) e pós-multiplicando pela matriz em (ii), temos como resultado uma matriz diagonal I 0 A 2 A I A A 2 A 2 A 22 A 2 I A A 2 0 I = F, A 0 0 F e que É fácil mostrar que (fica como exercício) I 0 A 2 A I I A A 2 0 I = I 0 A 2 A I I A A 2 0 I Desta forma, a decomposição L D U de A é dada por: I 0 A 2 A I A 0 0 F I A A 2 0 I = L, = U = A Exemplo 32 Considere a matriz A particionada em blocos 2 2 2 2 0 2 A 5 5 = 3 0 2 3 36

Matrizes particionadas Desta forma, temos A = 2 e A =, 2 A 22 = e A 22 = 3, cujas inversas são dadas por: A = 2, A 22 = 3 2 A matriz F, definida em (3), é dada por F = A 22 A 2 A A 2 = 0 3 4 Das relações acima, temos, ainda, que A 2 A = 6 3 2, A A 2 = 4 0 2 Portando, as matrizes L, U e D da decomposição LDU de A são dadas por L = 0 0 0 0 0 0, 6 3 0 2 0 37

Matrizes particionadas U = 0 4 0 0 2 0 0 0 0 0 0, D = 0 0 2 0 0 0 0 0 0 0 3 4 34 Rank, ou posto, de matrizes particionadas Seja a matriz A particionada em blocos 2 2, então, a) se A não é singular, rank(a) = rank(a ) + rank(f); b) se A 22 não é singular, rank(a) = rank(a 22 ) + rank(g), F = A 22 A 2 A em que G = A A 2 A A 2 22 A 2 Prova item (a): Se duas matrizes L e U não são singulares então das seções (20) e (33) segue-se que: rank(a) = rank(d) = rank(a ) + rank(f) A prova do item (b) segue reaciocínio semelhante, com a diagonalização da decomposição LDU partindo de A 22 como pivô 35 Determinante de matrizes particionadas Resultado: Considere uma matriz A particionada em blocos 2 2 em que A e A 22 sejam quadradas Se A for bloco triangular superior, bloco triangular inferior ou bloco diagonal, ou seja, A A 2 A 0 A 0 A =, A = ou A = 0 A 22 A 2 A 22 0 A 22 38

Matrizes particionadas então, segue-se que A = A A 22 Seja A = A A 2 A 2 A 22, então A = A A 22 A 2 A A 2, ou seja, det(a) = det(a ) det(f) Prova: Podemos provar a relação acima a partir da diagonalização de A, porém, vamos fazer a demonstração usando uma proposição diferente Seja a matriz C dada por C = então, segue-se que C = A I = A A A A 2 0 I Como podemos escrever A = A A A, logo, A = A A A 2 A 2 A 22 A A A 2 0 I A = A A A 2 A 2 A 22 A A A 2 0 I A = A I 0 A 2 A A 22 A 2 A A 2 A = A A 22 A 2 A A 2 Exemplo 33 Considere a matriz do Exemplo (32) Como 0 A = e F = 2 3 4, 39

Matrizes particionadas então, o determinante da matriz A é dado por: A = 2 0 3 4 = () (37) = 37 Nota 33 Com um raciocínio semelhante, mostra-se que A = A 22 A A 2 A 22 A 2, ou seja, det(a) = det(a 22 ) det(g) 36 A inversa de uma matriz particionada Seja A 0 e A 22 0, os resultados a seguir são válidos i) A e A 22 existem; ( ) ii) A A 2 A ( 22 A 2 e A 22 A 2 A 2) A existem; iii) Com isso, A pode ser escrita como: A = ( ) A A 2 A ( ) 22 A 2 A A 2 A 22 A 2 A A 2 ( ) A 22 A 2 A A 2 A ( ) 22 A 2 A 22 A 2 A A 2 (32) Prova: Considere a matriz B, inversa de A, isto é AB = I, então, B e B 22 não são singulares Desta forma, temos que A B + A 2 B 2 A B 2 + A 2 B 22 I 0 AB = = A 2 B + A 22 B 2 A 2 B 2 + A 22 B 22 0 I Logo, temos as seguintes relações entre as partes de A e as submatrizes B e B 2 A B + A 2 B 2 = I A 2 B + A 22 B 2 = 0 40

Matrizes particionadas Isolando B 2 na segunda equação, temos A 2 B + A 22 B 2 = 0 A 22 B 2 = A 2 B B 2 = A 22 A 2B Asim, podemos obter B substituindo B 2 na primeira equação, ou seja, Com isso B 2 é dado por: A B A 2 (A 22 A 2B ) = I (A A 2 A 22 A 2)B = I B = (A A 2 A 22 A 2) B = G B 2 = A 22 A 2(A A 2 A 22 A 2) B 2 = A 22 A 2G De maneira análoga podemos calcular B 2 e B 22 a partir de A B 2 + A 2 B 22 = 0 A 2 B 2 + A 22 B 22 = I De onde obtemos: { B22 = (A 22 A 2 A A 2) B 22 = F e { B2 = A A 2(A 22 A 2 A A 2) B 2 = A A 2F Portanto, com as submatrizes B, B 2, B 2 e B 22 obtemos a inversa de A como em (32) 4

4 Decomposição de matrizes 4 Decomposição espectral Seja a matriz A k k, simétrica, então A pode escrita por: Exemplo: k A = λ i e i e t i i= A = 22 04 04 28 λ = 3, e = λ 2 = 2, e 2 = 5 2 5 2 5 5, então ; Logo, A = 3 A = A = / 5 2/ 5 3/5 6/5 6/5 2/5 22 04 04 28 5, + 2 2/ 5 + 2 5 / 5 8/5 4/5 4/5 2/5 2 5, 5 Vamos definir uma matriz U, ortogonal, cujas colunas são formadas pelos autovetores e, e 2, 42

Decomposição de matrizes, e k e, da mesma forma, uma matriz ortogonal V, tal que V = U t, ou seja U = e e 2 e k, e V = U t = e t e t 2 e t k Definindo, ainda, uma matriz diagonal formada pelos autovalores λ, λ 2,, λ k, ou seja, λ 0 0 0 λ 2 0 Λ =, 0 0 λ k podemos escrever A = U Λ V ou A = U Λ U t No caso 2 2, temos U = e e 2 e Λ = λ 0 0 λ 2 Desta forma, uma matriz A 2 2 pode ser representada por A = e e 2 λ 0 0 λ 2 e t e t 2 A = λ e e t + λ 2 e 2 e t 2 Exemplo: No exemplo anterior temos 22 04 / 5 2/ 5 3 0 A = 04 28, U = 2/ 5 / 5 e Λ = 0 2 Casos especiais: 43

Decomposição de matrizes a) Matriz inversa: a inversa de uma matriz A k k, simétrica, pode ser obtida fazendo A = k i= ou ainda, λ i e i e t i, A = U Λ U t b) Matriz raiz quadrada: a matriz raiz quadrada de uma matriz A k k, definida positiva, é uma matriz tal que A /2 A /2 = A, podendo ser obtida de ou, equivalentemente, A /2 = k λi e i e t i, i= A /2 = UΛ /2 U t, em que Λ /2 é dada por λ 0 0 Λ /2 = 0 λ2 0 0 0 λk Outras relações envolvendo a matriz raiz quadrada são apresentadas a seguir: A /2 = (A /2 ) = UΛ /2 U t ; A /2 A /2 = A Exemplo: Considere a matriz A = 22 04 04 28, / 5 2/ 5 3 0 então, U = 2/ 5 / 5 e Λ = 0 2 3 0 Desta forma, fazendo Λ /2 =, temos 0 2 A /2 = A /2 = / 5 2/ 5 2/ 5 / 5 ( 3 + 4 2) 5 (2 3 2 2) 5 3 0 / 5 2/ 5 0 2 2/ 5 / 5 (2 3 2 2) 5 (4 3 + 2) 5 44

Decomposição de matrizes A matriz A /2 é a matriz raiz quadrada de A sendo que, de fato A /2 A /2 = ( 3 + 4 2) 5 (2 3 2 2) 5 Agora, fazendo Λ /2 = (2 3 2 2) 5 (4 3 + 2) 5 / 3 0 0 / 2, temos ( 3 + 4 2) 5 (2 3 2 2) 5 (2 3 2 2) 5 (4 3 + 2) 5 22 04 = 04 28 = A A /2 = A /2 = / 5 2/ 5 2/ 5 / 5 / 3 0 0 / 2 ( 5 3 + 4 ) ( 2 5 2 5 3 2 ) 5 ( 2 2 5 3 2 ) ( 4 5 2 5 3 + ) 5 2 / 5 2/ 5, 2/ 5 / 5 sendo assim, teremos A /2 A /2 = 6 28 02 02 22 = A 42 Decomposição em valores singulares Seja a matriz A m k uma matriz de valores reais Existem matrizes U m m e V k k, ortogonais, tais que A = UΣV t, em que Λ é uma matriz do tipo Σr 0 Σ = 0 0 m k, com r = posto de A, e Σ r é uma matriz diagonal com os r valores singulares de A A decomposição em valores singulares pode ser expressa numa relação matricial que depende do posto da matriz Considere A m k e seja r min(m, k), rank(a) Então, existem r constantes positivas, ou valores singulares, σ = λ, σ 2 = λ 2,, σ r = λ r, em que λ i > 0, i =, 2,, r são os r autovalores positivos de A t A Existem, ainda, r autovetores v, v 2,, v r, de dimensão k e r autovetores u, u 2,, u r, 45

Decomposição de matrizes de dimensão m, tal que r A = σ i u i vi t = U r Σ r Vr, t i= em que U r = u u 2 u r e V r = v v 2 v r, são matrizes ortogonais e Σ r é uma matriz diagonal do tipo σ 0 0 0 σ 2 0 Σ r = 0 0 σ r Nessa situação, λ λ 2 λ r > 0 e v, v 2,, v r, são os r primeiros pares de autovalores e autovetores de A t A, obtidos de A t A v i = λ i v i, em que λ > λ 2 > > λ r > 0, são valores estritamente positivos Os autovetores u i, por sua vez, estão associados aos autovetores v i, i =, 2,, r, pela relação u i = A v i σ i Desta forma, a decomposição em valores singulares pode ser escrita pela expressão A = U r Σ r V t r Nota 4 Notas a) Alternativamente, u i, i =, 2,, r, são os r autovetores associados aos mesmos autovalores positivos λ λ 2 λ r > 0 de A A t, em que σ i = λ i, i =, 2,, r são os respectivos valores singulares Os autovetores v i, por sua vez, estão relacionados aos autovetores u i, i =, 2,, r, pela relação v i = A t u i σ i b) Da decomposição em valores singulares temos, ainda, as seguintes relações: A v i = σ i u i A t u i = σ i v i 46

Decomposição de matrizes c) Uma forma de representar a decomposição em valores singulares é através da decomposição polar, em que a matriz A m k pode ser representada por A = P Q, com P = U Σ U t e Q = U V t De fato, A = U Σ V t = U Σ (U t U) V t = (U Σ U t ) (U V t ) = P Q Exemplo 4 Seja A = 0 0, então, At A é dada por A t A = 0 0 0 0 2 = 2 O posto de A é r = 2, assim, os dois autovalores diferentes de 0 de A t A são λ = 3 e λ 2 = Os autovetores associados são respectivamente v = / 2 / 2 e v 2 = Os autovetores u e u 2, por sua vez, são obtidos de u = 3 / 2 / 2 2/ 6 0 / 2 / = / 6 2 0 / 6, u 2 = 0 0 / 2 / 2 = 0 / 2 / 2 47

Decomposição de matrizes Assim sendo, a matriz A pode ser escrita como A = U r Σ r V t r, ou seja, A = 2/ 6 0 / 6 / 2 / 6 / 3 0 0 2 / 2 / 2 / 2 / 2 A = 0 0 A decomposição polar de A é expressa por: P = U Σ U t = 2 4 2 2 2 ( + 3) ( 3) 2 ( 3) ( + 3) Q = U V t = 2 2 2 ( 3) ( + 3) ( + 3) ( 3) Exemplo 42 Seja A = 4 3 8 6 8 9, então, A At é dada por A A t = 4 3 8 6 4 8 8 3 6 9 8 9 = 25 50 5 50 00 0 5 0 45 Os autovalores diferentes de 0 de A A t são λ = 50 e λ 2 = 20 com autovetores associados, respectivamente u = / 30 2/ 30 5/ 30 e u 2 = / 6 2/ 6 / 6 48

Decomposição de matrizes Os vetores v e v 2, por sua vez, são obtidos de v = 50 4 8 8 3 6 9 / 30 2/ 30 5/ 30 2/ 5 = / 5, v 2 = 20 4 8 8 3 6 9 / 6 2/ 6 / / 5 = 2/ 5 6 Assim sendo, a matriz A pode ser escrita como A = U Λ V t, ou seja, A = / 30 / 6 2/ 30 2/ 6 5/ 30 / 50 0 0 20 6 2/ 5 / 5 / 5 2/ 5 A = 4 3 8 6 8 9 43 Decomposição LU Seja a matriz A n n, a decomposição LU é uma fatoração do tipo A = LU, em que L é uma matriz triangular inferior cujos elementos da diagonal são iguais a e U uma matriz triangular superior, ou seja 0 0 0 u u 2 u 3 u n a a 2 a 3 a n l 2 0 0 0 u 22 u 23 u 2n a 2 a 22 a 23 a 2n l 3 l 32 0 0 0 u 33 u 3n = a 3 a 32 a 33 a 3n l n l n2 l n3 0 0 0 u nn a n a n2 a n3 a nn (4) Definição 4 Menores principais: Seja uma matriz quadrada A n n dada em (42), então, o menor principal de A de ordem k, denotado por A k, é dado pela submatriz formada pelas k 49

Decomposição de matrizes primeiras linhas e k primeiras colunas de A, ou seja, a a 2 a k a 2 a 22 a 2k A k =, k =, 2,, n a k a k2 a kk Os menores principais de uma matriz assim definidos também são chamados de menores principais líderes, por serem formados pelas suas k primeiras linhas e k primeiras colunas Teorema 4 Seja uma matriz quadrada A n n e A k seu menor principal de ordem k Se A k 0, k n, então, existe uma única matriz triangular inferior L, cujos elementos da diagonal são iguais a, e, uma única matriz triangular superior U tal que A = LU Além disso, A = u u 22 u nn Prova: A prova do teorema (4) é feita por indução 43 Determinação das matrizes L e U As matrizes U e L podem ser obtidas aplicando-se a eliminação Gaussiana (ou escalonamento) em A, transformando-a na matriz triangular superior U Nesse processo, os elementos da diagonal de U serão os pivôs de A Com as operação nas linhas de A para escalonar as suas colunas, os valores utilizados como multiplicadores, com os sinais trocados, devem ocupar suas posições respectivas numa matriz triangular inferior que, no final do processo, será a matriz L Neste processo é comum colocar a matriz identidade ao lado da matriz A, que será escalonada Os multiplicadores (com os sinais trocados) serão, então, alocados nas respetivas posições da matriz identidade, abaixo da sua diagonal No final do processo a matriz A será transformada na matriz triangular superior U e, a identidade, na matriz triangular inferior L O exemplo a seguir ilustra o processo descrito acima Exemplo: Considere a matriz A A = 2 4 6 3 2 5 0 2 3 4 2 2 2 3 50

Decomposição de matrizes a) Montar a matriz I A : 0 0 0 2 4 6 0 0 0 3 2 5 0 0 0 0 2 3 4 0 0 0 2 2 2 3 b) Multiplicar a primeira linha por ( 3/2) e somar à segunda linha; multiplicar a primeira linha por (/2) e somar à terceira linha e multiplicar a primeira linha por ( ) e soma à quarta linha: 0 0 0 2 4 6 3/2 0 0 0 7/2 9 /2 0 0 0 5/2 7 0 0 0 6 3 c) Multiplicar a segunda linha por (5/7) e somar à terceira linha e multiplicar a segunda linha por (2/7) e somar à quarta linha: 0 0 0 2 4 6 3/2 0 0 0 7/2 9 /2 5/7 0 0 0 2/7 4/7 2/7 0 0 0 44/7 39/7 d) Multiplicar terceira linha por ( /3) e somar à quarta linha: 0 0 0 2 4 6 3/2 0 0 0 7/2 9 /2 5/7 0 0 0 2/7 4/7 2/7 /3 0 0 0 23/3 Desta forma, temos: 0 0 0 3/2 0 0 /2 5/7 0 2/7 /3 2 4 6 0 7/2 9 0 0 2/7 4/7 0 0 0 23/3 = A 5

Decomposição de matrizes 432 O algoritmo de Crout As matrizes L e U podem ser obtidas pelo algoritmo de Crout, num processo com 2n passos, sendo que, as colunas de U e as linhas de L são determinadas alternadamente em cada um dos passos (Figura 4) Figura 4: Determinação das matrizes L e U Seja A = LU, então: 0 0 0 l 2 0 0 l 3 l 32 0 l n l n2 l n3 u u 2 u 3 u n 0 u 22 u 23 u 2n 0 0 u 33 u 3n 0 0 0 u nn = A i) o passo: do produto da a linha de L com as colunas de U, temos que u = a, u 2 = a 2, u n = a n, u j = a j, j =, 2,, n 52

Decomposição de matrizes ii) 2 o passo: do produto das linhas 2 a n, de L, com a a coluna de U, obtemos l 2 u = a 2 l 2 = a 2 u, l 3 u = a 3 l 3 = a 3 u, l n u = a n l n = a n, u l i = a i u i = 2,, n iii) 3 o passo: fazendo o produto da 2 a linha de L com as colunas 2 a n de U, temos que l 2 u 2 + u 22 = a 22, u 22 = a 22 l 2 u 2, l 2 u 2 + u 23 = a 23, u 23 = a 23 l 2 u 3, l 2 u n + u 2n = a 2n, u 2n = a 2n l 2 u n, u 2j = a 2j l 2 u j, j = 2,, n iv) 4 o passo: do produto das linhas 3 a n, de L, com a 2 a coluna de U, obtemos l 3 u 2 + l 32 u 22 = a 32 l 32 = a 32 l 3 a 2 u 22, l 4 u 2 + l 42 u 22 = a 42 l 42 = a 42 l 4 a 2 u 22, l n u 2 + l n2 u 22 = a n2 l n2 = a n2 l n a 2 u 22, l i2 = a i2 l i a 2 u 22, i = 3,, n itemiv)e o processo deve continuar até o passo 2n, quando será obtido o elemento u nn de U 53

Decomposição de matrizes Desta forma, termos as seguintes fórmulas gerais para o processo de determinação de L e U: u j = a j, j =, 2,, n; l ij = a ij i k= l ika kj, j =, 2,, n; i > j; u jj j u ij = a ij l ik u kj, j = 2, 3,, n; i j k= lembrando que o processo de determinação de l ij e u ij deve ser alternado, para cada valor de j Exemplo 43 Considere a matriz A = 2 4 6 3 2 5 0 2 3 4 2 2 2 3, do processo de determinação de L e U, temos: i) o passo: u = a = 2; u 2 = a 2 = ; u 3 = a 3 = 4; u 4 = a 4 = 6 ii) 2 o passo: l 2 u = 3 l 2 = a 2 = 3 a 2 ; l 3 u = l 3 = a 3 = a 2 ; l 4 u = 2 l 4 = a 4 = a 54

Decomposição de matrizes iii) 3 o passo: l 2 u 2 + u 22 = 2 u 22 = 2 l 2 a 2 = 2 3 2 = 7 2 ; l 2 u 3 + u 23 = 5 u 23 = 5 l 2 a 3 = 5 6 = ; l 2 u 4 + u 24 = 0 u 24 = l 2 a 4 = 9 iv) 4 o passo: l 3 u 2 + l 32 u 22 = 2 ( ) ( () + l 32 7 ) ( = 2 l 32 = 2 ) ( 2 + ) = 5 2 2 7 2 7 l 4 u 2 + l 42 u 22 = 2 ( ()() + l 42 7 ) ( = 2 l 42 = 2 ) (2 ) = 2 2 7 7 v) 5 o passo: l 3 u 3 + l 32 u 23 + u 33 = 3 ( ) ( (4) + 5 ) ( ( ) + u 33 = 3 u 33 = 3 + 2 5 ) = 2 2 7 7 7 l 3 u 4 + l 32 u 24 + u 34 = 4 ( ) ( (6) + 5 ) ( ( 9) + u 34 = 4 u 34 = 4 + 3 45 ) = 4 2 7 7 7 vi) 6 o passo: l 4 u 3 + l 42 u 23 + l 43 u 33 = 2 ( ()(4) + 2 ) ( ( ) + l 43 2 ) = 2 l 43 = 7 7 ( 7 ) ( 2 2 30 7 ) = 3 55

Decomposição de matrizes vii) 7 o passo: l 4 u 4 + l 42 u 24 + l 43 u 34 + u 44 = 3 ( ()(6) + 2 ) ( 9) + 7 ( ) ( 4 + u 44 = 3 u 44 = 3 6 3 7) 8 7 44 2 = 23 3 Desta forma, temos: L = 0 0 0 3/2 0 0 /2 5/7 0 2/7 /3 e U = 2 4 6 0 7/2 9 0 0 2/7 4/7 0 0 0 23/3 E, ainda: A = u u 22 u 33 u 44 ( A = (2) 7 ) ( 2 ) ( 23 ) 2 7 3 A = 92 44 Decomposição de Cholesky Seja a matriz A n n, simétrica e definida positiva, nessa condição A pode fatorada na forma A = GG t, em que G é uma matriz triangular inferior g 0 0 g 2 g 22 0 g g 2 g n 0 g 22 g n2 = a a 2 a n a 2 a 22 a 2n g n g n2 g nn 0 0 g nn a n a n2 a nn Observe que a fatoração de Cholesky é equivalente à decomposição LU, em que U = G t e L = G, com a diagonal principal não necessariamente formada por s Da decomposição de Cholesky remos, ainda, que: A = G G t = (g g 22 g nn ) 2 56

Decomposição de matrizes Como para a decomposição de cholesky a matriz A deve ser definida positiva, a seguir vamos apresentar a definição de matriz definida positiva e uma forma de verificação desta condição dada pelo critério de Sylvestre Definição 42 Uma matriz quadrada A n n é definida positiva se, e só se, x t Ax > 0, vetor x 0 Além da Definição (42), podemos verificar se uma matriz é definida positiva pelo critério de Sylvestre, apresentado a seguir: Critério 4 Critério de Sylvestre: Uma matriz quadrada A n n é definida positiva se, e só se, os seus menores principais não forem singulares, ou seja A k 0, k =, 2,, n 44 Determinação da matriz G De maneira semelhante à decomposição LU, a matriz G pode ser obtida diretamente do produto GG t, num processo com 2n passos, sendo que, os elementos da diagonal de G e as suas colunas são determinadas alternadamente (Figura 42) Figura 42: Determinação da matriz G Para a determinação da matriz G vamos separar os elementos da diagonal daqueles fora da diagonal, iniciando o processo pela sua primeira coluna O processo deve, então, prosseguir alternadamente na determinação dos elementos da diagonal e das respectivas coluna As fórmulas gerais 57

Decomposição de matrizes são apresentadas abaixo: Para a a coluna: g = a ; g j = a i, i = 2, 3,, n g Para as demais colunas: i g ii = aii gik 2, k= i = 2, 3,, n g ij = j a ij g ik g jk, 2 j < i g jj k= Exemplo 44 Considere a matriz simétrica A = Verificando se a matriz A é definida positiva: 4 2 4 2 0 4 4 4 9 A = 4 A = 4 > 0; A 2 = 4 2 2 0 A 2 = 36 > 0; A 3 = A A 3 = A = 36 > 0 Portanto, pelo critério de Sylvestre temos que a matriz A é definida positiva Calculando os elementos da matriz G: i) o passo: g = a = 4 = 2 ii) 2 o passo: g 2 = a 2 2 = 2 2 = ; g 3 = a 3 2 = 4 2 = 2 58

Decomposição de matrizes iii) 3 o passo: g 22 = a 22 g2 2 = 0 = 3 iv) 4 o passo: g 32 = a 32 g 3 g 2 4 ( 2) () = = 6 g 22 3 3 = 2; v) 5 o passo: g 33 = a 33 (g3 2 + g2 32 ) = 9 (4 + 4) = A matriz G é, portanto, dada por: E o determinante de A é: G = 2 0 0 3 0 2 2 A = G 2 = (2 3 ) 2 = (6) 2 = 36 59

5 Vetores aleatórios 5 Vetores aleatórios Um vetor X p, do tipo X = X X 2 X p é um vetor aleatório se X, X 2,, X p forem variáveis aleatórias (va s) Nota 5 Como um vetor aleatório é uma representação generalizada de uma variável aleatória, aqui também iremos denotá-los por va Nota 52 Da mesma forma, uma matriz aleatória é uma matriz cujos elementos são va s Exemplo 5 Num estudo sobre a qualidade do ar foram observadas as variáveis X : radiação solar; X 2 : velocidade do ar; X 3 : temperatura e X 4 : concentração de ozone Desta forma, essas variáveis formam um vetor aleatório de dimensão 4, dado por X = X X 2 X 3 X 4 A distribuição de probabilidade conjunta de um vetor aleatório é definida por i) p(x) = p(x,, x p ) = P (X = x,, X p = x p ), se X for composto por variáveis aleatórias discretas e, ii) f(x) = f(x,, x p ), se X for composto por variáveis aleatórias contínuas As distribuições marginais das variáveis aleatórias X, X 2,, X p são calculadas por 60

Vetores aleatórios i) Caso discreto p k (x k ) = x,,x p x i x k P (X = x,, X p = x p ), k =, 2,, p, ii) Caso contínuo f k (x k ) = x,,x p f(x,, x p )dx dx p, k =, 2,, p x i x k Combinações lineares de variáveis aleatórias Em muitas aplicações estatísticas, especialmente no contexto multvariado, trabalha-se com combinações lineares de va s Uma combinação linear dos componentes de um vetor aleatório pode ser representada pelo produto interno entre um vetor de coeficientes a e o vetor X Seja um vetor aleatório X e um vetor de coeficientes lineares a, então, temos uma combinação linear dada por p Y = a t X = a i X i = a X + a 2 X 2 + + a p X p i= Exemplo 52 Considere o vetor X t = (X, X 2 ) e os coeficientes a t = (/2, /2), então, a combinação linear representa a média entre X e X 2 Y = a t X = X + X 2, 2 Considere, agora, vetor aleatório X e k combinações lineares dadas pelos vetores de coeficientes a, a 2,, a k, assim, temos que Y = a t X = a X + a 2 X 2 + + a p X p Y 2 = a t 2X = a 2 X + a 22 X 2 + + a 2p X p Y k = a t kx = a k X + a k2 X 2 + + a kp X p Agrupando as variáveis Y, Y 2,, Y k num vetor aleatório Y, os coeficientes das combinações lineares devem ser dispostos como linhas numa matriz de coeficientes A, ou seja A = a t a t 2 a t k 6

Vetores aleatórios Desta forma, as combinações lineares são escritas como Y = AX = ax t a2x t akx t Exemplo 53 Exemplos de aplicações com diversas combinações lineares podem ser obtidas nas análises mutivariadas de componentes principais ou correlação canônica, entre outras 5 Valor esperado de um vetor aleatório O valor esperado de um vetor aleatório X é definido por: E(X ) E(X 2 ) E(X) =, E(X p ) em que E(X i ), i =, 2,, p, é o valor esperado da i-ésima va Normalmente o vetor de médias é denotado por µ, ou seja, µ µ 2 E(X) = µ =, µ p x i p i (x i ), se x i for discreta e, x i sendo que E(X i ) = µ i = x i f i (x i ), se x i for contínua x i Propriedades a) Sejam um va X e um vetor de coeficientes a, então, a combinação a t X tem valor esperado E(a t X) = a t E(X) b) Sejam as combinações lineares a t X e b t Y, com X e Y, então E(a t X + b t Y) = a t E(X) + b t E(Y) c) Comsiderando k combinações lineares com uma matriz de coeficientes A, temos E(A X) = A E(X) 62

Vetores aleatórios Da mesma forma, com dois conjuntos de combinações lineares A X e B Y tais que as dimensões das matrizes envolvidas sejam compatíveis, temos E(A X + B Y) = A E(X) + B E(Y) Exemplo 54 a) Sejam X t = (X, X 2, X 3 ) tal que E(X) = (2,, ) t Se a t = (4, 3, 3), então, a t X = 4X + 3X 2 + 3X 3 e E(a t X) = 4 3 3 2 = 8 3 + 3 = 8 b) Com k = 4 combinações lineares dadas pelos coeficientes na matriz A = as combinações lineares são dadas por 2 05 0, 2 2 Y = 2X X 2 + X 3 Y 2 = X /2 + X 3 Y 3 = X + 2X 2 + X 3 Y 4 = X + X 2 + 2X 3 logo, E(AX) = 2 05 0 2 2 2 = 6 2 52 Matriz de variâncias-covariâncias de um vetor aleatório Sejam X e X 2 va s com µ = E(X ) e µ 2 = E(X 2 ) Então, temos que suas respectivas variâncias são calculadas por σ 2 = V ar(x ) = E(X µ ) 2 = E(X µ )(X µ ) e σ2 2 = V ar(x 2 ) = E(X 2 µ 2 ) 2 = E(X 2 µ 2 )(X 2 µ 2 ), 63

Vetores aleatórios e, a covariância entre X e X 2, por σ 2 = Cov(X, X 2 ) = E(X µ )(X 2 µ 2 ) No contexto multivariado, as quantidades acima são representadas por uma matriz de variâncias e covariâncias (matriz var-cov) denotada por Σ σ 2 Σ = σ 2 σ 2 σ2 2 Nota 53 Observe que a matriz Σ é simétrica cuja diagonal é composta pelas variâncias das variáveis aleatórias e os elementos fora da diagonal pelas covariâncias entre essas variáveis Considere o vetor aleatório X composto pelas va s X, X 2,, X p, tal que E(X) = µ, então, a matriz var-voc de X é definida por Σ X = Cov(X) = E(X µ)(x µ) t Σ X = E (X µ ) (X 2 µ 2 ) (X p µ p ) (X µ ) (X 2 µ 2 ) (X p µ p ) Σ X = E (X µ ) 2 (X µ )(X 2 µ 2 ) (X µ )(X p µ p ) (X 2 µ 2 )(X µ ) (X 2 µ 2 ) 2 (X 2 µ 2 )(X p µ p ) (X p µ p )(X µ ) (X p µ p )(X 2 µ 2 ) (X p µ p ) 2 Σ X = E(X µ ) 2 E(X µ )(X 2 µ 2 ) E(X µ )(X p µ p ) E(X 2 µ 2 )(X µ ) E(X 2 µ 2 ) 2 E(X 2 µ 2 )(X p µ p ) E(X p µ p )(X µ ) E(X p µ p )(X 2 µ 2 ) E(X p µ p ) 2 Ou seja, a matriz var-cov de X é da forma: σ 2 σ 2 σ p σ 2 σ2 2 σ 2p Σ X = Cov(X) = σ p σ 2p σp 2 64

Vetores aleatórios Propriedades a) Seja o vetor aleatório X, tal que Cov(X) = Σ X e a combinação linear a t X A variância de a t X é dada por V ar(a t X) = a t Σ X a Prova: V ar(a t X) = E(a t X a t µ)(a t X a t µ) t V ar(a t X) = E(a t X a t µ)(x t a µ t a) V ar(a t X) = Ea t (X µ)(x t µ t )a V ar(a t X) = a t E(X µ)(x µ) t a V ar(a t X) = a t Σ X a Ainda: V ar(a t X + b) = a t Σ X a b) Considerando k combinações lineares com matriz de coeficientes A, temos Cov(AX) = ACov(X)A t = AΣ X A t Prova: segue o mesmo raciocínio do item anterior Exemplo 55 i) No exemplo (54), seja a matriz var-cov de X Σ X = 4 2 2 2 7 3 2 3 6 então, dada a combinação linear Z = a t X, em que a t = (4, 3, 3), tem-se, 4 2 2 4 V ar(z) = ( 4 3 3 ) 2 7 3 3 = 235 2 3 6 3 ii) Dada a matriz de coeficientes A = 2 05 0 2 2, 65

Vetores aleatórios tal que Z = A X, então, Σ Z = Cov(Z) é dada por Σ Z = 2 05 0 2 2 4 2 2 2 7 3 2 3 6 2 05 0 2 2 = 39 3 3 6 3 9 5 2 3 5 46 4 6 2 4 43 c) Sejam os vetores aleatórios X e Y, com vetores de médias µ X e µ Y, respectivamente A matriz de covariâncias entre X e Y, denotada por Cov(X, Y), é definida por Cov(X, Y) = E(X µ X )(Y µ Y ) t = Σ XY De (a) e (b) segue-se que: i) para duas combinações lineares a t X e b t Y, Cov(a t X, b t Y) = a t Σ XY b; ii) para dois grupos de combinações lineares AX e BY, com dimensões compatíveis, Cov(AX, BY) = AΣ XY B t Obs: A matriz Σ XY não é necessariamente quadrada Exemplo 56 i) Considere o vetor aleatório Y t = (Y, Y 2 ) cuja a matriz var-voc é dada por 6 2 Σ Y = 2 3 e seja a combinação linear T = b t Y, com b t = (2, 3), então, a variância de T é V ar(t ) = ( 2 3 ) 6 2 2 3 ( 2 3 ) = 27 ii) Considere, agora, k = 2 combinações lineares: T = Y Y 2 e T 2 = Y + 2Y 2 coeficientes de T e T 2 são dados pelas linhas da matriz Os B = 2 66

Vetores aleatórios Desta forma, a matriz var-voc de T = B Y, denotada por Σ T, é calculada por Σ T = Cov(T) = 2 6 2 2 3 2 5 2 = 2 26 iii) Assumindo que a matriz de covariâncias entre os vetores aleatórios X e Y seja Σ XY = 2 4 0 3 3 então, a matriz de covariâncias Cov(Z, T), entre Z = A X e T = B Y, é dada por, Σ ZT = 2 05 0 2 2 2 4 0 3 3 2 = 3 9 3 0 4 7 7 4 d) Dadas duas combinações lineares a t X e b t Y, então, a variância de a t X + b t Y é V ar(a t X + b t Y) = a t Σ X a + b t Σ Y b + 2a t Σ XY b, (5) em que Σ X = Cov(X), Σ Y = Cov(Y) e Σ XY = Cov(X, Y) Exemplo 57 Dos Exemplos (55) e (55), temos que a t Σ X a = 235, b t Σ Y b = 27 e, considerando que 2 4 ( ) a t Σ XY b = ( 4 3 3 ) 0 3 2 = 26, 3 3 então: V ar(a t X + b t Y) = 235 + 27 52 = 20 53 Matriz de correlações de um vetor aleatório A correlação entre duas va s X i e X j, i, j =, 2,, p, é calcular por ρ ij = Cor(X i, Y j ) = σ ij σi 2 σ2 j, 67

Vetores aleatórios desta forma, a matriz de correlações de um va X é dada por ρ 2 ρ p ρ 2 ρ 2p ρ X = ρ p ρ p2 Contudo, dado um va X, entretanto, a matriz de correlações pode ser obtida a partir de sua matriz var-cov Σ X Tomando a diagonal de Σ X numa matriz V X e extraindo a raiz quadrada, temos V X /2 = diag(σ X ) = Desta forma, a matriz ρ X é dada pela relação σ 2 0 0 0 σ2 2 0 0 0 0 σp 2 ρ X = (V /2 X ) Σ X (V /2 X ), ou ainda, ρ X = V /2 X Σ X V /2 X A matriz de covariâncias é, portanto, obtida da relação Σ X = V /2 X ρ X V/2 X Exemplo 58 i) No exemplo (55, i), em que Σ X = 4 2 2 2 7 3 2 3 6, a matriz V /2 X é dada por V /2 = X / 4 0 0 0 / 7 0 0 0 / 6 Desta forma, a matriz de correlações do va X é ρ X = V /2 Σ X X V /2 = X 0000 03780 04082 03780 0000 04629 04082 04629 0000 68

Vetores aleatórios ii) Considerando, ainda, o vetor de combinações lineares Y de (55, ii), a matriz ρ Y é dada por 0000 06939 00708 0465 ρ Y = V /2 Σ Y Y V /2 06939 0000 07372 0600 = Y 00708 07372 0000 0929 0465 0600 0929 0000 iii) Sejam dois conjuntos de combinações lineares dados por Z = AX e W = BX, para calcular a correlação entre os va s Z e W fazemos: Σ ZW = Cov(AX, BX) Σ ZW = E(AX Aµ X )(BX Bµ X ) t Σ ZW = E(AX Aµ X )(X t B t µ t Bt ) X Σ ZW = EA(X µ X )(X t µ t )Bt X Σ ZW = AE(X µ X )(X µ X ) t B t Σ ZW = AΣ X B t Por exemplo, sejam os conuntos de combinações lineares Z = AX e W = BX, com Σ X A dados no exemplo (55) e com B =, 0 e então, a matriz de correlações entre Z e W é dada por: Σ ZW = AΣ X B t Σ ZW = 2 05 0 2 2 4 2 2 2 7 3 2 3 6 0 = 5 3 3 2 3 5 0 A matriz de correlações entre Z e W é, então, dada por 03269 02774 ρ ZW = V /2 Σ Z ZW V /2 = 04082 0925 W 07223 02554 09339 00000 O resultado acima será mostrado mais detalhadamente com va particionados 69

Vetores aleatórios 54 Vetores aleatórios particionados Seja um vetor aleatório X particionado em dois grupos X () e X (2), X () X = X (2) então, o vetor de médias µ é dado por E(X () ) µ X = E(X) = E(X (2) ) = µ () X µ (2) X Assim sendo, a matriz de variâncias e covariâncias de X é definida por Σ X = Cov(X () ) Cov(X (), X (2) ) Cov(X (2), X () ) Cov(X (2) ) Σ X = Σ X Σ t X 2 Σ X2 Σ X22 Considerando dois grupos de combinações lineares Y () = AX () e Y (2) = BX (2), então, podemos escrever Y () A 0 X () Y = Y (2) = 0 B X (2) Definindo a matriz C como então teremos Y = CX C = A 0 0 B, 70

Vetores aleatórios a) Vetor de médias de uma combinação linear de um va particionado: E(Y) = E(CX) A 0 E(X () ) E(Y) = 0 B E(X (2) ) E(Y) = AE(X () ) BE(X (2) ) E(Y) = µ () Y µ (2) Y b) Matriz var-cov de uma combinação linear de um va particionado Σ Y = Cov(Y) Σ Y = Cov(CX) Σ Y = CΣ X C t Σ Y = A 0 0 B Σ X Σ t X 2 Σ X2 Σ X2 A 0 0 B t Σ Y = AΣ X A t BΣ t A t X 2 AΣ X2 B t BΣ X22 B t Σ Y = Σ Y Σ t Y 2 Σ Y2 Σ Y22 c) Matriz de correlações de uma combinação linear de um va particionado: Extraindo a diagonal de Σ Y, particionada, teremos duas matrizes V /2 = diag(σ Y Y ) e V /2 = diag(σ Y 2 Y22 ), 7

Vetores aleatórios tal que V /2 Y = V/2 Y 0 0 V /2 Y 2 Portanto, a matriz de correlações do vetor de combinações lineares particionado Y = CX é dado por ρ Y = V /2 Σ Y Y V /2 Y ρ Y = V /2 Y 0 0 V /2 Y 2 Σ Y Σ t Y 2 Σ Y2 Σ Y22 V /2 Y 0 0 V /2 Y 2 ρ Y = V /2 Σ Y Y V /2 V /2 Σ Y Y Y2 V /2 Y 2 V /2 Σ t V /2 V /2 Σ Y 2 Y 2 Y Y 2 Y22 V /2 Y 2 ρ Y = ρ Y ρ t Y 2 ρ Y2 ρ Y22 Exemplo 59 i) Seja o va X particionado em X () = (X, X 2 ) t e X (2) = (X 3, X 4 ) t com matriz var-cov 4 2 2 2 7 3 0 Σ X =, 2 3 6 0 4 então, temos que 4 2 6 2 Σ X = 2 7, Σ X22 = 4 e Σ X2 = 3 0 Assumindo dois grupos de combinações lineares Y () = AX () e Y (2) = BX (2), tais que 0 A = e B =, 2 2 72

Vetores aleatórios a matriz var-cov de Y é calculada por Σ Y = A 0 0 B 4 2 2 2 7 3 0 2 3 6 0 4 A t 0 0 B t Σ Y = ( 4 2 A 2 7 ( 2 3 B 0 ) A t ) A t ( 2 A 3 0 ( 6 B 4 ) B t ) B t Σ Y = 7 5 8 2 0 5 7 6 3 3 3 32 5 9 8 6 32 40 7 9 2 3 5 7 8 2 0 3 9 9 2 2 ou seja Σ Y = 7 5 8 5 7 6 3 32 8 6 32 40 8 2, Σ Y22 = 2 2 e Σ Y2 = 2 0 3 3 5 9 7 9 Para o cálculo da matriz de correlações do va Y temos que / 7 0 0 0 V /2 0 / 7 0 0 = Y 0 0 / 3 0 0 0 0 / 40 e V /2 Y 2 = / 8 0 0 / 2 73

Vetores aleatórios Desta forma, ρ Y = V /2 Y 0 0 V /2 Y 2 7 5 8 2 0 5 7 6 3 3 3 32 5 9 8 6 32 40 7 9 2 3 5 7 8 2 0 3 9 9 2 2 V /2 0 Y 0 V /2 Y 2 ρ Y = 0000 0743 00679 0478 02673 00000 0743 0000 07467 09562 04009 03273 00679 07467 0000 09087 0375 04666 0478 09562 09087 0000 0393 0408 02673 04009 0375 0393 0000 0204 00000 03273 04666 0408 0204 0000 52 Representação vetorial dos dados Seja um vetor X p X = X X 2 X p e seja a aa multivariada de tamanho n, X, X 2,, X n Então, X é a primeira observação multivariada, X 2 a segunda e X n a última Por exemplo, num estudo a respeito do comportamento de consumo das famílias de uma região, foi observada uma aa de tamanho n = 70 com informações das seguintes variáveis: X gasto familiar anual em restaurantes X 2 gasto familiar anual com cinema X = X 3 = idade do chefe da família X 4 renda familiar anual X 5 grau de escolaridade do chefe da família Neste caso, temos a amostra aleatória X, X 2,, X 70 de um va X 5 74

Vetores aleatórios 52 A representação dos dados A representação dos dados multivariados é feita por meio de uma matriz de dados, na qual, as colunas representam as variáveis aleatórias e as linhas as observações multivariadas, ou seja X n p = X X 2 X p x x 2 x p x 2 x 22 x 2p x n x n2 x np variáveis aleatórias a obs multivariada 2 a obs multivariada n-ésima obs multivariada Por exemplo, considere a matriz de dados abaixo representando uma aa de tamanho n = 5 de um vetor aleatório de dimensão 3, X t = (X, X 2, X 3 ), 2 06 0 9 07 2 X 5 3 = 22 06 26 08 4 6 08 3 Desta forma, a primeira linha de X, (2, 06, 0), representa a primeira observação multivariada enquanto que a primeira coluna, (2, 9, 22, 26, 6) t, representa a amostra aleatória de tamanho 5 da variável X Portanto, nas linhas de X temos as n = 5 observações enquanto que, nas colunas, as amostras de cada uma das variáveis X, X 2 e X 3 522 O vetor de médias amostrais Para o cálculo do vetor de médias amostrais, vamos relembrar que operação x t n fornece a soma dos valores da va X observados na amostra, logo, x = n xt n, em que n = (,,, ) t é um vetor s, de dimensão n No contexto multivariado, seja X a matrix de dados, logo, o vetor de médias amostrais é definido por x = n Xt n, ou seja: x = x x 2 x p 75

Vetores aleatórios No exemplo, temos p = 3, então, x = 5 2 9 22 26 6 06 07 06 08 08 0 2 4 3 9 = 07 2, portanto, x = 9, x 2 = 07 e x 3 = 2 523 A matriz de variâncias e covariâncias amostrais Para a matriz de variâncias e covariâncias amostrais lembremos que a covariância entre duas variáveis X e X 2 é obtida de, s 2 = (n ) n (x i x )(x i2 x 2 ) = i= (n ) (x n x ) t (x 2 n x 2 ) (52) Observe que os vetores (x i n x i ) em (52) são, de fato, vetores de desvios do tipo d i = x i x i x 2i x i x ni x i, i =, 2,, p Logo, pode-se escrever a covariância s ij por s ij = (n ) dt i d j, i, j =, 2,, p, com i j, e, as variâncias: s 2 i = (n ) dt i d i, i =, 2,, p Para a matriz de var-cov amostral, compomos a matriz dos desvios com vetores d i, i =, 2,, p nas suas colunas = d d 2 d p, ou seja, a matriz é do tipo: = (x x ) (x 2 x 2 ) (x p x p ) (x 2 x ) (x 22 x 2 ) (x 2p x p ) (x n x ) (x n2 x 2 ) (x np x p ) Desta forma, a matriz var-cov amostral é dada por S = (n ) t (53) 76

Vetores aleatórios A matriz de desvios pode, ainda, ser escrita como = X X, em que a matriz de médias X é dada por: x x 2 x p x x 2 x p X = = n x t, (54) x x 2 x p sendo cada coluna de X um vetor de constante com a média amostral da respectiva variável em X Desta forma, podemos obter uma expressão para por = X n x t = X n n (X t n ) t = X n n t n X = ( I ) n J n X, sendo J n = n t n uma matriz n n, do tipo: J n = Logo, a matriz var-cov amostral é dada pela expressão S = S = S = (n ) (X X) t (X X) ( X ) n J n (n ) (n ) Xt t ( X I ) n J n X ( I ) t ( n J n I ) n J n X (55) Mostra-se facilmente que a matriz (I /n J n ) é simétrica e idempotente, portanto, a matriz var-cov em (55) é, finalmente, dada por S = ( (n ) Xt I ) n J n X (56) Nota 54 : A matriz var-cov amostral S, em (56), é um estimador não viesado da matriz var-cov populacional Σ 77

Vetores aleatórios Como exemplo, considere a matriz de dados 2 06 0 9 07 2 X = 22 06 26 08 4 6 08 3 Desta forma, temos ( I 5 ) 5 J 5 = = 0 0 0 0 /5 /5 /5 /5 /5 0 0 0 0 /5 /5 /5 /5 /5 0 0 0 0 /5 /5 /5 /5 /5 0 0 0 0 /5 /5 /5 /5 /5 0 0 0 0 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 Logo, a matriz S é dada por: S = 4 2 8 22 26 6 06 07 06 08 08 0 2 4 3 6 008 220 S = 008 004 060 4 220 060 00 029 002 055 S = 002 00 05 055 05 250 4/5 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 /5 /5 /5 /5 /5 4/5 2 06 0 9 07 2 22 06 26 08 4 6 08 3 Para o cálculo da matriz de correlações amostrais R, os procedimentos são os mesmos utilizados anteriormente, ou seja: R = V /2 S V /2, em que V /2 é a matriz diagonal cujos elementos são os desvios padrões amostrais observados 78

Vetores aleatórios Com os dados do exemplo, temos que V /2 = / 029 0 0 0 / 00 0 0 0 / 250, e, a matriz de correlações amostrais R é dada por R = V /2 R = 029 002 055 002 00 05 055 05 250 0000 0374 06459 0374 0000 09487 06459 09487 0000 V /2 Portanto, para a amostra multivariada dada pela matriz X, temos que as correlações amostrais são: r 2 = 0372, r 3 = 06459 e r 23 = 09487 Exemplo 50 Dados dos Alunos Exemplo com dados coletados de n = alunos da aula de Teoria de Matrizes, referentes às variáveis X = idade (anos); X 2 = altura (m); X 3 = peso (kg) e X 4 = gasto semanal com alimentação (R$) Os resultados apresentados abaixo foram obtidos no R, utilizando a representação vetorial dos dados Foram calculados o vetor de médias amostrais bem como as matrizes var-cov e de correlações (algumas saídas foram omitidas) > # Entrando com os dados > ####################### > idade <- c(2,2,20,20,2,20,2,2,8,25,26) > altura <- c(86,75,70,59,62,77,78,76,65,77,78) > peso <- c(90,76,62,60,60,68,76,77,60,72,98) > gasto <- c(20,8,0,20,30,45,40,5,45,25,50) > # Criando a matriz de dados > ########################### > X <- cbind(idade,altura,peso,gasto) > X idade altura peso gasto, 2 86 90 20 2, 2 75 76 8 3, 20 70 62 0 4, 20 59 60 20 5, 2 62 60 30 6, 20 77 68 45 79

Vetores aleatórios 7, 2 78 76 40 8, 2 76 77 5 9, 8 65 60 45 0, 25 77 72 25, 26 78 98 50 > # Criando o vetor de um s > ######################### > n <- nrow(x) > um <- rep(,n) > um > #Calculando o vetor de médias amostrais > ####################################### > xbar <- t(x)%*%um/n > round(xbar,2), idade 227 altura 73 peso 7264 gasto 289 > # Criando a matriz Jn e identidade In > ##################################### > Jn <- um%*%t(um) > Jn > In <- diag(n) > In > #Calculando a matriz var-cov amostral S > ####################################### > S <- (t(x)%*%(in - Jn/n)%*%X)/(n-) > round(s,4) idade altura peso gasto idade 5282 00780 9009 53273 altura 00780 00065 0870 0070 peso 9009 0870 600545 344636 gasto 53273 0070 344636 930909 > # Extraindo a diagonal de S e criando a matriz V^(-/2) > ####################################################### > V <- diag(/sqrt(diag(s))) 80

Vetores aleatórios > round(v,4) idade altura peso gasto idade 04378 00000 0000 0000 altura 00000 23655 0000 0000 peso 00000 00000 0079 0000 gasto 00000 00000 0000 0072 > # Calculando a matriz de correlaç~oes amostrais R > ################################################ > R <- V%*%S%*%V > round(r,4) idade altura peso gasto idade 0000 04222 06578 0678 altura 04222 0000 07985 00632 peso 06578 07985 0000 0960 gasto 0678 00632 0960 0000 8

6 Espaços Vetoriais Definição 6 Espaço Vetorial Seja V n = {v, v 2,, v k }, em que v i é um vetor com dimensão n, i =, 2,, k, se: i) para um escalar a e um vetor v i V n = av i V n, i =, 2,, k, ii) para dois vetores v i, v j V n = v i + v j V n, i, j =, 2,, k, então, V n é um espaço vetorial Exemplo 6 Seja n = 3 e V 3 = {v, v 2 }, em que v = 0 e v 2 = Então, para um escalar a, quaisquer vetores do tipo v = (0, a, a) ou v = (0, a, a) pertencem a V 3 Além disso, para dois escalares a e b, v = 0 a + b a b V 3 Note que qualquer vetor do tipo v = (0, k, k 2 ) V 3, pois, para 0 Por outro lado, v = a = k + k 2 2 0 0 / V 3 e b = k k 2, av + bv 2 V 3 2 82

Espaços vetoriais 6 Subespaços vetoriais Seja S n um subconjunto de vetores de um espaço V n Se S n é um espaço vetorial, então, S n é chamado de sbespaço de V n Teorema 6 Se S n é um subconjunto de vetores no espaço V n tal que, para cada s e s 2 S n o vetor a s + a 2 s 2 S n a, a 2 R, então, S n é um subespaço de V n Exemplo 62 a) Seja o vetor u t = (,, ), então, o conjunto de vetores do tipo k u, k R, é um subespaço de R 3 ; Por outro lado, o conjunto de vetores definidos por k 2 w, em que w t = (, 2) não é um subespaço de R 3, mas sim de R 2 { } b) O conjunto de vetores V 3 = v v t = (a, a 2, 0), a, a 2 R, é um espaço vetorial e é subespaço de R 3, pois V 3 R 3 ; { } c) O espaço S 3 = s s t = (0, a, 0), a R, é um subespaço de V 3 e, por conseguinte, de R 3, pois S 3 V 3 R 3 ; { d) Por outro lado, S 3 = e de V 3, mas não é subespaço de S 3 ; } s s t = (a, 0, 0), a R, é um espaço vetorial e é subespaço de R 3 e) O conjunto de 2 vetores U = {u = (0,, 0) e u 2 = (0, 2, 0)} é um subconjunto de V 3, S 3 e de R 3 mas não é um subespaço Teorema 62 O conjunto {0}, em que 0 é o vetor nulo n, é subespaço de todo espaço vetorial V n e todo espaço vetorial V n é subespaço dele mesmo 62 Dependência linear de vetores Definição 62 Vetores linearmente independentes (li) Seja o conjunto de vetores { v, v 2,, v k } tal que v i R n, i =, 2,, n, então, v, v 2,, v k são ditos serem linearmente indepententes (li) se, e só se, para escalares a, a 2,, a k k a i v i = a v + a 2 v 2 + + a k v k = 0 i= apenas se a = a 2 = = a k = 0 83

Espaços vetoriais Se pelo menos um dos esclares {a, a 2,, a k } for diferente de zero e ainda assim k a i v i = 0 i= então os vetores { v, v 2,, v k } são ditos linearmente dependentes (ld) Exemplo 63 a) Sejam v = 3, e v 2 =, então, a v + a 2 v 2 = 0 implica a + a 2 = 0 a + a 2 = 0 3a + a 2 = 0 (6) Da equação 2 temos que a = a 2 e, das equações e 3, temos a = a 2 = 0 = v, v 2 são li b) Sejam v = 3, e v 2 = 4 4 2, então, a v + a 2 v 2 = 0 implica { a + 4a 2 = 0 3a + 2a 2 = 0 (62) Da equação temos que a = 4a 2 e, substituindo este resultado na equação 2, temos 3( 4a 2 ) + 2a 2 = 0, ou seja, a 2 0, se a = 4a 2 a v + a 2 v 2 = 0 Portanto v, v 2 são ld Teorema 63 Se k > vetores são ld sempre é possível expressar pelo menos um deles como combinação linear dos demais Corolário 63 Se num conjunto de k vetores { v, v 2,, v k } existe um grupo de j vetores ld (j k), então, o conjunto inteiro é ld Na teoria de matrizes normalmente consideramos suas colunas como vetores, ou seja, se A é 84

Espaços vetoriais uma matriz n k, então suas colunas podem ser vistas como k vetores n c c 2 c k c 2 c 22 c 2k A = c c 2 c k = c n c n2 c nk Teorema 64 Uma condição suficiente e necessária para que o conjunto de k vetores (colunas de A) seja ld é que o posto de A seja menor do que seu o número de colunas, ou seja, posto(a) < k Teorema 65 Se o posto de uma matriz formada por k vetores n como suas colunas for igual a r, então r deve ser menor ou igual a k e, se r > 0, então existem exatamente r vetores (colunas) que são li, enquanto que, cada um dos (n r) vetores (colunas) restantes podem ser expressos como combinações lineares daqueles r vetores Teorema 66 Um conjunto de k vetores { v, v 2,, v k } de dimensão n é sempre ld se k > n Exemplo 64 a) Sejam v = 0, v 2 = 2 0 e v 3 = 0, então, a matriz formada por estes vetores é dada por A = 2 0 0 2 0 Ve-se claramente que v 3 = v 2 2v, e, como posto(a) = 2, do teorema (65) quaisquer 2 vetores (colunas) de A são li b) Considere A = 5 2 4 3, então, do teorema (66) os vetores ( ) ( ) ( 5 ) v = 2, v 2 = 4 e v 3 = 3 são ld Encontrar as constantes a e b tais que v 3 = av + bv 2 : ( ) ( ) ( 5 = a + b 3 2 4 ) 85

Espaços vetoriais Consequentemente, temos que resolver o sistema de equações lineares { a b = 5 2a + 4b = 3 cuja solução é dada por s = 23/6 7/6 Definição 63 Espaço coluna: Seja uma matriz A n k, o espaço coluna de A, também, chamado de espaço imagem de A, é o espaço gerado pelas suas colunas, sendo denotado por I(A) O espaço formado pelas linhas de A é chamado de espaço linha e denotado por I(A t ) 3 Exemplo 65 O vetor y t = (, ) está no espaço coluna da matriz A =? 0 5 0 A resposta é sim, pois as colunas de A geram o espaço bidimensional v 2 v 3 v y Figura 6: Representação do vetor y t = (, ) no espaço coluna de A Seja A n k então temos: i) dimi(a) = número de colunas li de A; ii) dimi(a t ) = número de linhas li de A; iii) dimi(a) = dimi(a t ) = r = posto(a) min(n, k) 63 Base de um espaço vetorial Definição 64 Gerador 86

Espaços vetoriais Considere um conjunto de vetores V = {v, v 2,, v k } pertencentes ao espaço vetorial V n tal que todo vetor de V n pode ser escrito como combinação linear dos vetores de V O conjunto V é chamado de gerador, ou span, de V n Teorema 67 Seja {v, v 2,, v k } tal que v i V n, i =, 2,, k, e seja W = {w w = então W é um subespaço de V n Definição 65 Base k a i v i, a i R}, i= Seja {v, v 2,, v k } V n um conjunto de vetores li e que gera V n, então {v, v 2,, v k } é a base de V n Exemplo 66 ( a) Os vetores v = ) ( e v 2 = ) formam uma base do R 2 ; ( ) ( ) ( ) 3 b) Os vetores v =, v 2 = e v 3 = não formam uma base pois não são 0 5 0 li porém, os conjuntos {v, v 2 } ou {v 2, v 3 } formam bases do R 2 Seja o vetor e i tal que o único elemento não nulo é dado pelo valor ocupando a i-ésima posição, i =, 2,, n 0 0 e i =, 0 então, e i é chamado de vetor canônico do espaço R n e a base formada por vetores canônicos é chamada de base canônica Exemplo 67 {( ) ( 0 )} a) A base 0, é a base canônica do R 2 ; b) Os vetores e = 0 0, e 2 = 0 0 e e 3 = 0 0 87

Espaços vetoriais são os vetores canônicos e formam a base canônica do R 3, pois todo vetor do tipo v = a b c pode ser escrito como combinação de e, e 2 e e 3 Nota 6 ) De maneira geral, uma base para um espaço vetorial não é única; 2) O número de vetores de qualquer base de um espaço vetorial é sempre o mesmo Definição 66 Dimensão de um espaço vetorial Considere o espaço vetorial V n exceto o {0} e seja k o número de vetores li na sua base, então, k é a dimensão de V n Exemplo 68 Seja o espaço V 3 = {v, v 2, v 3, v 4 } tal que v = 0, v 2 = 0, v 3 = 0 0 e v 4 = i) a dimensão de V 3 é igual a 2 = k = 2 vetores de V 3 formam uma base; ii) v e v 2 geram V 3 mas v 3 e v 4 não; iii) os pares de vetores {v, v 2 }, {v, v 3 }, {v, v 4 }, {v 2, v 3 } e {v 2, v 4 } são bases de V 3 ; 2 0 0, iv) os vetores {v, v 2, v 3 } geram V 3 mas não formam uma base pois não são li Teorema 68 Se r > 0 é o posto da matriz cujas colunas são dadas pelo conjunto de vetores {v, v 2,, v k }, que geram V n, então há exatamente r vetores li nesse conjunto e, todo vetor de V n pode ser expresso unicamente como uma combinação linear desses r vetores Teorema 69 Sejam V = v, v 2,, v k, uma matriz cujas colunas formam uma base de V n e U = u, u 2,, u l, matriz cujas colunas são vetores de V n Os vetores de U formam uma base de V n se, e só se, k = l Neste caso existe uma matriz A não singular tal que U = VA, ou seja, se temos uma base V podemos mudar para uma nova base U por meio da transformação linear U = VA Definição 67 Bases ortogonais e ortonormais 88

Espaços vetoriais Se {v, v 2,, v k } é uma base de V n tal que a) v t i v j = 0 i j, i, j =, 2,, k, a base é ortogonal; a) se além disso, v t i v i = i =, 2,, k, a base é ortonormal Teorema 60 Todo espaço V n tem uma base ortogonal Teorema 6 Todo espaço V n {0} tem uma base ortonormal Por exemplo, a base canônica é uma base ortonormal do R n Teorema 62 Seja um conjunto de vetores {v, v 2,, v k } em V n tal que v t i v j = 0 i j Se nenhum desses vetores é o vetor nulo, então, v, v 2,, v k são li Teorema 63 Qualquer conjunto de q vetores, diferentes do vetor nulo, ortogonais 2 a 2 formam um subconjunto de uma base de V n Teorema 64 Sejam {v, v 2,, v k } vetores formando uma base de V n {0} Então, podemos obter uma base ortonormal {z, z 2,, z k } a partir do procedimento denominado de orotogonalização de Gram-Schmidt: y = v com z = y y ; y 2 = v 2 ( ) y t v 2 y 2 y com z 2 = y 2 y 2 ; Para o vetor z k temos y k = v k = v k ( ) ( ) ( ) y t v k y t y 2 y + 2 v k y t y 2 2 y 2 + + k v k y k 2 y k k i= ( ) y t i v k y i 2 y i com z k = y k y k Os vetores y, y 2,, y k formam uma base ortogonal para V n enquanto que, z, z 2,, z k formam uma base ortonormal Exemplo 69 Sejam x =, x 2 = 0 e x 3 = 0 0 uma base de V 3 Então, pelo procedimento de Gram-Schmidt temos: 89

Espaços vetoriais a) y = x = ; b) O vetor y 2 é obtido pela diferença entre x 2 e a sua projeção sobre y, ou seja: y 2 = x 2 ( x t 2 y y t y ) y, mas ( x t 2 y y t y ) y = 3 4 Logo, y 2 = 0 3/4 3/4 3/4 3/4 = 4 3 c) Vamos calcular y 3 pela diferença entre x 3 e sua projeção no plano gerado por y e y 2 : Como ( x t 3 y y t y ) y = 2 e ( x t 3 y 2 y t 2 y 2 ) y 2 = 6 3, então y 3 = 0 0 /2 /2 /2 /2 /2 /6 /6 /6 = 3 0 2 Portanto y =, y 2 = 3 e y 3 = 0 2 formam uma base ortogonal para V 3 Para obter a base ortonormal basta dividir cada um deles pela sua norma 90

7 Formas quadráticas Seja A n n uma matriz quadrada e x um vetor de dimensão n, então, o polinônio definido por n Q(x) = x t Ax = é uma forma quadrática associada à matriz A i= n j= a ij x i x j, (7) Nota 7 Analisando os termos da soma em (7), temos que: i) se i = j, o termo da soma é dado por a ii x 2 i ; ii) se i j, podemos somar os termos a ij x i x j + a ji x j x i = (a ij + a ji )x i x j Desta forma, Q(x) pode ser reescrita como: Q(x) = n i= n a ii x 2 i + i= n j=i+ (a ij + a ji )x i x j (72) Obs: a ii x 2 i são os termos quadráticos e a ij x i x j são os termos mistos ou termos cruzados Exemplo 7 Seja o vetor x t = (x i, x 2 ) e a matriz A 2 2 dada por: A = 2 7 Então, a forma quadrática associada à matriz A é dada por: 2 ( x ) Q(x) = (x, x 2 ) 7 x 2 = 2x 2 + 7x 2 2 0x x 2 Note que, no exemplo acima, a matriz A pode ser substituída pela matriz simétrica A = 2 5 5 7 9

Formas quadráticas No caso de A ser uma matriz simétrica, a forma quadrática (72) tem a forma Q(x) = n i= n a ii x 2 i + i= n j=i+ 2a ij x i x j Proposição 7 Toda forma quadrática está associada a uma matriz simétrica Prova: Considere a forma quadrática x t Ax, então: x t Ax = ( x t Ax) t = x t A t x, logo, podemos escrever x t Ax = xt Ax + x t A t x = x t( A + A t ) x 2 2 ( A + A t ) é fácil mostrar que é simétrica, então: 2 Q(x) = x t Ax = x t A sim x, ( A + A t ) em que A sim = 2 Num grande número de aplicações a matriz A é simétrica, assim como ocorre na estatística com a matriz de variâncias e covariâncias Σ Exemplo 72 Qual é a matriz simétrica associada à forma quadrática Q(x) = 3x 2 + 2x 2 2 + x 2 3 + 4x x 2 6x x 3 + 0x 2 x 3? Com A simétrica, Q(x) é da forma a x 2 + a 22 x 2 2 + a 33 x 2 3 + 2a 2 x x 2 + 2a 3 x x 3 + 2a 23 x 2 x 3, portanto: A = 3 2 3 2 2 5 3 5 7 Diagonalização de formas quadráticas Teorema 7 Toda forma quadrática pode ser diagonalizável Prova: Seja x t Ax, com A simétrica, então, P = e, e 2,, e n, 92

Formas quadráticas é a matriz ortogonal cujas colunas são os autovetores de A e λ 0 0 0 λ 2 0 Λ = 0 0 λ n é a matriz diagonal com os autovalores de A Da decomposição espectral de A, temos que A = PΛP t, então: ou seja, x t Ax = λ y 2 + λ 2 y 2 2 + + λ n y 2 n x t Ax = x t PΛP t x ( ) tλ ( ) x t Ax = P t x P t x x t Ax = y t Λy, Obs: A diagonalização da forma quadrática representa uma mudança de base ortogonal dada por y = P t x, ou seja, a diagonalização transforma x em y, sendo que o sistema y é ortogonal Exemplo 73 Reduzir 8x 2 + 5x 2 2 4x x 2 na forma diagonalizada de A 8 2 A matriz associada à forma quadrática é A =, 2 5 9 0 2/ 5 / 5 com autovalores e autovetores Λ = e P = 0 4 / 5 2/ 5 Com a mudança de base, a sua forma diagonalizada, é dada por 9y 2 + 4y 2 2 Teorema 72 Uma forma quadrática x t Ax é dita ser: i) Definida positiva se Q(x) > 0 x 0; ii) Semidefinida positiva se Q(x) 0 x 0; iii) Definida negativa se Q(x) < 0 x 0; iv) Semidefinida negativa se Q(x) 0 x 0; v) Indefinida se Q(x) assume valores positivos e negativos Teorema 73 Se a matriz A associada a uma forma quadrática for simétrica, então dizemos que: 93

Formas quadráticas i) Q(x) é definida positiva os autovalores de A são todos positivos, ou seja, λ > 0, λ 2 > 0,, λ n > 0; ii) Q(x) é semidefinida positiva A possui r autovalores positivos e n r autovalores iguais a 0, ou seja, λ > 0, λ 2 > 0,, λ r > 0, λ r+ = = λ n = 0; iii) Q(x) é definida negativa os autovalores de A são todos negativos, ou seja, λ < 0, λ 2 < 0,, λ n < 0; iv) Q(x) é semidefinida negativa A possui r autovalores negativos e n r autovalores iguais a 0, ou seja, λ < 0, λ 2 < 0,, λ r < 0, λ r+ = = λ n = 0; v) Q(x) é indefinida A possui pelo menos um autovalor positivo e pelo menos um negativo 72 Formas quadráticas e cônicas As formas quadráticas no R 2 surgem naturalmente no estudo das seções cônicas Por exemplo ax 2 + 2bxy + cy 2 + dx + ey + f = 0, (73) com a e c não nulos, representa uma cônica Dividindo (73) por f e com b = d = e = 0, teremos a cônica reduzida sem o termo cruzado a x 2 + c y 2 =, que pode ser uma circunferência, elipse, parábola ou hipérbole, dependendo dos valores de a e c x 2 Exemplo 74 A elipse α 2 + x2 2 =, 0 < β α apresentada na Figura (74), pode ser β2 representada pela função quadrática ( ) /α 2 0 x Q(x) = (x, x 2 ) 0 /β 2 = x 2 Figura 7: Elipse centrada na origem, sem termo cruzado 94

Formas quadráticas Exemplo 75 Seja a elipse ax 2 + 2bx x 2 + cx 2 2 = k, então a b ( x ) Q(x) = (x, x 2 ) b c x 2 = k Na forma diagonalizada, temos λ 0 ( y ) (y, y 2 ) 0 λ 2 y 2 = k y 2 λ + y 2 2λ 2 = k A diagonalização efetua, de fato, uma rotação nos eixos do sistema, com os novos eixos (y, y 2 ) nas direções principais da elipse, conforme representa a Figura (75), sendo a matriz de transformação dada por cos(θ) sen(θ) P = sen(θ) cos(θ) Figura 72: Elipse centrada na origem, rotacionada com y = Px 73 Distribuição de formas quadráticas Formas quadráticas ocorrem na estatística associadas com a matriz de variâncias e covariâncias Σ, em especial na padronização de variáveis aleatórias A matriz de variâncias e covariâncias Σ tem a particularidade de ser simétrica e definida positiva Nesta seção vamos apresentar resultados envolvendo distribuições de formas quadráticas no caso especial da padronização de va s normais independentes 95

Formas quadráticas Seja X p = (X, X 2,, X p ) t um vetor aleatório p-variado tal que X tem distribuição normal multivariada, X N p (µ, Σ), em que E(X) = µ = µ µ 2 µ p σ 2 σ 2 σ p σ 2 σ 2 2 σ 2p e Cov(X) = Σ =, σ p σ p2 σp 2 então, a função densidade de probabilidade multivariada de Z é: f(x) = { (2π) p/2 exp } Σ /2 2 (X µ)t Σ (X µ) (74) Note que o expoente de (74) é, de fato, uma forma quadrática em X, ou seja, Q(X) = (X µ) t Σ (X µ) (75) A forma quadrática definida em (75) é muito importante na estatística, aparecendo em muitas aplicações prática, como por exemplo em modelos lineares Como a forma quadrática envolve uma transformação de um vetor aleatório X, ela própria é uma variável aleatória Neste sentido é importante que possamos identificar a sua distribuição de probabilidade Para determinarmos a distribuição de probabilidade de Q(X), precisaremos de alguns resultados: Resultado 7 Resultados: i) A matriz de variâncias e covariâncias de um vetor aleatório é definida por (ver Johnson e Wichwen, 2002, p 68): Σ = Cov(X) = E(X µ)(x µ) t ii) Se X N p (µ, Σ), então (X µ) N p (0, Σ) iii) De (i) e (ii) segue-se que A(X µ) N p (0, AΣA t ) p p iv) Da decomposição espectral de Σ temos que Σ = λ i e i e t i e Σ = e i e t i λ i= i= i Resultado 72 Seja Q(X) = (X µ) t Σ (X µ) em que X N p (µ, Σ) com fdp dada por (74), então, Q(X) χ 2 p 96

Formas quadráticas Prova 73 Prova: (X µ) t Σ (X µ) = (X µ) t ( p i= ) e i e t i (X µ) λ i = = p i= p i= λ i (X µ) t e i e t i (X µ) t e t i (X µ) e t i (X µ) λi λi Como os produtos entre o vetores na soma geram variáveis unidimensionais, podemos escrever: (X µ) t Σ (X µ) = p i= 2 e t i (X µ) λi em que Z i = λi e t i (X µ) p = Zi 2, (76) i= Assim sendo, temos que a forma quadrática em (75) é representada pela soma de variáveis aleatórias Z i, i =, 2,, p, dadas pela transformação Z = A(X µ), sendo a matriz A igual a, A = λ e t λ2 e t 2 λp e t p A soma em (76) pode ser representada pelo produto escalar do vetor Z = A(X µ) com ele mesmo, p Zi 2 = Z t Z i= = A(X µ) t A(X µ) Portanto, temos que mostrar que a transformação Z = A(X µ) gera um vetor cujos compo- 97

Formas quadráticas nentes Z, Z 2,, Z p são variáveis independentes normais padronizadas e a soma (76) nada mais é do que a soma de variáveis independentes quiquadrado com um grau de liberdade Do resultado (7), itens (ii) e (iii) temos que o valor esperado de Z e sua matriz de variânciascovariâncias são dados, respectivamente, por E(Z) = 0 e Cov(Z) = AΣA t, em que AΣA t = λ e t λ2 e t 2 λp e t p ( ) λ e e t + λ 2 e 2 e t 2 + + λ p e p e t p e e t 2 λ λ2 λp e t p λ e t = λ2 e t 2 λ p e t p λ e λ2 e t 2 λp e t p = 0 0 0 0 0 0, ou seja, Z N p (0, I), o que mostra que Z, Z 2,, Z p são iid N(0, ) e que (76) é a soma de p variáveis independentes χ 2, de onde concluímos que (X µ) t Σ (X µ) χ 2 p Caso especial: Seja X p, vetor aleatório tal que X i, i =, 2,, p são independentes com distribuição X i N(µ i, σi 2 ) então, o vetor aleatório X tem distribuição normal multivariada X N p (µ, Σ), em que µ = µ µ 2 e Σ = σ 2 0 0 0 σ2 2 0 µ p 0 0 σ 2 p 98

Formas quadráticas Resultado 73 Seja X va tal que X i, i =, 2,, p são independentes com distribuição X i N(µ i, σ 2 i ), então: a) Se Z i X i µ i σ i, então, Z i N(0, ), i =, 2,, p, e, Z 2 i = ( Xi µ i σ i ) 2 χ 2 ; b) Sejam Y χi 2 m, e Y 2 χ 2 n, então, (Y + Y 2 ) χ 2 m+n Seja X N p (µ, Σ), com componentes independentes, então, temos que determinar a distribuição da forma quadrática: Q(X) = (X µ) t Σ (X µ)? (77) Como as variáveis aleatórias X i, i =, 2,, p, (componentes de X) são independentes, Σ é da forma: /σ 2 0 0 Σ 0 /σ 2 2 0 = 0 0 /σp 2 Então, a forma quadrática (77) é expressa por Q(X) = (X µ) t Σ (X µ) Q(X) = ( ) 2 p Xi µ i σ i= i p Q(X) = Y i i= ou seja Do resultado (73), Y i χ 2, logo, Q(X) tem distribuição quiquadrado com p graus de liberdade, Q(X) χ 2 p 99

Formas quadráticas 74 Otimização de formas quadráticas Aplicações importantes envolvendo formas quadráticas dizem respeito à sua otimização, ou seja, à busca de pontos de máximo ou de mínimo de Q(x) Considere a forma quadrática bidimensional Q(x) = x t Ax, em que x t = (x, x 2 ) e A é do tipo a b A = b c Para a determinação do ponto crítico devemos obter as derivadas parciais de Q(x) em relação às variáveis x e x 2 e resolver o sistema: Q(x) x = 0 Q(x) x 2 = 0 A solução de (78), a qual denotaremos por (x, x 2), é o ponto crítico, o qual deverá ser investigado sobre a sua natureza: ponto de máximo, ponto de mínimo ou ponto de sela Neste aspecto, devemos obter a matriz de derivas segundas de Q(x), chamada de matriz Hessiana, definida por: H es = 2 Q(x) x 2 2 Q(x) x 2 x 2 Q(x) x x 2 2 Q(x) x 2 2 (78) A natureza de (x, x 2) será determinada pela caracterísitca da matriz H es : i) Q(x) tem um mínimo relativo em (x, x 2) se H es for definida positiva; ii) Q(x) tem um máximo relativo em (x, x 2) se H es for definida negativa; iii) Q(x) tem um ponto de sela em (x, x 2) se H es for indefinida 74 Derivada de uma forma quadrática Seja a forma quadrática bidimensional Q(x) = x t Ax, então, definimos Q(x) x = 2Ax Q(x) x t = 2x t A 00

Formas quadráticas Exemplo 76 Considere o modelo linear dado por y = Xβ + ɛ (79) Uma solução para (79) é dada pela estimativa de mínimos quadrados, ou seja, pelo vetor β que minimiza a soma de quadrados dos erros O vetor de erros é dado por ɛ = y Xβx e a soma de quadrados dos erros, por SQErro = (y X) t (y Xβ) SQErro = y t y 2β t X t y + β t (X t X)β (70) Para a solução de (79) devemos derivar a SQErro em relação à β e igualar a derivada a 0 Como podemos observar, a expressão em (70) é, de fato, uma forma quadrática em β, ou seja, Q(β) = y t y 2β t X t y + β t (X t X)β, cuja derivada em relação à β é Q(β) β = 2(Xt X)β 2X t y (7) Igualando (7) a 0, obtemos a solução de mínimos quadrados de (79), dada por 2(X t X)ˆβ 2X t y = 0 = ˆβ = (X t X) X t y 0

Formas quadráticas Exemplo 77 Exemplos de formas quadráticas com ponto crítico em (x, x 2) = (0, 0) a) Q(x) = x t Ax, em que A é definida positiva: Q(x) = (x, x 2 ) 8 2 2 5 ( x x 2 ) = 8x 2 + 5x 2 2 + 4x x 2 Os autovalores da matriz A são λ = 9 e λ 2 = 4 Derivadas de Q(x): Q(x) x = 6x + 4x 2 Q(x) x 2 = 4x + 0x 2 A matriz Hessiana de Q(x) é dada por H es = 6 4 4 0 Como H es é definida positiva = (0, 0) é ponto de mínimo b) Q(x) = x t Ax, em que A é indefinida: Q(x) = (x, x 2 ) 28 5 5 2 ( x x 2 ) = 28x 2 2x 2 2 + 30 x 2 Os autovalores da matriz A são λ = 33 e λ 2 = 7 A matriz Hessiana de Q(x) é dada por H es = 56 30 30 24 Como H es é indefinida = (0, 0) é ponto de sela c) Q(x) = x t Ax, em que A é definida negativa: Q(x) = (x, x 2 ) 0 4 4 0 ( x x 2 ) = 8x x 2 0x 2 0x 2 2 Os autovalores da matriz A são λ = 6 e λ 2 = 4 A matriz Hessiana de Q(x) é dada por H es = 20 6 6 20 Como H es é definida negativa = (0, 0) é ponto de máximo 02

Formas quadráticas Figura 73: Formas quadráticas com matriz A definida positiva, indefinida e definida negativa 03