LEONARDO MORETO ELIAS MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS

Tamanho: px
Começar a partir da página:

Download "LEONARDO MORETO ELIAS MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS"

Transcrição

1 LEONARDO MORETO ELIAS MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS CURITIBA DEZEMBRO, 2010

2 LEONARDO MORETO ELIAS MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS Monografia apresentada como requisito parcial à obtenção do grau de Licenciado em Matemática, pelo Departamento de Matemática, Setor de Ciências Exatas, Universidade Federal do Paraná. Orientadora: Elizabeth Wegner Karas Co-Orientador: Ademir Alves Ribeiro CURITIBA DEZEMBRO, 2010

3 Agradecimentos Agradeço primeiramente a Deus, pelo dom da vida. Agradeço também a minha família, que sempre me apoiou nas minhas decisões. Agradeço aos meus amigos, em especial aos colegas de turma Alana, Ednei, Hannah e Izabele, por sempre estarem comigo nas dificuldades encontradas. Agradeço aos meus professores pelos conhecimentos que me transmitiram. Agradeço aos professores Ademir e Lucas pelas sugestões e conselhos relacionados a este trabalho. Agradeço aos colegas de IC: Flavia, Karla, Tuanny e Wagner, pelo auxílio em toda a pesquisa e agradeço especialmente à professora Elizabeth, que me orientou e me ajudou não apenas no trabalho, mas em diversas lições que levarei pela vida inteira. i

4 Sumário Lista de Figuras iv Resumo vi 1 INTRODUÇÃO DIAGONALIZAÇÃO DE MATRIZES Propriedades da diagonalização de matrizes Autovalores e autovetores Matrizes semelhantes Matrizes simétricas Matriz definida positiva Uma aplicação ao cálculo Matriz definida positiva Algumas propriedades Fatoração QR Processo de Gram-Schmidt Fatoração QR MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS ii

5 3.1 Funções quadráticas Método de Cauchy Busca Exata Passo dado pelo inverso dos autovalores da Hessiana TESTES COMPUTACIONAIS Programação dos métodos Programação da matriz definida positiva Programação do Método Comparação dos algoritmos Teste inicial Perfil de desempenho CONCLUSÃO Referências iii

6 Lista de Figuras Figura 1 Projeção ortogonal Figura 2 Curvas de nível Figura 3 Gráfico Figura 4 Curvas de nível Figura 5 Gráfico Figura 6 Curvas de nível Figura 7 Gráfico Figura 8 Curvas de nível Figura 9 Gráfico Figura 10 Trajetória do algoritmo de Cauchy iv

7 Figura 11 Trajetória do algoritmo (1 o caso) Figura 12 Trajetória do algoritmo (2 o caso) Figura 13 Norma do gradiente para busca linear exata Figura 14 Comparação dos algoritmos Figura 15 Perfil de desempenho v

8 Resumo Em Otimização, existem vários métodos para minimizar funções reais de várias variáveis. Um método clássico é o de Cauchy que usa em cada iteração a direção de máxima descida, ou seja, a direção oposta ao gradiente. Ao longo de cada direção calcula-se o comprimento do passo. Normalmente este comprimento é obtido por uma minimização unidirecional que pode ser exata (tipo Seção Áurea) ou inexata (tipo Armijo). Neste trabalho serão consideradas funções quadráticas convexas em IR n e toma-se como comprimento do passo o inverso de um autovalor da Hessiana da quadrática. Independente da ordem em que sejam escolhidos os autovalores e do ponto inicial, prova-se que o método converge em no máximo n passos. No desenvolvimento do método, para simplificar a notação, trabalhou-se com a Hessiana dada na forma diagonal. Foram apresentados resultados numéricos comparando o método proposto com diferentes ordenações dos autovalores da Hessiana e com o método de Cauchy com busca linear exata. Palavras-chave: Otimização irrestrita; Método de Cauchy; Funções quadráticas. vi

9 1 1 INTRODUÇÃO O trabalho trata de um importante problema da área de Otimização irrestrita: minimizar funções. Em outras palavras, encontrar um elemento do domínio que atinge o menor valor da função. No entanto, será trabalhado apenas com funções quadráticas convexas. Para resolver este problema, são utilizados métodos iterativos que partem de um ponto inicial arbitrário. Será apresentado o método clássico de Cauchy com busca linear exata (SANTOS; XAVIER, 2005) e uma proposta nova, que utiliza o método de Cauchy, mas, no entanto, o tamanho do passo é dado pelo inverso dos autovalores da Hessiana. Para analisar as propriedades desses métodos e compará-los, será utilizado um forte teorema sobre diagonalização de matrizes simétricas (HILL; KOLMAN, 2006) e alguns recursos de Geometria Analítica. Foram realizados testes computacionais com o objetivo de verificar a influência que a variação da ordem que os autovalores são escolhidos na expressão do algoritmo tem sobre o seu desempenho, utilizando uma ferramenta chamada Perfil de desempenho (DOLAN; MORÉ, 2002). O trabalho se organiza da seguinte forma: inicialmente são apresentados tópicos de Álgebra Linear que serão utilizados nos próximos capítulos. É feita uma revisão a respeito de diagonalização de matrizes, das principais propriedades de diagonalização de matrizes simétricas, de alguns teoremas de matriz definida positiva e da fatoração QR.

10 2 Já no terceiro capítulo são apresentadas as funções quadráticas e sua relação com o sinal da Hessiana. Após, será visto o método de Cauchy com busca linear exata e com o passo tomado pelo inverso dos autovalores da Hessiana. Serão analisadas as propriedades desses métodos, mas antes, utilizando teoremas do capítulo 2, será realizado uma troca de variável com a finalidade de simplificar a notação. No quarto capítulo serão apresentados testes computacionais utilizando quatro escolhas de variações na ordem dos autovalores e o método de Cauchy com busca linear exata. Utilizando gráficos de "perfil de desempenho", estes algoritmos serão comparados. Enfim, o trabalho apresenta resultados relevantes para a área e conclusões que tornam o método proposto destacável em relação aos métodos tradicionais, apesar da sua complexidade algorítmica

11 3 2 DIAGONALIZAÇÃO DE MATRIZES Neste capítulo revisaremos alguns tópicos de Álgebra Linear. Apresentamos propriedades de diagonalização de matrizes e análise da diagonalização de matrizes simétricas. Após, tratamos das matrizes positivas definidas e algumas de suas características. Por fim, abordamos a fatoração QR. As principais referências são (HILL; KOLMAN, 2006) e (LEON, 1999). 2.1 Propriedades da diagonalização de matrizes Autovalores e autovetores Definição 2.1 Seja A n n (IR) uma matriz de ordem n com elementos reais. Um escalar λ é um autovalor ou valor característico de A se existe um vetor não nulo v tal que Av = λv. O vetor v é um autovetor ou vetor característico de A associado a λ. Exemplo 2.2 Considere A = 3 2 e v = 1. Como Av = = 4 = 4 1 = 4v,

12 4 então λ = 4 é um autovalor de A e v = (2, 1) T é um autovetor associado a λ. De fato, qualquer múltiplo não-nulo de v é um autovetor, já que A(αv) = αav, pois α é escalar. Como o produto de números reais é comutativo e produto de escalar por vetor é associativo, então temos que αav = αλv = λ(αv). Definição 2.3 O polinômio característico de uma matriz A é um polinômio de grau n na variável λ obtido pela expansão do determinante p(λ) = det(a λi). Proposição 2.4 Os autovalores de A são justamente as raízes do seu polinômio característico. Demonstração 1 A equação Av = λv pode ser colocada na forma (A λi)v = 0. (2.1) Logo, λ é um autovalor de A se e somente se (2.1) tem uma solução não-trivial. A equação terá solução não-trivial se e somente se A λi é singular ou, equivalentemente, se det(a λi) = 0. Ou seja, p(λ) = det(a λi) = 0. Dessa forma, λ é um autovalor de A se, e somente se λ for raiz do seu polinômio característico Matrizes semelhantes Definição 2.5 Uma matriz D é dita semelhante a uma matriz A se existe uma matriz invertível P tal que

13 5 D = P 1 AP. Dizemos que a matriz A é diagonalizável se D for uma matriz diagonal. Neste caso, dizemos também que A pode ser diagonalizada. Exemplo 2.6 Considere e então: P 1 AP = A = P = = , portanto A é semelhante a uma matriz diagonal e assim A é diagonalizável. Os autovalores de uma matriz diagonal são justamente os elementos que ocupam sua diagonal. No exemplo anterior, os autovalores da matriz semelhante a A são 0 e 1. O próximo teorema apresenta uma relação entre os autovalores de matrizes semelhantes. Teorema 2.7 Matrizes semelhantes têm os mesmos autovalores. Demonstração 2 Sejam A e B semelhantes. Então B = P 1 AP, para alguma matriz P invertível. Vamos provar que A e B têm os mesmos polinômios característicos, p A (λ) e p B (λ), respectivamente. Temos, por definição, que: p B (λ) = det(λi n B) = det(λi n P 1 AP )

14 6 = det(p 1 λi n P P 1 AP ), pois P 1 P = I e multiplicação de matriz pela matriz identidade é comutativa, assim como multiplicação de matriz por escalar. Tirando P 1 em evidência à esquerda e P em evidência à direita, temos: det(p 1 λi n P P 1 AP ) = det(p 1 (λi n A)P ). Como determinante do produto é o produto dos determinantes e produto de números reais é comutativo, então det(p 1 (λi n A)P ) = det(p 1 )det(p )det(λi n A). Por fim, como o determinante da inversa é o inverso do determinante, temos det(p 1 )det(p )det(λi n A) = det(λi n A) = p A (λ). Como p A (λ) = p B (λ), então A e B têm os mesmos autovalores. Assim, de acordo com o teorema, os autovalores da matriz A do exemplo também são 0 e 1. Nem todas as matrizes são diagonalizáveis. O próximo teorema nos dá uma condição suficiente para verificar se a matriz pode ser diagonalizada. Teorema 2.8 Uma matriz A n n (IR) é diagonalizável se e somente se A tiver n autovetores linearmente independentes. Demonstração 3 Seja A semelhante a uma matriz diagonal D, ou seja, existe uma matriz P invertível tal que D = P 1 AP.

15 7 Multiplicando ambos os membros da igualdade por P à esquerda, temos AP = P D. (2.2) Seja λ λ 2 0 D = λ n v j (j = 1, 2,..., n) a j-ésima coluna de P e considere A = a 1 a 2. a n,, onde a j é a j-ésima linha da matriz A. Observe que AP = a 1 a 2. a n v 1 v 2... v n = Av 1 Av 2... Av n. Por outro lado, P D = v 1 v 2... v n λ λ 2 0. = λ 1 v 1 λ 2 v 2... λ n v n. 0 0 λ n Assim, de (2.2) Av j = λ j v j. (2.3) Como P é uma matriz invertível, suas colunas são linearmente independentes

16 8 e, portanto, são todas diferentes de zero. Então, λ j é um autovalor de A e v j é um autovetor correspondente. Reciprocamente, considere λ 1, λ 2,..., λ n como n autovalores de A e que os autovetores v 1, v 2,..., v n correspondentes são linearmente independentes. Seja P = v 1 v 2 v n a matriz cuja j-ésima coluna é v j. Como as colunas de P são linearmente independentes, então P é invertível. De (2.3) obtemos (2.2), que implica que A é diagonalizável. Dessa forma, no processo de diagonalização de uma matriz A n n (IR), os elementos da diagonal principal da matriz D são seus autovalores, e além do mais, P é uma matriz cujas colunas são, respectivamente, n autovetores linearmente independentes de A Matrizes simétricas Definição 2.9 Uma matriz A n n (IR) é simétrica se A = A T. Exemplo As matrizes simétricas têm características particulares em relação aos seus autovalores e autovetores. Antes de enunciar o próximo teorema, é conveniente retomar alguns conceitos a respeito de números complexos. Considere z um número complexo a + bi. O conjugado de z representado por z é definido como a bi. A conjugada de uma matriz B n n (C) é a matriz denotada por B, obtida pela conjugação de cada um dos elementos de B.

17 9 Se z = z, então z é um número real. De fato, z = z z z = 0, mas z z = 2bi, portanto b = 0 e o número z é real. a 1 + b 1 i Seja v um vetor não nulo tal que v =.. Temos que a n + b n i a 1 + b 1 i v T v = a 1 b 1 i... a n b n i. = a n + b n i = a b a 2 n + b 2 n > 0. Após esta breve revisão, podemos analisar as propriedades nos teoremas que se seguem. A demonstração do próximo teorema foi retirada da referência (POOLE, 2006). Teorema 2.11 Todos os autovalores de uma matriz simétrica são reais. Demonstração 4 Seja λ autovalor de uma matriz simétrica A com autovetor correspondente v. Então Av = λv e Av = λv. Observe que λ v T v = v T (λv), pois λ é escalar. Como v é autovetor associado a λ, então v T (λv) = v T Av. Já que A é uma matriz com elementos reais e simétrica, temos as igualdades abaixo v T Av = v T Av = (Av) T v.

18 10 O conjugado do produto é o produto dos conjugados. Então (Av) T v = (Av) T v. Novamente, como v é autovetor associado a λ, (Av) T v = ( λ v) T v = λ v T v. Assim, temos que (λ λ)( v T v) = 0 e como v 0 então v T v 0. Portanto (λ λ) = 0, logo λ = λ e λ é real. Teorema 2.12 Se A é uma matriz simétrica, então os autovetores associados aos autovalores distintos de A são ortogonais. Demonstração 5 Sejam u e v autovetores associados aos autovalores λ 1 e λ 2 distintos de uma matriz simétrica A. Sendo assim, Au = λ 1 u e Av = λ 2 v. Agora, λ 1 (u T v) = (λ 1 u) T v. pois produto de escalar por matriz é associativo. Como u é autovetor correspondente a λ 1 e como A é simétrica, então (λ 1 u) T v = (Au) T v = u T A T v = u T (Av). Como v é autovetor associado a λ 2 e usando a propriedade de que o produto entre escalar e matriz é comutativo, temos que u T (Av) = u T (λ 2 v) = λ 2 (u T v).

19 11 Portanto, λ 1 (u T v) = λ 2 (u T v) e subtraindo, obtemos (λ 1 λ 2 )(u T v) = 0. Como λ 1 λ 2, concluimos que u T v = 0, logo u e v são ortogonais. Este último resultado contribui para uma importante conclusão sobre diagonalização de matrizes simétricas. Antes de enunciá-la, é necessário apresentar a seguinte definição: Definição 2.13 Uma matriz P invertível é chamada de matriz ortogonal se P 1 = P T. Podemos também dizer que uma matriz P invertível é ortogonal se P T P = I. Outra equivalência que se tem é o fato de que as colunas (e linhas) de uma matriz são ortonormais se e somente se a matriz é ortogonal. Exemplo 2.14 G = Podemos perceber que as colunas dessa matriz são ortogonais. Basta apenas multiplicar cada vetor coluna pelo inverso de sua norma para obter a matriz P =

20 12 As colunas da matriz P são ortonormais, logo P é ortogonal. Pela definição, sua inversa também tem que ser ortogonal. Como a inversa é a transposta, logo as linhas de P por consequência são ortonormais. Antes de prosseguir, devemos retomar a seguinte definição. Definição 2.15 O complemento ortogonal de um conjunto não-vazio S IR n é o conjunto S formado pelos vetores v IR n que são ortogonais a todos os vetores u S. Teorema 2.16 Para todo subespaço vetorial S IR n tem-se a decomposição em soma direta IR n = S S. Demonstração 6 Seja u 1,..., u n IR n uma base ortonormal cujos primeiros m e- lementos u 1,..., u m formam uma base ortonormal de S. Para todo vetor v IR n tem-se v = α 1 u α n u n = z + w, onde z = α 1 u α m u m S e w = α m+1 u m α n u n S. Portanto IR n = S + S. Como S S = {0}, segue-se que IR n = S S. Corolário 2.17 dims + dims = n. Agora temos ferramentas suficientes para enunciar o teorema abaixo. Teorema 2.18 Se A n n (IR) é uma matriz simétrica, então existe uma matriz ortogonal P n n (IR) tal que P T AP = D, onde D é uma matriz diagonal de ordem n. Demonstração 7 Vamos provar por indução em n. Para n = 1, adotamos P = 1. Claramente P é ortogonal, pois P T P = 1.1 = 1 = I. Temos ainda que P T AP = 1A1 = A. Como toda matriz 1 1 é diagonal, então A é diagonal. Sendo assim, existe uma P ortogonal tal que P T AP = D para n = 1. Agora supondo que o resultado seja válido para (n 1), vamos provar que vale para n. Sejam v IR n e λ IR tais que v = 1 e Av = λv. Como v IR n

21 13 e o espaço gerado por v tem dimensão igual a 1, o complemento ortogonal v tem dimensão (n 1) devido ao corolário (2.17). Considere então {u 1, u 2,..., u n 1 } uma base ortonormal de v, e M n (n 1) (IR) = u 1 u 2 u n 1. Note que M T M = I, pois pelo produto matricial, encontramos que na linha i o j-ésimo elemento de M T M é u T i u j e como os vetores são ortonormais, u T i u j = { 1 se i = j 0 se i j. Temos também que v T (Au j ) = (Av) T u j = λv T u j = 0, pois qualquer elemento da base é ortogonal a v. Logo, Au j v. Portanto Au j = n 1 i=1 α i,ju i. Pelo produto matricial, AM = Au 1 Au 2 Au n 1. Seja B (n 1) (n 1) (IR) tal que B = α 1,1 α 1,2 α 1,n α n 1,1 α n 1,2 α n 1,n 1. Logo Enfim, MB = n 1 i=1 α i,1u i n 1 i=1 α i,2u i n 1 i=1 α i,n 1u i. AM = MB M T AM = M T MB M T AM = B. A partir disso e usando o fato de A ser simétrica, temos que B é simétrica, pois B T = (M T AM) T = M T AM = B.

22 14 Pela hipótese de indução, existem matrizes Q (n 1) (n 1) (IR), E (n 1) (n 1) (IR), onde E é diagonal, tais que Q T Q = I e Q T BQ = E. Construindo P = v MQ e λ 01 (n 1) D = 0 (n 1) 1 E, pelo produto em bloco, temos que: P T P = v T Q T M T v MQ = v T v Q T M T v v T MQ Q T M T MQ. Observa-se que v T v = v 2 = 1. Seja β i,j os elementos da matriz Q, o produto MQ ocorre de forma análoga ao produto MB, portanto: v T MQ = = v T n 1 i=1 β i,1u i n 1 i=1 β i,2u i n 1 i=1 β i,1v T u i n 1 i=1 β i,2v T u i n 1 i=1 β i,n 1u i = n 1 i=1 β i,n 1v T u i. Como u i é ortogonal a v, então v T MQ é igual à matriz nula 1 (n 1), e, além disso, Q T M T v, que é a transposta de v T MQ, é igual à matriz nula de ordem (n 1) 1. Por fim, o produto Q T M T MQ = Q T IQ = I (n 1) (n 1), pois Q é matriz ortogonal por hipótese. Logo v T v v T MQ Q T M T v Q T M T MQ 1 01 (n 1) = 0 (n 1) 1 I (n 1) (n 1) = I n n

23 15 e portanto P é ortogonal. P T AP = v T Q T M T A v MQ = v T Av Q T M T Av v T AMQ Q T M T AMQ. Como v T Av = v T λv = λv T v = λ e v T AMQ = v T A T MQ = (Av) T MQ = λv T MQ, que é igual à matriz nula de ordem 1 (n 1) como já visto. Analogamente Q T M T Av = Q T M T λv = λq T M T v, que é igual à matriz nula de ordem (n 1) 1. Por fim, o produto Q T M T AMQ = Q T BQ = E. Portanto v T Av Q T M T Av v T AMQ Q T M T AMQ λ 01 (n 1) = 0 (n 1) 1 E = D. Portanto existem matrizes P e D, tais que P T P = I e P T AP = D. Sabemos então que uma matriz simétrica sempre é diagonalizável por uma matriz P ortogonal. Neste caso, dizemos que a matriz simétrica é diagonalizada por uma transformação ortogonal. A recíproca é verdadeira como está demonstrado no próximo teorema. Teorema 2.19 Seja A n n (IR) uma matriz diagonalizável por uma transformação ortogonal. Então A é simétrica. Demonstração 8 Por hipótese, existe uma matriz ortogonal P n n (IR) e uma matriz

24 16 diagonal D n n (IR) tais que D = P 1 AP = P T AP. Como P é ortogonal, temos que A = P DP T. Calculando a transposta de A temos que A T = (P DP T ) T = (P T ) T D T P T = P DP T = A, onde D T = D pois D é matriz diagonal. Portanto, A é simétrica. Assim, seguindo os teoremas apresentados até agora, o processo de diagonalização de uma matriz simétrica de ordem n é o seguinte: Etapa 1: Forme o polinômio característico p(λ)=det(λi n A). Etapa 2: Encontre as raízes do polinômio característico de A. Elas serão todas reais. Etapa 3: Para cada autovalor λ j de A de multiplicidade k j, encontre k j autovetores linearmente independentes que sejam solução de (λ j I n A)x = 0. Etapa 4: Para cada autovalor, transforme os autovetores correspondentes obtidos na etapa 3 para autovetores ortonormais pelo processo de Gram-Schmidt. A totalidade de todos os autovetores determina um conjunto ortonormal com n elementos. Etapa 5: Seja P a matriz cujas colunas são n autovetores ortonormais determinados na etapa 4. Então P é uma matriz ortogonal e P 1 AP = P T AP = D é uma matriz diagonal cujos elementos da diagonal são os autovalores de A que correspondem às colunas de P. 2.2 Matriz definida positiva Após analisar o processo de diagonalização de matrizes simétricas, vamos a- presentar, nesta seção, uma classificação relacionada ao seu comportamento em funções. Vamos estudar as propriedades e algumas aplicações dessa classificação.

25 Uma aplicação ao cálculo Em Cálculo Diferencial e Integral, um tópico estudado é o problema de encontrar máximos e mínimos de funções de várias váriáveis com valores reais. Assim, será apresentado uma aplicação e também motivação da classificação dada na próxima subseção. Definição 2.20 Seja f uma função com valores reais definida em IR n. Um ponto x em IR n é dito um ponto estacionário de f se todas as derivadas parciais de f em x existem e são iguais a 0. Se f tem um máximo local ou um mínimo local em x e se as derivadas parciais de f existem em x, então elas são todas nulas. Logo, se f tiver derivadas parciais em todos os pontos, seus máximos e mínimos locais vão ocorrer em pontos estacionários. Considere a função f : IR 2 IR definida por: f(x 1, x 2 ) = ax bx 1 x 2 + cx 2 2, onde a, b e c são escalares. As derivadas parciais de primeira ordem de f são f x1 = 2ax 1 + 2bx 2 f x2 = 2bx 1 + 2cx 2, igualando a zero, vemos que (0,0) é um ponto estacionário. Esta função pode ser escrita da seguinte maneira: f(x) = a b x 1 x 2 b c x1 x 2 = x T Ax. Assim, se a matriz A for invertível, então esse será o único ponto estacionário. Como f(0) = 0, f vai possuir mínimo global em 0 se e somente se x T Ax > 0 para todo x 0

26 18 e f vai ter máximo global em 0 se e somente se x T Ax < 0 para todo x 0. Se x T Ax não ter sinal constante, 0 será ponto de sela. A expressão x T Ax, onde A é matriz simétrica e x é vetor de IR n é definida como forma quadrática. A análise do seu sinal é relevante para determinar os extremantes da função. De acordo com o sinal, existe a seguinte classificação para a forma quadrática f(x) = x T Ax: f é dita definida positiva se x T Ax > 0 para todos os vetores não nulos x em IR n. f é dita definida negativa se x T Ax < 0 para todos os vetores não nulos x em IR n. f é indefinida, se x T Ax não possui sinal constante. A forma quadrática é classificada como definida positiva ou definida negativa de acordo com a matriz A. Se a forma quadrática é dita definida positiva, dizemos simplesmente que A é definida positiva. Da mesma forma, ocorre para as outras classificações Matriz definida positiva Como já visto, uma matriz simétrica real A é dita definida positiva se x T Ax > 0 para todo x em IR n diferente de zero. O teorema seguinte apresenta uma equivalência dessa classificação. Teorema 2.21 Seja A n n (IR) uma matriz simétrica. Então, A é definida positiva se e somente se todos os seus autovalores são positivos. Demonstração 9 Se A é definida positiva e se λ é um autovalor de A, então, para qualquer autovetor x associado a λ, x T Ax = x T λx.

27 19 Como o produto de escalar por matriz é comutativo e associativo, então x T λx = λx T x = λ x 2. Logo, λ = xt Ax x 2 > 0. Reciprocamente, suponha que todos os autovalores de A são positivos. Como A é simétrica, é possível escolher um conjunto ortonormal {x 1, x 2,..., x n } de autovetores de A. Claramente, este conjunto é uma base do espaço IR n. Seja x um vetor não nulo em IR n, então x pode ser escrito como x = α 1 x 1 + α 2 x α n x n. Temos, então, que x T Ax = (α 1 x 1 + α 2 x α n x n ) T (α 1 Ax 1 + α 2 Ax α n Ax n ) = = (α 1 x 1 + α 2 x α n x n ) T (α 1 λ 1 x 1 + α 2 λ 2 x α n λ n x n ). Utilizando a hipótese de que {x 1, x 2,..., x n } é um conjunto ortonormal, então x T Ax = n (α i ) 2 λ i. i=1 Como x é não nulo, existe pelo menos um α i 0 logo x T Ax = n (α i ) 2 λ i (minλ i ) x 2 > 0 i=1 e, portanto, A é definida positiva. Ou seja, para analisar se a matriz é definida positiva, basta analisar o sinal do seus autovalores. Se todos os autovalores de A são positivos, então ela é definida positiva. Analogamente, se todos os autovalores são negativos, ela é definida negativa. E se A tem autovalores com sinais diferentes, então ela é indefinida.

28 20 Exemplo 2.22 Seja 4 2 A =. 2 7 Os autovalores de A são 3 e 8. Portanto A é definida positiva Algumas propriedades Após essa breve discussão sobre a equivalência de definições da matriz definida positiva, vamos agora analisar algumas de suas propriedades. Teorema 2.23 Se A é uma matriz definida positiva, então det(a) > 0. Demonstração 10 Se A n n (IR) definida positiva, então A é uma matriz simétrica e, portanto, diagonalizável. Seja D a matriz diagonal formada pelos autovalores λ 1, λ 2,..., λ n de A e P a matriz ortogonal formada pelos autovetores de A. Temos que P 1 AP = D. Aplicando determinante nos dois lados da equação, temos: det(p 1 AP ) = det(d). Como o determinante do produto é o produto de determinantes, então det(p 1 )det(a)det(p ) = det(d). Como o determinante de matriz inversa é o inverso do determinante, então det(a) = det(d). Como o det(a) = det(d) = λ 1 λ 2... λ n, e como todos os autovalores de A são positivos, então det(a) > 0. A recíproca não é verdadeira. Seja: 2 0 A = 0 3.

29 21 Como pode se observar no exemplo, o det(a) = 6 > 0 e os autovalores de A são -2 e -3. Portanto, apesar da matriz possuir determinante positivo, seus autovalores são negativos e ela é definida negativa. O próximo teorema aponta uma propriedade sobre a inversa da matriz definida positiva. Teorema 2.24 Se A é uma matriz definida positiva, então A é invertível e A 1 também é definida positiva. Demonstração 11 Seja A uma matriz definida positiva. Pelo teorema anterior, det(a) > 0, portanto A é invertível. Como os autovalores da matriz inversa de A são o inverso dos autovalores de A e como o inverso de um número postivo é positivo, então, A 1 é definida positiva. Exemplo 2.25 A = Sabemos que A é definida positva, pois seus autovalores são 1 e 6. A inversa de A é Seus autovalores são exatamente 1 e 1. Portanto, a inversa é também definida positiva. 6.. Definição 2.26 Dada uma matriz A n n (IR), vamos denotar por A r a matriz obtida retirando-se (n r) linhas e colunas de A. A r é chamada de submatriz principal de A de ordem r. Agora podemos enunciar o seguinte teorema: Teorema 2.27 Se a matriz A é definida positiva então as submatrizes principais A 1, A 2,..., A n de A têm determinante positivo.

30 22 Demonstração 12 É possível perceber que para 1 r n e tomando x r = (x 1, x 2,..., x r ) T um vetor não nulo arbitrário em IR r e x = (x 1,..., x r, 0,..., 0) T um vetor não nulo de IR n, temos que, pelo produto matricial, x T r A r x r = x T Ax > 0. Portanto, A r é definida positiva. Exemplo 2.28 A = Calculando seus autovalores, obtemos λ 1 = 2 e λ 2 = 8, ambos positivos. Analisando o determinante das submatrizes, temos que: det(a 1 ) = 2 det(a 2 ) = 10 det(a 3 ) = 32. Como todos os seus autovalores são positivos, a matriz A é definida positiva. Portanto, todas as submatrizes de A têm determinante positivo. Para finalizar, vamos apresentar a seguinte propriedade: Teorema 2.29 Se A é uma matriz definida positiva, então os elementos diagonais de A são todos positivos. Demonstração 13 Como A é definida positiva, então x T Ax > 0 para todo x IR n não nulo. Dessa forma, tomando x = e i, onde e i é o vetor que possui todas as componentes nulas exceto a componente i que equivale a 1, temos que e T i Ae i = a ii > 0. Portanto, todos os elementos da diagonal de A são positivos.

31 23 Assim estão listadas algumas propriedades de matrizes definidas positivas. Para finalizar o capítulo, vamos apresentar a fatoração QR, utilizada nos testes computacionais para a construção de matrizes ortogonais. 2.3 Fatoração QR Processo de Gram-Schmidt Antes de falar sobre fatoração QR, é necessário retomar o processo de Gram- Schmidt. Este processo tem o objetivo de ortonormalizar uma base dada para um espaço vetorial de dimensão n munido de um produto interno. Teorema 2.30 Seja S um subespaço do espaço V munido de produto interno, onde dimv <, e seja x V. Seja {x 1, x 2,..., x n } uma base ortonormal para S. Se p = n c j x j, j=1 onde c j = x T x j para todo j então x p S. Observe geometricamente o teorema. Figura 1: Projeção ortogonal

32 24 Como p é a projeção ortogonal do vetor x em S, então, o vetor x p é perpendicular ao subespaço S. Demonstração 14 Vamos provar inicialmente que (x p) x j para todo j. x T j (x p) = x T j x x T j p = c j x T j n c t x t. t=1 Como escalar é associativo e comutativo no produto, então temos que c j x T j n c t x t = c j t=1 n c t x T j x t. t=1 Como {x 1, x 2,..., x n } é uma base ortonormal, então n t=1 c tx T j x t = c j e portanto x T j (x p) = 0. Assim, (x p) é ortogonal a todos os x i. Se y S, então y = n α j x j j=1 de modo que n (x p) T y = (x p) T ( α j x j ) = j=1 n α j (x p) T x j. j=1 Devido ao resultado anterior, temos que (x p) T y = 0. Teorema 2.31 Seja {x 1, x 2,..., x n } uma base para o espaço V munido de produto interno. Seja u 1 = 1 x 1 x 1

33 25 e defina u 2,..., u n por u k+1 = para k variando de 1 a (n 1) onde 1 x k+1 p k (x k+1 p k ) p k = (x T k+1u 1 )u 1 + (x T k+1u 2 )u (x T k+1u k )u k é a projeção ortogonal de x k+1 sobre u 1, u 2,..., u n. Então o conjunto {u 1, u 2,..., u n } é uma base ortonormal de V. Demonstração 15 Vamos provar por indução. É claro que u i = x i, pois os dois vetores são múltiplos. Suponha que construimos u 1, u 2,..., u k de modo que {u 1, u 2,..., u k } seja um conjunto ortonormal e que u 1, u 2,..., u k = x 1, x 2,..., x k. Como p k é uma combinação linear dos u j para 1 j k, temos que p k x 1, x 2,..., x k e que x k+1 p k x 1, x 2,..., x k+1, pois x k+1 p k = x k+1 k j=1 c jx j, ou seja, x k+1 p k pode ser escrito com combinação linear de {x 1, x 2,..., x k+1 }. Como x 1,..., x k+1 são linearmente independentes, temos que x k+1 p k é diferente de zero e pelo Teorema (2.30), é ortogonal a cada um dos u j, 1 j k. Portanto, {u 1, u 2,..., u k+1 } é um conjunto ortonormal de vetores em x 1, x 2,..., x k+1. Como u 1,..., u k+1 são linearmente independentes, eles formam uma base para {x 1, x 2,..., x k+1 }, logo u 1, u 2,..., u k+1 = x 1, x 2,..., x k+1. Assim, por indução, u 1, u 2,..., u k+1 é uma base ortonormal para V. 1 2 Exemplo 2.32 Seja x 1 = e x 2 = vetores de IR 2. Como eles são linearmente independentes, eles formam uma base linear de IR 2. Utilizando o processo 4 3 de Gram-Schmidt, podemos ortonormalizá-los. Primeiramente, temos que x 1 = 17

34 26 então u 1 = = Defina Como x 2 p 1 = p 1 = (x T 2 u 1 )u 1 = u 2 = e x 2 p 1 = , então 1 x 2 p 1 (x 2 p 1 ) = Assim, {u 1, u 2 } formam uma base ortonormal de IR 2. = Fatoração QR Definição 2.33 Seja A m n (IR). Defina a imagem de A, denotada por I(A), como I(A) = {b IR m b = Ax para algum x IR n } = o espaço coluna de A. Definição 2.34 O posto de uma matriz A é a dimensão de sua imagem. Teorema 2.35 Se A n n (IR) é uma matriz de posto h, então A pode ser fatorada em um produto QR, onde Q é uma matriz m n com colunas ortonormais e R é uma matriz n n triangular superior e invertível. Demonstração 16 Seja p 1, p 2,..., p n 1 definida como no teorema (2.31) e seja {q 1, q 2,..., q n } a base ortonormal de I(A) obtida pelo processo de Gram-Schmidt. Considere que a j é a j-ésima coluna da matriz A. Defina r 1,1 = a 1

35 27 r k,k = a k p k 1 para k = 2,..., n e r i,k = q T i a k para i = 1,..., (k 1) e k = 2,..., n. Pelo processo de Gram-Schmidt, temos que r 1,1 q 1 = a 1 r k,k q k = a k r 1,k q 1 r 2,k q 2... r k 1,k q k 1 para k = 2,..., n. Esse sistema pode ser colocado da seguinte forma: a 1 = r 1,1 q 1 a 2 = r 1,2 q 1 + r 2,2 q 2. a n = r 1,n q r n,n q n. Definindo Q = q 1 q 2... q n e R como matriz triangular superior, r 1,1 r 1,2... r 1,n 0 r 2,2... r 2,n R = r n,n temos que a j-ésima coluna do produto QR é para j = 1,..., n. Portanto, Qr j = r 1,j q 1 + r 2,j q r j,j q j = a j QR = (a 1, a 2,..., a n ) = A.

36 28 Ou seja, a decomposição QR é uma interpretação matricial do processo de Gram-Schmidt. Ela será utilizada no trabalho para gerar matrizes ortogonais. Exemplo 2.36 Calculando a fatoração QR da matriz 3 2 A = 4 1 obtemos r 11 = a 1 = 5 q 1 = 1 r 11 a 1 = r 12 = q T 1 a 2 = p 1 = r 12 q 1 = 2q 1 = 8 5 a 2 p 1 = Portanto A = r 22 = a 2 p 1 = 1 q 2 = 1 r 22 (a 2 p 1 ) = = = QR. Estes tópicos de Álgebra Linear foram fundamentais para o desenvolvimento teórico do método que será apresentado no próximo capítulo.

37 29 3 MINIMIZAÇÃO DE FUNÇÕES QUADRÁTICAS Neste capítulo trataremos do problema de minimizar funções quadráticas reais de várias variáveis. Trabalharemos com métodos iterativos que têm como objetivo encontrar o minimizador da função. Será apresentado o método de Cauchy para minimização irrestrita com um interesse particular em analisar as suas propriedades para funções quadráticas tomando como comprimento do passo o inverso dos autovalores da Hessiana da quadrática. As principais referências são (LI; WANG, 2001) e (SANTOS; XAVIER, 2005). 3.1 Funções quadráticas Uma equação quadrática em duas variáveis x e y é uma equação da forma ax 2 + 2bxy + cy 2 + dx + ey + f = 0. Esta equação pode ser colocada na forma x y a b b c x y + d e x y + f = 0. x Seja x = y passa a ser, A = a b b c, B = d e e C = f, então a equação quadrática x T Ax + B T x + C = 0.

38 30 Baseando-se nesse exemplo, damos a seguinte definição: Definição 3.1 Considere A n n (IR) uma matriz simétrica, b IR n, c IR, definimos função quadrática f : IR n IR por f(x) = 1 2 xt Ax + b T x + c. Como trabalharemos bastante com a derivada desta função, a forma quadrática foi multiplicada por 1 para simplificar os cálculos. Note que a matriz Hessiana dessa função, 2 que é a sua derivada de ordem 2, é exatamente a matriz A. Antes de analisá-la, vamos rever algumas definições de Cálculo Diferencial e Integral retiradas de (H.L.GUIDORIZZI, 2001). Definição 3.2 Sejam f uma função e x D f. Dizemos que x é ponto de mínimo global ou minimizador de f se f(x) f(x ) para todo x D f. Analogamente, dizemos que x é ponto de máximo global ou maximizador de f se f(x) f(x ) para todo x D f. Definição 3.3 Seja z = f(x, y) uma função real de duas variáveis reais para (x, y) pertencentes a um conjunto H. O conjunto G f = { (x, y, z) IR 3 z = f(x, y), (x, y) H } denomina-se gráfico de f. Definição 3.4 Seja z = f(x, y) uma função e p Imf. O conjunto de todos os pontos (x, y) de D f tais que f(x, y) = p denomina-se curva de nível de f correspondente ao nível z = p. Assim f é constante sobre cada curva de nível. Exemplo 3.5 Considere f : IR 2 IR tal que f(x) = x T 1 0 Suas curvas de nível estão representadas na figura x.

39 31 Figura 2: Curvas de nível Podemos observar que as curvas de nível são circunferências de centro comum no ponto (0,0). Sabemos que a derivada da função nesse ponto é nula. Portanto é ponto estacionário. Analisando o gráfico, fica evidente que este é ponto de mínimo global da função. Figura 3: Gráfico

40 32 Como em funções quadráticas a matriz A é simétrica, podemos analisar a influência do sinal da matriz no comportamento da função. Exemplo 3.6 Considere f : IR 2 IR tal que f(x) = x T x x Neste caso, a matriz A é definida positiva. Observe as curvas de nível de f na figura 4. Figura 4: Curvas de nível Note que as curvas de nível são elipses. Através da derivada e desta figura, sabemos que seu único ponto estacionário é ( 54, 22 ). Com o gráfico fica novamente evidente 7 7 que este ponto é o minimizador da função.

41 33 Figura 5: Gráfico Exemplo 3.7 Considere agora f : IR 2 IR definida por 1 1 f(x) = x T x x. A figura 6 mostra algumas curvas de nível de f. Figura 6: Curvas de nível

42 34 Neste exemplo, a matriz A é definida negativa. Observe que as curvas de nível são novamente elipses, mas, a medida que a função se afasta do ponto estacionário, seu valor passa a diminuir. Através da derivada e desta figura, sabemos que seu único ponto estacionário é ( 1, 1 ). Com o gráfico, fica evidente que este é ponto de máximo 4 4 global da função. Figura 7: Gráfico Exemplo 3.8 Seja f : IR 2 IR tal que f(x) = x T x x Analisando o último caso, temos que a matriz A é indefinida. Suas curvas de nível são hipérboles como mostra a figura 8. Através da derivada e desta figura, sabemos que o único ponto estacionário de f é ( 3, 1). 2 2

43 35 Figura 8: Curvas de nível função. Com o gráfico fica evidente que este ponto estacionário é ponto de sela da Figura 9: Gráfico Com base nos exemplos, se a Hessiana da função quadrática é definida positiva, então o ponto estacionário será mínimo global da função. Como o nosso objetivo é minimizar funções quadráticas, no decorrer do trabalho a matriz Hessiana será definida positiva por hipótese. A seguir, vamos analisar algumas propriedades de Geometria Analítica que serão utilizadas para simplificar os cálculos futuros. Note que f(x) = Ax + b, ou seja, o vetor gradiente de f independe de c. Assim, c só influencia no valor mínimo da função, mas não altera o minimizador. Dessa

44 36 forma, devido aos nossos interesses, vamos tratar f apenas como f(x) = 1 2 xt Ax+b T x. Para simplificar a notação, vamos transladar o minimizador da função, considerando x = z + x, onde x é o minimizador de f, z IR n e F : IR n IR definida da seguinte maneira: F (z) = f(z + x ) = 1 2 (z + x ) T A(z + x ) + b T (z + x ) = Como x = A 1 b, então = 1 2 zt Az + (x ) T Az + b T z (x ) T Ax + b T x. F (z) = 1 2 zt Az + ( A 1 b) T Az + b T z (x ) T Ax + b T x = 1 2 zt Az + f(x ). Assim, já que f(x ) é uma constante, este termo não altera no minimizador da função, portanto, podemos nos preocupar em apenas encontrar o minimizador de funções F : IR n IR tal que F (z) = 1 2 zt Az, pois minimizar f é o mesmo que minimizar F. Deste modo, vamos trabalhar apenas com F, já que a função é mais simples e o seu minimizador é sempre o vetor nulo. As propriedades de minimização que valerem para F valerão para f. 3.2 Método de Cauchy O problema considerado em nosso estudo consiste em minimizar f sem restrições, com f : IR n IR tal que f seja uma função quadrática. Podemos nos preocupar então em apenas minimizar F (z) = 1 2 zt Az onde z = x x. Os algoritmos que resolvem estes problemas, quase sempre iterativos, iniciam com um ponto dado e determinam uma direção ao longo da qual é possível diminuir o valor da função, e nesta direção calcula-se um comprimento de passo que permita uma redução razoável do valor da função. Ou seja, para construir um modelo de algoritmo geral para Minimização Irrestrita, consideramos basicamente três etapas, a partir de z k IR n.

45 37 1. Escolha da direção de descida: tomar d k IR n tal que F (z k ) T d k < Determinar o tamanho do passo: calcular β k > Tomar z k+1 = z k + β k d k. Assim, o processo se repete, de modo que a cada iteração temos um novo passo e o gradiente é aplicado no vetor resultante da iteração anterior. Dessa maneira, diferentes escolhas para a direção e para a determinação do passo originam métodos iterativos distintos. Um método clássico de Minimização Irretrita é o Método de Cauchy que corresponde a escolher a direção de máxima descida, ou seja, oposta ao gradiente da função. Já em relação ao tamanho do passo, existem variâncias. Vamos analisar agora duas delas Busca Exata Na busca linear exata, caso a função objetivo seja quadrática, tomamos como tamanho do passo a seguinte expressão: Assim, o algoritmo é dado da seguinte maneira: β k = ( F (zk )) T F (z k ) ( F (z k )) T A F (z k ). (3.1) Algoritmo 3.9 Dado z 0 IR n k = 0 Repita d k = F (z k ) β k = ( F (zk )) T F (z k ) ( F (z k )) T A F (z k ) z k+1 = z k + β k d k k = k + 1

46 38 Em cada iteração, o algoritmo procura o menor valor da função na direção escolhida e este passa a ser o novo z k. Assim, a trajetória do algoritmo é sempre normal à curva de nível que passa por z k, pois a direção tomada é oposta ao vetor gradiente em z k. Observe no exemplo. Figura 10: Trajetória do algoritmo de Cauchy A figura representa a trajetória do algoritmo na função f(x) = x T x x + 7. Como é possível perceber, o algoritmo de Cauchy com a busca linear exata possui um comportamento lento devido a esse zigue-zague que o método faz até atingir o mínimizador. Assim, para corrigir este problema, adotamos outra maneira para se calcular o tamanho do passo, que será apresentada na próxima subseção Passo dado pelo inverso dos autovalores da Hessiana Considere A n n (IR) uma matriz simétrica e F : IR n IR definida por F (z) = 1 2 zt Az. Todos os autovalores de A são positivos e não nulos. Dessa forma, podemos definir o tamanho do passo como sendo, a cada iteração, o inverso de um

47 39 autovalor distinto de A. Assim, o algoritmo é escrito como: Algoritmo 3.10 Dado z 0 IR n k = 0 Repita d k = F (z k ) β k = 1 λ lk z k+1 = z k + β k d k k = k + 1 Este método possui um desempenho melhor que o apresentado na subseção anterior, mas, antes de analisar suas propriedades, faremos mais uma troca de coordenadas para simplificar a notação. Como A é simétrica, existe uma matriz ortogonal P n n (IR) tal que P T AP = D, com D diagonal. Considere a mudança de coordenadas y = P T z e defina g : IR n IR por g(y) = F (P y) = 1 2 (P y)t AP y = 1 2 yt P T AP y = 1 2 yt Dy. Como as funções F e g se relacionam pela mudança de coordenadas y = P T x, vamos discutir as propriedades do algoritmo usando a função g cuja Hessiana é diagonal. O minimizador dessa função continua sendo o vetor nulo. A respeito do desempenho do método, temos os seguintes lemas: Lema 3.11 Dado y 0 um ponto inicial arbitrário de IR n. Considere y k+1 = y k 1 λ lk g(y k ). Então a componente l k do vetor y k+1 é nula.

48 40 Demonstração 17 Analisando o algoritmo, temos que: Calculando o vetor gradiente, obtemos: y k+1 = y k 1 λ lk ( g(y k )). y k+1 = y k 1 λ lk Dy k. Colocando y k em evidência à direita, temos ( y k+1 = I n 1 ) D y k. λ lk A componente i desse vetor é: Tomando i = l k, temos que ( y k+1 i = 1 λ ) i yi k. λ lk ( y k+1 i = 1 λ ) l k yi k = 0 λ lk Ou seja, a cada iteração o algoritmo zera uma componente do vetor inicial. Se a matriz A possuir autovalores repetidos j vezes então, de acordo com a demonstração anterior, em uma única iteração, j componentes serão zeradas. Para que a função seja minimizada, as componentes zeradas devem permanecer zeradas nas próximas iterações. Isto é garantido pelo próximo lema. Lema 3.12 Se y k+1 i = 0 y k+2 i = 0. Demonstração 18 Seja y k+2 = y k+2 é Como y k+1 i = 0, então y k+2 i = 0. ( ) I n 1 λ lk+1 D y k+1. Então, a componente i do vetor ( y k+2 i = 1 λ ) i y k+1 i. λ lk+1

49 41 Assim, se o domínio da função quadrática é IR n então o algoritmo minimiza esta função em no máximo n passos, já que se a matriz A possuir autovalores repetidos, o algoritmo zera mais de uma componente em uma única iteração. A ordem em que as componentes são zeradas equivale a ordem em que os autovalores são escolhidos na expressão do algoritmo. Vamos analisar esta propriedade no próximo exemplo Exemplo 3.13 Considere g : IR 2 IR tal que g(y) = y T y. O minimizador da função é o vetor nulo e os autovalores de A são os mesmos que da sua matriz diagonal, portanto são 2, 5 e 4. Como os três autovalores são distintos, sabemos que o 4 algoritmo minimizará a função em três passos. Dado o ponto inicial y 0 = 1. Se 10 queremos que a componente que equivale a 10 seja zerada, basta escolher o autovalor que está na terceira linha e terceira coluna da matriz D para a expressão do algoritmo. De fato: y 1 = y Dy0 = = Dando sequência ao processo, se queremos que a componente que equivale a 1 4 seja zerada, basta escolher o autovalor que está na segunda linha e segunda coluna da matriz D. Assim temos y 3 = y Dy2 = Por fim, utilizando o autovalor que sobrou temos y 3 = y Dy2 = = =

50 42 Assim, para zerar uma determinada componente, basta escolher o autovalor que ocupa a posição correspondente a ela na matriz D. Vamos analisar agora este próximo exemplo Exemplo 3.14 g(y) = y T y. Tomando y 0 =, temos: y 1 = y Dy0 = = y 2 = y Dy1 = = Analisando graficamente o processo, temos a seguinte figura. Figura 11: Trajetória do algoritmo (1 o caso)

51 43 Observe que no primeiro passo, a componente mais próxima em módulo do minimizador (0,0) foi zerada inicialmente. O ponto y 1 se distanciou muito do minimizador. Mas, mesmo assim, na próxima iteração, atingiu o ponto (0,0). Vamos agora verificar o que acontece se iniciarmos o processo com a componente mais distante do minimizador: y 1 = y Dy0 = 2 y 2 = y Dy1 = = 0 0 =. 0 Figura 12: Trajetória do algoritmo (2 o caso) Observe que já na primeira iteração o ponto y 1 ficou muito próximo do minimizador. Partindo deste exemplo, é possível perceber que a ordem em que os autovalores são escolhidos na expressão do algoritmo influencia no seu desempenho. Assim, na próxima seção serão apresentados alguns testes computacionais utilizados nesta investigação.

52 44 4 TESTES COMPUTACIONAIS Neste capítulo trataremos do problema apontado no final do capítulo anterior. Através de testes computacionais, procuramos investigar se a ordem em que os autovalores são escolhidos na expressão do algoritmo influencia no seu desempenho e se há uma ordem que ganhe das outras na maioria dos casos. Apresentaremos o modo como foi programado os testes computacionais e seus resultados. 4.1 Programação dos métodos Todos os algoritmos foram programados em Matlab v6.1. Antes de programar o método, foi necessário criar um programa que gerava funções quadráticas distintas. A ideia foi utilizar a diagonalização de matrizes simétricas e a fatoração QR Programação da matriz definida positiva Para gerar uma matriz simétrica definida positiva A de ordem n no Matlab, utilizamos o Teorema (2.19). Assim, foi necessário criar uma matriz diagonal com os autovalores de A e uma matriz ortogonal com os autovetores de A. Dados os autovalores mínimo (m) e máximo (M), queríamos determinar um vetor D cujos elementos estivessem entre m e M. Assim, inicialmente, utilizando o comando "rand", geramos um vetor d com n valores aleatórios variando entre 0 e 1.

53 45 Após, programamos o seguinte cálculo: D i = m + (d i d min ) (M m) (d max d min ) onde as variáveis d min e d max são respectivamente o menor e o maior valor entre as componentes de d. Observe que 0 (d d min) (d max d min ) 1. Sendo assim, quando esta expressão atingir seu maior valor, 1, teremos D i = M. E quando ela atingir seu menor valor, 0, teremos D i = m. Nos testes, foi determinado que m = 1 e M = 100. Para construir a matriz diagonal de ordem n com os autovalores de A, foi utilizado o comando diag(d), que gera uma matriz cuja a diagonal principal é preenchida pelos elementos do vetor D e todos os outros elementos são preenchidos por 0. Para gerar a matriz ortogonal com colunas equivalentes aos autovetores da matriz A, criou-se inicialmente uma matriz n n com valores aleatórios e foi utilizado o comando Q, RR = qr(v ), que gera uma matriz ortogonal Q e uma matriz triangular superior RR. Por fim, para gerar a matriz A bastava desenvolver o produto Qdiag(D)Q T Programação do Método forma Nos testes computacionais, consideramos funções quadráticas g : IR n IR da g(y) = 1 2 yt Dy, pois, como já visto, as propriedades envolvidas na minimização de g são as mesmas que existem na minimização de qualquer função quadrática. Comparamos o algoritmo com quatro variações na escolha da ordem dos autovalores da Hessiana da função e

54 46 além destas, o algoritmo com busca linear exata. Elas estão representadas da seguinte maneira: SO - sem ordenação dos autovalores. AS - ordem crescente dos autovalores. DS- ordem decrescente dos autovalores. ZM- a cada iteração, procura-se o maior valor absoluto entre as componentes de y e escolhe o autovalor que ocupa a posição correspondente a ele em D. Cauchy- busca linear exata. Na programação desses métodos, utilizamos um produto de vetores que não é definido em Álgebra Linear, mas se assemelha ao produto de matriz diagonal com vetor. Note que para multiplicar uma matriz diagonal de ordem n por um vetor de IR n, basta apenas multiplicar cada elemento da diagonal pelo elemento correspondente do vetor. Veja no exemplo: Exemplo = Se considerarmos a matriz diagonal como um vetor formado apenas pelos elementos da diagonal principal então, o produto do exemplo seria o mesmo que multiplicarmos apenas as componentes correspondentes de cada um dos vetores. Observe =

Matrizes Semelhantes e Matrizes Diagonalizáveis

Matrizes Semelhantes e Matrizes Diagonalizáveis Diagonalização Matrizes Semelhantes e Matrizes Diagonalizáveis Nosso objetivo neste capítulo é estudar aquelas transformações lineares de R n para as quais existe pelo menos uma base em que elas são representadas

Leia mais

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral: Lema (determinante de matriz ) A B A 0 Suponha que M = ou M =, com A e D 0 D C D matrizes quadradas Então det(m) = det(a) det(d) A B Considere M =, com A, B, C e D matrizes C D quadradas De forma geral,

Leia mais

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 + 2 3xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 +

Leia mais

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável Álgebra Linear I - Aula 18 1 Forma diagonal de uma matriz diagonalizável 2 Matrizes ortogonais Roteiro 1 Forma diagonal de uma matriz diagonalizável Sejam A uma transformação linear diagonalizável, β =

Leia mais

CM005 Álgebra Linear Lista 3

CM005 Álgebra Linear Lista 3 CM005 Álgebra Linear Lista 3 Alberto Ramos Seja T : V V uma transformação linear. Se temos que T v = λv, v 0, para λ K. Dizemos que λ é um autovalor de T e v autovetor de T associado a λ. Observe que λ

Leia mais

Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor.

Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor. Provas As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor. Terceira prova. Sábado, 15/junho, 10:00-12:00 horas, ICEx. Diagonalização

Leia mais

Aula 1 Autovetores e Autovalores de Matrizes Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17

Aula 1 Autovetores e Autovalores de Matrizes Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17 Sumário Aula 1 Autovetores e Autovalores de Matrizes.......... 8 Aula 2 Autovetores e Autovalores de Matrizes Casos Especiais 17 Aula 3 Polinômio Característico................. 25 Aula 4 Cálculo de Autovalores

Leia mais

AUTOVALORES E AUTOVETORES

AUTOVALORES E AUTOVETORES AUTOVALORES E AUTOVETORES Prof a Simone Aparecida Miloca Definição 1 Uma tranformação linear T : V V é chamada de operador linear. Definição Seja T : V V um operador linear. existirem vetores não-nulos

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos

Leia mais

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4. MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de 218 Q1. Considere a transformação linear T : P 3 (R) P 2 (R), dada por T ( p(x) ) = p(x + 1) p(x), para todo p(x) P 3 (R), e seja A

Leia mais

Algebra Linear. 1. Revisitando autovalores e autovetores. 2. Forma Diagonal e Forma de Jordan. 2.1 Autovalores distintos. 2.2 Autovalores complexos

Algebra Linear. 1. Revisitando autovalores e autovetores. 2. Forma Diagonal e Forma de Jordan. 2.1 Autovalores distintos. 2.2 Autovalores complexos Algebra Linear 1. Revisitando autovalores e autovetores 2. Forma Diagonal e Forma de Jordan 2.1 Autovalores distintos 2.2 Autovalores complexos 2.3 Nem todos autovalores distintos 3. Autovalores e autovetores

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Autovalores e Autovetores Maria Luísa B. de Oliveira SME0300 Cálculo Numérico 24 de novembro de 2010 Introdução Objetivo: Dada matriz A, n n, determinar todos os vetores v que sejam paralelos a Av. Introdução

Leia mais

Teorema da Triangularização de Schur e Diagonalização de Matrizes Normais

Teorema da Triangularização de Schur e Diagonalização de Matrizes Normais Teorema da Triangularização de Schur e Diagonalização de Matrizes Normais Reginaldo J Santos Departamento de Matemática-ICEx Universidade Federal de Minas Gerais http://wwwmatufmgbr/~regi 16 de novembro

Leia mais

Álgebra Linear e suas Aplicações Notas de Aula. Petronio Pulino = Q

Álgebra Linear e suas Aplicações Notas de Aula. Petronio Pulino = Q Álgebra Linear e suas Aplicações Notas de Aula Petronio Pulino 1 3 4 3 1 0 4 0 1 = Q 4 1 6 Qt Q t Q = 1 1 1 PULINUS Álgebra Linear e suas Aplicações Notas de Aula Petronio Pulino Departamento de Matemática

Leia mais

Forma Canônica de Matrizes 2 2

Forma Canônica de Matrizes 2 2 Forma Canônica de Matrizes Slvie Olison Kamphorst Departamento de Matemática - ICE - UFMG Versão. - Novembro 5 a b Seja A c d induzida por A uma matriz real e seja T a transformação operador linear de

Leia mais

Capítulo 4 - Valores e Vectores Próprios

Capítulo 4 - Valores e Vectores Próprios Capítulo 4 - Valores e Vectores Próprios Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Matemática I - 1 o Semestre 2011/2012 Matemática I 1/ 17

Leia mais

Álgebra Linear I - Aula 22

Álgebra Linear I - Aula 22 Álgebra Linear I - Aula 1. Bases Ortonormais.. Matrizes Ortogonais. 3. Exemplos. 1 Bases Ortonormais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de

Leia mais

Álgebra Linear Teoria de Matrizes

Álgebra Linear Teoria de Matrizes Álgebra Linear Teoria de Matrizes 1. Sistemas Lineares 1.1. Coordenadas em espaços lineares: independência linear, base, dimensão, singularidade, combinação linear 1.2. Espaço imagem (colunas) - Espaço

Leia mais

Parte I. Álgebra Linear. Sistemas Dinâmicos Lineares. Autovalores, autovetores. Autovalores, autovetores. Autovalores e Autovetores.

Parte I. Álgebra Linear. Sistemas Dinâmicos Lineares. Autovalores, autovetores. Autovalores, autovetores. Autovalores e Autovetores. Sistemas Dinâmicos Lineares Romeu Reginatto Programa de Pós-Graduação em Engenharia de Sistemas Dinâmicos e Energéticos Universidade Estadual do Oeste do Paraná Parte I Álgebra Linear Adaptado das notas

Leia mais

Aula 19 Operadores ortogonais

Aula 19 Operadores ortogonais Operadores ortogonais MÓDULO 3 AULA 19 Aula 19 Operadores ortogonais Objetivos Compreender o conceito e as propriedades apresentadas sobre operadores ortogonais. Aplicar os conceitos apresentados em exemplos

Leia mais

UNIVERSIDADE FEDERAL DE MINAS GERAIS (UFMG) ADÉLIO DANIEL DE SOUSA FREITAS

UNIVERSIDADE FEDERAL DE MINAS GERAIS (UFMG) ADÉLIO DANIEL DE SOUSA FREITAS UNIVERSIDADE FEDERAL DE MINAS GERAIS (UFMG) ADÉLIO DANIEL DE SOUSA FREITAS O ESTUDO DA DIAGONALIZAÇÃO DE MATRIZES SIMETRICAS DE 2º ORDEM. BELO HORIZONTE 2012 ADÉLIO DANIEL DE SOUSA FREITAS O ESTUDO DA

Leia mais

Capítulo 5. Operadores Auto-adjuntos. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo

Capítulo 5. Operadores Auto-adjuntos. Curso: Licenciatura em Matemática. Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo Capítulo 5 Operadores Auto-adjuntos Curso: Licenciatura em Matemática Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves Melo Disciplina: Álgebra Linear II Unidade II Aula 5: Operadores Auto-adjuntos

Leia mais

Noções de Álgebra Linear

Noções de Álgebra Linear Noções de Álgebra Linear 1. Espaços vetoriais lineares 1.1. Coordenadas 2. Operadores lineares 3. Subespaços fundamentais 4. Espaços normados 5. Espaços métricos 6. Espaços de Banach 7. Espaços de Hilbert

Leia mais

1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55

1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55 Capítulo LINE LINE Autovetor e Autovalor 9 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55 Matrizes Simétricas, o Teorema Espectral e Operadores Auto-adjuntos 8 4 Formas Bilineares,

Leia mais

1 Álgebra linear matricial

1 Álgebra linear matricial MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a

Leia mais

1 Auto vetores e autovalores

1 Auto vetores e autovalores Auto vetores e autovalores Os autovalores de uma matriz de uma matriz n n são os n números que resumem as propriedades essenciais daquela matriz. Como esses n números realmente caracterizam a matriz sendo

Leia mais

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B =

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B = 3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2008. (a) Ache os auto-valores e auto-vetores de A = 3 4 2 0 2 0 0 0 e B = 0 0 2 0 2 0 2 0 0 (b) Mostre que λ + λ 2 + λ 3 é igual ao

Leia mais

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia

Álgebra Linear. Determinantes, Valores e Vectores Próprios. Jorge Orestes Cerdeira Instituto Superior de Agronomia Álgebra Linear Determinantes, Valores e Vectores Próprios Jorge Orestes Cerdeira Instituto Superior de Agronomia - 200 - ISA/UTL Álgebra Linear 200/ 2 Conteúdo Determinantes 5 2 Valores e vectores próprios

Leia mais

Cálculo Diferencial e Integral 2 Formas Quadráticas

Cálculo Diferencial e Integral 2 Formas Quadráticas Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Cálculo Diferencial e Integral 2 Formas Quadráticas 1 Formas quadráticas Uma forma quadrática em R n é um polinómio do

Leia mais

Álgebra Linear II - Poli - Gabarito Prova SUB-tipo 00

Álgebra Linear II - Poli - Gabarito Prova SUB-tipo 00 Álgebra Linear II - Poli - Gabarito Prova SUB-tipo 00 [ ] 4 2 Questão 1. Seja T : R 2 R 2 o operador linear cuja matriz, com respeito à base canônica de R 2, é. 1 3 [ ] 2 0 Seja B uma base de R 2 tal que

Leia mais

= o A MATRIZ IDENTIDADE. a(i, :) = (aii, ai2,, ai.) i = 1,, m

= o A MATRIZ IDENTIDADE. a(i, :) = (aii, ai2,, ai.) i = 1,, m Matrizes e Sistemas de Equações 9 para toda matriz A n X n. Vamos discutir, também, a existência e o cálculo de inversas multiplicativas. A MATRIZ IDENTIDADE Uma matriz muito importante é a matriz / n

Leia mais

Álgebra Linear I - Aula 20

Álgebra Linear I - Aula 20 Álgebra Linear I - Aula 20 1 Matrizes diagonalizáveis Exemplos 2 Forma diagonal de uma matriz diagonalizável 1 Matrizes diagonalizáveis Exemplos Lembramos que matriz quadrada a 1,1 a 1,2 a 1,n a 2,1 a

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

Equação Geral do Segundo Grau em R 2

Equação Geral do Segundo Grau em R 2 8 Equação Geral do Segundo Grau em R Sumário 8.1 Introdução....................... 8. Autovalores e autovetores de uma matriz real 8.3 Rotação dos Eixos Coordenados........... 5 8.4 Formas Quadráticas..................

Leia mais

Algoritmos Numéricos 2 a edição

Algoritmos Numéricos 2 a edição Algoritmos Numéricos 2 a edição Capítulo 2: Sistemas lineares c 2009 FFCf 2 2.1 Conceitos fundamentais 2.2 Sistemas triangulares 2.3 Eliminação de Gauss 2.4 Decomposição LU Capítulo 2: Sistemas lineares

Leia mais

MAE125 Álgebra Linear /2 Turmas EQN/QIN

MAE125 Álgebra Linear /2 Turmas EQN/QIN MAE25 Álgebra Linear 2 205/2 Turmas EQN/QIN Planejamento (última revisão: 26 de outubro de 205) Os exercícios correspondentes a cada aula serão cobrados oralmente na aula seguinte e valem nota Todas as

Leia mais

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1

. (1) Se S é o espaço vetorial gerado pelos vetores 1 e,0,1 QUESTÕES ANPEC ÁLGEBRA LINEAR QUESTÃO 0 Assinale V (verdadeiro) ou F (falso): (0) Os vetores (,, ) (,,) e (, 0,) formam uma base de,, o espaço vetorial gerado por,, e,, passa pela origem na direção de,,

Leia mais

Álgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas

Álgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas Álgebra Linear I - Lista 12 Matrizes semelhantes. Diagonalização Respostas 1) Determine quais das matrizes a seguir são diagonalizáveis. Nos caso afirmativos encontre uma base de autovetores e uma forma

Leia mais

Álgebra Linear /2 Turma 11852

Álgebra Linear /2 Turma 11852 Álgebra Linear 2 202/2 Turma 852 Planejamento (última revisão: 26/0/202) Os exercícios correspondentes a cada aula serão cobrados oralmente na aula seguinte e valem nota Todas as referências e exercícios

Leia mais

Álgebra Linear /2 Turma EM1 (unificada)

Álgebra Linear /2 Turma EM1 (unificada) Álgebra Linear 2 2013/2 Turma EM1 (unificada) Planejamento preliminar (última revisão: 3/4/2013) Os exercícios correspondentes a cada aula serão discutidos na aula seguinte e não valem nota Este planejamento

Leia mais

ÁLGEBRA LINEAR I - MAT0032

ÁLGEBRA LINEAR I - MAT0032 UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT0032 11 a Lista de

Leia mais

Álgebra Linear e Geometria Anaĺıtica. Espaços Vetoriais Reais

Álgebra Linear e Geometria Anaĺıtica. Espaços Vetoriais Reais universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 4 Espaços Vetoriais Reais Definição de espaço vetorial real [4 01] O conjunto

Leia mais

MAE125 Álgebra Linear /1 Turmas EQN/QIN

MAE125 Álgebra Linear /1 Turmas EQN/QIN MAE25 Álgebra Linear 2 205/ Turmas EQN/QIN Planejamento (última revisão: 0 de junho de 205) Os exercícios correspondentes a cada aula serão cobrados oralmente na semana seguinte à aula e valem nota Todas

Leia mais

MATRIZES POSITIVAS DEFINIDAS

MATRIZES POSITIVAS DEFINIDAS MATRIZES POSITIVAS DEFINIDAS Álgebra Linear (MAT-27) Ronaldo Rodrigues Pelá IEFF-ITA 7 de novembro de 2011 Roteiro 1 2 3 Roteiro 1 2 3 Por que saber se uma matriz é definida positiva? Importância do sinal

Leia mais

7 temos que e u =

7 temos que e u = Capítulo 1 Complementos de Álgebra Linear 11 Introdução Seja A = [a ij ] uma matriz quadrada de ordem n e pensemos na transformação linear R n! R n que a cada cada vector u R n faz corresponder um vector

Leia mais

Roteiros e Exercícios - Álgebra Linear v1.0

Roteiros e Exercícios - Álgebra Linear v1.0 Roteiros e Exercícios - Álgebra Linear v1.0 Robinson Alves Lemos 14 de janeiro de 2017 Introdução Este material é um roteiro/apoio para o curso de álgebra linear da engenharia civil na UNEMAT de Tangará

Leia mais

Álgebra Linear (MAT-27) Ronaldo Rodrigues Pelá. 21 de outubro de 2011

Álgebra Linear (MAT-27) Ronaldo Rodrigues Pelá. 21 de outubro de 2011 APLICAÇÕES DA DIAGONALIZAÇÃO Álgebra Linear (MAT-27) Ronaldo Rodrigues Pelá IEFF-ITA 21 de outubro de 2011 Roteiro 1 2 3 Roteiro 1 2 3 Introdução Considere a equação de uma cônica: Forma Geral Ax 2 + Bxy

Leia mais

Produto Misto, Determinante e Volume

Produto Misto, Determinante e Volume 15 Produto Misto, Determinante e Volume Sumário 15.1 Produto Misto e Determinante............ 2 15.2 Regra de Cramer.................... 10 15.3 Operações com matrizes............... 12 15.4 Exercícios........................

Leia mais

(d) v é um autovetor de T se, e somente se, T 2 = T ; (e) v é um autovetor de T se, e somente se, T (v) = v.

(d) v é um autovetor de T se, e somente se, T 2 = T ; (e) v é um autovetor de T se, e somente se, T (v) = v. Q1. Seja V um espaço vetorial real de dimensão finita munido de um produto interno. Sejam T : V V um operador linear simétrico e W um subespaço de V tal que T (w) W, para todo w W. Suponha que W V e que

Leia mais

Dou Mó Valor aos Autovalores

Dou Mó Valor aos Autovalores 1. Definições Preliminares Dou Mó Valor aos Autovalores 21ª Semana Olímpica Maceió, AL Prof. Davi Lopes Nível U Dada uma matriz quadrada A n n de entradas complexas, podemos definir os conceitos a seguir,

Leia mais

Universidade Federal Fluminense - GAN

Universidade Federal Fluminense - GAN Solimá Gomes Pimentel Universidade Federal Fluminense IM - GAN Solimá Gomes Pimentel, ****- Matemática para Economia III/Solimá Gomes Pimentel 2pt, ; 31cm Inclui Bibliografia. 1. Matemática para Economia

Leia mais

1 Diagonalização de Matrizes 2 2. Sistemas de Equações Diferenciais Lineares

1 Diagonalização de Matrizes 2 2. Sistemas de Equações Diferenciais Lineares Diagonalização de Matrizes e Sistemas de Equações Diferenciais Lineares Reginaldo J Santos Departamento de Matemática-ICE Universidade Federal de Minas Gerais http://wwwmatufmgbr/~regi 3 de setembro de

Leia mais

Ficha de Exercícios nº 3

Ficha de Exercícios nº 3 Nova School of Business and Economics Álgebra Linear Ficha de Exercícios nº 3 Transformações Lineares, Valores e Vectores Próprios e Formas Quadráticas 1 Qual das seguintes aplicações não é uma transformação

Leia mais

(c) apenas as afirmações (II) e (III) são necessariamente verdadeiras;

(c) apenas as afirmações (II) e (III) são necessariamente verdadeiras; Q1. Considere o espaço vetorial R 4 munido do seu produto interno usual. Sejam B uma base de R 4, A M 4 (R) uma matriz e T : R 4 R 4 a transformação linear tal que [T ] B = A. Considere as seguintes afirmações:

Leia mais

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática 1 Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática Lista 4 - MAT 137 -Introdução à Álgebra Linear 2017/II 1. Entre as funções dadas abaixo, verifique quais

Leia mais

Valores e vectores próprios

Valores e vectores próprios ALGA - Eng Civil e EngTopográ ca - ISE - / - Valores e vectores próprios 5 Valores e vectores próprios Neste capítulo, sempre que não haja especi cação em contrário, todas as matrizes envolvidas são quadradas

Leia mais

Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período

Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período www.engenhariafacil.weebly.com Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período 2013.2 OBS: Todas as alternativas corretas são as letras A. 1) Para encontrar o autovetor associado

Leia mais

Cálculo Numérico BCC760

Cálculo Numérico BCC760 Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita

Leia mais

A forma canônica de Jordan

A forma canônica de Jordan A forma canônica de Jordan 1 Matrizes e espaços vetoriais Definição: Sejam A e B matrizes quadradas de orden n sobre um corpo arbitrário X. Dizemos que A é semelhante a B em X (A B) se existe uma matriz

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 04 - sistemas lineares Antonio Oliveira Ricardo Marroquim 1 / 32 laboratório de processamento de imagens tópicos decomposições (álgebra linear) decomposição QR decomposição

Leia mais

Notações e revisão de álgebra linear

Notações e revisão de álgebra linear Notações e revisão de álgebra linear Marina Andretta ICMC-USP 17 de agosto de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211

Leia mais

Uma nova taxa de convergência para o Método do Gradiente

Uma nova taxa de convergência para o Método do Gradiente Proceeding Series of the Brazilian Society of Applied and Computational Mathematics, Vol. 2, N. 1, 2014. Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uma nova taxa de convergência para o Método

Leia mais

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017 º Sábado - Matrizes - //7. Plano e Programa de Ensino. Matrizes. Exemplos. Ordem de Uma Matriz. Exemplos. Representação 7. Matriz Genérica m x n 8. Matriz Linha 9. Exemplos. Matriz Coluna. Exemplos. Diagonal

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

MAT-27 Lista-09 Outubro/2011

MAT-27 Lista-09 Outubro/2011 MAT-27 Lista-09 Outubro/2011 1. Determinar, se possível, uma matriz M M 2 (R) de maneira que M 1 AM seja diagonal nos seguintes casos: [ ] 2 4 (a) 3 13 [ ] 3 2 2 1 2. Achar uma matriz diagonal semelhante

Leia mais

GAAL - Exame Especial - 12/julho/2013. Questão 1: Considere os pontos A = (1, 2, 3), B = (2, 3, 1), C = (3, 1, 2) e D = (2, 2, 1).

GAAL - Exame Especial - 12/julho/2013. Questão 1: Considere os pontos A = (1, 2, 3), B = (2, 3, 1), C = (3, 1, 2) e D = (2, 2, 1). GAAL - Exame Especial - /julho/3 SOLUÇÕES Questão : Considere os pontos A = (,, 3), B = (, 3, ), C = (3,, ) e D = (,, ) (a) Chame de α o plano que passa pelos pontos A, B e C e de β o plano que passa pelos

Leia mais

Unidade 22 - Teorema espectral para operadores simétricos, reconhecimento de cônicas. A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa

Unidade 22 - Teorema espectral para operadores simétricos, reconhecimento de cônicas. A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa MA33 - Introdução à Álgebra Linear Unidade 22 - Teorema espectral para operadores simétricos, reconhecimento de cônicas A. Hefez e C. S. Fernandez Resumo elaborado por Paulo Sousa PROFMAT - SBM 10 de agosto

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal

Leia mais

(I) T tem pelo menos um autovalor real; (II) T é diagonalizável; (III) no espaço vetorial real R n, o conjunto {u, v} é linearmente independente.

(I) T tem pelo menos um autovalor real; (II) T é diagonalizável; (III) no espaço vetorial real R n, o conjunto {u, v} é linearmente independente. Q1. Sejam n um inteiro positivo, T : C n C n um operador linear e seja A = [T ] can a matriz que representa T em relação à base canônica do espaço vetorial complexo C n. Suponha que a matriz A tenha entradas

Leia mais

O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS. Marco Antonio Travassos 1, Fernando Pereira Sousa 2

O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS. Marco Antonio Travassos 1, Fernando Pereira Sousa 2 31 O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS Marco Antonio Travassos 1, Fernando Pereira Sousa 2 1 Aluno do Curso de Matemática CPTL/UFMS, bolsista do Grupo PET Matemática/CPTL/UFMS; 2 Professor do

Leia mais

Departamento de Estatística

Departamento de Estatística Departamento de Estatística Universidade Federal de São Carlos José Carlos Fogo São Carlos Julho de 207 Sumário Vetores Definição Representação gráfica no R 2 2 2 Propriedades algébricas 2 2 Vetores especiais

Leia mais

Aula 25 - Espaços Vetoriais

Aula 25 - Espaços Vetoriais Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado

Leia mais

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017

Álgebra Linear. Professor Alessandro Monteiro. 1º Sábado - Matrizes - 11/03/2017 º Sábado - Matrizes - //7. Plano e Programa de Ensino. Definição de Matrizes. Exemplos. Definição de Ordem de Uma Matriz. Exemplos. Representação Matriz Genérica m x n 8. Matriz Linha 9. Exemplos. Matriz

Leia mais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que

Leia mais

23 e 24. Forma Quadrática e Equação do Segundo Grau em R 3. Sumário

23 e 24. Forma Quadrática e Equação do Segundo Grau em R 3. Sumário 23 e 24 Forma Quadrática e Equação do Segundo Grau em R 3 Sumário 23.1 Introdução....................... 2 23.2 Autovalores e Autovetores de uma matriz 3 3.. 2 23.3 Mudança de Coordenadas no Espaço........

Leia mais

Modelagem Computacional. Parte 7 2

Modelagem Computacional. Parte 7 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M. Algebra Linear 1. Ortonormalização 2. Sistema de Equações Lineares pag.1 Teoria de Sistemas Lineares Aula 6 Ortonormalização Um vetor x é dito estar normalizado se sua norma Euclidiana é igual a 1, ie,

Leia mais

ÁLGEBRA LINEAR - MAT0024

ÁLGEBRA LINEAR - MAT0024 UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR - MAT0024 11 a Lista de exercícios

Leia mais

ALGA I. Operadores auto-adjuntos (simétricos e hermitianos). Teorema espectral

ALGA I. Operadores auto-adjuntos (simétricos e hermitianos). Teorema espectral Módulo 9 ALGA I. Operadores auto-adjuntos (simétricos e hermitianos). Teorema espectral Contents 9.1 Operadores auto-adjuntos (simétricos e hermitianos) 136 9. Teorema espectral para operadores auto-adjuntos...........

Leia mais

MAT Álgebra Linear para Engenharia II

MAT Álgebra Linear para Engenharia II MAT2458 - Álgebra Linear para Engenharia II Prova de Recuperação - 05/02/2014 Nome: Professor: NUSP: Turma: INSTRUÇÕES (1) A prova tem início às 7:30 e duração de 2 horas. (2) Não é permitido deixar a

Leia mais

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos

1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA 1 NOTAS DE AULA Professor Doutor: Jair Silvério dos Santos (i) Matrizes Reais Uma matriz real é o seguinte arranjo de números reais : a 11 a 12 a 13 a 1m a 21

Leia mais

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão Encontre os autovalores, os autovetores e a exponencial e At para

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão Encontre os autovalores, os autovetores e a exponencial e At para 5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2008 1. Encontre os autovalores, os autovetores e a exponencial e At para [ ] 1 1 1 1 2. Uma matriz diagonal Λ satisfaz a regra usual

Leia mais

ficha 4 valores próprios e vectores próprios

ficha 4 valores próprios e vectores próprios Exercícios de Álgebra Linear ficha 4 valores próprios e vectores próprios Exercícios coligidos por Jorge Almeida e Lina Oliveira Departamento de Matemática, Instituto Superior Técnico 2 o semestre 2011/12

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G de Álgebra Linear I 7 Gabarito ) Considere a transformação linear T : R R cuja matriz na base canônica E = {(,, ), (,, ), (,, )} é [T] E = a) Determine os autovalores de T e seus autovetores correspondentes

Leia mais

Capítulo 2. Ortogonalidade e Processo de Gram-Schmidt. Curso: Licenciatura em Matemática

Capítulo 2. Ortogonalidade e Processo de Gram-Schmidt. Curso: Licenciatura em Matemática Capítulo 2 Ortogonalidade e Processo de Gram-Schmidt Curso: Licenciatura em Matemática Professor-autor: Danilo Felizardo Barboza Wilberclay Gonçalves de Melo Disciplina: Álgebra Linear II Unidade II Aula

Leia mais

Parte 3 - Produto Interno e Diagonalização

Parte 3 - Produto Interno e Diagonalização Parte 3 - Produto Interno e Diagonalização Produto Escalar: Sejam u = (u 1,..., u n ) e v = (v 1,..., v n ) dois vetores no R n. O produto escalar, ou produto interno euclidiano, entre esses vetores é

Leia mais

Autovetor e Autovalor de um Operador Linear

Autovetor e Autovalor de um Operador Linear Autovetor e Autovalor de um Operador Linear Definição Seja T : V V um operador linear. Um vetor v V, v 0, é dito um autovetor de T se existe um número real λ tal que T (v) = λv. O número real λ acima é

Leia mais

Exponencial de uma matriz

Exponencial de uma matriz Exponencial de uma matriz Ulysses Sodré Londrina-PR, 21 de Agosto de 2001; Arquivo: expa.tex Conteúdo 1 Introdução à exponencial de uma matriz 2 2 Polinômio característico, autovalores e autovetores 2

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear

Leia mais

SME Gustavo C. Buscaglia

SME Gustavo C. Buscaglia SME0602-2017 Gustavo C. Buscaglia ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas na engenharia em que precisamos calcular os autovalores

Leia mais

Método dos gradientes (ou método de máxima descida)

Método dos gradientes (ou método de máxima descida) Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes

Leia mais

1 Equações Diferenciais Ordinárias: Sistemas de Equações

1 Equações Diferenciais Ordinárias: Sistemas de Equações Equações Diferenciais Ordinárias: Sistemas de Equações O sistema geral de duas equações diferenciais pode ser escrito como: ẋ = F x,y,t ẏ = Gx,y,t Uma Solução de é um par x t e y t de funções de t tais

Leia mais

Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM

Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM 3 a Lista de Exercícios de Introdução à Álgebra Linear Professor: Fágner Dias Araruna

Leia mais

Geometria Analítica e Álgebra Linear

Geometria Analítica e Álgebra Linear UNIFEI - Universidade Federal de Itajubá campus Itabira Geometria Analítica e Álgebra Linear Parte 1 Matrizes 1 Introdução A teoria das equações lineares desempenha papel importante e motivador da álgebra

Leia mais

3 a Avaliação Parcial - Álgebra Linear

3 a Avaliação Parcial - Álgebra Linear 3 a Avaliação Parcial - Álgebra Linear - 016.1 1. Considere a função T : R 3 R 3 dada por T(x, y, z) = (x y z, x y + z, x y z) e as bases de R 3 B = (1, 1, 1), (1, 0, 1), ( 1,, 0)} (a) Encontre [T] B B.

Leia mais

Resolução de sistemas de equações lineares: Fatorações de matrizes

Resolução de sistemas de equações lineares: Fatorações de matrizes Resolução de sistemas de equações lineares: Fatorações de matrizes Marina Andretta/Franklina Toledo ICMC-USP 27 de agosto de 2012 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina

Leia mais

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do

Leia mais

Tópicos de Álgebra Linear Verão 2019 Lista 4: Formas de Jordan

Tópicos de Álgebra Linear Verão 2019 Lista 4: Formas de Jordan Universidade Federal do Paraná Centro Politécnico ET-DMAT Prof. Maria Eugênia Martin Tópicos de Álgebra Linear Verão 2019 Lista 4: Formas de Jordan Exercício 1. Seja A = (a i j ) uma matriz diagonal sobre

Leia mais

P4 de Álgebra Linear I de junho de 2005 Gabarito

P4 de Álgebra Linear I de junho de 2005 Gabarito P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana

Leia mais