Nova School of Business and Economics Álgebra Linear Ficha de Exercícios nº 2 Matrizes, Determinantes e Sistemas de Equações Lineares 1 O produto de duas matrizes, A e B, é a matriz nula (mxn). O que pode garantidamente afirmar sobre A e B? a) Pelo menos uma delas é uma matriz nula. b) Pelo menos uma delas tem determinante 0. c) Ou o conjunto de colunas de A ou o conjunto de linhas de B (ou ambos) é linearmente dependente. d) Nada. 2 A e B são duas matrizes comutativas entre si. O que pode garantidamente afirmar sobre e? a) São iguais, respectivamente, a A e a B. b) São comutativas entre si. c) Pelo menos uma delas tem determinante 0. d) Nada. 3 A é uma matriz antisimétrica, com um número ímpar de linhas. O que pode garantidamente afirmar sobre A? a) O conjunto das linhas de A é linearmente independente. b) A inversa de A é antisimétrica. c) Não é quadrada. d) Tem determinante 0. 1
Ficha de Exercícios nº 2 4 A e B são duas matrizes tais que. O que pode garantidamente afirmar sobre A e B? a) O determinante de B é o inverso do determinante de A. b) B não é a transposta de A. c) A e B não são iguais. d) ( ) pode menor que o número de colunas de A. 5 A é uma matriz quadrada. O que pode garantidamente afirmar sobre ( )? a) Não existe. b) É igual a ( ). c) É igual a, ( ). d) Nada. 6 A é uma matriz simétrica. O que pode garantidamente afirmar sobre ( )? a) Tem determinante 0. b) É igual a. c) É igual a A. d) É simétrica. 7 A é uma matriz ortogonal e simétrica, com determinante positivo. O que pode garantidamente afirmar sobre A? a) É igual a, b) É igual a e e ( )., mas pode ser diferente de ( ). c) Não é diagonal. d) Não é idempotente. 2
Ficha de Exercícios nº 2 8 O sistema de equações lineares é possível e determinado. Qual das seguintes afirmações é necessariamente verdadeira? a) A é quadrada. b) A tem determinante diferente de 0. c) b pode ser obtido de uma forma única como combinação linear das colunas de A. d) b não é um vector nulo. 9 A solução do sistema de equações lineares é o conjunto dos vectores da forma ( ) ( ). Qual das seguintes afirmações é necessariamente verdadeira? a) ( ). b) O sistema é homogéneo. c) b pode ser obtido de uma forma única como combinação linear das colunas de A. d) O sistema homogéneo associado é possível e determinado. 10 Os sistemas de equações lineares e têm como soluções, respectivamente, *( ) ( )+ e *( )+. Qual a solução do sistema de equações lineares, sendo A a matriz por blocos e b o vector por blocos? a). b) *( )+. c) *( )+. d). 3
Nova School of Business and Economics Álgebra Linear Matrizes, Determinantes e Sistemas de Equações Lineares 1. O produto de duas matrizes, A e B, é a matriz nula (mxn). O que pode garantidamente afirmar sobre A e B? a) Pelo menos uma delas é uma matriz nula. A resposta é incorrecta. Ao contrário do que acontece no produto de números reais, é possível obter o elemento nulo do conjunto das matrizes (mxn) através do produto de dois elementos não nulos. Por exemplo: ; ; b) Pelo menos uma delas tem determinante 0. A resposta é incorrecta. Não sabemos as dimensões de A e B, por isso, não é possível garantir que sejam quadradas. Desta forma, não nos podemos referir aos seus determinantes. Por exemplo, as seguintes matrizes A e B não são quadradas, mas o seu produto é uma matriz nula: ; ; c) Ou o conjunto de colunas de A ou o conjunto de linhas de B (ou ambos) é linearmente dependente. A resposta é correcta. De facto, o produto das matrizes A e B, por esta ordem, pode ser pensado como a geração de colunas que são combinações lineares das colunas de A, sendo os coeficientes de cada uma das combinações lineares os elementos de cada uma das colunas de B. Reparese neste exemplo: ; ( ); ( ) ; ( ) ( ) ( ) ( ) ( ) ( ) 1
Por outro lado, o produto das matrizes A e B pode também ser interpretado como a geração de linhas que são combinações lineares das linhas de B, sendo os coeficientes de cada uma das combinações lineares os elementos de cada uma das linhas de A. Utilizando as matrizes do exemplo anterior: ; ( ); ( ) ; ( ) ( ) ( ) ( ) ( ) ( ) É então necessário provar que, se as colunas de A formarem um conjunto linearmente independente, o conjunto das linhas de B é linearmente dependente (ao provarmos isto, provamos que é impossível as colunas de A e as linhas de B formarem simultaneamente conjuntos linearmente independentes, o que é equivalente ao enunciado desta resposta). Sabemos que AB é a matriz nula (mxn), logo todas as suas colunas são o vector nulo de. Sabemos ainda que as colunas de AB são combinações lineares das colunas de A, cujos coeficientes são os elementos das colunas de B. Mas se as colunas de A formam um conjunto linearmente independente, a única combinação linear destas colunas que permite obter o vector nulo é aquela cujos coeficientes são todos 0. Logo, se a primeira coluna de AB é o vector nulo, é necessário que todos os elementos da 1ª coluna de B sejam 0. O mesmo se aplica à segunda coluna de AB e a todas as outras. Conclusão: se o conjunto das colunas de A é linearmente independente, B é uma matriz nula, tendo, por isso, linhas que formam um conjunto linearmente dependente. Aqui, excluímos os casos em que A só tem 1 coluna, ou B só 1 linha, situações em que a discussão sobre a independência linear do conjunto das colunas de A e das linhas de B perde relevância. d) Nada. A resposta é incorrecta. Já sabemos que, se AB for uma matriz nula, ou as colunas de A formam um conjunto linearmente independente, ou B é uma matriz nula. Podemos ainda acrescentar que ou as linhas de B formam um conjunto linearmente dependente, ou A é uma matriz nula, o que facilmente se prova, pensando em AB como uma matriz cujas linhas são combinações lineares das linhas de B, cujos coeficientes são os elementos das linhas de A. Resposta correcta: c) 2
2. A e B são duas matrizes comutativas entre si. O que pode garantidamente afirmar sobre e? a) São iguais, respectivamente, a A e a B. b) São comutativas entre si. c) Pelo menos uma delas tem determinante 0. d) Nada. Se A e B comutam, sabemos que as suas transpostas também são: ( ) é igual ao produto das transpostas por ordem inversa, logo:. Mas se estas duas matrizes (AB e BA) são iguais, ( ). A transposta do produto de duas matrizes. Mas isto significa que é indiferente a ordem pela qual se faz o produto de e e, por isso, e são comutativas entre si. Reparese que não podemos garantir, nem, o que apenas seria possível se A e B fossem simétricas, nem é possível referirmonos ao determinante de A e B, por não sabermos se são matrizes quadradas. Resposta correcta: b) 3. A é uma matriz antisimétrica, com um número ímpar de linhas. O que pode garantidamente afirmar sobre A? a) O conjunto das linhas de A é linearmente independente. A resposta é incorrecta. Por exemplo, qualquer matriz nula quadrada é antisimétrica e o conjunto das suas linhas (bem como o das suas colunas) é linearmente dependente (a não ser que A tenha apenas 1 linha e 1 coluna). b) A inversa de A é antisimétrica. A resposta é incorrecta. Não nos podemos referir à inversa de A, se não garantirmos a sua existência. Se A for uma matriz nula quadrada, é antisimétrica, mas não invertível. c) Não é quadrada. A resposta é incorrecta. Se A é antisimétrica, sabemos que ( ). Isto significa que, se transpusermos A, ficamos com uma matriz cujas linhas são o simétrico das colunas de A e cujas colunas são o simétrico das linhas de A. Para que isto seja possível, é necessário que as linhas e colunas de A tenham o mesmo número de elementos, ou seja, que A seja quadrada. d) Tem determinante 0. A resposta é correcta. Se A é antisimétrica, ( ). Mas se as duas matrizes são iguais (A e ), os seus determinantes são iguais: ( ). O produto de uma matriz por um número real é equivalente ao produto de cada uma das suas linhas por esse número. Logo, ao multiplicarmos por 1, estamos a multiplicar todas as suas linhas pelo mesmo 3
número. Por cada linha multiplicada por 1, o determinante de é multiplicado por 1, logo, ( ) ( ). Como n é ímpar, ( ). Sabendo ainda que o deteminante de uma matriz é igual ao determinante da sua transposta, ficamos com: ( ) ( ) Resposta correcta: d) 4. A e B são duas matrizes tais que. O que pode garantidamente afirmar sobre A e B? a) O determinante de B é o inverso do determinante de A. A resposta é incorrecta. Não conhecendo as dimensões de A e B, não podemos garantir que sejam quadradas, logo nada podemos afirmar sobre o seu determinante. b) B não é a transposta de A. A resposta é incorrecta. Basta que A seja autoinversa (igual à sua inversa) e simétrica (igual à sua transposta), para que AB seja a matriz identidade (nxn), sendo B a transposta de A. Por exemplo: ; ; c) A e B não são iguais. A resposta é incorrecta. Basta que A seja autoinversa, para que AB seja a matriz identidade (nxn), sendo B igual a A. Por exemplo: ; ; d) ( ) pode menor que o número de colunas de A. A reposta é correcta. Claro que, se A e B forem matrizes quadradas, é impossível que o ( ) (número máximo de linhas de A que formam um conjunto linearmente independente, ou número máximo de colunas de A que formam um conjunto linearmente independente) seja menor que o número de colunas de A, porque isso implicaria que o conjunto das colunas de A fosse linearmente dependente e que o determinante de A fosse 0. Como o determinante de AB é o produto dos determinantes de A e B, o determinante de AB, neste caso, seria 0 e AB não poderia ser uma matriz identidade, cujo determinante é 1. Mas, não sendo A e B quadradas, é possível que ( ) seja menor que o número de colunas de A. As colunas de AB são combinações lineares das colunas de A, cujos coeficientes são os elementos das colunas de B. Para que AB seja, é necessário que as suas colunas sejam os vectores da base canónica de. Mas estes vectores podem ser gerados a partir das colunas de A, mesmo se estas formarem um conjunto linearmente dependente. Por exemplo: 4
; Resposta correcta: d) 5. A é uma matriz quadrada. O que pode garantidamente afirmar sobre ( )? a) Não existe. b) É igual a ( ). c) É igual a, ( ). d) Nada. A matriz adjunta de uma matriz quadrada é constituída pelos cofactores de cada um dos seus elementos. O cofactor do elemento é o determinante da matriz que resulta da eliminação da linha i e da coluna j multiplicado por ( ). Ao transpormos A, as suas linhas passam a colunas e as suas colunas passam a linhas, o que quer dizer que o elemento que estava na posição i,j passa a estar na posição j,i: Por exemplo, o cofactor do elemento, em A, é ( ). Em, este elemento passa a estar na posição 2,1. O seu cofactor, em, é ( ). O expoente de mantémse, já que, embora os seus índices de linha e coluna sejam trocados, a sua soma mantémse. A matriz cujo determinante é calculado é a transposta da matriz original. Como o determinante da transposta de uma matriz é igual ao seu determinante, o determinante calculado é o mesmo. Quer isto dizer que o cofactor do elemento que em A estava na posição 1,2 e em está na posição 2,1 é o mesmo. Contudo, enquanto que em ( ), era inserido na posição 1,2, em ( ) passa a estar na posição 2,1. E o mesmo raciocínio se aplica a qualquer elemento de A. Logo, ( ) e ( ) são constituídas pelos mesmos elementos, mas em posições diferentes: cada elemento que, em ( ), se encontra na posição i,j, encontrase na posição j,i em ( ). Por isso, ( ), ( ). Resposta correcta: c) 5
6. A é uma matriz simétrica. O que pode garantidamente afirmar sobre ( )? a) Tem determinante 0. b) É igual a. c) É igual a A. d) É simétrica. Sabemos, da pergunta anterior, que, sendo A uma matriz quadrada, ( ), ( ). Se A é uma matriz simétrica, as suas linhas são iguais às suas colunas, sendo, por isso, A quadrada e aplicandose a esta matriz a igualdade referida. Se A é simétrica, também é verdade que. Logo, ficamos com: { ( ), ( ) ( ), ( ) Mas, se ( ), ( ), a matriz adjunta de A é igual à sua transposta sendo, por isso, simétrica. Por outro lado, se não conhecessemos o resultado da pergunta anterior, poderíamos reparar que, se A for uma matriz simétrica, é da seguinte forma: O cofactor do elemento que se encontra na posição 1,2, por exemplo, é: ( ). Já o cofactor do elemento que se encontra na posição 2,1 é: ( ). O sinal atribuído aos 2 cofactores é o mesmo já que os índices de linha e de coluna, ainda que estejam trocados, somam o mesmo valor. O valor do determinante envolvido nos 2 cofactores é o mesmo, já que a matriz a que se refere o 1º é a transposta da associada ao 2º (o que advém do facto de A ser simétrica) e o determinante da transposta de uma matriz é igual ao determinante da matriz. Logo, os cofactores destes 2 elementos são iguais e o mesmo raciocínio se aplica aos elementos em qualquer posição i,j e j,i. Com isto, concluímos que ( ) é simétrica. 6
Resposta correcta: d) 7. A é uma matriz ortogonal e simétrica, com determinante positivo. O que pode garantidamente afirmar sobre A? a) É igual a, b) É igual a e e ( )., mas pode ser diferente de ( ). c) Não é diagonal. d) Não é idempotente. Sendo A ortogonal, sabemos que que. Logo, já sabemos que podemos conhecer o seu valor, porque:. Por outro lado, se A é simétrica, podemos afirmar. Se o determinante de A é positivo, Existindo inversa de A,, sabemos que:, ( ), ( ) ( ) ( ) ( ) ( ) Logo, A também é igual a ( ) e podemos afirmar que ( ). Reparese que, nas condições do enunciado, A tanto pode ser diagonal (tendo todos os elementos que não pertencem à diagonal principal nulos), como idempotente (igual a ). Basta pensar na matriz identidade de qualquer dimensão, que é ortogonal, simétrica e tem determinante 1, logo positivo. Resposta correcta: a) 8. O sistema de equações lineares é possível e determinado. Qual das seguintes afirmações é necessariamente verdadeira? a) A é quadrada. A afirmação é falsa. Se o sistema é possível e determinado, então sabemos que há um único de vector de que o resolve. A matriz A contém os coeficientes das variáveis, presentes em cada uma das equações do sistema. Se A não for quadrada, o número de variáveis envolvidas no sistema e o número de equações são diferentes, mas isto não implica que não possa haver um único vector a resolver o sistema. Basta que haja mais equações do que variáveis, mas um número de equações relevantes (que dão informações diferentes) igual ao número de variáveis. Por exemplo, vejase o seguinte sistema: 7
{ A matriz A não é quadrada, mas as 2 últimas equações dão a mesma informação sobre a solução do sistema. Logo, temos 2 variáveis e 2 informações relevantes e há um único vector de que resolve o sistema, o vector ( ). b) A tem determinante diferente de 0. A afirmação é falsa. Se não podemos garantir que a matriz A é quadrada, não nos podemos referir ao seu determinante. Contudo, se A for uma matriz quadrada, então o seu determinante é necessariamente diferente de 0. De facto, para que o sistema seja possível e determinado, é necessário que ( ) ( ). Sendo A uma matriz (nxn), isto apenas será possível se as linhas de A (bem como as suas colunas) formarem um conjunto de vectores linearmente independente. Para isso,. c) b pode ser obtido de uma forma única como combinação linear das colunas de A. A afirmação é verdadeira. Ao resolvermos o sistema, estamos a descobrir os vectores de, chamemoslhes x*, que, multiplicados por A, à direita, resultam no vector b. O produto de A e x* resulta numa matriz com uma única coluna b, que, já sabemos, vai ser uma combinação linear das colunas de b, cujos coeficientes são os elementos de x*. Em qualquer sistema, há 3 hipóteses. Pode ser impossível gerar o vector b a partir das colunas de A (o que acontece se ( ) ( ), o que significa que, reunindo o vector b às colunas de A que formam um conjunto linearmente independente, ficamos com um conjunto ainda linearmente independente, pelo que b não pode ser obtido a partir das colunas de A) e, neste caso, o sistema é impossível. Pode, por outro lado, ser possível obter b a partir das colunas de A (o que acontece se ( ) ( ), o que implica que, reunindo b às colunas de A, ficamos com um conjunto de vectores constituído por tantos vectores linearmente independentes quantos os que figuram em A e, por isso, b é linearmente dependente das colunas de A, podendo, por isso, ser obtido a partir destas) e, neste caso, o sistema é possível. Nesta situação, há 2 casos possíveis. Pode haver mais do que uma combinação linear das colunas de A que gere o vector b (o que acontece se ( ), o número de colunas de A, o que nos diz que nem todas as colunas de A são linearmente independentes, pelo que há pelo menos 2 que desempenham o mesmo papel na geração de qualquer vector, sendo possível ignorar uma delas numa combinação linear que permita obter b e eliminar a outra noutra combinação linear diferente que também gera b) e o sistema é possível e indeterminado. Finalmente, pode haver apenas uma combinação linear das colunas de A que permita obter b (o que acontece se ( ), o que significa que as colunas de A formam uma base de e, por isso, geram qualquer vector de de forma única), situação em que o sistema é possível e determinado. Estamos neste último caso, pelo que há apenas uma combinação linear das colunas de A que gera b. d) b não é um vector nulo. 8
A afirmação é falsa. Sendo o sistema possível e indeterminado, pode perfeitamente ser homogéneo (o que significa que b é o vector nulo). Um sistema homogéneo é sempre possível, porque há pelo menos uma combinação linear das colunas de A (qualquer que seja A) que permite obter o vector nulo: aquela cujos coeficientes são nulos. Isto significa que o vector nulo é sempre solução de um sistema homogéneo. Pode, no entanto, ser determinado (se as colunas de A formarem um conjunto linearmente independente, o que significa que a única combinação linear que as envolve e gera o vector nulo tem todos os coeficientes nulos), ou indeterminado (caso em que o conjunto das colunas de A é linearmente dependente, havendo, por isso, mais do que uma combinação linear destas colunas que gera o vector nulo). Por exemplo, o seguinte sistema tem como única solução o vector ( ): { Resposta correcta: c) 9. A solução do sistema de equações lineares é o conjunto dos vectores da forma ( ) ( ). Qual das seguintes afirmações é necessariamente verdadeira? a) ( ). A afirmação é verdadeira. Sendo a solução o conjunto de vectores da forma ( ) ( ), o sistema é possível e indeterminado, por haver um número infinito de soluções. Como este conjunto contém vectores de, o sistema envolve 3 variáveis e A tem 3 colunas. Sendo o sistema possível e indeterminado, é forçoso que ( ), pelo que ( ) é 1 ou 2. O c çõ v r áv vr á q é ív escolher o valor de 1 variável,, quando procuramos soluções do sistema. Quer isto dizer que, das 3 variáveis do sistema, 2 são determinadas pelas informações relevantes do sistema e 1 é livre. Logo, é necessário que, independentemente do número de equações do sistema (número de linhas de A), 2 delas sejam independentes, no sentido em que fornecem informações diferentes sobre o conjunto de soluções. Logo, ( ) : r áv vr ív r ( ) ( ) ( ) b) O sistema é homogéneo. A afirmação é falsa. Se um sistema de equações lineares for homogéneo, tem como solução, necessariamente, o vector nulo, neste caso de. Mas o vector ( ) não é solução deste sistema: 9
( ) ( ) ( ) ( ) ( ) { ív c) b pode ser obtido de uma forma única como combinação linear das colunas de A. A afirmação é falsa. Se b pudesse ser obtido de uma forma única como combinação linear das colunas de A, haveria um único vector x* que, multiplicado à direita por A, resultaria em b, o que quereria dizer que o sistema é possível e determinado. Sendo possível e indeterminado, não é possível que isto aconteça. d) O sistema homogéneo associado é possível e determinado. A afirmação é falsa. O sistema homogéneo associado a qualquer sistema de equações lineares possível tem a mesma classificação que este. De facto, o que separa um sistema determinado de um indeterminado é ( ) e este não depende do 2º membro do sistema, b. Sendo o sistema possível e indeterminado, o sistema homogéneo associado a este também é. Resposta correcta: a) 10. Os sistemas de equações lineares e têm como soluções, respectivamente, *( ) ( )+ e *( )+. Qual a solução do sistema de equações lineares, sendo A a matriz por blocos e b o vector por blocos? a). b) *( )+. c) *( )+. d). Sendo as soluções dos sistemas e vectores de, tanto como têm 3 colunas, já que os dois sistemas envolvem 3 variáveis. Assim, os sistemas são da seguinte forma: { { 10
A matriz A tem tantas colunas como e e um número de linhas igual à soma do número de linhas de cada uma destas matrizes. As primeiras linhas correspondem à matriz e as últimas são as de. O mesmo se passa com b e e. Assim, o sistema é o seguinte: { Quer isto dizer que este último sistema é definido por todas as equações dos sistemas e. Como qualquer solução de tem que tornar válidas todas as igualdades deste sistema, o conjunto de vectores que o resolvem corresponde ao conjunto de vectores que resolvem simultaneamente os dois subsistemas. As soluções de e, denominadas e, respectivamente, são estas: *( ) ( )+ *( ) ( ) ( ) ( ) + *( ) ( ) ( ) + *( ) + *( ) + *( )+ *( ) ( ) ( ) + *( ) ( ) ( ) + *( ) + *( ) + A solução do 1º subsistema é o conjunto de vectores de cujas 1ª e 3ª coordenadas são iguais. A solução do 2º é o conjunto de vectores de cujas 3 coordenadas são iguais. Estes dois conjuntos têm em comum o 2º: { ( ) ( ) { ( ) ( ) ( ) ( ) { Resposta correcta: c) *( ) + *( )+ 11