Introdução à Geometria - 2007-2008 Algumas noções 1. Norma de um vector Seja E um espaço vectorial real de dimensão finita E munido de um produto interno (u, v) u v. Dado um vector v E chama-se norma ou comprimento de v ao número real v = + v v (Exemplo: Se considerarmos em R n o produto interno usual a norma de v = (v 1,..., v n ) R n é v = + v 2 1 +... + v 2 n.) A função : E E definida por v = + v v para todo o vector v E satisfaz as seguintes propriedades (para todos os vectores v, u e w de E e todo o escalar λ R): 1) v 0. 2) v = 0 se e só se v = 0. 3) λv = λ v. 4) u + v 2 = u 2 + v 2 + 2u v. 5) u v 2 = u 2 + v 2 2u v. 6) Desigualdade de Cauchy-Schwarz v u v u e a igualdade dá-se se e só se existe λ R tal que u = λv ou v = λu. 7) Desigualdade do triângulo v + u v + u e a igualdade dá-se se e só se existe λ R, λ 0 tal que u = λv ou v = λu. 1
2 8) u v u v. 9) v + u 2 v u 2 = 4v u. 2. Aplicações ortogonais Considere um espaço vectorial real de dimensão finita E munido de um produto interno (u, v) u v. Definição. Uma função f : E E é uma aplicação ortogonal (relativamente a este produto interno) se para quaisquer dois vectores u, v de E se tem u v = f(u) f(v). Observação. É fácil ver, a partir da definição de norma de um vector, que uma aplicação ortogonal f preserva as normas dos vectores, i.e. f(v) = v, para todo o vector v E. Proposição Toda a aplicação ortogonal é uma aplicação linear bijectiva (ou seja um isomorfismo de espaços vectoriais). Demonstração. Seja f uma aplicação ortogonal. Vejamos primeiro que f é linear. Sejam u, v E. Temos f(u+v) f(u) f(v) 2 = f(u+v) 2 2f(u+v) ((f(u)+f(v))+ f(u)+f(v) 2 = = f(u+v) 2 2f(u+v) f(u) 2f(u+v) f(v)+ f(u) 2 +2f(u) f(v)+ f(v) 2. Como por hipótese f preserva o produto interno a última expressão é igual a u + v 2 2(u + v) (u) 2(u + v) (v) + u 2 + 2(u v) + v 2, e logo a u + v 2 2(u + v) (u + v) + u + v 2 = (u + v) (u + v) 2 = 0. Logo f(u + v) f(u) f(v) 2 = 0 e portanto f(u + v) = f(u) + f(v). Sejam u E, λ R. Temos f(λu) λf(u) 2 = f(λu) 2 2λ(f(λu) f(u)) + λf(u) 2. Por hipótese f preserva o produto interno e a norma donde f(λu) 2 = λu 2, λ(f(λu) f(u)) = 2λ(λu u), λf(u) 2 = λ 2 f(u) 2 = λ 2 u 2 = λu 2. Logo f(λu) λf(u) 2 = λu 2 2λ(λu u)+ λu 2 = λu λu 2 = 0, donde f(λu) = λf(u). Logo f é linear.
Já que f é um endomorfismo de E, que tem dimensão finita, para ver que f é bijectiva, basta mostrar que Kerf = {0}. Seja x Kerf. Então f(x) = 0 donde f(x) f(x) = 0, e portanto como f preserva o produto interno, temos x x = 0, implicando que x = 0. Logo Kerf = {0}. 3 Propriedades das aplicações ortogonais de espaços de dimensão finita I) A aplicação inversa de uma aplicação ortogonal é ainda ortogonal. II) A composição de duas aplicações ortogonais de E em E é uma aplicação ortogonal. III) Se λ é um valor próprio de uma aplicação ortogonal, então λ = 1. IV) Dada uma aplicação linear f : E E, as seguintes afirmações são equivalentes: (i) f : E E é uma aplicação ortogonal. (ii) f(u) = u para todo o vector u de E. (iii) Existe uma base ortonormada (e 1,..., e n ) de E tal que (f(e 1 ),..., f(e n )) é uma base ortonormada de E. (iv) Para toda a base ortonormada (e 1,..., e n ) de E, (f(e 1 ),..., f(e n )) é uma base ortonormada de E. (v) A matriz que representa f em relação a uma base ortonormada é uma matriz ortogonal (ou seja uma matriz tal que A T = A 1 ). V) Se f : E E é uma aplicação ortogonal, então para quaisquer vectores u, v tem-se (u, v) = (f(u), f(v)). VI) Se f : E E é uma aplicação ortogonal e u, v são vectores próprios associados a valores próprios distintos, então u v = 0. VII) Se f : E E é uma aplicação ortogonal e W é um subespaço vectorial, então f(w ) = (f(w )). 2.1. Aplicações ortogonais de R 2 com o produto interno usual. Considere em R 2 o produto interno usual, que é o produto interno em relação ao qual a base canónica é ortonormada. Seja f uma aplicação ortogonal de R 2 em R 2, e A a matriz de f em relação à base canónica. Então, como a base canónica é ortornormada em relação ao produto interno usual, por IV v), a matriz A é ortogonal.
4 a c Seja A = Como A é ortogonal temos A b d T A = Id, donde a 2 + b 2 = 1 a 2 + c 2 = 1 c 2 + d 2 = 1. Temos também AA T = Id, donde b ac + bd = 0 2 + d 2 = 1 ab + cd = 0 Como a 2 + b 2 = 1 existe θ [0, 2π[ tal que a = cos θ e b = sin θ. Usando as equações acima fácilmente se conclui que então ou c = sin θ e d = cos θ, ou c = sin θ e d = cos θ. No primeiro caso temos det A = 1 e no segundo temos det A = 1. Vamos discutir separadamente os dois casos. Caso I: det A = 1 cos θ sin θ Seja A =, com θ [0, 2π[. sin θ cos θ 1 0 Se cos θ = 1 então ou A = e f = Id 0 1 1 0 ou A = e f = Id. 0 1 Se cos θ 1 então o polinómio característico de A, que é x 2 2 cos θx + 1, não tem raízes reais donde f não tem nenhum valor próprio real. Em particular, para todo o vector não nulo v, f(v) e v são vectores linearmente independentes. Caso II: det A = 1 cos θ sin θ Se A =, então o polinómio característico de A, sin θ cos θ que é x 2 1 tem as raízes 1 e 1, donde existe uma base ortogonal de R 2 formada por vectores próprios de f. O subespaço próprio associado ao valor próprio 1 é o subespaço gerado pelo vector (cos( θ), sin( θ)). O 2 2 subespaço próprio associado ao valor próprio 1 é o subespaço gerado pelo vector ( sin( θ), cos( θ)). 2 2 Seja B = (v, u) uma base de R 2 tal que v é um vector próprio associado ao valor próprio 1 e u é um vector próprio[ associado] ao valor 1 0 próprio 1. Então D := M(f; B, B) é tal que D =, donde 0 1 para qualquer vector w = λ 1 v + λ 2 u R 2 se tem f(w) = λ 1 v λ 2 u e logo f, considerada como aplicação de espaço afim, é exactamente a reflexão na recta que passa por O = (0, 0) e está associada ao subespaço próprio associado ao valor próprio 1, ou seja o subespaço vectorial < (cos( θ), sin( θ)) >. 2 2
Definição No caso I, i. e. se det A = 1, diz-se que f é uma rotação de centro em (0, 0) e ângulo θ e denota-se f por R((0, 0), θ). Este nome vem do facto de para todo o θ 0, π se ter que o ângulo orientado de v e f(v) é θ. 5 Definição No caso II, i. e. se det A = 1, diz-se que f é uma reflexão. De facto f considerada como aplicação de espaço afim é exactamente a reflexão na recta s = (0, 0)+ < (cos( θ 2 ), sin(θ 2 )) >. 3. Ângulo orientado de duas rectas em R 2 Dadas duas rectas l, m de R 2, define-se o ângulo orientado de l e m, or (l, m) como sendo o menor dos ângulos orientados or (u, v), onde u é vector director de l e v é vector director de m. Note-se que o ângulo orientado de duas rectas varia entre 0 e π. Pela definição e tendo em conta que dados dois vectores u, v não nulos se tem or ( u, v) or (u, v) π + or (u, v) e or ( u, v) or (u, v), para calcular o ângulo orientado de duas rectas l e m basta tomar um vector director u de l e um vector director v de m. Se or (u, v ) < π, então or (l, m) = or (u, v ). Se or (u, v ) π então or (l, m) = or (u, v ) π. Têm-se as seguintes propriedades: 1) or (l, m) = π or (m, l); 2) se u e v são vectores directores de l e m respectivamente, então 2 or (l, m) 2 or (u, v), mod(2π); 3) se l, m, n são rectas de R 2, então 2 or (l, n) = 2( or (l, m) + or (m, n)), mod(2π). Demonstração Exercício. Exemplo Consideremos as rectas l = (3, 20)+ < (1, 1) > e m = (π, 2)+ < ( 3 + 1, 3 1) >. Temos cos ((1, 1), ( 3 + 1, 3 1)) = 2 3 2 8 = 3 2
6 e logo ((1, 1), ( 3+1, 3 1)) = π. Como 1( 3 1) 1( 3+1) < 0, 6 or ((1, 1), ( 3 1, 3 + 1)) = 2π π 6. Logo or (l, m) = π π. 6