Análise de Componentes Principais (PCA) no Scilab. Matriz de dados analisados: Copa do Mundo de 2002 Resultados da primeira fase, Grupos C e E
|
|
- Sabina Leal Lisboa
- 7 Há anos
- Visualizações:
Transcrição
1 Análise de Componentes Principais (PCA) no Scilab Matriz de dados analisados: Copa do Mundo de 2002 Resultados da primeira fase, Grupos C e E -->X=[ > > > > > > > ] X = Centrando a matriz nas médias das variáveis (criando X C ): -->Xm=ones(8,1)'*X*(1/8) Xm = Esse é o vetor linha das médias das variáveis (Xm). -->Xm=mean(X,'r') Xm =
2 [ r vem de row = linha. Se deseja médias dos objetos, colocar mean(x, c )] -->ones(8,1)*xm O produto externo de um vetor 1n pelo vetor linha das médias gera uma matriz de mesma dimensão de X com os valores do vetor linha (as médias das variáveis nos objetos) ao longo das colunas, sendo esta a matriz das médias. -->Xc=X-ones(8,1)*Xm Xc = Centrar os dados na média algebricamente significa modificar a matriz X de modo que a média das variáveis seja 0: -->mean(xc,'r') Geometricamente significa transladar os vetores dos objetos no espaço das variáveis para que a origem seja a média de cada uma delas. Por exemplo, plotando as duas primeiras colunas, ou seja, os valores das duas primeiras variáveis para todos os objetos, tanto de X quanto de Xc: --> plot(x(:,1),x(:,2),'o',xc(:,1),xc(:,2),'*',xm(:,1),xm(:,2),'pentagram',0,0,'pentagram') 2
3 (4,875;4,875) (0,0) Estatisticamente cada elemento de Xc é os desvio de seu respectivo valor em X com relação a sua média. Logo Xc é uma matriz de desvios. Observe que um grau de liberdade é perdido neste processo, observável pelos postos de X e Xc: -->rank(x) 5. (poderia ser no máximo 5, pois é truncado pelo menor número de variáveis que de objetos) -->rank(xc) 4. Isso porque foi imposta uma codição que omite um grau de liberdade, pois antes, em X, o ponto médio dependia dos dados de partida, e em Xc eu imponho que, independente de X, o ponto central seja 0. Agora, obtendo a matriz de covariância (C): -->C=Xc'*Xc/(8-1) C = Se a matriz de covariância contêm elementos x ij, na diagonal principal (i=j) estão as variâncias das variáveis e fora dela (i j) estão as covariâncias entre elas. A variância é 3
4 uma medida da dispersão de determinados valores, e quanto maior esta disperção mais distinguíveis eles são, e consequentemente mais informação é observada. Neste sentido as variáveis gols feitos e gols levados são as mais informativas, pois diferenciam mais os times. A covariância é uma medida da redundância da informação entre duas variáveis pois mede a associação linear entre elas. O sinal da covariância indica se os deslocamentos dos desvios em relação as suas médias variam no mesmo sentido ou no sentido inverso. Gols feitos e gols levados têm a maior covariância entre as variáveis (- 12,16), o que indica que é muito provável que quem faz gol não leva (indicado pelo sinal - ). As covariâncias entre gols feitos e vitórias bem como gols levados e derrotas são positivas pois quem faz gols ganha e quem leva gols perde. A Análise de Compontentes Principais consiste na concentração da informação da matriz de covariancia (ou de correlação) num menor número de dimensões. Isto é feito pela diagonalização da matriz, que possibilita que ela seja possa ser expressa num somatório produtos externos (entre vetores de pesos e escores) de posto um cada. A diagonalização leva a autovetores V e autovalores L: -->[V,L]=spec(C) L = 8.796D V = D D [Spec vem de decomposição espectral] Note que o traço de C e de L são iguais, porêm a informação é mais concentrada no segundo caso, da esquerda para direita. -->trace(c) >trace(l)
5 A maior quantidade de informação (variância) é encontrada na primeira componente principal (PC1), sendo expressa pela percentagem do autovalor correspondente com relação a soma dos autovalores: -->%PC1=L(5,5)*100/trace(L) %PC1 = A parcela ortogonal a PC1 é a segunda mais explicativa e é chamada de PC2. A informação retida nesta componente é a seguinte: -->%PC2=L(4,4)*100/trace(L) %PC2 = A quantidade de informação em cada dimensão (individualmente) é apresentada no gráfico do scree (ou gráfico do aluvião), que mostra o quão decresce a variância em cada componente. Para fazê-lo vamos primeiro inverter a ordem crescente de autovalores da esquerda para a direita: -->pertrans(l) D-16 -->plot(1:5,diag(ans)*100/trace(ans),'pentagram-') 5
6 No Statistica: ,15% Gráfico do scree Active variables only Autovalor (informação explicada) ,68% 0,78%,39% -5 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 Número de componentes Observe que o ultimo autovalor é zero, pois o número de autovalores não nulo é igual ao posto da matriz de covariância, neste caso 4. Os autovetores V são os cosenos dos ângulos formados entre os vetores das variáveis de Xc e as componentes, e são chamados de pesos. Quanto maiores (em módulo) seus valores, maior variância a variável associada apresenta, sendo capaz de melhor distinguir os objetos. Plotanto-se os pesos de PC1 contra PC2 obtemos: -->plot(v(:,5),v(:,4),'rd') 6
7 No Statistica: 1 Pesos de PC1 vs. PC2 Empates PC2 (13,68%) 0 Derrotas Vitórias -1 Gols Levados Gols feitos PC1 (85,15%) Gols feitos e gols levados são as variáveis mais influentes em PC1 e em PC2, o que é de se esperar dado o observado na matriz de covariância. V = D D Gols feitos Gols levados 7
8 As coordenadas dos objetos (os times de futebol) no espaço das componentes são os escores. Os escores são obtidos a partir da rotação dos vetores dos objetos no espaço das variáveis de Xc pela multiplicação desta matriz por V, o que é uma rotação. -->T=Xc*V T = 2.776D D D D D D D D Similarmente aos vetores dos pesos de PC1 e PC2, os escores destas duas componentes representam 99% da informação original, e podem ser plotados para visualizar padrões: -->plot(t(:,5),t(:,4),'r.') No Statistica: 8
9 4 Gráfico dos escores de PC1 vs. PC2 3 2 Camarões Irlanda Turquia PC2 (13,68%) China Costa Rica Alemanha -2 Arábia Saudita -3 Brasil PC1 (85,15%) A Alemanha e o Brasil, por terem feitos muitos gols (11) são encontrados no 4º quadrante do gráfico dos escores, e a Arábia Saudita, por ter levado 12, se encontra no extremo do 3º quadrante. Os três times dos quadrantes superiotes (Irlanda, Camarões e Turquia) nem fizem muitos gols nem levaram muitos, e tiveram alguns empates, justificando seu posicionamento. Note no gráfico dos pesos que tanto PC1 quanto PC2 sã descritas praticamente por duas variáveis: gols feitos e gols levados. Na verdade PC1 pode ser descrita como a diferença entre gols feitos e gols levados, isto é, o saldo de gols, e PC2 como a soma destas variáveis, ou seja, o total de gols. Estas são variáveis latentes, pois não são explícitas. Para verificar esta afirmação basta plotar os escores das respectivas componentes contra estas novas variáveis: -->SG=[X(:,1)-X(:,2)] SG = >TG=[X(:,1)+X(:,2)] TG =
10 >plot(sg,t(:,5),'b.') -->plot(tg,t(:,4),'g.') Pelo visto a descrição de PC2 como o total de gols não é tão boa, pois variáveis como empate também influenciam razoavelmente. Como afirmado anteriormente, a diagonalização da matriz C permite expressar Xc como uma soma de produtos externos dos escores pelos pesos de cada componente: 10
11 Cada um destes produtos tem posto 1, pois o posto da multiplicação de dois vetores (como são unidimensionais tem posto 1) é o mínimo posto dos dois. Com isso Xc pode ser descrita, por exemplo, só pelos pesos e escores de PC1, a partir de um modelo M1: -->M1=T(:,5)*V(:,5)' M1 = Como foi afirmado, este modelo tem posto 1: -->rank(m1) 1. Este modelo, quando comparado com a matriz original pela diferença, deixa um resíduo chamado primeira matriz de resíduos, E1: -->E1=Xc-M1 E1 = Esta é uma matriz de vetores ortogonais a PC1, pois só vetores ortogonais a esta componente não podem ser projetados nela: -->E1'*M1 11
12 1.0D-14 * Uma forma de avaliar o quanto o modelo explica a matriz original é pela Soma Quadrática Total (SQT), que é a soma quadrática de todos os elementos de uma matriz. No caso a SQT de Xc está relacionada com a variância total, ou seja, o traço de Xc *Xc, pois basta ser dividida por n-1 para ser este valor. Já a proporção explicada por M1 é dada por comparação destas medidas. -->SQT=trace(Xc'*Xc) SQT = >SQ1=trace(M1'*M1) SQ1 = >SQr1=trace(E1'*E1) SQr1 = Essa é a variância que o modelo não explica, pois refere-se aos resíduos ortogonais a PC1. -->SQ1*(n-1)/SQT*(n-1) Exatamente a informação explicada por PC1. Agora vamos usar a primeira matriz dos resíduos para obter um modelo com PC2. Basta executar o procedimento usado em Xc, ou seja, diagonalizar a matriz covariância de E1: -->C1=E1'*E1/7 C1 =
13 -->[V1,L1]=spec(C1) L1 = D D V1 = Observe que só aparecem 3 autovalores diferentes de 0 já que E1 é uma matriz de posto 3, pois da matriz Xc foi tirado 1 pela subtração por M1: -->rank(e1) 3. Veja também que o 2º autovalor de L, correspondente a PC2, passou a ser o 1º: -->L L = 8.796D Isso mostra que PC2 é a primeira componente principal da primeira matriz dos resíduos. Podemos contabilizar no modelo agora PC1 e PC2, seja pela repetição do procedimento de diagonalização de Xc: -->T1=E1*V1 T1 = D D D D D D D D D D D D D D
14 D D Ou usando a primeira diagonalização, pegando diretamente os pesos e escores de PC2: T = 2.776D D D D D D D D M1 é o melhor modelo de posto 1, pois PC1 é a componente mais informativa de todas elas, mas nada impede que usemos mais de uma componente no modelo, descrevendo Xc como um somatório de modelos, levando a um modelo de posto igual ao número de compontentes, até o posto da matriz original. Incluindo PC2 no modelo temos: -->M2=T(:,5)*V(:,5)'-T(:,4)*V(:,4)' M2 = Avaliando o quão bem o modelo descreve a matriz Xc: -->SQ2=trace(M2'*M2) SQ2 = >SQ2/SQT Essa é a infomação explicada por PC1 (0.86) + PC2 (0,13), que é a variância cumulativa do modelo. Uma descrição perfeita de Xc é dada pela inclusão de todas as componentes: -->Xc-T*V' 14
15 1.0D-15 * Ou seja, o resíduo é 0. Porém normalmente não é desejável criar um modelo que contenha todas as componentes, e sim truncá-las para um número bem menor, não só para uma visualização gráfica do sistema como para uma descrição dos dados sem a interferência dos ruídos dos dados. Por isso existem alguns critérios para escolher quantas componenes devem ser usadas. Para uma matriz de covariância podemos usar o critério de Kaiser, no qual deve-se reter as componentes com variância superior a variância média das variáveis antes da análise. Ou seja λ > λ corte = Tr(C)/p. Logo, para os dados da copa: -->Lcorte=trace(C)/5 Lcorte = Então só se deve usar PC1 segundo este critério. O critério de Malinowski é baseado no teste F, para diferenças significativas entre variâncias. Mede-se um F k = λ k /s 2 mk para uma componente k, para 1 grau de liberdade para λ k e (p-k-1) para s 2 mk. Este segundo valor é a variância média dada por Σ i=k+1 p λ i /(p-k-1). Para verificar se devemos incluir PC1 segundo este critério: -->Vm1=(L(1,1)+L(2,2)+L(3,3)+L(4,4))/(5-1-1) Vm1 = >F1=L(5,5)/Vm1 F1 = Como F crítico (1 e 3 graus de liberdade, com 95% de confiança) = 10,1 < 18,3 = F1, as variâncias são significativamente diferentes e portanto PC1 deve ser incluída. Já com PC2: -->Vm2=(L(1,1)+L(2,2)+L(3,3))/(5-2-1) Vm2 =
16 -->F2=L(4,4)/Vm2 F2 = Como F crítico (1,2,95%) = 18,5 < 23,6 = F2, PC2 também deve ser incluída. -->Vm3=(L(1,1)+L(2,2))/(5-3-1) Vm3 = >F3=L(3,3)/Vm3 F3 = Como F crítico (1,2,95%) = 161 >> 2,07 = F3, PC3 não deve ser incluída de jeito nenhum, como o esperado (pois ela contém menos que 1% da informação, inclusive com variâncias aleatórias). Pela matriz de covariância, oriunda da dos desvios, a variância natural das variáveis está associada a informação que elas contêm. Em casos de espectros é importante utilizá-la na PCA, pois separa sinal de ruído, já que a variância do primeiro é muito maior. Por outro lado pode-se dar a mesma variância para cada variável, os que as uniformiza em termos de informação. As diferentes variâncias retidas em cada variável podem ser observadas nas diferentes escalas de gols feitos e vitórias, por exemplo: -->plot(x(:,1),x(:,3),'b.') 16
17 [Aparecem menos pontos porque alguns estão sobrepostos] Enquanto gols feitos variam de 0 a 12, gols levados varia de 0 a 3. As variâncias destas variáveis podem ser obtidas de duas maneiras, com ou sem atalho: Sem atalho: -->xc=[xc(:,1) Xc(:,3)] xc = >c=xc'*xc/(8-1) c = Esta matriz de covariância (c minúsculo deveria ser maiúsculo, pois é uma matriz, não um vetor, mas neste caso é só para diferenciar da matriz de covariância de todas as variáveis C, da mesma forma que Xc difere de xc) apresenta as variâncias de gols levados e vitórias na diagonal. É possível transformar a diagonal de uma matriz num vetor de variâncias: -->diag(c) Os desvios padrões associados a estes valores são simplesmente as raíses destes: -->sqrt(ans) A matriz das variáveis autoescaloladas é uma matriz em que as variáveis são normalizadas pelos seus desvios, isto é: -->ones(8,1)*sqrt(diag(c))' 17
18 >xa=xc./ans xa = Ou então assim: -->diag(sqrt(diag(c))) >xc*inv(ans) Agora plotanto novamente estas variáveis autoescalonadas e comparando com as anteriores: -->plot(ans(:,1),ans(:,2),'r.',xc(:,1),xc(:,2),'b.') 18
19 A variância bem maior em gols feitos agora está equivalente a variância de vitórias. O atalho para variância de variáveis no Scilab é stdev. Logo: -->stdev(xc,'r') E isso pode ser usado para facilitar a obtenção de xa: -->xa=xc*inv(diag(stdev(xc,'r'))) xa = E o espírito do autoescalonamento: -->stdev(xa,'r') Como normalizamos as variáveis pelos respectivos desvios padrões, os desvios delas são unitários. Note que como desvios padrões tem a mesma unidade das respectivas 19
20 variáveis, a transformação de xc em xa adimensionaliza as variáveis. Por este motivo variáveis de diferentes unidades devem ser pré-processadas por este método. A metodologia para análise de componentes principais com este pré-processamento leva à matriz de correlação R, ao invés da matriz de covariância C: -->Xa=Xc*inv(diag(stdev(Xc,'r'))) Xa = >R=Xa'*Xa/(8-1) R = As variâncias que ficam na diagonal são unitárias, como o esperado. Os outros valores são correlações entre as variáveis. As correlações podem variar de -1 a 1. Observe que a maior correlação da matriz (em módulo) é referente às variáveis gols feitos e vitórias, e é positiva, pois fazer gols certamente leva a vitórias, pelos dados disponíveis na matriz original. Seguindo a mesma diretriz da PCA com C: -->[V,L]=spec(R) L = 4.350D V = D D >pertrans(l) 20
21 D-17 -->plot(1:5,diag(ans)*100/trace(ans),'pentagram-') No Statistica: 21
22 4,5 Gráfico do scree 4,0 3,5 73,53% Autovalores (informação explicada) 3,0 2,5 2,0 1,5 1,0 0,5 0,0 22,82% 2,46% 1,20% -0,5 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 -->plot(v(:,5),v(:,4),'rv') Número da componente No Statistica : 22
23 Pesos de PC1 vs. PC2 1,0 Empates 0,5 PC2 (22,82%) 0,0 Derrotas Gols Levados -0,5 Gols feitos Vitórias -1,0-1,0-0,5 0,0 0,5 1,0 PC1 (73,53%) -->T=Xa*V T = D D D D D D D D >plot(t(:,5),t(:,4),'b.') 23
24 No Statistica: 2,0 1,5 Gráficos dos escores de PC1 vs. PC2 Irlanda 1,0 0,5 Camarões Turquia Costa Rica PC2 (22,82%) 0,0-0,5 China Arábia Saudita Alemanha -1,0-1,5-2,0 Brasil -2, PC1 (73,53%) Para fazer um biplot basta normalizar os pesos e escores aos maiores valores deles e plotá-los juntos: -->diag(max(v,'r')) 1.275D
25 >inv(ans) warning matrix is close to singular or badly scaled. rcond = D D >Vbp=V*ans Vbp = D D D >Tbp=T*inv(diag(max(T,'r'))) warning matrix is close to singular or badly scaled. rcond = D-16 Tbp = >plot(vbp(:,5),vbp(:,4),'b.',tbp(:,5),tbp(:,4),'r.') 25
26 26
Estudo dirigido de Análise Multivariada
Estudo dirigido de Análise Multivariada Conceitos Iniciais De um modo geral, os métodos estatísticos de análise multivariada são aplicados para analisar múltiplas medidas sobre cada indivíduo ou objeto
Mestrado Profissional em Administração. Disciplina: Análise Multivariada Professor: Hedibert Freitas Lopes 1º trimestre de 2015
Mestrado Profissional em Administração Disciplina: Análise Multivariada Professor: Hedibert Freitas Lopes 1º trimestre de 015 Decomposição Espectral Autovalores e autovetores MANLY, Cap. Objetivo e Definição
Álgebra Linear I - Aula 22
Álgebra Linear I - Aula 1. Bases Ortonormais.. Matrizes Ortogonais. 3. Exemplos. 1 Bases Ortonormais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de
Ajuste por mínimos quadrados no Scilab
Ajuste por mínimos quadrados no Scilab O ajuste por mínimos quadrados é uma regressão linear nos parâmetros (eles podem ser arranjados na equação de regressão na forma de um único vetor) que tem sua eficiância
Parte 3 - Produto Interno e Diagonalização
Parte 3 - Produto Interno e Diagonalização Produto Escalar: Sejam u = (u 1,..., u n ) e v = (v 1,..., v n ) dois vetores no R n. O produto escalar, ou produto interno euclidiano, entre esses vetores é
Técnicas Multivariadas em Saúde
Roteiro Técnicas Multivariadas em Saúde Lupércio França Bessegato Dep. Estatística/UFJF 1. Introdução 2. Distribuições de Probabilidade Multivariadas 3. Representação de Dados Multivariados 4. Testes de
Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável
Álgebra Linear I - Aula 18 1 Forma diagonal de uma matriz diagonalizável 2 Matrizes ortogonais Roteiro 1 Forma diagonal de uma matriz diagonalizável Sejam A uma transformação linear diagonalizável, β =
G3 de Álgebra Linear I
G de Álgebra Linear I 7 Gabarito ) Considere a transformação linear T : R R cuja matriz na base canônica E = {(,, ), (,, ), (,, )} é [T] E = a) Determine os autovalores de T e seus autovetores correspondentes
G4 de Álgebra Linear I
G4 de Álgebra Linear I 27.1 Gabarito 1) Considere a base η de R 3 η = {(1, 1, 1); (1,, 1); (2, 1, )} (1.a) Determine a matriz de mudança de coordenadas da base canônica para a base η. (1.b) Considere o
G4 de Álgebra Linear I
G4 de Álgebra Linear I 013.1 8 de junho de 013. Gabarito (1) Considere o seguinte sistema de equações lineares x y + z = a, x z = 0, a, b R. x + ay + z = b, (a) Mostre que o sistema é possível e determinado
Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais
Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que
Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões PCA. Luiz Eduardo S. Oliveira, Ph.D.
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões PCA Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir os conceitos de PCA e suas aplicações
aula ANÁLISE DO DESEMPENHO DO MODELO EM REGRESSÕES
ANÁLISE DO DESEMPENHO DO MODELO EM REGRESSÕES 18 aula META Fazer com que o aluno seja capaz de realizar os procedimentos existentes para a avaliação da qualidade dos ajustes aos modelos. OBJETIVOS Ao final
P4 de Álgebra Linear I de junho de 2005 Gabarito
P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana
Reconhecimento de Padrões. Principal Component Analysis (PCA) Análise dos Componentes Principais
Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC) Reconhecimento de Padrões Principal Component Analysis (PCA) Análise dos Componentes Principais David
Álgebra Linear I - Aula 20
Álgebra Linear I - Aula 20 1 Matrizes diagonalizáveis Exemplos 2 Forma diagonal de uma matriz diagonalizável 1 Matrizes diagonalizáveis Exemplos Lembramos que matriz quadrada a 1,1 a 1,2 a 1,n a 2,1 a
Matrizes hermitianas e unitárias
Matrizes hermitianas e unitárias Amit Bhaya, Programa de Engenharia Elétrica COPPE/UFRJ Universidade Federal do Rio de Janeiro amit@nacad.ufrj.br http://www.nacad.ufrj.br/ amit Matrizes complexas O produto
Formas Quádricas Cônicas hlcs
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORE Formas Quádricas Cônicas hlcs Álgebra Linear A equação mais geral de uma cônica é a seguinte: Q(,)= a + b + c +d + e +f =,...() onde a,b,c,d,e,f são números reais
INTRODUÇÃO À CALIBRAÇÃO MULTIVARIADA
INTRODUÇÃO À CALIBRAÇÃO MULTIVARIADA APLICAÇÃO NO CONTROLE DE QUALIDADE DE FÁRMACOS MÓDULO 03 Unidade Universitária de Ciências Exatas e Tecnológicas UnUCET Anápolis 1 2 MÓDULO 03 Análise de Componentes
Estatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais
Estatística: Aplicação ao Sensoriamento Remoto SER 4 - ANO 9 Componentes Principais Camilo Daleles Rennó camilorenno@inpebr http://wwwdpiinpebr/~camilo/estatistica/ Associação entre Variáveis r = < r
Álgebra Linear I - Aula Matrizes simultaneamente ortogonais e simétricas
Álgebra Linear I - Aula 22 1. Matrizes 2 2 ortogonais e simétricas. 2. Projeções ortogonais. 3. Matrizes ortogonais e simétricas 3 3. Roteiro 1 Matrizes simultaneamente ortogonais e simétricas 2 2 Propriedade
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
Estatística Aplicada à Administração II. Tópico. Análise de Componentes Principais
Estatística Aplicada à Administração II Tópico Análise de Componentes Principais Bibliografia: R.A. Johnson, Applied Multivariate Statistical Analysis, Prentice Hall, 99 Análise de Componentes Principais
G3 de Álgebra Linear I
G3 de Álgebra Linear I 11.1 Gabarito 1) Seja A : R 3 R 3 uma transformação linear cuja matriz na base canônica é 4 [A] = 4. 4 (a) Determine todos os autovalores de A. (b) Determine, se possível, uma forma
Análise de Regressão Linear Simples e
Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável
Ralph S. Silva
ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:
Descomposição de Cholesky
Frederico Almeida & Guilherme Aguilar Universidade Federal de Minas Gerais 20 de Novembro de 2018 Frederico A. & Guilherme A. (ICEX - UFMG) 20 de Novembro de 2018 1 / 29 Motivação Métodos de otimização
G3 de Álgebra Linear I
G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal
Análise Multivariada Aplicada à Contabilidade
Mestrado e Doutorado em Controladoria e Contabilidade Análise Multivariada Aplicada à Contabilidade Prof. Dr. Marcelo Botelho da Costa Moraes www.marcelobotelho.com mbotelho@usp.br Turma: 2º / 2016 1 Agenda
Ficha de Exercícios nº 3
Nova School of Business and Economics Álgebra Linear Ficha de Exercícios nº 3 Transformações Lineares, Valores e Vectores Próprios e Formas Quadráticas 1 Qual das seguintes aplicações não é uma transformação
Função prcomp. 1. Introdução
Função prcomp 1. Introdução Apresentamos alguns exemplos de utilização da função prcomp do pacote stats em R. Esta função permite realizar uma análise de componentes principais a partir de uma matriz de
Matrizes Semelhantes e Matrizes Diagonalizáveis
Diagonalização Matrizes Semelhantes e Matrizes Diagonalizáveis Nosso objetivo neste capítulo é estudar aquelas transformações lineares de R n para as quais existe pelo menos uma base em que elas são representadas
Sensoriamento Remoto II
Sensoriamento Remoto II Componentes principais Revisão de matemática Análise de componentes principais em SR UFPR Departamento de Geomática Prof. Jorge Centeno 2016 copyright@ centenet Revisão matemática
Autovalores e Autovetores
Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos
P3 de Álgebra Linear I
P3 de Álgebra Linear I 2008.2 Data: 14 de Novembro de 2008. Gabarito. 1) Decida se cada afirmação a seguir é verdadeira ou falsa. Considere uma transformação linear T : R 3 R 3 tal que existem vetores
Aula 5 - Produto Vetorial
Aula 5 - Produto Vetorial Antes de iniciar o conceito de produto vetorial, precisamos recordar como se calculam os determinantes. Mas o que é um Determinante? Determinante é uma função matricial que associa
GAAL - Terceira Prova - 15/junho/2013. Questão 1: Analise se a afirmação abaixo é falsa ou verdadeira:
GAAL - Terceira Prova - /junho/3 SOLUÇÕES Questão : Analise se a afirmação abaio é falsa ou verdadeira: [ A matriz A é diagonalizável SOLUÇÃO: Sabemos que uma matriz n n é diagonalizável se ela possuir
Universidade Federal de Alagoas UFAL Centro de Tecnologia - CTEC Programa de Pós-Graduação em Engenharia Civil - PPGEC
Universidade Federal de Alagoas UFAL Centro de Tecnologia - CTEC Programa de Pós-Graduação em Engenharia Civil - PPGEC Introdução à Mecânica do Contínuo Tensores Professor: Márcio André Araújo Cavalcante
Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor.
Provas As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor. Terceira prova. Sábado, 15/junho, 10:00-12:00 horas, ICEx. Diagonalização
MATRIZES. Conceitos e Operações
MATRIZES Conceitos e Operações As matrizes são tabelas de números reais utilizadas em quase todos os ramos da ciência e da engenharia. Várias operações realizadas por computadores são através de matrizes.
0.1 Matrizes, determinantes e sistemas lineares
SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DO PARÁ PARFOR MATEMÁTICA Lista de Exercícios para a Prova Substituta de Álgebra Linear 0.1 Matrizes, determinantes e sistemas lineares 1. Descreva explicitamente
1 Matrizes Ortogonais
Álgebra Linear I - Aula 19-2005.1 Roteiro 1 Matrizes Ortogonais 1.1 Bases ortogonais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de vetores distintos
GPDI Grupo de Profissionais de Dados e Inteligência
GPDI Grupo de Profissionais de Dados e Inteligência Estatística e sua relação de dados Uma aplicação na redução da dimensionalidade em matrizes de dados Grupo de Profissionais de Dados e Inteligência Quem
Programa do Curso. Transformação de Dados. Sistemas Inteligentes Aplicados. Carlos Hall. Discretização de Variáveis Contínuas
Sistemas Inteligentes Aplicados Carlos Hall Programa do Curso Limpeza/Integração de Dados Transformação de Dados Discretização de Variáveis Contínuas Transformação de Variáveis Discretas em Contínuas Transformação
Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:
Lema (determinante de matriz ) A B A 0 Suponha que M = ou M =, com A e D 0 D C D matrizes quadradas Então det(m) = det(a) det(d) A B Considere M =, com A, B, C e D matrizes C D quadradas De forma geral,
Análise de regressão linear simples. Diagrama de dispersão
Introdução Análise de regressão linear simples Departamento de Matemática Escola Superior de Tecnologia de Viseu A análise de regressão estuda o relacionamento entre uma variável chamada a variável dependente
Álgebra Linear I - Aula 19
Álgebra Linear I - Aula 19 1. Matrizes diagonalizáveis. 2. Matrizes diagonalizáveis. Exemplos. 3. Forma diagonal de uma matriz diagonalizável. 1 Matrizes diagonalizáveis Uma matriz quadrada T = a 1,1 a
Matemática III. Instituto Federal de Educação, Ciência e Tecnologia Rio Grande do Sul Campus Rio Grande
Instituto Federal de Educação, Ciência e Tecnologia Rio Grande do Sul Campus Rio Grande Educação Profissional Integrada ao Ensino Médio Profª Débora Bastos 5 . Matrizes Estudaremos no º e º bimestres Matrizes,
Álgebra Linear II - Poli - Gabarito Prova SUB-tipo 00
Álgebra Linear II - Poli - Gabarito Prova SUB-tipo 00 [ ] 4 2 Questão 1. Seja T : R 2 R 2 o operador linear cuja matriz, com respeito à base canônica de R 2, é. 1 3 [ ] 2 0 Seja B uma base de R 2 tal que
Departamento de Estatística
Departamento de Estatística Universidade Federal de São Carlos José Carlos Fogo São Carlos Julho de 207 Sumário Vetores Definição Representação gráfica no R 2 2 2 Propriedades algébricas 2 2 Vetores especiais
Técnicas Multivariadas em Saúde. Vetores Aleatórios. Métodos Multivariados em Saúde Roteiro. Definições Principais. Vetores aleatórios:
Roteiro Técnicas Multivariadas em Saúde Lupércio França Bessegato Dep. Estatística/UFJF 1. Introdução 2. Distribuições de Probabilidade Multivariadas 3. Representação de Dados Multivariados 4. Testes de
1 Equações Diferenciais Ordinárias: Sistemas de Equações
Equações Diferenciais Ordinárias: Sistemas de Equações O sistema geral de duas equações diferenciais pode ser escrito como: ẋ = F x,y,t ẏ = Gx,y,t Uma Solução de é um par x t e y t de funções de t tais
. Repare que ao multiplicar os vetores (-1,1) e
Álgebra Linear II P1-2014.2 Obs: Todas as alternativas corretas são as representadas pela letra A. 1 AUTOVETORES/ AUTOVALORES Essa questão poderia ser resolvida por um sistema bem chatinho. Mas, faz mais
Análise Fatorial e Componentes Principais Aplicadas na Engenharia de Avaliações
Análise Fatorial e Componentes Principais Aplicadas na Engenharia de Avaliações Diogo de Carvalho Bezerra Universidade Federal de Pernambuco Núcleo de Gestão e-mail:dicbezerra@hotmail.com SOBREA Sociedade
Função prcomp em R. 1. Introdução
Função prcomp em R 1. Introdução Apresentamos alguns exemplos de utilização da função prcomp do pacote stats em R. Esta função permite realizar uma análise de componentes principais a partir de uma matriz
Álgebra Linear Teoria de Matrizes
Álgebra Linear Teoria de Matrizes 1. Sistemas Lineares 1.1. Coordenadas em espaços lineares: independência linear, base, dimensão, singularidade, combinação linear 1.2. Espaço imagem (colunas) - Espaço
Álgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo.
Álgebra Linear I - Lista 11 Autovalores e autovetores Respostas 1 Calcule os autovalores e autovetores das matrizes abaixo. (a ( 4 1 1, (b ( 1 1, (c ( 5 6 3 4, (d 1 1 3 1 6 6, (e 3 5 1, (f 1 1 1 1 1 1
Álgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas
Álgebra Linear I - Lista 12 Matrizes semelhantes. Diagonalização Respostas 1) Determine quais das matrizes a seguir são diagonalizáveis. Nos caso afirmativos encontre uma base de autovetores e uma forma
CURSO INTRODUTÓRIO DE MATEMÁTICA PARA ENGENHARIA Vetores. Mateus Barros 3º Período Engenharia Civil
CURSO INTRODUTÓRIO DE MATEMÁTICA PARA ENGENHARIA 2018.1 Vetores Mateus Barros 3º Período Engenharia Civil Definição O que é um vetor? Um vetor é um segmento de reta orientado, que representa uma grandeza
Transformação dos dados. Analise de Componentes Principais - PCA
Transformação dos dados Tratamento nos dados Redução de Dimensionalidade Dados centrados na média e variância xm = /n Σ i=n x i x i = ( x i - xm)/σ (centrados na média) Escalamento ela variância ( quando
Exemplo 1: Variáveis padronizadas Z t = ( Z 1 (1), Z 2 (1), Z 1 (2), Z 2 Z 1 (1) Z (1) = Z (2) = Z 2. Matriz de correlações:
Exemplo : Variáveis padronizadas t = (,,, ) = = Matriz de correlações: Ρ Ρ Ρ Ρ Ρ.0 0.4 0.5 0.6 0.4.0 0.3 0.4 0.5 0.3.0 0. 0.6 0.4 0..0 De onde se obtém: /.068 0.9.047 0.083 Ρ Ρ 0.9.068 0.083.047 Ρ / /
Marcelo M. Santos DM-IMECC-UNICAMP msantos/
Universidade Estadual de Maringá - Departamento de Matemática Cálculo Diferencial e Integral: um KIT de Sobrevivência 0 anos c Publicação Eletrônica do KIT http://www.dma.uem.br/kit Identificação de Cônicas
Processamento de Imagens CPS755
Processamento de Imagens CPS755 aula 04 - sistemas lineares Antonio Oliveira Ricardo Marroquim 1 / 32 laboratório de processamento de imagens tópicos decomposições (álgebra linear) decomposição QR decomposição
Distância Estatística
Distância Estatística Renato Assunção 0/05/03 Pressão sistólica A pressão sistólica mede a força do sangue nas artérias, à medida que o coração contrai para impulsionar o sangue através do corpo. Se alta
MATRIZES - PARTE Definição e Manipulação de Matrizes AULA 21
AULA 21 MATRIZES - PARTE 1 21.1 Definição e Manipulação de Matrizes Sabemos como definir variáveis de um novo tipo de dados, denominado vetor, que representam seqüências de valores de um mesmo tipo. Por
G4 de Álgebra Linear I
G4 de Álgebra Linear I 20122 Gabarito 7 de Dezembro de 2012 1 Considere a transformação linear T : R 3 R 3 definida por: T ( v = ( v (1, 1, 2 (0, 1, 1 a Determine a matriz [T ] ε da transformação linear
SME Gustavo C. Buscaglia
SME0602-2017 Gustavo C. Buscaglia ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas na engenharia em que precisamos calcular os autovalores
Introdução ao MATLAB 6.1
Introdução ao MATLAB 6.1 Ambiente MATLAB MATLAB MATrix LABoratory Programação baseada em Matrizes Vetores e escalares também podem ser considerados matrizes, 1xN, Nx1, 1x1 1 Tela Principal do MATLAB Tela
29 e 30 de julho de 2013
Programa de Pós-Graduação em Estatística e Experimentação Agronômica ESALQ/USP 29 e 30 de julho de 2013 Dia 2 - Conteúdo 1 2 3 Dados multivariados Estrutura: n observações tomadas de p variáveis resposta.
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
5. Seja R : R 3 R 3 uma rotação em torno do eixo gerado por (0, 0, 1). Suponha que R mande o vetor
Universidade Federal do Rio de Janeiro Instituto de Matemática Disciplina: Álgebra Linear II Professor: Bruno Costa, Cesar Niche, Francesco Noseda, Luiz Carlos Guimarães, Mário de Oliveira, Milton Ramirez,
Especialização em Engenharia de Processos e de Sistemas de Produção
Especialização em Engenharia de Processos e de Sistemas de Produção Projetos de Experimento e Confiabilidade de Sistemas da Produção Prof. Claudio Luis C. Frankenberg 2ª parte Experimentos inteiramente
MP-208: Filtragem Ótima com Aplicações Aeroespaciais
MP-208: Filtragem Ótima com Aplicações Aeroespaciais Seção 2.1: Álgebra Linear e Matrizes Davi Antônio dos Santos Departamento de Mecatrônica Instituto Tecnológico de Aeronáutica davists@ita.br São José
Algoritmos Numéricos II. Lucia Catabriga 1
Algoritmos Numéricos II Autovalores e Autovetores Métodos de Transformação Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2014 Introdução Introdução Os métodos de transformação tem por objetivo modificar a
$QiOLVHGHVHQVLELOLGDGHHVWDWtVWLFD
$QiOLVHGHVHQVLELOLGDGHHVWDWtVWLFD,QWRGXomR Alguns métodos para a análise de sensibilidade e a importância destes foram apresentados no capítulo 3 O capítulo atual trata da análise de sensibilidade estatística
Ficha de Trabalho 09 e 10
Ficha de Trabalho 09 e 0 Diagonalização. (Aulas a 6). Diagonalização. Valores e vectores próprios. Equação característica. Matrizes semelhantes. Matriz diagonalizável. Factorização PDP -. Diagonalização
Geovan Tavares, Hélio Lopes e Sinésio Pesco PUC-Rio Departamento de Matemática Laboratório Matmidia
Álgebra Linear Computacional Geovan Tavares, Hélio Lopes e Sinésio Pesco PUC-Rio Departamento de Matemática Laboratório Matmidia http://www.matmidia.mat.puc-rio.br 1 Álgebra Linear Computacional - Parte
Métodos Computacionais Aplicados à Estatística
Métodos Computacionais Aplicados à Estatística Decomposição de Cholesky Frederico M. Almeida Guilherme A. S. Aguilar 20 de Novembro de 2018 1 Introdução Os métodos de otimização numérica são uma alternativa
Álgebra Linear I - Aula 21
Álgebra Linear I - Aula 1 1. Matrizes ortogonalmente diagonalizáveis: exemplos. Matrizes simétricas. Roteiro 1 Matrizes ortogonalmente diagonalizáveis: exemplos Exemplo 1. Considere a matriz M = 4 4 4
1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55
Capítulo LINE LINE Autovetor e Autovalor 9 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55 Matrizes Simétricas, o Teorema Espectral e Operadores Auto-adjuntos 8 4 Formas Bilineares,
Representação esquemática de estruturas de dados
UNIVERSIDADE DE SÃO PAULO - USP Instituto de Química de São Carlos - IQSC Grupo de Química Medicinal do IQSC/USP 1 Representação esquemática de estruturas de dados 2 1 Tipos de variáveis Contínua Concentração,
PC1. Algoritmos Interessantes Vetor e Matriz
PC Algoritmos Interessantes Vetor e Matriz Algoritmos Interessantes Vetor Fila Pilha Ordenação Bubble Sorting Matriz Análise de distância Distância de Manhattan Exercício Exercício Vetor ou Array ou Matriz
CAPíTULO 1. Vetores e tensores Notação indicial
CAPíTULO 1 Vetores e tensores 1.1. Notação indicial A notação indicial é uma simplificação da notação de uma somatória. Por exemplo, seja a somatória de 3 monômios a i b i (a i multiplicado por b i ) com
Lista de Exercícios 03: Álgebra Linear
Universidade Federal de Campina Grande - UFCG Centro de Ciências e Tecnologias Agroalimentar - CCTA Unidade Acadêmica de Ciências e Tecnologia Ambiental - UACTA Disciplina: Geometria Analítica e Álgebra
Física Computacional 18 matrizes: inversão, valores próprios e sol. da eq. De Schrödinger
Física Computacional 18 matrizes: inversão, valores próprios e sol. da eq. De Schrödinger 1. Trabalhar com matrizes, e aplicá-las a um problema físico a. Inversão da matriz, eliminação de Gauss b. Determinante
Aula 19 Operadores ortogonais
Operadores ortogonais MÓDULO 3 AULA 19 Aula 19 Operadores ortogonais Objetivos Compreender o conceito e as propriedades apresentadas sobre operadores ortogonais. Aplicar os conceitos apresentados em exemplos
- identificar operadores ortogonais e unitários e conhecer as suas propriedades;
DISCIPLINA: ELEMENTOS DE MATEMÁTICA AVANÇADA UNIDADE 3: ÁLGEBRA LINEAR. OPERADORES OBJETIVOS: Ao final desta unidade você deverá: - identificar operadores ortogonais e unitários e conhecer as suas propriedades;
3 3. Variáveis Aleatórias
ÍNDICE 3. VARIÁVEIS ALEATÓRIAS...49 3.. VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS...49 3.2. VARIÁVEIS DISCRETAS FUNÇÃO DE PROBABILIDADE E FUNÇÃO DISTRIBUIÇÃO DE PROBABILIDADE...50 3.2.. Função de probabilidade...50
5 Análise Multivariada dos Dados 5.1. Quimiometria
5 Análise Multivariada dos Dados 5.1. Quimiometria A quimiometria é uma área que se refere à aplicação de métodos estatísticos e matemáticos a problemas de origem química. Com a sofisticação crescente
Álgebra Linear I - Aula 3. Roteiro
Álgebra Linear I - Aula 3 1. Produto escalar. Ângulos. 2. Desigualdade triangular. Roteiro 1 Produto escalar Considere dois vetores ū = (u 1, u 2, u 3 ) e v = (v 1, v 2, v 3 ) de R 3. O produto escalar
Adição de dois spins1/2
Adição de dois spins/ a c tort de julho de O momento angular é um dos pontos mais importantes da mecânica quântica. Saber somar dois ou três momentos angulares é crucial para o entendimento da estrutura
AULAS 14 E 15 Modelo de regressão simples
1 AULAS 14 E 15 Modelo de regressão simples Ernesto F. L. Amaral 18 e 23 de outubro de 2012 Avaliação de Políticas Públicas (DCP 046) Fonte: Wooldridge, Jeffrey M. Introdução à econometria: uma abordagem
4 O algoritmo tipo Jacobi quaterniônico para Matrizes Normais
4 O algoritmo tipo Jacobi quaterniônico para Matrizes Normais Diferentemente com o que acontece com a maioria dos algoritmos existentes para o cálculo de autovalores de uma matriz em específico, o método
CURSO INTRODUTÓRIO DE MATEMÁTICA PARA ENGENHARIA Vetores. Claudenise Alves de Lima - Engenharia Civil
CURSO INTRODUTÓRIO DE MATEMÁTICA PARA ENGENHARIA 2017.1 Vetores Claudenise Alves de Lima - Engenharia Civil Definição O que é um vetor? Um vetor é um segmento de reta orientado, que representa uma grandeza
(2008/2009) Espaços vectoriais. Matemática 1º Ano - 1º Semestre 2008/2009. Mafalda Johannsen
Espaços vectoriais Matemática 1º Ano 1º Semestre 2008/2009 Capítulos Características de um Espaço Vectorial Dimensão do Espaço Subespaço Vectorial Combinação Linear de Vectores Representação de Vectores
CONJUNTO DOS NÚMEROS INTEIROS. No conjunto dos números naturais operações do tipo
CONJUNTO DOS NÚMEROS INTEIROS No conjunto dos números naturais operações do tipo 9-5 = 4 é possível 5 5 = 0 é possível 5 7 =? não é possível e para tornar isso possível foi criado o conjunto dos números
8. Análise em Componentes Principais - ACP
8. Análise em Componentes Principais - ACP 8.1 Introdução O propósito principal da ACP é substituir as variáveis originais por um número menor de variáveis que são função das variáveis originais. A ACP
Álgebra Linear I - Aula Matriz de uma transformação linear em uma base. Exemplo e motivação
Álgebra Linear I - Aula 19 1. Matriz de uma transformação linear em uma base. Exemplo e motivação 2. Matriz de uma transformação linear T na base β 1 Matriz de uma transformação linear em uma base. Exemplo