3 Identificação Recursiva.

Documentos relacionados
MOQ-14 Projeto e Análise de Experimentos

Aula 5. Uma partícula evolui na reta. A trajetória é uma função que dá a sua posição em função do tempo:

Física Experimental III

ActivALEA. ative e atualize a sua literacia

UNESP - Faculdade de Engenharia de Guaratinguetá 1

Universidade Federal de Goiás Campus Catalão Departamento de Matemática

Modelos de Regressão Linear Simples - Erro Puro e Falta de Ajuste

Análise de Variância (ANOVA)


TESTES SOCIOMÉTRICOS

Métodos Estatísticos Avançados em Epidemiologia

Exercícios e questões de Álgebra Linear

[RESOLUÇÃO] Economia I; 2012/2013 (2º semestre) Prova da Época Recurso 3 de Julho de 2013

Sejam P1(x1,y1) e P2(x2,y2) pontos pertencentes ao plano. A equação da reta pode ser expressa como: ou

Matrizes. matriz de 2 linhas e 2 colunas. matriz de 3 linhas e 3 colunas. matriz de 3 linhas e 1 coluna. matriz de 1 linha e 4 colunas.

Inteligência Artificial

Álgebra Linear Aplicada à Compressão de Imagens. Universidade de Lisboa Instituto Superior Técnico. Mestrado em Engenharia Aeroespacial

Ondas EM no Espaço Livre (Vácuo)

UNIVERSIDADE FEDERAL DA BAHIA ESCOLA POLITÉCNICA DEPARTAMENTO DE ENGENHARIA QUÍMICA ENG 008 Fenômenos de Transporte I A Profª Fátima Lopes

PESQUISA OPERACIONAL -PROGRAMAÇÃO LINEAR. Prof. Angelo Augusto Frozza, M.Sc.

Módulo de Equações do Segundo Grau. Equações do Segundo Grau: Resultados Básicos. Nono Ano

Avaliação de Empresas Profa. Patricia Maria Bortolon

LABORATÓRIO DE CONTROLE I SINTONIA DE CONTROLADOR PID

AULA 19 Análise de Variância

Uso de escalas logaritmicas e linearização

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 7

1ª) Lista de Exercícios de Laboratório de Física Experimental A Prof. Paulo César de Souza

DISTRIBUIÇÕES ESPECIAIS DE PROBABILIDADE DISCRETAS

Modelos Lineares Generalizados - Verificação do Ajuste do Modelo

Acionamento de Motores: PWM e Ponte H

Introdução ao determinante

Análise de Regressão. Notas de Aula

UNIVERSIDADE FEDERAL DO ESPÍRITO SANTO PROGRAMA DE EDUCAÇÃO TUTORIAL - MATEMÁTICA PROJETO FUNDAMENTOS DE MATEMÁTICA ELEMENTAR

Probabilidade. Luiz Carlos Terra

EGEA ESAPL - IPVC. Resolução de Problemas de Programação Linear, com recurso ao Excel

Regressão, Interpolação e Extrapolação Numéricas

3º Ano do Ensino Médio. Aula nº06

Determinantes. Vamos associar a cada matriz quadrada A um número a que chamaremos determinante. a11 a Uma matriz de ordem 2, A =

EXERCÍCIOS DE ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA (sistemas de equações lineares e outros exercícios)

Plano da Apresentação. Correlação e Regressão linear simples. Correlação linear. Associação entre hábitos leitura e escolaridade.

Correlação e Regressão linear simples

OPERAÇÕES COM FRAÇÕES

Figura 4.1: Diagrama de representação de uma função de 2 variáveis

Pressuposições à ANOVA

Usando potências de 10

Se inicialmente, o tanque estava com 100 litros, pode-se afirmar que ao final do dia o mesmo conterá.

A Estatística e a Engenharia

AULA 4 DELINEAMENTO EM QUADRADO LATINO (DQL)

Aula 8 21/09/ Microeconomia. Demanda Individual e Demanda de Mercado. Bibliografia: PINDYCK (2007) Capítulo 4

Dureza Rockwell. No início do século XX houve muitos progressos. Nossa aula. Em que consiste o ensaio Rockwell. no campo da determinação da dureza.

Teste de hipótese em modelos normais lineares: ANOVA

1.2. Recorrendo a um diagrama em árvore, por exemplo, temos: 1.ª tenda 2.ª tenda P E E

Teste de Hipótese e Intervalo de Confiança. Parte 2

Calculando seno(x)/x com o interpretador Hall.

Conteúdo programático por disciplina Matemática 6 o ano

Métodos Estatísticos Avançados em Epidemiologia

Fundamentos de Bancos de Dados 3 a Prova Caderno de Questões

CDI-II. Derivadas de Ordem Superior. Extremos. ; k = 1,2,...,n.

Unidade 1: O Computador

Definição de determinantes de primeira e segunda ordens. Seja A uma matriz quadrada. Representa-se o determinante de A por det(a) ou A.

Comandos de Eletropneumática Exercícios Comentados para Elaboração, Montagem e Ensaios

Comecemos por relembrar as propriedades das potências: = a x c) a x a y = a x+y

Probabilidade e Estatística

Matrizes e Sistemas Lineares. Professor: Juliano de Bem Francisco. Departamento de Matemática Universidade Federal de Santa Catarina.

QUESTÕES PARA A 3ª SÉRIE ENSINO MÉDIO MATEMÁTICA 2º BIMESTE SUGESTÕES DE RESOLUÇÕES

Emparelhamentos Bilineares Sobre Curvas

Pós-Graduação em Computação Distribuída e Ubíqua

INTRODUÇÃO. Noções preliminares. Um pouco de matemática. 100 Pb

Análise Qualitativa no Gerenciamento de Riscos de Projetos

O Cálculo λ sem Tipos

Sistemas Operacionais. Sincronização: Semáforos Problema dos Leitores/Escritores

Resolução da Lista de Exercício 6

Relatório do Experimento 1 Sistema Massa - Mola. Fernando Henrique Ferraz Pereira da Rosa

Códigos de bloco. Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2

(72) Inventor(es): (74) Mandatário: (54) Epígrafe: APLICAÇÃO COMPUTORIZADA PARA O CONTROLO DE ROBOTS INDUSTRIAIS

Primeira Lista de Exercícios de Métodos Numéricos II Primeiro semestre de 2015

Aula 8 Variações da Eliminação de Gauss/Fatoração LU.

Testes de Hipóteses Estatísticas

Registro de Retenções Tributárias e Pagamentos

Aula 6 Propagação de erros

Semana 7 Resolução de Sistemas Lineares

MODULAÇÃO DE UM SINAL ANALÓGICO

Diagrama de Impedâncias e Matriz de Admitância de um Sistema Elétrico

Matriz de Sensibilidade Modal

2 Limites e Derivadas. Copyright Cengage Learning. Todos os direitos reservados.

Álgebra Linear I - Aula 20

Lei de Gauss. 2.1 Fluxo Elétrico. O fluxo Φ E de um campo vetorial E constante perpendicular Φ E = EA (2.1)

Optimização e Algoritmos (2004/2005)

Engenharia de Software II

AULA 07 Distribuições Discretas de Probabilidade

PUC-Rio Desafio em Matemática 15 de novembro de 2008

Obtenção Experimental de Modelos Matemáticos Através da Reposta ao Degrau

Condução. t x. Grupo de Ensino de Física da Universidade Federal de Santa Maria

1 - POLÍGONOS REGULARES E CIRCUNFERÊNCIAS

Lista 1: Processo Estocástico I

Decreto-Lei nº139 /2012, de 5 de junho, alterado pelo Despacho Normativo n.º1-g/2016

FÍSICA EXPERIMENTAL 3001

MODELAGENS. Modelagem Estratégica

Sistemas de Controle I

Transcrição:

1 3 Identificação Recursiva. Objectivo: Introdução às técnicas de identificação Recursiva com Aplicação no Controlo Adaptativo: O Método dos Mínimos Quadrados. Limitações. Referência: AW cap. 13

2 Ajuste de uma recta a dados experimentais Uma situação experimental: Pretende-se relacionar a corrente I com a tensão V no circuito da figura. Para tal são aplicados diversos valores de tensão à resistência e registados os dados Tensão [volt] Corrente [ma] V1=1 I1=2.1 V2=2 I2=3.9 V3=3 I3=6.2 V4=4 I4=7.9 I + V g=? -

3 Sob certas condições, a relação teóric a (o modelo) existente entre a tensão V aplicada à resistência e a corrente I é: I = gv em que g é um parâmetro que se pretende estimar a partir dos dados. Devido aos erros experimentais, os pontos experimentais não se encontram exactamente sobre a recta I = gv mas têm desvios. Como decidir qual a recta melhor ajustada? I [m A ] 10 9 8 7 6 5 4 3 2 1 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 V [volt]

4 De acordo com o Princípio dos Mínimos Quadrados é escolhida a recta que minimiza a soma dos quadrados dos desvios. De acordo com este princípio, a estimativa de g é tal que minimiza ( 21 1) ( 39 2) ( 62 3) ( 79 4) 2 2 2 2 J( g) =. g +. g +. g +. g O que efectivamente observamos O que esperamos que seja a corrente quando a tensão é 2 (Depende da estimativa de g)

5 "custo" J ( g) associado ao critério de mínimos quadrados J(g) ^g g

6 Como J ( g) é uma função quadrática de g, a estimativa de mínimos quadrados verifica a equação 1 2 dj = 0 dg g= g $ ou seja (. g$ ) (. g$ ) (. g$ ) (. g$ ) 1 21 1 2 39 2 3 62 3 4 79 4 = 0 Esta equação simplifica-se para 60g$ 1201. = 0 sendo a estimativa de mínimos quadrados dada por g $ = 200.

7 Ajuste de uma recta a dados experimentais (Caso geral) Suponhamos que a relação teórica entre duas grandezas X e Y é do tipo Y = α X em que α é um parâmetro desconhecido que se pretende estimar. Repare-se que, conhecendo uma estimativa de α podemos responder a perguntas do tipo "Se X valer quanto se espera que valha Y? "

8 Suponhamos que são observados n pares ( i i) outros tantos ensaios experimentais. Dispõe-se da tabela X X, Y, i = 1, K, ncorrespondentes a Y X 1 Y 1 X 2 Y 2 X 3 Y 3 X 4 Y 4 X 5 Y 5

9 Pretende-se estimar a recta melhor acordo com o critério de mínimos quadrados. ajustada aos dados experimentais, de De acordo com esta critério, a estimativa é tal que minimiza a soma dos quadrados dos desvios: 10 9 8 7 6 Desvio i Yi n i= 1 ( α ) J( α) = Y X i i 2 I [m A ] 5 4 3 2 O que efectivamente observamos O que estamos à espera que seja Y i 1 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 V [volt] Xi

10 A estimativa de mínimos quadrados verifica a equação (eq. "normal"): ou seja 1 dj = 0 2 dα α= $ α n Xi( Yi $ αxi) = i= 1 0 esta equação tem por solução n i= $α = 1 n i= 1 XY i X 2 i i

11 Mínimo ou não? A condição 1 2 dj = 0 dα α= $ α não garante necessariamente que J( α ) seja mínimo para α = $ α. É necessário impor uma condição na segunda derivada: 2 n d J 2 X 2 i dα = > i= 1 0 Neste exemplo, esta condição é veri ficada se for feita pelo menos uma medida com X 0 (o que tem uma interpretação geométrica imediata). Veremos a seguir que se estimarmos mais do que um parâmetro a segunda derivada deixa de ser um escalar. A condição de mínimo é então a de que os dados sejam tais que a matriz de segundas derivadas seja definida positiva.

12 Bom, ou apenas óptimo? A estimativa de mínimos quadrados é "óptima" no sentido em que minimiza um funcional de custo. No entanto, o funcional de custo pode não ser o mais adequado. Como caricatura, pode dizer-se que os bons relógios são os que estão parados pois dão horas absolutamente certas duas vezes por dia. Um outro exemplo é o de um caçador que vê dois pombos. Se disparar para o ponto que minimiza a distância média quadrática aos dois pombos Isto sugere que por vezes são necessários outros critérios.

13 Outros critérios de Estimação Os exemplos anterios sugerem a utilidade de utilizar critérios que ultrapassem as limitações dos Mínimos Quadrados. Um dos mais utilizados em Estimação é o critério de Máxima Verosimilhança. No entanto, quando a motivação é o C ontrolo Adaptativo, os Mínimos Quadrados gozam (quando integrados num sistema de controlo em cadeia fechada) de propriedades que os tornam suficientes para muitas aplicações. São além disso simples e de convergência robusta. São assim o único algoritmo de estimação que será estudado nesta disciplina (o que, repete-se, não implica limitações em termos de controlo adaptativo).

14 Carl Frederich Gauss (1777-1855) utilizou pela primeira vez o critério de mínimos quadrados para a estimação de parâmetros em equações. Em 1801, o astronomo italiano Piazzi observou pela primeira vez um pequeno planeta denominado Ceres. Infelizmente, a duração das observações era muito curta devido a Ceres se ser escondido atrás do Sol, pelo que estas eram insuficientes para estimar os parâmetros da sua órbita pelos métodos tradicionais. Recorrendo ao critértio dos mínimos quadrados, Gauss efectuou um a estimativa (bastante diferente das obtidas pelos métodos clássicos) que foi brilhantemente confirmada pelas observações experimentais.

15 Qual a estimativa de mínimos quadrados da aceleração da gravidade g? Modelo: h g t 2 = + e 2 t [s] 1 8.49 2 20.05 3 50.65 4 72.19 5 129.85 6 171.56 h [m] 0 h(t)

Estimação de parâmetros em equações de diferenças Modelo: yt ( ) + ayt ( 1) + K+ ayt ( n) = but ( 1) + K + but ( m 1) 1 n 0 Problema: A partir das amostras de u e y, estimar os parâmetros ai, b m j 16 u Sistema a Identificar y ESTIMADOR

17 Ruído branco de média nula. Exemplo Traduz erros no modelo Considere-se o sistema Dados recolhidos y ( k + 1) = ay( k) + bu( k) + e( k + 1) 1000 k = 1 y 2 ( k) = 30 1000 k = 1 u 2 ( k) = 50 1000 yk ( + 1) yk ( ) = 1 k = 1 1000 yk ( + 1) uk ( ) = 36 k = 1 1000 ykuk ( ) ( ) = 20 Determinar as estimativas de mínimos quadrados dos parâmetros a e b Escrever a funcional de mínimos quadrados Calcular as derivadas parciais em ordem aos parâmetros e igualar a zero k = 1

18 N 1 J = y k + ay k bu k 2 k = 1 [ ( 1) ( ) ( )] 2 J a N [ ] = yk ( ) yk ( + 1) ayk ( ) buk ( ) = 0 k = 1 J b N [ ] = uk ( ) yk ( + 1) ayk ( ) buk ( ) = 0 k = 1 N N N + = + 30 a$ + 20 b$ = 1 2 a$ y( k) b$ ykuk ( ) ( ) yk ( ) yk ( 1) N k = 1 k = 1 k = 1 $ ( ) ( ) $ 2 a u k y k + b u ( k) = u( k) y( k + ) k = 1 k = 1 k = 1 N N a$ = 0. 61 b$ = 0. 964 1 20a$ + 50b$ = 36

19 Notação matricial Se quisermos resolver o problema de estimação para um número arbitrário de parâmetros temos de usar a notação matricial. yt ( ) + ayt ( 1) + K+ ayt ( n) = but ( 1) + K + but ( 1 m) + et ( ) 1 n 0 Define-se o regressor,ϕ,como [ K ] ϕ ( t 1) = y( t 1) y( t n) u( t 1) u( t 1 m) e o vector de parâmetros a estimar, θ,como θ a a b b = [ 1 K n 1 K m] m O modelo escreve-se: y( t) = ϕ ( t 1) θ + e( t)

20 Critério de Mínimos Quadrados Dadas N observações, estimar o vector de parâmetros θ o por um vector $ θ por forma a que o funcional seguinte seja mínimo: N 1 J ( θ) = ( ) ( ) 2N t = 1 [ yt θ ϕ t ] 1 2

21 ( 0) () 1 y() 1 ϕ θ e() 1 y( 2) e( 2) = ϕ θ + M M M yn ( ) ϕ ( N 1) θ en ( ) ( 0) () 1 y() 1 ϕ e() 1 y( 2) e( 2) = ϕ θ + M M M yn ( ) ϕ ( N 1) en ( )

22 [ ] ( 0) () 1 y() 1 ϕ e() 1 y( 2) e( 2) = ϕ θ + M M M yn ( ) ϕ ( N 1) en ( ) yn 1 Φ [ N n ] p [ ] n p 1 ε[ N 1] O conjunto das N observações satisfaz: y = Φθ + ε

23 Funcional de mínimos quadrados escrito matricialmente: Como: Vem: θ 1 N ε 2 1 = = N ε 2 2 ε J( ) ε = y Φ $ θ 1 2N y y J( θ ) = ( θ Φ )( Φ θ ) 1 2 N yy y J( θ ) = ( 2 Φ θ + θ Φ Φ θ ) O funcional de mínimos quadrados é uma forma quadrática em θ

A estimativa $ θ de mínimos quadrados satisfaz Gradiente da forma quadrática ( θ) J $ = 0 θ θ= θ ( ) xax = 2 xa x 24 Recordando: vem 1 2 N yy y J( θ ) = ( 2 Φ θ + θ Φ Φ θ ) 1 θ J = + 2N ( 2y Φ 2θ Φ Φ)

25 A estimativa de mínimos quadrados satisfaz pois a equação ou seja 1 θ J = + 2N ( 2y Φ 2θ Φ Φ) $ θ ΦΦ = y Φ ou, transpondo ΦΦ θ$ = Φ y

26 Equação Normal Em conclusão, a estimativa de mínimos quadrados do vector de parâmetros θ do modelo de regressão linear y( t) = ϕ ( t 1 ) θ + e( t) satisfaz a equação matricial (dita equação normal) ΦΦ $ θ = Φ y Se existir a inversa de Φ Φ a estimativa de mínimos quadrados existe e é única, sendo dada por $ θ = Φ ( ΦΦ) 1 y

27 Considere o sistema Exemplo - Invertibilidade da matriz Φ Φ yk ( ) = buk ( 1) + buk ( 2 ) + ek ( ) 0 1 Ruído de média nula a) Diga se é possível determinar estimativas dos parâmetros b 0 e b 1 quando a entrada é sempre uk ( ) = 1? b) E se se souber que b 1 = 0? c) E se u( 0) = 0 e uk ( ) = 1 k 1? k Sugestão: Escreva a matriz Φ Φ quando N=4 e depois considere o que acontece para valores de N superiores.

28 Condições de Excitação Persistente Para que a estimativa de mínimos quadrados exista e seja única é necessário que a matriz ΦΦ seja definida positiva. Caso contrário o funcional de mínimos quadrados não tem um mínimo. A matriz Φ Φ é definida positiva se os dados forem suficientemenbte ricos, o que depende da entrada do sistema. As condições na entrada do sistema que levam a que Φ Φ > condições de excitação persistente. 0 dizem-se

29 Matriz de Covariância do Erro de Estimação e Matriz de Informação Define-se a matriz de covariância do erro de estimação como P = E ( θ $ θ)( θ $ θ) No caso em que os resíduos formam uma sequência branca, tem-se: i)a estimativa de mínimos quadrados é centrada (a média do erro é zero): [ θ θ] E $ = 0 ii)sendo a variância dos resíduos unitária: P = ΦΦ 1 ( )

30 Este último facto motiva que se denomine matriz de informação a matriz dada por Λ = P 1 = Φ Φ Note-se que o facto de as estimativas de mínimos quadrados não serem centradas quando o ruído é colorido não é uma limitação em Controlo Adaptativo (embora implique o recurs o a outros métodos quando a motivação é outra, por exemplo identificação). Isto deve-se ao facto de o Controlo Adapt ativo identificar o sistema em cadeia fechada. Posteriormente voltaremos a este aspecto.

31 Estimador Recursivo Objectivo: Obter a estimativa combinando uma estimativa anterior com novos dados sem ter que reescrever a equação normal. Estimativa anterior θ ( t 1) e variáveis auxiliares P( t 1) RLS Novos dados y( t), ϕ ( t 1) Novas, estimativa θ( t ) e variáveis auxiliares P() t Em inglês: RLS = Recursive Least Squares

32 Estimador não recursivo dadas t observações: $ () θ t Pode ser escrita como (mostre!): ( ΦΦ) 1 = Φ y t Λ 1 k = 1 $ θ() t = () t y( k) ϕ( k 1 ) em que a matriz de informação é dada por t Λ( t) = ϕ( k 1) ϕ ( k 1) k = 1

33 Matriz de informação verifica Λ( t) = Λ( t 1) + ϕ ( t 1) ϕ ( t 1) (1) Tem-se ainda $ θ() t = () t y( k) ϕ( k 1 ) Λ 1 k = 1 t (2) e Λ()$ t θ() t = y( k) ϕ( k 1) t k = 1 (3) Pretende-se: Escreva $ θ() t como função de $ θ( t 1 ), de Λ( t ), de y() t e de ϕ( t 1 ) Sugestão: Isole o último termo do somatório em (2). Escreva (3) para t 1; use (1);

34 $ θ() t = () t y( k) ϕ( k 1 ) Λ 1 k = 1 t t 1 $ θ() t = Λ 1 () t y( k) ϕ( k 1 ) + y() t ϕ( t 1 ) k = 1 t 1 Λ( t 1) $ θ( t 1) = y( k) ϕ ( k 1) k = 1 [ Λ 1 1 1 ] $ θ () t = 1 Λ () t ( t ) $ θ ( t ) + y ( t ) ϕ ( t )

35 [ Λ 1 1 1 ] $ θ () t = 1 Λ () t ( t ) $ θ ( t ) + y ( t ) ϕ ( t ) Λ( t 1) = Λ( t) ϕ( t 1) ϕ ( t 1) Assim: [ Λ 1 1 1 1 1 ] $ θ () t = 1 Λ () t () t $ θ ( t ) ϕ ( t ) ϕ ( t ) $ θ ( t ) + y ( t ) ϕ ( t ) [ ] $ θ () t = $ θ ( t ) + 1 1 Λ () t ϕ ( t 1 ) y () t ϕ ( t 1 ) $ θ ( t 1 )

36 As equações do estimador recursivo são: É necessário inverter uma matriz em cada iteração [ ] $ θ () t = $ θ ( t ) + 1 1 Λ () t ϕ ( t 1 ) y () t ϕ ( t 1 ) $ θ ( t 1 ) Nova estimativa Estimativa Ganho Diferença entre o que esperamos que seja y(t) anterior vectorial dada a estimativa e o qure observamos Λ( t) = Λ( t 1) + ϕ ( t 1) ϕ ( t 1)

37 Será que podemos alterar o algoritmo para evitar inversão de matrizes? [ ] $ θ () t = $ θ ( t ) + 1 1 Λ () t ϕ ( t 1 ) y () t ϕ ( t 1 ) $ θ ( t 1 ) Λ( t) = Λ( t 1) + ϕ ( t 1) ϕ ( t 1) Se trabalharmos com a matriz de covariância as equações ficam: [ ] $ θ () t = $ θ ( t 1 ) + P ( t ) ϕ ( t 1 ) y ( t ) ϕ ( t 1 ) $ θ ( t 1 ) Pt ( ) = Λ( t 1) + ( t 1) ( t 1) 1 [ ϕ ϕ ]

38 Aplique-se este lema com Obtém-se: Pt ( ) = Λ( t 1) + ( t 1) ( t 1) 1 [ ϕ ϕ ] Lema de inversão de matrizes 1 1 1 [ + ] = [ 1 1 + ] A BCD A A B DA B C DA Λ ( ) ( ), B = ϕ ( t 1 ), C = 1, D t 1 1 A = t 1 = P t 1 [ ] 1 1 = ϕ ( 1 ) Pt ( ) = Pt ( 1) Pt ( 1) ϕ( t 1) ϕ ( t 1) Pt ( 1) + 1 ϕ ( t 1) Pt ( 1) Escalar 1

39 Modelo: Estimador: Algoritmo de Mínimos Quadrados Recursivo (RLS) yt () = ϕ ( t 1 ) θ + et () o [ ] $ θ () t = $ θ ( t 1 ) + K () t y () t $ θ ( t 1 ) ϕ ( t 1 ) "Ganho de Kalman" "Equação de Riccati"

40 Exercício K() t = P() t ϕ ( t 1 ) Pt () = Pt ( 1) Pt ( 1) ϕ ( t 1) ϕ ( t 1) Pt ( 1) 1+ ϕ ( t 1) P( t 1) ϕ ( t 1) Mostre que o ganho de Kalman e a equação de Riccati podem ser escritos como: Kt () = Pt ( 1) ϕ ( t 1) 1+ ϕ ( t 1) P( t 1) ϕ ( t 1) [ ] Pt () = I Kt () ϕ ( t 1) Pt ( 1 )

41 Exemplo: Estimação recursiva de um parâmetro 5 4.5 4 3.5 3 2.5 2 1.5 1 0.5 Ganho de Kalman Ganho fixo=0.03 Ganho fixo=0.5 yt () = ϕ( t 1) θ + et () θ = 2 o o Ganho do estimador: Alto leva a convergência rápida mas a grande variância das estimativas em regime estacionário. Baixo leva a convergência lenta. O ganho de Kalman é alto no início e baixo no fim, variando no tempo. 0 0 20 40 60 80 100 120 140 160 180 200

42 Programa MATLAB usado no exemplo thrls=0; thsm=0; thbig=0; p=10; theta0=2; tfinal=200; for t=1:tfinal pp(t)=p; fi=1+0.1*rand; y=theta0*fi+0.2*randn; p=p-p*fi*fi*p/(1+fi*p*fi); kalm=p*fi; thrls=thrls+kalm*(y-thrls*fi); thsm=thsm+0.03*(y-thsm*fi); thbig=thbig+0.5*(y-thbig*fi); sth(t,1)=thrls; sth(t,2)=thsm; sth(t,3)=thbig; end; axis([0 tfinal 0 5]) hold on plot(sth) hold off

43 Este exemplo ilustra a convergência dos mínimos quadrados recursivos. Inicialmente, como a nossa incerteza sobre o valor verdadeiro do parâmetro a estimar é grande, escolhemos um valor elevado para a covariância. Neste caso, P = 10. O ganho de Kalman é elevado inicialmente pelo que a convergência é rápida. À medida que o tempo passa e vamos recebendo dados, P diminui e o ganho de Kalman também. Isto leva à convergência da estimativa pois o termo de correcção fica progressivamentre menor. 10 1 10 0 10-1 10-2 10-3 0 20 40 60 80 100 120 140 160 180 200

44 O estimador pode ser encarado como um mecanismo que reduz a nossa incerteza sobre o valor verdadeiro do parâmetro através das observações. A incerteza é medida por uma função densidade de probabilidade do erro na estimativa. Neste exemplo esta incerteza é gaussiana e com variância proporcional a P. 6 5 4 3 2 1 Parameter probability density given 200 observations Initial parameter probability density function 0 0 0.5 1 1.5 2 2.5 3 3.5 4

45 Um exemplo com parâmetros não identificáveis yk ( ) = buk ( 1) + buk ( 2) + ek ( ) 0 1 Apenas a soma pode ser estimada 5 4 3 2 Densidade de probabilidade dos parâmetros 1 0-1 -2-3 -4-5 -5-4 -3-2 -1 0 1 2 3 4 5 Aumentando o número de observações, r eduz-se a incerteza da soma mas mantém-se a incerteza na direcção perpendicular (assume-se u constante).

46 Um exemplo de não identificabilidade de parâmetros em cadeia fechada Modelo do processo: y( t) = ay( t 1) + bu( t 1 ) + e( t) (*) A este sistema está acoplado o controlador: u() t = Ky() t Seja β uma constante arbitrária. Da equação do controlador Como a quantidade β ut () βkyt () βut () + βkyt () = 0 + = 0, podemos adicioná-la a (*) e obter: yt ( ) = ( a+ βkyt ) ( 1) + ( b+ β) ut ( 1 ) + et ( )

47 Assim, o sistema, em conjunto com o controlador, é descrito pelo modelo yt ( ) = ( a+ βkyt ) ( 1) + ( b+ β) ut ( 1 ) + et ( ) isto mostra que parâmetros tais que $a = a + β K b $ = b+β conduzem à mesma relação entrada/saída. Eliminando seguinte relação entre as estimativas e os parâmetros a estimar b $ = b + 1 K a$ ( a ) β, obtém-se a Qualquer estimativa ( a$, b $ ) que verifique esta condição descreve igualmente bem o comportamento entrada/saída.

48 b ^ 1/K b a a^ As estimativas pertencem à recta, mas não são necessariamente proxímas dos valores verdadeiros. Para que o sejam, pode: Fazer variar-se o ganho K Adicionar um sinal externo ao controlo

49 Adormecimento dos mínimos quadrados recursivos Se os dados forem adequados, os elementos do ganho de Kalman diminuem à medida que o tempo passa, tornando-se eventualmente muito reduzidos se o ruído for baixo. A partir daí, as estimativas tendem a to rnar-se constantes. Se o sistema a identificar sofrer alguma alteração, será necessário muito tempo para que as estimativas convirjam para o novo valor. Diz-se que o algoritmo adormeceu.

50 Esquecimento exponencial O adormecimento dos mínimos quadrados recursivos acontece porque o algoritmo pesa igualmente os dados recentes e os do passado remoto. Para o evitar, pode modificar-se o funcional de custo por forma a pesar menos os pontos do passado: t 1 J y t k 2 t k ( θ) = λ [ () ϕ ( 1) θ] k = 1 Peso exponencial, menor nos dados mais antigos A λ dá-se o nome de factor de esquecimento. Tem-se 0< λ < 1 2

51 A memória assimptótica influenciam a estimativa actual. Memória assimptótica N dá-nos uma ideia do número de dados que N = 1 1 λ λ N 1 0.99 100 0.98 50 0.95 20 λ pequeno -> Poucos dados retidos; algoritmo "ágil" a seguir alterações λ grande-> Muitos dados retidos; algoritmo lento a seguir alterações mas mais preciso

52 RLS com Esquecimento Exponencial Minimiza o custo com esquecimento exponencial. [ ] $ θ () t = $ θ ( t 1 ) + K () t y () t $ θ ( t 1 ) ϕ ( t 1 ) Pt ( 1) ϕ( t 1) Kt () = λ + ϕ ( t 1) P( t 1) ϕ ( t 1) [ ϕ ] Pt () = I Kt () ( t 1) Pt ( 1 )/ λ Demonstre que estas equações minimizam o custo exponencial. Observe que a matriz de informação é actualizada por Λ( t) = λλ( t 1) + ϕ ( t 1) ϕ ( t 1 )

53 Explosão da covariância (covariance windup) Pretende-se estimar os parâmetros a e b no modelo: yt ( + 1) = ayt () + but () + 01. et ( + 1 ) O valor verdadeiro dos parâmetros é a = 06. b = 01. (este valor não se sabe na prática; aqui é usado apenas para comparação!) Usa-se RLS com factor de esquecimento exponencial e λ = 095. Consideram-se duas situações para a entrada: Entrada constante Entrada constante somada com ruído branco

Resultados com a entrada do sistema constante 54 $a 0.9 0.8 10 4 0.7 10 3 tr(p) 0.6 0.5 10 2 0.4 0.3 10 1 0.2 0.1 10 0 0 0 50 100 150 200 250 300 10-1 0 50 100 150 200 250 300 traço de P dimunui inicialmente e a estimativa aproxima-se do valor verdadeiro a = 06.. No entanto, devido a o sistema não ser excitado e a usarse o algoritmo de esquecimento, P aumenta o causa um aumento do ganho de Kalman e leva a fortes variações da estimativa.

Resultados com a entrada do sistema variável 55 $a 0.7 0.6 10 4 10 3 0.5 10 2 0.4 0.3 10 1 0.2 10 0 tr(p) 0.1 10-1 0 0 50 100 150 200 250 300 10-2 0 50 100 150 200 250 300 Quando a entrada é suficientemente excitante, o traço de P não volta a subir devido ao esquecimento e a estimati va mantém-se próximo do valor verdadeiro.

Sistemas variáveis no tempo 56 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 Lbd=0.95 Lbd=0.99 0 0 50 100 150 200 250 300 O parâmetro a muda em t=100 de 0.6 para 0.8. A figura mostra os resultados que se obtêm com dois valores diferentes do factor de esquecimento. Quando este é mais baixo, a transição da estimativa para o novo valor é mais rápida, mas em regime estacionário as fluctuações são maiores.

57 Outro tipo de algoritmos de esquecimento Para evitar os problemas com o esquecimento exponencial utilizam-se outros algoritmos. Dois exemplos importantes: Esquecimento variável no tempo. O factor de esquecimento é 1 quando a potência dos resíduos está abaixo de um dado limiar, sendo reduzido quando a potência aumenta. Deste modo e liminam-se os problemas com a explosão da covariância; Esquecimento direccional. O factor de esquecimento é diferente em diversas direcções do espaço de parâmetros, o que permite reduzir problemas devidos à não identificabilidade.

58 As equações do algoritmo de RLS, Algoritmos numericamente robustos tal como foram apresentadas, podem apresentar problemas numéricos (embora não no MATLAB e em simulações de pequena duração). Há várias formas de evitar estes problemas. Uma é o chamado algoritmo UD em que se propaga não a matriz P mas duas matrizes, U (triangular superior com 1's na diagonal) e D (diagonal), tal que P = UDU T. Deste modo é possível trabalhar com uma gama de números menor e garantir o carácter definido positivo de P. No capítulo 13 de AW pode ser visto um procedimento em PASCAL para este algoritmo.

Efeito do ruído colorido 59 0.8 0.7 0.6 0.5 0.4 0.3 Ruído colorido Valor verdadeiro Ruído branco 0.2 0 100 200 300 400 500 600 700 800 900 1000 Em presença de ruído branco a estimativa de mínimos quadrados é centrada, i. e., a média do erro é nula. Isto deixa de ser verdade quando o ruído é colorido. Na figura mostra-se a estimativa do parâmetro a em yt ( + 1) = ayt () + but () + et ( + 1 ) + cet () quando c = 0 e quando c = 095.

60 O facto de os mínimos quadrados fornecerem estimativas polarizadas em presença de ruído colorido pode parecer à partida uma limitação importante. Em classes importantes de controladores adaptativos de facto não o é. Isto é devido a, em cadeia fechada e sob certas condições, sistemas com ruído colorido admitirem um outro modelo com ruído branco. Como se verá, esta é a base do controlo adaptativo auto-sintonizável (self-tuning) descoberto no início dos anos 70 por Astrom e Wittenmark.

61 Estimação de Máxima Verosimilhança com o MATLAB z=[y u]; na=4; nb=1; nc=4; nk=1; nn=[na nb nc nk]; th=armax(z,nn); yh=idsim(u,th); plot(t,[y yh]); [Phi,Gamma,C,D,K,X0]=th2ss(th); T=0.05; [A,B]=d2c(Phi,Gamma,T); [num,den]=ss2tf(a,b,c,d); A estimação de Máxima verosimilhança faz-se com a função armax A estimação de Mínimos Quadrados faz-se com a função arx

62 2 Mínimos Quadrados 1 0-1 -2 0 20 40 60 80 100 120 140 160 180 200 2 Máxima Versomilhança 1 0-1 -2 0 20 40 60 80 100 120 140 160 180 200