Análise e Processamento de Sinal e Imagem. III - Sinais Aleatórios e Filtragem Óptima

Documentos relacionados
Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

PRINCÍPIOS DE COMUNICAÇÃO

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Filtragem Adaptativa

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros

Módulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios

PRE29006 LISTA DE EXERCÍCIOS #

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

TE060 Princípios de Comunicação. Probabilidade. Probabilidade Condicional. Notes. Notes. Notes

O processo de filtragem de sinais pode ser realizado digitalmente, na forma esquematizada pelo diagrama apresentado a seguir:

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Processos estocásticos

Estimação da Resposta em Frequência

Processos Estocásticos

Introdução aos Proc. Estocásticos - ENG 430

PROCESSOS ESTOCÁSTICOS. O resultado de muitas experiências aleatórias é função do tempo ou de uma (ou mais) coordenada espacial.

Prof. Walter Fetter Lages 4 de outubro de 2004

Modelos de Perturbações. As perturbações existentes num sistema impôem limitações fortes no desempenho dos sistemas de controlo.

Estimação na Presença de Ruído colorido

Resumo. Parte 7 Processos Estocásticos. Ramiro Brito Willmersdorf

Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk

Filtragem Adaptativa

RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno

Estimação da Resposta em Frequência

Transmissão de impulsos em banda-base

Introdução aos Proc. Estocásticos - ENG 430

Processamento Digital de Sinais - ENG420

6. Predição Linear e Controlo de Variância Mínima

Teste Tipo. Sinais e Sistemas (LERCI) 2004/2005. Outubro de Respostas

195

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017

Filtro FIR. Processamento Digital de Sinais - ENG de julho de 2016 IFBA. Fabrício Simões (IFBA) Filtro FIR 22 de julho de / 30

3 Filtro de Kalman Discreto

canal para sinais contínuos

Sinais e Sistemas - ESP208

Amostragem. Processamento de Sinais 2005/6 Engenharia Aeroespacial. Sinais em tempo-contínuo. Sinais importantes: Impulso (delta Dirac): δ(t)

EN2607 Transformadas em Sinais e Sistemas Lineares Lista de Exercícios Suplementares 2 2 quadrimestre 2011

Exercícios para Processamento Digital de Sinal. 1 Transformada e Série de Fourier

Resumo. Sinais e Sistemas Representação de Sinais Periódicos em Séries de Fourier. Objectivo. Função Própria de um Sistema

Análise e Transmissão de Sinais

Introdução aos Circuitos Elétricos

Sinais e Sistemas Discretos

Sinais e Sistemas Mecatrónicos

p.1/48 Eduardo Mendes Departamento de Engenharia Eletrônica Universidade Federal de Minas Gerais Av. Antônio Carlos 6627, Belo Horizonte, MG, Brasil

2/47. da matemática é ainda de grande importância nas várias áreas da engenharia. Além disso, lado de Napoleão Bonaparte. 1/47

3.1 Modulações binárias (ASK e PSK)

Módulo III: Processos de Poisson, Gaussiano e Wiener

Projeto de Filtros FIR

Resumo. Sinais e Sistemas Transformada de Fourier de Sinais Discretos. Sequência de Duração Finita. Série de Fourier

Processos Aleatórios e Ruído

Filtros de tempo discreto

Teoria das Comunicações Prof. André Noll Barreto Prova 1 Gabarito

Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

Sistemas de tempo discreto

Técnicas de Desenho de Filtros Digitais

Representação de Sinais Periódicos em Séries de Fourier

3 o Teste (1 a data) Sistemas e Sinais (LEIC-TP) 2008/ de Junho de Respostas

Revisão Análise em frequência e amostragem de sinais. Hilton de Oliveira Mota

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

I-6 Sistemas e Resposta em Frequência. Comunicações (6 de Dezembro de 2012)

Análise de Sistemas LTI através das transformadas

M. Eisencraft 6.3 Funções de correlação 81. R YX (τ) R YY (τ). (6.19) R XY (τ) = R YX ( τ) (6.20)

Comunicações Digitais

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

Projeto de Filtros IIR. Transformações de Funções de Transferências Analógicas para Digitais e Transformações Espectrais

Teoria das Comunicações Prof. André Noll Barreto Prova /02

TRANSFORMADA DE FOURIER. Larissa Driemeier

Transmissão de impulsos em banda-base

Métodos Não Paramétricos

Métodos Não Paramétricos

Análise e Processamento de Sinal e Imagem

Sumário. 1 Sinais e sistemas no tempo discreto 1. 2 As transformadas z e de Fourier 79

Processamento de Sinais 2013/14

Vetor de Variáveis Aleatórias

Sistemas lineares. Aula 3 Sistemas Lineares Invariantes no Tempo

Introdução ao Processamento Digital de Imagens. Aula 9 Restauração de Imagens. Prof. Dr. Marcelo Andrade da Costa Vieira

Blindagem e aterramento. Os equipamentos eletrônicos em geral são susceptíveis a ruídos externos de várias naturezas

Aula 05 Transformadas de Laplace

Aula 05 Transformadas de Laplace

Identificação por Métodos Não Paramétricos

Sinais e ruídos em sistemas de medição

Introdução ao Processamento Digital de Sinais Soluções dos Exercícios Propostos Capítulo 5

Sinais e Sistemas. Luis Henrique Assumpção Lolis. 21 de fevereiro de Luis Henrique Assumpção Lolis Sinais e Sistemas 1

Análise e Transmissão de Sinais

I-6 Sistemas e Resposta em Frequência

Sinais e Sistemas - Lista 3 Gabarito

Processamento de dados sísmicos, reflexão multi canal Prospecção Sísmica Aula06/1 NN

Transmissão sem distorção

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II

Processamento Digital de Sinais

Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento

Sinais e Sistemas. Série de Fourier. Renato Dourado Maia. Faculdade de Ciência e Tecnologia de Montes Claros. Fundação Educacional Montes Claros

Sinais e Sistemas p.1/33

PREVISÃO. Prever o que irá. acontecer. boas decisões com impacto no futuro. Informação disponível. -quantitativa: dados.

CONHECIMENTOS ESPECÍFICOS

Resumo. Sinais e Sistemas Transformada de Laplace. Resposta ao Sinal Exponencial

Transcrição:

III - Sinais Aleatórios e Filtragem Óptima António M. Gonçalves Pinheiro Departamento de Física Covilhã - Portugal pinheiro@ubi.pt

Sinais Aleatórios e Filtragem Óptima 1. Noção de Sinal Aleatório 2. Sinais Estocásticos, Processos Ergódicos e Sinais Estacionários 3. Funções de Correlação 4. Função espectral de Potência 5. Filtros de Wiener 6. Filtro de Kalman

Sinais Aleatórios Processos Estocásticos - Sinais que variam aleatoriamente no tempo. Sinais Aleatórios são regidos por processos estocásticos. 20 10 0 100 200 300 400 500 Ruído Aleatório Gaussiano 0 tempo (segundos) 8400 8410 8420 8430 8440 8450 8460 Pressão Arterial

Sinais Aleatórios Sinais Contínuos e Discretos 20 10 0 tempo (segundos) 8400 8410 8420 8430 8440 8450 8460 Sinal contínuo - x(t) 20 10 0 8400 8401 8402 Sinal discreto - x[n]

Sinais Aleatórios Média temporal e média conjunta Sinal Contínuo Sinal Discreto Sinal aleatório com potência média finita Média Temporal Componente contínua do sinal x(t) x(t) x[n] x[n] Média Quadrátrica Temporal Potência média do sinal x 2 (t) x 2 [n] Média Conjunta E [x(t)] E [x[n]] Média Quadrática Conjunta E [ x 2 (t) ] E [ x 2 [n] ]

Sinais Aleatórios Calculo de médias conjuntas x (t) 0 t 0 t + τ 0 t x (t) 1 t 0 t + τ 0 t x (t) 2 t 0 t + τ 0 t x (t) 3 t 0 t + τ 0 t

Sinais Aleatórios Processos estacionário Definição: Num processo estacionário as médias conjuntas são independentes do tempo de observação. E {x m [n]} = E {x m [n + k]} Processos ergódicos Definição: Um processo estocástico é um processo ergódico se as médias conjuntas são iguais às médias temporais. Ou seja: x m [n] = E {x m [n]} Nota 1: Os processos ergódicos são estacionários Nota 2: E {g(x)} = + g(x)p(x)dx E {g[n]} = + n= g[n]p[n]

Sinais Aleatórios Exemplos de Sinais Aleatórios

Sinais Aleatórios Exemplos de Sinais Aleatórios

Sinais Aleatórios Exemplos de Sinais Aleatórios (a) (d) (b) (e) (c) (f)

Propriedades do processo ergódicos Sinais Aleatórios A média x = x[n] = E {x[n]} é a componente contínua (DC) do sinal x[n]. O quadrado da média, x 2, é a potência DC. A média quadrada, x 2 = x 2 [n] = E { x 2 [n] }, é a potência média do sinal. A variância σ 2 x = x 2 x 2 é a potência relativa à parte do sinal que varia no tempo, ou seja, sem componente DC. O desvio padrão σ x é o valor eficaz do sinal.

Sinais Aleatórios Funções de Correlação Sinais Discretos Sinais Contínuos Correlação cruzada R xy [k] = E {x[n]y [n k]} R xy (τ) = E {x(t)y (t τ)} Auto-correlação R x [k] = E {x[n]x [n k]} R x (τ) = E {x(t)x (t τ)}

Sinais Aleatórios Propriedades da Auto-correlação: R x [ k] = R x [k] - Função Par R x [0] = x 2 = σ 2 x + x 2 R x [k] De 1 e 2 pode-se concluir que R x [k] é uma função par com um máximo em k = 0 Em processos não periódicos lim R x[ k ] = x 2 k + No caso de processos periódicos, a autocorrelação é também periódica, com o mesmo período que o processo. Nota: Provar que E{x[k k 1 ]x[k k 2 ]} = R x [k 1 k 2 ] se x[k] for um processo ergódico e real.

Sinais Aleatórios Processo Estacionário em Sentido Restrito - WSS WSS - Wilde Sense Stationarity" Condições de Estacionaridade 1. A média do processo é constante: x[n] = x. 2. A autocorrelação do processo R x [k] só depende do valor de k. 3. A variância do processo é finita: σ 2 x = x 2 [n] x 2 <

Densidade Espectral de Potência - P x Teorema de Wiener-Kinchine Sinais Aleatórios Sinal contínuo - x(t) R x (τ) TF P x (jω) = + E [x[(t)x (t τ)] e jωτ dτ Sinal discreto - x[n] R x [k] TF P x ( e jω ) = + k= E [x[n]x [n k]] e jωk

Densidade Espectral de Potência - P x Relação entre a entrada e a saída num SLIT Sinais Aleatórios Sistema contínuo - h(t) R y (τ) TF P y (jω) = H(jω) 2 P x (jω) Sistema discreto - h[n] R y [k] TF ( P ) y e jω = H ( e jω) 2 ( P ) x e jω

Sinais Aleatórios Propriedades da Densidade Espectral de Potência de um Processo Estacionário Sinais Discretos ( 1. Simetria: P ) ( x e jω = P ) x e jω ( Se x[n] é real, então P ) ( x e jω = P ) x e jω (função par) Sinais Contínuos 1. Simetria: P x (jω) = P x (jω) Se x(t) é real, então P x (jω) = P x ( jω) (função par) 2. Positividade: P x ( e jω ) 0 2. Positividade: P x (jω) 0 3. Potência total: x 2 = R x [0] = 1 2π π π P x ( e jω ) dω 3. Potência total: x 2 = R x (0) = 1 2π P x (jω) dω

Sinais Aleatórios Exemplo 1 x(t) = A cos(ω 0 t + θ) com A e ω 0 constantes e θ varia aleatoriamente de forma uniformemente distribuida (entre π < θ π). Resolução: R x (τ) = E {x(t)x (t τ)} = A2 2 E {cos(ω 0τ)} + A2 2 E {cos(2ω 0t ω 0 τ + 2θ)} E {cos(2ω 0 t ω 0 τ + 2θ)} = Solução: + R x (τ) = A2 2 cos(ω 0τ) cos(2ω 0 t ω 0 τ+2θ)p(θ)dθ = 1 2π +π TF P x (jω) = A2 π 2 (δ(ω ω 0) + δ(ω + ω 0 )) π cos(2ω 0 t ω 0 τ+2θ)dθ = 0

Exemplo 2 Onda binária aleatória: Sinais Aleatórios A -A x(t) T T d T T T Em (n 1)T < t T d < nt, x(t) assume valor +A ou A de forma equiprovável. O tempo de atraso T d é uma variável aleatória uniformemente distribuida no intervalo [0, T ]. Resolução: R x (τ) = E {x(t)x (t τ)} Se τ > T estamos perante duas amostras diferentes e independentes da onda binária. Como os símbolos são equiprováveis E {x(t)x (t τ)} = E {x(t)} E {x (t τ)} = 0 x(t) e x(t τ) só estão no mesmo intervalo se: t + (T d T ) < t τ T d < T τ. Nesse caso T τ ( E {x(t)x (t τ)} = A 2 1 T dt d = A 2 1 τ ) T 0 t

Exemplo 2 (continuação) Solução: R x (τ) = A 2 Λ(τ/T ) = A 2 ( 1 τ T Sinais Aleatórios ) [u(t + T ) u(t T )] ( ) TF ωt P x (jω) = A 2 T sinc 2 2π A 2 R (τ) x P A 2 x(ω) T 0-2T -T 0 T 2T τ 0-3/T -2/T -1/T 0 1/T 2/T 3/T ω

Sinais Aleatórios Ruído Térmico Ruído térmico que surge devido ao movimento de electrões e portanto surge inevitavelmente associado à corrente eléctrica em materiais condutores. O ruído térmico é uma variável aleatória x(t) com distribuição gaussiana, em que: x = 0 x2 = σ 2 x = 2(πKT )2 RV 2, em que 3h T - Temperatura K - constante de Boltzman h - constante de Plank P x (jω) = Rh ω π ( e hω/(2πkj) 1 ) [V 2 /Hz]

Sinais Aleatórios Ruído Branco Caracterizado por: variável aleatória gaussiana. P (jω) = η/2 - densidade espectral de potência constante ao lonngo de grande faixas de frequências. R(τ) = T F 1 {P (jω)} = (η/2)δ(τ) Propriedade: R(τ 0) = 0, logo 2 amostras diferentes de um sinal de ruído branco gaussiano, são sempre: não correlacionadas = logo são estatisticamente independentes

Sinais Aleatórios Filtragem de Ruído Branco Considerando: h(t) - filtro passa baixo ideal com largura de banda B x(t) - ruído branco P y (jω) = η 2 Π ( ω ) TF R y (τ) = ηbsinc(2bτ) 2B η/2 P (ω) y 1 R (τ) y 0-2B -B 0 B 2B ω 0-1/B -1/2B 0 1/2B 1/B τ

Sinais Aleatórios Propriedade Se a entrada de um sistema linear e invariante no tempo for um sinal aleatório gaussiano, então a saída será um sinal aleatório gaussiano. podem mudar as médias estatísticas, mas não muda o modelo de probabilidade. ruído branco filtrado origina sinal aleatório gaussiano, que não é ruído branco. Relação Sinal Ruído - SNR Considerando um sinal d[n] corrompido com ruído branco gaussiano v[n], em que resulta x[n] = d[n] + v[n], define-se: SNR = R d[0] σ 2 v SNR - medida da potência do ruído relativamente à potência do sinal.

d[n] v[n] x[n] Filtro Estimador d[n] d[n] - Sinal v[n] - Ruído x[n] - Sinal corrompido com ruído ˆd[n] - Sinal Estimado Objectivo - Estimar um sinal aleatório que só está disponível corrompido com ruído. Duas soluções: Filtro de Wiener - Sinais Estacionários (WSS - Sentido Restrito) Filtro de Kalman - Sinais Não Estacionários

Problemas a considerar: Filtragem - Estimar d[n] ˆ quando o sinal está corrompido com ruído, x[n] = d[n] + v[n] com um filtro estimador causal, ou seja, considerando o valor presente e passados de x[n]. Suavização - O mesmo problema, mas considerando todos os dados possíveis, sendo permitido que o filtro estimador não causal. Predição - Sinal é estimado em n + k (futuro), usando dados observados até n. Desconvolução - Quando x[n] = d[n] g[n] + v[n], em que g[n] é a resposta impulsiva de um SLIT.

Filtros FIR de Wiener Filtro estimador - w[n] Z W (z) O filtro FIR de Wiener produz uma estimativa do erro quadrático médio mínimo do processo d[n] filtrando o processo estatisticamente relacionado x[n]. Assume-se que os processos x[n] e d[n] são estacionários em sentido restrito com: autocorrelação de x[n] - R x [k] autocorrelação de d[n] - R d [k] correlação cruzada: R dx [k]

Filtros FIR de Wiener N - comprimento do filtro FIR de Wiener W (z) = N 1 k=0 w[k]z k A estimativa do filtro à saída é dada pela convolução: ˆd[n] = N 1 l=0 w[l]x[n l] O filtro FIR de Wiener leva a coeficientes w[n] que minimiza o erro quadrático médio, ou seja: { ξ = E e[n] 2} { d[n] } 2 = E ˆd[n] ξ w[m] = 0

Filtros FIR de Wiener Manipulando matemáticamente, obtemos (Princípio da ortogonalidade): Considerando Resulta Ou seja: ξ w[m] = 0 E {e[n]x [n m]} = 0, m = 0, 1,..., N 1 e[n] = d[n] ˆd[n] = d[n] E {d[n]x [n m]} N 1 l=0 N 1 l=0 N 1 l=0 w[l]x[n l] w[l]e {x[n l]x [n m]} = 0 w[l]r x [m l] = R dx [m], m = 0, 1,..., N 1

Filtros FIR de Wiener Considerando que R x [k] = R x[ k] resulta um sistema de equações na forma matricial (Equações de Winer-Hopf ): R x w = R dx w = R 1 x R dx R x = R x [0] Rx[1]... Rx[N 1] R x [1] R x [0]... Rx[N 2] R x [2] R x [1]... Rx[N 3]......... R x [N 1] R x [N 2]... R x [0] w = w[0] w[1] w[2]... w[n 1] R dx = R dx [0] R dx [1] R dx [2]... R dx [N 1] R x - Matriz de autocorrelação, Hermitiana e de Toeplitz" w - vector dos coeficientes do filtro R dx - vector de correlação cruzada entre o sinal desejado d[n] e o sinal observado x[n].

Filtros FIR de Wiener Equações de Wiener-Hopf para o filtro FIR de Wiener N 1 Equações de Wiener-Hopf w[l]r x [m l] = R dx [m], m = 0, 1,..., N 1 l=0 Correlações Mínimo Erro R x = E {x[n]x [n m]} R dx = E {d[n]x [n m]} ξ min = R d (0) N 1 l=0 w[l]r dx[l] w = R 1 x R dx ξ min = R d (0) R H dxr 1 x R dx

Exemplo de Estimação com Filtro FIR de Wiener Sinal corrompido x[n]

Exemplo de Estimação com Filtro FIR de Wiener Sinal corrompido x[n] e sinal original d[n].

Exemplo de Estimação com Filtro FIR de Wiener Sinal corrompido x[n], sinal original d[n] e sinal estimado ˆd[n]

Exemplo de Estimação com Filtro FIR de Wiener Sinal original d[n] e sinal estimado ˆd[n]

Filtros FIR de Wiener - Filtragem Sinal d[n] corrompido com ruído v[n], resultando em: x[n] = d[n] + v[n] d[n] x[n] w[n] d[n] Exemplos de aplicação: recuperação de sinais adquiridos em ambientes ruidosos enriquecimento da qualidade de imagem restauração de gravações antigas v[n] Consideramos o ruído e o sinal não correlacionados. Logo R dv [k] = E {d[n]v [n k]} = 0. Então: R dx [k] = E {d[n]x [n k]} = E {d[n]d [n k]} + E {d[n]v [n k]} = R d [k] R x [k] = E {x[n + k]x [n]} = E {[d[n + k] + v[n + k]] [d[n] + v[n]] } = R d [k] + R v [k] Equação de Wiener-Hopf (ruído e sinal não correlacionados) [R d + R v ] w = R d

Filtros FIR de Wiener - Exemplo de Filtragem Consideremos um processo estacionário d[n] com autocorrelação Rd [k] = α k. α < 1 corrompido com ruído branco não correlacionado com variância σ 2 v, tal que x[n] = d[n] + v[n]. Pretende-se desenhar um filtro FIR de Wiener de primeira ordem (comprimento 2) para reduzir o efeito do ruído e obter a melhor estimativa de d[n]. Logo, o filtro será dado por: W (z) = w[0]+w[1]z 1 N = 2 sendo a equação de Wiener-Hopf dada por: resulta W (z) = [ Rx [0] R x [1] R x [1] R x [0] ] [ w[0] w[1] ] = [ Rdx [0] R dx [1] 1 (1 + σ 2 v) 2 α 2 [( 1 + σ 2 v α 2 + ασ 2 vz 1)] ]

Filtros FIR de Wiener - Exemplo de Filtragem Considerando α = 0.8 e σ 2 v = 1 obtemos: SNR sem o filtro: SNR = R d[0] = α0 = 1 σv 2 σv 2 SNR com o filtro: E { w[n] d[n] 2} SNR = E { w[n] v[n] 2} SNR = wt R d w w T R v w = 0.37748 0.2206 Logo a SNR será dada por: SNR db = 10 log 10 0.37748 0.2206 = 2.302dB Amplitude 10 8 6 4 2 0 0 0.2 0.4 0.6 0.8 1 Frequência Amplitude do espectro de potência do processo d[k]. Amplitude 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1 Frequência Resposta em Amplitude do filtro de Wiener

Filtros de Wiener - Predicção Neste caso o objectivo é estimar o sinal em n + 1, x[n + 1]: ˆx[n + 1] = N 1 k=0 w[k]x[n k] Se considerarmos d[n] = x[n + 1] temos uma situação idêntica à anterior. N valores x[n+1] n Sendo R dx [k] = E {d[n]x [n k]} = E {x[n + 1]x [n k]} = R x [k + 1]

Filtros de Wiener - Predicção As equações de Wiener-Hopf resultantes são dadas por: R x [0] Rx[1]... Rx[N 1] R x [1] R x [0]... Rx[N 2] R x [2] R x [1]... R x[n 3]......... R x [N 1] R x [N 2]... R x [0] Sendo o erro quadrático médio dado por: ξ min = R x (0) N 1 k=0 w[0] w[1] w[2]... w[n 1] w[k]r x[k + 1] = R dx [1] R dx [2] R dx [3]... R dx [N]

Filtros de Wiener - Exemplo de Predicção Consideremos um processo estacionário x[n] com autocorrelação R x [k] = α k. O preditor de primeira ordem (comprimento 2) é da forma: ˆx[n + 1] = w[0]x[n] + w[1]x[n 1] Resultando nas equações de Wiener-Hopf: [ 1 α α 1 ] [ w[0] w[1] ] = [ α α 2 ] O preditor de primeira ordem é dado por: ˆx[n + 1] = αx[n]

Filtros de Wiener - Predicção no ruído Neste caso o objectivo é estimar o sinal em n + 1, x[n + 1], quando ele se encontra corrompido com ruído: Sendo assim ˆx[n + 1] = N 1 k=0 w[k]y[n k] x[n] v[n] y[n] w[n] x[n+1] Sendo a equação de Wiener-Hopf dada por: R y w = R dy com R y = R x + R v caso o sinal e o ruído sejam não correlacionados.

Filtros de Wiener - Predicção de amostra n + m Equações de Wiener-Hopf: R x [0] Rx[1]... Rx[N 1] R x [1] R x [0]... Rx[N 2] R x [2] R x [1]... R x[n 3]......... R x [N 1] R x [N 2]... R x [0] w[0] w[1] w[2]... w[n 1] = R dx [m] R dx [m + 1] R dx [m + 2]... R dx [m + N 1]

Filtros de Wiener IIR Consideramos o filtro IIR de Wiener com função impulsiva h[n] com função de transferência dada por: H(z) = H(z) é tal que minimiza o erro quadrático médio: ξ = E O mínimo do erro quadrático médio implica: + k= h[n]z n { e[n] 2}, com e[n] = d[n] ˆd[n] = d[n] + l= h[l]x[n l] ξ h[m] = 0 E {e[n]x [n m]} = 0; < m < +

Filtros de Wiener IIR Combinando as duas últimas expressões: Que é equivalente a: + l= h[l]r x [m l] = R dx [k]; < m < + h[m] R x [m] = R dx [m] Que resulta no domínio da frequência no filtro não causal H ( e jω) = P ( ) dx e jω P x (e jω ) Neste caso, o erro quadrático médio mínimo é dado por: ξ min = R d (0) + l= h[l]r dx(l) = R d (0) 1 2π π π H ( e jω) P dx ( e jω ) dω

Filtros de Wiener IIR Causal Aproximação semelhante, só que consideramos a resposta impulsiva nula para n < 0 ˆd[n] = x[n] h[n] = + k=0 Função de Transferência H(z) = Em que Q(z) resulta da factorização espectral de h[k]x[n k] 1 σ 2 0 Q(z) + l=0 P dx (z) Q (1/z ) P x (z) = σ 2 0Q(z)Q (1/z ) h[l]r x [k l] = R dx [k] Erro Mínimo ξ min = R d (0) + l=0 h[l]r dx(l) = 1 2π π π ( Pd ( e jω ) H ( e jω) P dx ( e jω )) dω

Filtro de Kalman Discreto Filtro de Wiener requer sinais d[n] e x[n] WSS Os filtros de Kalman são aplicados a sinais não estacionários. Cálculo Para n = 1, 2,..., calcular ˆd[n n 1] = A[n 1]ˆd[n 1 n 1] Equação de Estado Equação de Observação Inicialização d[n] = A[n 1] + w[n] d[n] = A[n 1]d[n 1]+w[n] ˆd[0 0] = E {d[0]} P[0 0] = E { d[0]d H [0] } P[n n 1] = A[n 1]P[n 1 n 1]A H [n 1] + Q w [n] K[n] = P[n n 1]C H [n] [ C[n]P[n n 1]C H [n] + Q v [n] ] 1 ˆd[n n] = ˆd[n n 1] + K[n] P[n n] = [I K[n]C[n]] P[n n 1] [ ] x[n] C[n]ˆd[n n 1]

Filtro de Kalman Discreto - Exemplo Estimação de um valor constante corrompido por ruído branco não correlacionado de média nula. Nesse caso a equação de estado é dada por: d[n] = d[n 1] Sendo observado: x[n] = d[n] + v[n] Logo: A[n] = 1, C[n] = 1, Q w [n] = 0 e Q v [n] = σv 2 Como x[n] é um escalar, a covariância do erro também é escalar, P [n n] = E { e 2 [n n] }, com e[n n] = d[n] ˆd[n n] Aplicando as equações: P [n 1] = P [n n 1] = P [n 1 n 1], k[n] = P [n 1] [ ] P [n 1] + σv 2 1 P [n] = [1 K[n]] P [n 1] = P [n 1]σ2 v P [n] = P [n 1] + σv 2 P [n 1] P [0] k[n] = = P [n 1] + σv 2 n P [0] + σv 2 P [0]σ2 v n P [0] + σ 2 v

Filtro de Kalman Discreto - Exemplo Obtemos então para o filtro de Kalman: ˆd[n] = ˆd[n 1] + P [0] n P [0] + σ 2 v [ x[n] ˆd[n ] 1] Nota: Supor que ˆd[0] = 0 e que P [0], ou seja, não há qualquer informação à priori sobre d. Então: Ou seja, a média. k[n] = 1 n ˆd[n] = n 1 n ˆd[n 1] + 1 n x[n] = 1 n n x[k] k=1