Filtragem Adaptativa

Documentos relacionados
Definições Matemáticas

Processos estocásticos

Processos Estocásticos

Introdução ao Processamento Estatístico de Sinais

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Análise e Processamento de Sinal e Imagem. III - Sinais Aleatórios e Filtragem Óptima

Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

Introdução ao Processamento Estatístico de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Módulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios

Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

Teoria da Informação

Prof. Walter Fetter Lages 4 de outubro de 2004

195

Processos Estocásticos

Aula 1. Wilson Correa. June 27, 2017

Revisões de Matemática e Estatística

Sinais e Sistemas Mecatrónicos

1 Auto vetores e autovalores

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

Resumo. Parte 7 Processos Estocásticos. Ramiro Brito Willmersdorf

PROCESSOS ESTOCÁSTICOS. O resultado de muitas experiências aleatórias é função do tempo ou de uma (ou mais) coordenada espacial.

Vetor de Variáveis Aleatórias

2 Núcleos: suas propriedades e classificações

Módulo III: Processos de Poisson, Gaussiano e Wiener

Teoria da Informação

Introdução aos Proc. Estocásticos - ENG 430

Par de Variáveis Aleatórias

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

4.1. ESPERANÇA x =, x=1

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

Noções de Álgebra Linear

Controle Ótimo - Aula 6 Exemplos e Exercícios

Mais sobre Modelos Continuos

(b) A não será diagonalizável sobre C e A será diagonalizável sobre R se, e

2 Conceitos de Teoria da Probabilidade

6. Predição Linear e Controlo de Variância Mínima

PRINCÍPIOS DE COMUNICAÇÃO

Aula de Processamento de Sinais I.B De Paula. Tipos de sinal:

PRE29006 LISTA DE EXERCÍCIOS #

TE802 Processos Estocásticos em Engenharia

Produto Interno - Mauri C. Nascimento - Depto. de Matemática - FC UNESP Bauru

ÁLGEBRA LINEAR I - MAT0032

Sistemas lineares. Aula 3 Sistemas Lineares Invariantes no Tempo

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12

canal para sinais contínuos

Um modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15

Modelagem Estocástica e Quantificação de Incertezas

Universidade Federal da Bahia Programa de Pós Graduação em Engenharia Elétrica

Introdução ao Processamento Estatístico de Sinais

Processos Estocásticos e Cadeias de Markov Discretas

Lucas Santana da Cunha 12 de julho de 2017

AST203-CVR 4-1 AST203-CVR. Observação eletromagnética. Processamento de sinais importante em várias áreas, além da astronomia telecomunicações

1 Álgebra linear matricial

Processos Estocásticos. Luiz Affonso Guedes

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.

Lucas Santana da Cunha de junho de 2018 Londrina

1 O esquema de Alamouti: Diversidade na transmissão

EES-20: Sistemas de Controle II. 20 Novembro 2017

CM005 Álgebra Linear Lista 3

2 Medida de Incertezas: Fundamentos

ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara

Cadeias de Markov de Tempo Contínuo (CTMC)

5.3 Variáveis aleatórias gaussianas conjuntas

1 a Lista de Exercícios MAT 3211 Álgebra Linear Prof. Vyacheslav Futorny

MAT Álgebra Linear para Engenharia II - Poli 2 ō semestre de ā Lista de Exercícios

RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno

Aula 11. Variáveis Aleatórias Contínuas Bidimensionais

Comunicações Digitais Prof. André Noll Barreto. Prova /1 (04/04/2017)

Funções ortogonais e problemas de Sturm-Liouville. Prof. Rodrigo M. S. de Oliveira UFPA / PPGEE

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

CURTA REVISÃO SOBRE PROBABILIDADE E PROCESSOS ESTOCÁSTICOS

Autovalores e Autovetores

7 Conclusões e desenvolvimentos futuros

Álgebra Linear Teoria de Matrizes

Álgebra Linear Equações Diferenciais Parciais Problemas de Sturm Liouville. Ney Lemke. logo

ANÁLISE DE SINAIS DINÂMICOS

Sinais e Sistemas. Sinais e Sistemas Fundamentos. Renato Dourado Maia. Universidade Estadual de Montes Claros. Engenharia de Sistemas

Interbits SuperPro Web

MAP Métodos Numéricos e Aplicações Escola Politécnica 1 Semestre de 2017 EPREC - Entrega em 27 de julho de 2017

ESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

Processos Aleatórios e Ruído

UFRGS INSTITUTO DE MATEMÁTICA E ESTATÍSTICA Programa de Pós-Graduação em Matemática Aplicada Prova Escrita - Processo Seletivo 2017/2 - Mestrado

DISTRIBUIÇÃO NORMAL DISTRIBUIÇÕES DE PROBABILIDADE CONJUNTAS ROTEIRO DISTRIBUIÇÃO NORMAL

Conteúdo Teórico: 04 Esperança

SME Gustavo C. Buscaglia

Sinais e Sistemas. Tempo para Sistemas Lineares Invariantes no Tempo. Representações em Domínio do. Profª Sandra Mara Torres Müller.

Lucas Santana da Cunha de junho de 2018 Londrina

Universidade Federal de Alagoas UFAL Centro de Tecnologia - CTEC Programa de Pós-Graduação em Engenharia Civil - PPGEC

(x 1, y 1 ) (x 2, y 2 ) = (x 1 x 2, y 1 y 2 ); e α (x, y) = (x α, y α ), α R.

Análise e Processamento de BioSinais. Mestrado Integrado em Engenharia Biomédica. Faculdade de Ciências e Tecnologia. Universidade de Coimbra

Transcrição:

Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/ charles

Filtros adaptativos, os quais têm como meta transformar os sinais portadores de informação em versões limpas ou melhoradas, ajustam suas características de acordo com os sinais encontrados. Eles formam os exemplos mais simples de algoritmos no campo de aprendizado de máquinas. Philip A. Regalia, 2005 IEEE Control Systems Magazine, Agosto de 2005

Conteúdo do curso 1 Introdução 2 Revisão de Processos Estocásticos 3 Filtragem Linear Ótima 4 Algoritmos Recursivos no Tempo 5 Método dos Mínimos Quadrados 6 Estruturas Alternativas de 7 Tópicos Avançados

Parte III Estatísticas de Segunda Ordem

Introdução geral Processos estocásticos discretos Sinal discreto x(n): seqüencia de números indexada por um argumento n Z. Constitui um sinal aleatório na medida em que, para um dado n = n 0 pré-estabelecido, existe alguma incerteza sobre o valor x(n 0 ), ou seja, x(n 0 ) é uma variável aleatória. S A 1 A 2 x : número associado a um i determinado evento A 3 A 4

Introdução geral - cont. Processo estocástico Conjunto das possíveis realizações de um dado sinal aleatório S s 1 x1( t) x2( t) x1( t k ) 0 x2( t k ) 0 s 2 s n... xn( t)... x ( t ) n k 0 t k t

Introdução geral - cont. Caracterização Como caracterizar x(n 0 )? 1 função de densidade de probabilidade (pdf): p X0 (x 0 ) 2 função de distribuição (cumulativa) de probabilidade: F X0 (x 0 ) [ ] x 1 x K p X 1,,X }{{} K (x 1,,x K ) intervalo de realização do processo p ( x, x ) X1, X 1 2 2 x 1 x 2

Introdução geral - cont. Estacionaridade Propriedades estatísticas se preservam com translação no tempo p XL,,X K (x L,,x K ) = p XL+n0,,X K+n0 (x L+n0,,x K+n0 ) (22) Ergodicidade Comportamento estatístico é idêntico ao comportamento temporal p X (i) (x (i)) i = p Xj (x j ) j (23)

Funções de correlação Correlação Seja um vetor de v.a. x = [ x 1 x 2 x N ], temos que a correlação entre dois elementos, i e j, como r ij = {x i x j } = = x i x j p x(x) dx x i x jp xi,x j (x i,x j ) dx i dx j (24) De uma maneira mais intuitiva, a correlação pode ser definida como a medida de relação entre as duas variáveis aleatórias. Note ainda que a mesma pode assumir valores positivos ou negativos.

Funções de correlação - cont. Matrix de correlação Podemos unificar uma notação para avaliar todos os pares de variáveis na correlação. Desta forma, definimos a matriz de correlação definida como R x = { xx H} { x 1 2 } {x 1 x 2 } {x 1x N } {x 2 x 1 = } { x 2 2 } {x 2 x N }...... {x N x 1 } {x Nx 2 } { x N 2 } N N (25)

Funções de correlação - cont. Matrix de correlação - cont. Se escrevermos o vetor x = (x r ) e imaginária (x i ), temos { xx H} = Desta forma, denotamos = [ xr x i ] {[ xr x i explicitando suas partes real ] [ x H r x H i ] } [ {xr x H r } {x r x H i } {x i x H r } {x i x H i } ] (26) {x r x H r } = {x ix H i } = RE x {x i x H r } = {x rx H i } = RO x (27) em que E e O denotam as partes par (even) e ímpar (odd).

Funções de correlação - cont. Matrix de correlação - cont. Propriedades de R x 1 É uma matriz simétrica: R x = R H x 2 É uma matriz semi-definida positiva a H R x a 0 (28) para qualquer vetor N-dimensional a 0. Na prática, geralmente R x é definida positiva para qualquer vetor N-dimensional a 0 3 Todos os autovalores de R x são reais e não-negativos (positivos se R x for definida positiva). Além disso, os autovetores de R x são reais e podem sempre ser escolhidos tal que sejam mutuamente ortogonais. 4 R x = 2R E x + j2r O x

Funções de correlação - cont. Matrix de correlação - cont. Propriedades de R x (cont.) 5 É uma matriz Toeplitz 6 A correlação indica quanto um sinal tem haver com outro 7 Quanto mais lento for o processo, maior a correlação 8 Uma correlação positiva indica que o crescimento (decrescimento) de uma v.a implica em crescimento (decrescimento) da outra e uma correlação negativa indica que o crescimento (decrescimento) de uma v.a. implica no decrescimento (crescimento) da outra

Funções de correlação - cont. Coeficiente de Rayleigh Seja v(n) um ruído branco, ou seja, R v = σv 2 I. Seja então um sinal qualquer s(n) = x(n) }{{} sinal de interesse + v(n) }{{} ruído branco } {{ } independentes Se passarmos a seqüência s(n) por um filtro teremos então a seguinte saída w = [ w 0 w 1... w N 1 ], y(n) = w H x(n) + w H v(n)

Funções de correlação - cont. Coeficiente de Rayleigh - cont. Temos então: Potência interesse SNR saída = Potência ruído = {wh x(n)x H w(n)} {w H v(n)v H w(n)} = wh R x w w H R v w = wh R x w w H σ 2 viw (29) Então, escreve-se w H R x w w H w } {{ } coeficiente de Rayleigh 1 σ 2 v (30)

Funções de correlação - cont. Covariâncias e momentos conjuntos Relembrando: momentos centrados são definidos de maneira similar aos momentos usuais, apenas a média é envolvida no cálculo da esperança. Definimos então a matriz de covariância de x como e os elementos C x = { (x µ x )(x µ x ) H} (31) c ij = { (x i µ i )(x j µ j ) H} (32) da matriz C x de dimensão N N, são chamados de covariâncias e eles são os momentos centrados correspondentes às correlações r ij.

Funções de correlação - cont. Covariâncias e momentos conjuntos - cont. A matriz de covariância C x possui as mesmas propriedades de simetria que a matriz de correlação R x. Usando as propriedades do operador esperança, é fácil mostrar que R x = C x µ x µ H x (33) Se o vetor de médias for µ x = 0, as matrizes de correlação e covariância são as mesmas

Funções de correlação - cont. Covariâncias e momentos conjuntos - cont. Para esperanças conjuntas, ou seja, envolvendo mais de uma variável aleatória, podemos definir a matriz de correlação cruzada R xy = { xy H} (34) e a matriz de covariância cruzada C xy = { (x µ x )(y µ y ) H} (35) Note que as dimensões dos vetores x e y podem ser diferentes. Assim, as matriz de correlação e covariância cruzadas não são necessariamente quadradas e são, em geral, não-simétricas. Entretanto, de suas definições segue que: R xy = R H yx C xy = C H yx (36)

Funções de correlação - cont. Covariâncias e momentos conjuntos - cont. Quando temos uma soma de dois vetores x e y, temos as seguintes relações: 1 Correlação 2 Covariância R x+y = R x + R xy + R yx + R y (37) C x+y = C x + C xy + C yx + C y (38) Vale relembrar que: Variáveis ortogonais implica em correlação zero (R xy = 0) Variáveis descorrelacionadas implica em covariância zero, (C xy = 0) Então, temos 1 R x+y = R x + R y para x e y ortogonais 2 C x+y = C x + C y para x e y descorrelacionados

Transformações tempo-freqüência Transformação tempo-freqüência diz respeito à transformada de Fourier quando estudamos sinais determinísticos A transformação requer o conhecimento da função do sinal a ser avaliada na freqüência S(ω) = F{s(t)} = s(t)exp( jωt) dt (39) Pergunta: como fazer no caso de sinais aleatórios? Não se conhece os valores do sinal com precisão e a integral pode não existir. Resposta: definir de outra forma a transformada de Fourier de um processo aleatório

Transformações tempo-freqüência - cont. Classificação de processos estocásticos 1 Estacionários no sentido estrito (SSS) TODAS as estatísticas (momentos) são independentes do tempo, ou seja, p X(t) [x(t)] = p X(t) (x) 2 Estacionários no sentido amplo (WSS) Apenas as estatísticas de primeira e segunda ordem (média e correlação) são independentes do tempo, ou seja, E {X(t)} = µ E { (X(t) µ) 2} = σ 2 x

Transformações tempo-freqüência - cont. Função de densidade espectral Definição Para a classe de processos estocásticos WSS definimos a função de densidade espectral como a transformada de Fourier da correlação na forma S x (ω) = F{r x (τ)} = r x (τ)exp( jωτ) dτ (40) A função de densidade espectral de potência é um indicador da distribuição da potência do sinal como uma função da freqüência.

Transformações tempo-freqüência - cont. Função de densidade espectral - cont. Pode-se ainda calcular a correlação a partir da função de densidade espectral, uma vez que a transformada de Fourier é única, como r x (τ) = F 1 {S x (ω)} = 1 2π S x (ω)exp(jωτ) dω (41) NOTA: Valem ressaltar que τ significa a diferença entre os tempos que os processos WSS requerem como parâmetro para caracterizar a correlação. Neste caso, seria o equivalente à diferença entre as amostras i e j que temos na correlação definida na Equação (24)

Transformações tempo-freqüência - cont. Função de densidade espectral - cont. Propriedades 1 O valor médio quadrático de um processo WSS é dado por E{X 2 (t)} = r x (0) = 1 2π S x (ω) dω (42) 2 A densidade espectral de potência de um processo WSS é sempre não-negativa S x (ω) 0 para todo ω (43)

Transformações tempo-freqüência - cont. Função de densidade espectral - cont. Propriedades - cont. 3 A densidade espectral de potência de um processo WSS real é uma função par de ω S x (ω) = S x ( ω) (44) 4 O valor da densidade espectral de potência em ω = 0 é S x (0) = r x (τ) dτ (45)

Momentos de ordem superior São estatísticas de ordem superior a 2 Descrevem o comportamento estatístico dos dados com alguma informação a mais São importante por portarem informação da fase dos dados O momento de ordem 3 recebe o nome de obliquidade (skewness em inglês) e mede a assimetria da distribuição O momento de ordem 4 recebe o nome de kurtosis e é denotada por K Podemos também classificar as distribuições através da kurtosis 1 Para K = 0: distribuição mesocúrtica (gaussiana) 2 Para K > 0: distribuição leptocúrtica (super-gaussiana) 3 Para K < 0: distribuição platicurtica (sub-gaussiana)

Momentos de ordem superior - cont. Funções característica Primeira função característica Importante C( ω) C(ω) p X (x) exp(jωx) dx (46) p X (x) exp( jωx) dx C( ω) = F{p X (x)} (transformada de Fourier de p X (x))

Momentos de ordem superior - cont. Funções característica - cont. Importante - cont. Notação P X (ω) = F{p X (x)} = = {exp( jωx)} p X (x) exp( jωx) dx Assim p X (x) = 1 2π P X (ω) exp(jωx) dω

Momentos de ordem superior - cont. Funções característica - cont. Primeira função característica - Variáveis discretas P X (w) = Pr{X = x i } exp ( jωx i ) i= = {exp( jωx)}

Momentos de ordem superior - cont. Funções característica - cont. Propriedades P X (ω) 1 P X (ω) 1 Prova: 2 P X (0) = 1 P X(ω) = p X(x) exp( jωx) dx p X(x) exp( jωx) dx = desigualdade de Schwartz p X(x) dx

Momentos de ordem superior - cont. Funções característica - cont. Função geradora de momentos P X (ω) = {exp( jωx)} ( jωx) k exp( jωx) = k! k= { } ( jω) k X k {exp( jωx)} = k! {exp( jωx)} = P X (ω) = k= k= (Série de Taylor em torno de X = 0) k= ( jω) k {X k} k! }{{} µ k ( jω) k µ k k!

Momentos de ordem superior - cont. Funções característica - cont. Função geradora de momentos - cont. Ainda Logo k=0 P X (ω) = d k P X (ω) dw k k=0 d k P X (ω) dω k ωk ω=0 k! = 1 ω=0 k! ωk k=0 µ k ( j) k = dk P X (ω) dw k µ k ( j) k ωk k! ω=0

Momentos de ordem superior - cont. Funções característica - cont. Exemplo Sejam X e Y v.a.s independentes com p X (x) e p Y (y) conhecidas. Se Z = X + Y, p Z (z) =? Solução P Z(ω) = {exp( jωz)} = {exp[ jω(x + Y )]} exp( jωx) exp( jωy ) p X,Y (x, y) dx dy exp( jωx) p X(x) dx } {{ } {exp( jωx)} P Z(ω) = P X(ω) P Y (ω) p Z(z) = p X(x) p Y (y) exp( jωy ) p Y (y) dy } {{ } {exp( jωy )}

Momentos de ordem superior - cont. Funções característica - cont. Segunda função característica Ψ(ω) = ln[p X (ω)] (47) Importante A segunda função característica é também chamada de função geradora de cumulantes Os cumulantes são de extrema importância na caracterização estatística de uma v.a.

Momentos de ordem superior - cont. Cumulantes História Os cumulantes foram inicialmente introduzidos pelo astrônomo, contador, matemático e estaticista dinamarquês Thorvald N. Thiele (1838-1910) que os denominou semi-invariantes. O termo cumulante surgiu pela primeira vez em 1931 no artigo The Derivation of the Pattern Formulæ of Two-Way Partitions from Those of Simpler Patterns, Proceedings of the London Mathematical Society, Series 2, vol. 33, pp. 195-208, publicado pelo geneticista e estaticista Sir Ronald Fisher e o estaticista John Wishart, epônimo da distribuição de Wishart. O historiador Stephen Stigler comenta que o termo cumulante foi sugerido a Fisher numa carta de Harold Hotelling. Em um outro artigo publicado em 1929, Fisher chamou-os de funções de momentos cumulativos.

Momentos de ordem superior - cont. Cumulantes - cont. Definição O cumulante de ordem k é definido como κ k = k Ψ(ω) ω k (48)

Momentos de ordem superior - cont. Cumulantes - cont. Propriedades dos cumulantes 1 Invariância e equivariância κ 1 (Y + α) = κ 1 (Y ) + α κ k (Y + α) = κ k (Y ) para α uma constante qualquer. 2 Homogeneidade (ou multilinearidade) κ k (αy ) = α k κ k (Y ) 3 Aditividade κ k (X + Y ) = κ k (X) + κ k (Y ) se X e Y são v.a.s independentes

Momentos de ordem superior - cont. Cumulantes - cont. Cumulantes e momentos Os cumulantes são relacionados com os momentos através da seguinte recursão: k 1 ( k 1 κ k = µ k i 1 i=1 ) κ i µ k i (49)

Momentos de ordem superior - cont. Cumulantes - cont. Cumulantes e momentos - cont. Desta forma, o k ésimo momento é um polinômio de grau k dos k primeiros cumulantes, dados, para o caso em que k = 6, na seguinte forma: µ 1 = κ 1 µ 2 = κ 2 + κ 2 1 µ 3 = κ 3 + 3κ 2 κ 1 + κ 3 1 µ 4 = κ 4 + 4κ 3 κ 1 + 3κ 2 2 + 6κ 2 κ 2 1 + κ 4 1 µ 5 = κ 5 + 5κ 4 κ 1 + 10κ 3 κ 2 + 10κ 3 κ 2 1 + 15κ2 2 κ 1 + 10κ 2 κ 3 1 µ 6 = κ 6 + 6κ 5 κ 1 + 15κ 4 κ 2 + 15κ 4 κ 2 1 + 10κ 2 3 + 60κ 3 κ 2 κ 1 + 20κ 3 κ 3 1 + 15κ3 2 + 45κ2 2 κ2 1 + 15κ 2κ 4 1 + κ6 1.

Processos Aleatórios Classificação Em geral, podemos escrever a descrição de um modelo de entrada e saída de um modelo estocástico como valor atual da saída do modelo + combinação linear dos valores passados da saída do modelo = combinação linear dos valores presente e passados da entrada do modelo Os processos que obedecem o comportamento acima são ditos processos lineares. (50)

Processos Aleatórios Classificação - cont. A estrutura do filtro linear que processará os dados, é determinada pela maneira que as duas combinações lineares indicadas na Eq. (50) são formuladas. Podemos então identificar três tipos usuais de modelos estocásticos lineares: 1 Modelo auto-regressivo (AR) - no qual não são utilizadas valores passados da entrada. 2 Modelo moving average (MA) - no qual não são usados valores passados da saída. Também chamado de modelo de média móvel. 3 Modelo ARMA - junção dos modelos AR e MA.

Processos Aleatórios Modelo auto-regressivo (AR) Dizemos que uma série temporal x(n),x(n 1),...,x(n M) representa uma realização de um processo AR de ordem M se ela satisfaz a equação diferença seguinte: x(n) + a 1 x(n 1) + + a M x(n M) = v(n) (51) em que a 1,...,a M são chamados parâmetros AR e v(n) é um processo de ruído branco.

Processos Aleatórios Modelo auto-regressivo (AR) - cont. É mais simples enxergar o motivo de tal processo se chamar AR se escrevermos a Eq. (51) da seguinte forma: x(n) = b 1 x(n 1) + b 2 x(n 2) + + b M x(n M) + v(n) (52) em que b k = a k. Desta maneira vê-se facilmente que o instante atual do processo, ou seja x(n) é igual a uma combinação dos valores passados do processo mais um termo de erro v(n).

Processos Aleatórios Modelo auto-regressivo (AR) - cont. 45 6789: ;< =96><776 4? x(n) x(n 1) x(n 2) x(n M) z 1 z 1...... z 1 a 1 a 2 a M Σ Σ... Σ v(n) 45 6789: ;< 9@ A ;6 B9:C>6 Figure: Analisador de processo AR

Processos Aleatórios Modelo auto-regressivo (AR) - cont. DEFGHIJ KL IPQKF RIJSNF v(n) + Σ - DEFGHIJ KL MIFNLGGF DO z 1 x(n) Σ a 1 x(n 1) z 1 Σ a 2 x(n 2)......... a M z 1 x(n M) Figure: Gerador de processo AR

Processos Aleatórios Modelo média móvel (MA) Em um modelo de média móvel (MA, moving average), o sistema é um filtro apenas com zeros e com ruído branco como entrada. O processo resultante x(n) produzido é então dado pela seguinte equação diferença x(n) = v(n) + b 1 v(n 1) + b 2 v(n 2) +... + b K v(n K) (53) em que b 1,...,b K são constantes chamadas de parâmetros MA e v(n) é um processo de ruído branco de média zero e variância σ 2 v.

Processos Aleatórios Modelo média móvel (MA) - cont. A Equação (53), representa uma versão escalar de um produto interno. Com isso, podemos representá-la como: x(n) = K b i v(n i) = vb T (54) i=0 em que v = [ v(n) v(n 1)... v(n K) ] e b = [ 1 b 1 b 2... b K ]. A ordem do processo MA é dada por K. O termo média móvel surge pois constrói-se uma estimativa do processo x a partir de uma média ponderada das amostras do processo v.

Processos Aleatórios Modelo média móvel (MA) - cont. TU VWXYZ [\ Y]í [V ^YZ_`V v(n) v(n 1) v(n 2) v(n K) z 1 z 1...... z 1 b 1 b 2 b K Σ Σ... Σ x(n) TU VWXYZ [\ ayv`\wwv b T Figure: Modelo gerador de um processo de média móvel.

Processos Aleatórios Modelo auto-regressivo-média móvel (ARMA) Para gerar um modelo auto-regressivo-média móvel, utilizando um processo de ruído branco como entrada, temos a seguinte equação diferença x(n) + a 1 x(n 1) +... + a M x(n M) = v(n) + b 1 v(n 1) +b 2 v(n 2) +... + b K v(n K) em que a 1,...,a M e b 1,...,b K são os parâmetros ARMA. (55) A ordem do modelo ARMA é dada por (M,K).

Processos Aleatórios Modelo auto-regressivo-média móvel (ARMA) - cont. cdefghi jk hpqje rhisme cdefghi jk lhemkffe cnoc + v(n) Σ - z 1 b 0 Σ x(n) Σ a 1 b 1 Σ z 1 Σ a 2 b 2 Σ............... b K z 1 a M Figure: Modelo gerador de um processo ARMA de ordem (M, K), supondo M > K.

Processos Aleatórios Modelagem de sinais Modelos: ARMA, AR e MA Filtragem linear de um processo do tipo ruído branco, também chamado de processo inovação B( z) A( z) v( n ) x( n) processo descorrelacionado S X (ω) = B(z) A(z) z=e jω

Processos Aleatórios Modelagem de sinais - cont. M K x(n) = a i x(n i) + b j v(n j) i=1 j=0 ARMA (56) AR b j = 0 para j > 0 (autorregressivo) MA a i = 0 para i > 0 (média móvel)

Processos Aleatórios Modelagem de sinais - cont. Modelo AR x(n) = v(n) + M a i x(n i) (57) Os a i ótimos são obtidos como uma solução de um sistema de equações lineares i=1 Caso específico: AR(1): x(n) = v(n) + ax(n 1) v( n ) x( n) a O modelo AR(1) é também um processo markoviano sinal com memória 1

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) r X (0) = { x 2 (n) } = { v 2 (n) + 2 a v(n) x(n 1) + a 2 x 2 (n 1) } Daí resulta = σ 2 v + 2a 0 {v(n) x(n 1)} + a 2 r X (0) = σ 2 v + a 2 r X (0) (58) r X (0) = σ2 v 1 a 2 (59)

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) - cont. r X (1) = {x(n)x(n 1)} Daí, temos = {[v(n) + ax(n 1)][v(n 1) + ax(n 2)]} = { ax(n 1)v(n 1) + a 2 x(n 1)x(n 2) } = { a[v(n 1) + ax(n 2)] v(n 1) + a 2 x(n 1)x(n 2) } = aσ 2 v + a2 {x(n 1)x(n 2)} = aσ 2 v + a 2 r X (1) r X (1)[1 a 2 ] = aσ 2 v r X (1) = a r X (0) (60) (61)

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) - cont. Pode-se mostrar por recursividade que as seguintes relações são válida r X (i) = a i r X (0) (62) r X (i) = a r X (i 1) Assim, temos que a MAC (ordem 2) de um processo AR(1) é dada como σv 2 a σ 2 v R x = (1 a 2 ) (1 a 2 ) a σv 2 σ 2 (63) v (1 a 2 ) (1 a 2 )

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) - cont. Calcular λ 1 e λ 2 (autovalores) det(r x λi) = 0 ( ) σ 2 2 ( ) v a σ 2 2 1 a 2 λ v 1 a 2 = a2 σ 4 v σ 4 v (1 a 2 ) 2 2 λσ 2 v (1 a 2 ) + λ2 (1 a 2 ) 2 = σv 4 (1 a 2 ) 2 (1 a2 ) 2λ (1 a 2 ) + λ2 = λ 2 2λ σ 2 v σ 2 v (1 a 2 ) + σ4 v (1 a 2 ) = 0 = (1 a 2 ) λ 2 2σ 2 v λ + σ4 v = 0 (64)

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) - cont. Calcular λ 1 e λ 2 (autovalores) - cont. λ 1,2 = 2σ2 v ± 4σ 4 v 4σ4 v (1 a2 ) 2 (1 a 2 ) Então, teremos = 2σ2 v ± 2aσ 2 v 2(1 a 2 ) λ 1 = λ 2 = σ2 v (1 a) σ2 v (1 + a) (65)

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) - cont. Assim, a MAC de um processo AR(1) tem como autovalores λ 1 = σ2 v (1 a) e λ 2 = σ2 v (1 + a) (66) E então, podemos definir o número de condicionamento ou espalhamento da matriz, dado por No caso do processo AR(1): (R x ) = 1+a 1 a (R x ) = λ max λ min (67)

Processos Aleatórios Modelagem de sinais - cont. MAC de um processo AR(1) - cont. Informações fornecidas por (R x ) O menor autovalor fica confinado entre σ 2 v e σ2 v 2 O maior autovalor vai de σ 2 v a infinito O número (R x ) = λmax λ min exprime quão plano é S X (ω) ou quão descorrelacionado é x(n), ou ainda quão próximo R x está de uma matriz diagonal 1 (R x ) = 1 S X (ω) plano 2 (R x ) = 1 x(n) é branco 3 (R x ) S X (ω) é colorido 4 (R x ) x(n) tem correlação