Prof. Walter Fetter Lages 4 de outubro de 2004
|
|
- Maria Eduarda Leveck Belo
- 7 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Rio Grande do Sul Escola de Engenharia Departamento de Engenharia Elétrica Programa de Pós-Graduação em Engenharia Elétrica ELE7-Tópicos Especiais em Automação e Controle II Introdução Descrição de Sinais Aleatórios Prof. Walter Fetter Lages 4 de outubro de 24 Em geral, um sinal representa uma grandeza física como tensão, corrente, distância, temperatura, etc. Portanto, sinais são variáveis reais. Além disso, o tempo usualmente é a variável independente. Um sinal é dito determinístico se ele é exatamente previsível para o intervalo de tempo de interesse. Por exemplo: x(t) = A cos ωt com A e ω constantes {, t x(t) =, t < Note que não existem incertezas sobre estes sinais. Sabendo-se o valor de t pode-se determinar x. Eles são descritos por funções matemáticas convencionais, relacionando x e t. No entanto, o conhecimento da função matemática relacionando x e t não é necessário para que o sinal seja determinístico, basta que que se saiba conceitualmente que tal função existe. Um sinal aleatório, por sua vêz, sempre possui um elemento de incerteza associado e, portanto, não é previsível no sentido determinístico. Por exemplo: X(t) = A cos ωt + θ com A e ω constantes e θ uma variável aleatória com distribuição uniforme entre e 2π X(t) = A cos ωt + θ com ω constantes e A e θ variáveis aleatórias com distribuições independentes Frequentemente durante a modelagem faz-se esta hipótese, ainda que de forma implícita
2 2 Amostragem e Realizações de um Sinal Estocástico Considere a amostragem de um sinal de ruído com o mostrado na figura em um determinado instante de tempo t. O valor obtido é determinado basicamente pelo acaso, o que sugere tratar-se de um sinal aleatório. No entanto, para terse uma variável aleatória é necessário que se possa imaginar um experimento no qual qualquer valor da variável aleatória possa ser obtido em circunstâncias idênticas. Assim, não seria adequado amostrar-se novamente o mesmo sinal em outros instantes de tempo, porque se os instantes de tempo forem próximos, haverá uma forte conexão entre amostras sucessivas. O experimento correto, neste caso seria ter-se várias fontes idênticas do sinal de ruído. Isto leva á noção de um conjunto de sinais aleatórios, como mostrado na figura 2. Figura : Sinal de Ruído. Um processo aleatório é um conjunto de variáveis aleatórias que evoluem no tempo segundo algum experimento conceitual de acaso. Cada um dos sinais de ruído gerados deste modo é denominado realização do processo. Amostras dos sinais individuais em um determinado instante de tempo são denominadas amostras da realização da variável aleatória. Em situações práticas, as realizações são associadas aos ensaios realizados no sistema, enquanto as amostras seriam os valores assumidos pelas variáveis do sistema. Como exemplo, considere um sistema de controle sujeito a uma entrada degrau. A resposta a cada degrau aplicado na entrada do sistema seria uma realização, enquanto os valores assumidos pela saída do sistema seriam as amostras. Os exemplos acima são processos aleatórios contínuos, no entanto, processos aleatórios também podem ser discretos, tanto no tempo quanto na amplitude das variáveis aleatórias. 2
3 Figura 2: Conjunto de Sinais de Ruído. 3 Descrição Probabilística de um Sinal Aleatório Um sinal aleatório típico é mostrado na figura 3. Os instantes de tempo t, t 2,..., t k foram escolhidos de forma ascendente e as amostras correspondentes X, X 2,..., X k, são, obviamente, variáveis aleatórias. Para simplificar a notação, seja X(t ) = X, X(t 2 ) = X 2,..., X(t k ) = X k. Figura 3: Sinal de Aleatório Típico. Obviamente, as funções de densidade de probabilidade de primeira ordem f X (x), f X2 (x),..., f Xk (x) são importantes para descrição do processo porque indicam a distribuição da amplitude do processo. Estas distribuições a distribuição relativa das amplitudes do processo e da sua média e valor médio quadrático. 3
4 As distribuições conjuntas relacionando qualquer par de variáveis aleatórias, f X X 2 (x, x 2 ), f X X 3 (x, x 3 ), etc. também são importantes. Estas funções de densidade estão relacionadas com a rapidez da variação do sinal com o tempo e consequentemente com o conteúdo espectral do sinal. Continuando, as funções de densidade de terceira, quarta e ordens superiores fornecem informações ainda mais detalhadas sobre o processo em termos probabilísticos. No entanto, isto leva a uma descrição do sinal bastante longa, além de usualmente não ser possível especificar as funções de densidade de ordem elevada explicitamente. Assim, é usual descrever o sinal através de palavras ou de outras informações de forma que se possa escrever a função densidade de qualquer ordem. Da teoria de probabilidade sabe-se que duas variáveis aleatórias X e Y são ditas estatisticamente independentes se a sua função de distribuição conjunta pode ser escrita na forma de produto f XY (x, y) = f X (x)f Y (y) Similarmente, processos aleatórios X(t) e Y (t) são estatisticamente independentes se a densidade conjunta para qualquer combinação de variáveis aleatórias dos dois processos pode ser escrita em forma de produto. Isto é, X(t) e Y (t) são independentes se f X X 2...Y Y 2... = f X X 2...f Y Y 2... () Note que na expressão () se está utilizando a notação X = X(t ), X 2 = X(t 2 ),..., Y = Y (t ), Y 2 = Y (t 2 ),..., onde os instantes de amostragem não precisam ser os mesmos para os dois processos. Em resumo, o teste de completude para a descrição do sinal é se existe informação suficiente para escrever a função densidade de probabilidade para qualquer ordem. 4 Processo Aleatório Gaussiano Um processo aleatório Gaussiano ou normal é definido como um processo aleatório no qual todas as funções de densidade que descrevem o processo são normais. Note que não é suficiente que apenas a amplitude do processo seja normalmente distribuída. Todas as funções densidade de ordem superior também devem ser normais. A notação matricial permite escrever-se todas as k funções densidade em uma forma compacta, independentemente do tamanho de k. É necessário apenas especificar-se o vetor de média da variável aleatória e a matriz de covariância. No caso de um processo aleatório gaussiano as variáveis são X(t ), X(t 2 ),..., X(t k ) 4
5 onde os pontos no tempo podem ser escolhidos arbitrariamente. Logo, deve ser fornecida informação suficiente para especificar a média e a variância independentemente da escolha de t, t 2,..., t k. 5 Processos Estacionários e Ergódigos Um processo aleatório é dito ser estacionário no tempo ou simplesmente estacionário se as funções densidade que descrevem o processo forem invariantes com relação à translações no tempo. Ou seja, se for considerado um conjunto de variáveis aleatórias X = X(t ), X 2 = X(t 2 ),..., X k = X(t k ) e o conjunto transladado X = X(t + τ), X 2 = X(t 2 + τ),..., X k = X(t k + τ), as funções de densidade f X, f X X 2,..., f X X 2...X k que descrevem o primeiro conjunto seriam idênticas às funções que descrevem o conjunto transladado. Note que isto aplica-se a todas as funções de densidade de ordem superior. Um processo aleatório é dito ergódigo se a média no tempo é equivalente á média nas realizações. Em termos qualitativos isto significa que as amostras temporais de uma única realização do processo contém toda a variação estatística do processo. Portanto, nenhuma informação adicional será obtida observando-se diversas realizações do processo além daquela já obtida observando-se uma única realização ao longo do tempo. No caso de processos físicos raramente pode-se justificar estacionaridade ou ergodicidade formalmente. Assim, frequentemente deve-se utilizar conhecimento heurístico sobre o processo e fazer a hipótese adequada. 6 Função de Autocorrelação A função de autocorrelação de um processo aleatório X(t) é definida como R X (t, t 2 ) = E[X(t )X(t 2 )] onde t e t 2 são instantes de amostragem arbitrários. Claramente a função de autocorrelação indica o quanto o processo é correlacionado com ele próprio em dois instantes de tempo diferentes. Se o processo é estacionário a sua função densidade de probabilidade é invariante no tempo e a função de autocorrelação depende apenas da diferença de tempo. Ou seja R X (τ) = E[X(t)X(t + τ)] no caso estacionário Estacionaridade garante que a esperança não é dependente do tempo. A função de autocorrelação é a média nas realizações do produto de X(t ) e X(t 2 ) e portanto pode ser escrita formalmente como 5
6 R X (t, t 2 ) = E[X, X 2 ] = x x 2 f X X 2 (x, x 2 )dx dx 2 (2) A expressão (2) frequentemente não é a melhor forma de determinar R X devido a necessidade de conhecer-se explicitamente a função de densidade conjunta f X X 2 (x, x 2 ). Se a hipótese de ergodicidade aplica-se, é geralmente mais fácil computar R X através da média temporal ao invés da média nas realizações. Para processos aleatórios não ergódigos define-se a função de autocorrelação temporal como T R X (τ) = lim X A (t)x A (t + τ)dt (3) T T onde X A (t) denota uma realização do processo X(t). Exemplo Considere o processo aleatório X(t) = A sin ωt onde A é uma variável aleatória normal com média zero e variância σ 2 e ω é uma constante. Suponha que obtém-se uma amostra de A e que seu valor seja A. A amostra correspondente de X(t) é X A (t) = A sin ωt e a função de autocorrelação temporal será T R X (τ) = lim A sin ωta sin ωtdt T T = A2 2 Por outro lado, a função de autocorrelação usual é cos ωτ (4) R X (t, t 2 ) = E[X, X 2 ] = E[A sin ωta sin ωt] = σ 2 sin ωt sin ωt 2 (5) Obviamente esta expressão é diferente da obtida para R X (τ), portanto o processo não é ergódigo. Adicionalmente a função de autocorrelação não reduz-se à uma função de t t 2, logo o processo não é estacionário. 6
7 7 Propriedades das Funções de Autocorrelação. R X () é o valor médio quadrático do processo X(t). 2. R X (τ) é uma função par de τ. Este resultado vem da hipótese de estacionaridade. No caso não estacionário existe simetria com relação a t e t 2, ou seja R X (t, t 2 ) = R X (t 2, t ). 3. R X (τ) R X () para todo τ. 4. Se X(t) contém um componente periódico, R X (t) também conterá um componente com o mesmo período. 5. Se X(t) não contém componentes periódicos, então R X (t) tende a zero quando τ. Ou seja, X(t + τ) torna-se completamente descorrelacionado com X(t) para τ grande se não há periodicidades ocultas no processo. Note que constante é um caso especial de função periódica, logo R X ( ) = implica média zero para o processo. 6. A transformada de Fourier de R X (τ) é real, simétrica e não negativa. Estacionaridade estrita é um requisito severo e difícil de verificar porque exige que todas as funções de densidade de probabilidade de ordens superiores sejam invariantes com relação a uma translação no tempo. Uma forma menos exigente de estacionaridade é frequentemente utilizada ou assumida. Um processo aleatório é dito ser estacionário em covariância ou estacionário em sentido amplo se E[X(t )] é independente de t e E[X(t )X(t 2 )] depende apenas da diferença entre t e t 2. Obviamente, se a densidade de segunda ordem f X X 2 (x, x 2 ) é independente do valor inicial do tempo, o processo é estacionário em covariância. 8 Função de Correlação Cruzada A função de correlação cruzada entre os processos X(t) e Y (t) é definida como R XY (t, t 2 ) = E[X(t )Y (t 2 )] (6) Novamente, se o processo for estacionário, apenas a diferença de tempo entre os pontos amostrados é relevante e a função de correlação reduz-se à R XY (τ) = E[X(t)Y (t + τ)] para o caso estacionário A função de correlação cruzada reflete o quanto os dois processos estão correlacionados entre sí. 7
8 Note que a ordem dos subscritos em R XY (τ) é importante e que existe uma relação de anti-simetria para processos estacionários. Por definição R XY (τ) = E[X(t)Y (t + τ)] (7) R Y X (τ) = E[Y (t)x(t + τ)] (8) A esperança na expressão 8 é invariante com relação à uma translação de τ. Portanto, R Y X (τ) também é dado por R Y X (τ) = E[Y (t τ)x(t)] (9) Comparando-se as expressões (7) e (9) pode-se perceber que R XY (τ) = R Y X ( τ) () Frequentemente é necessário calcular a soma de processos aleatórios. Seja um processo aleatório Z(t) a soma de dois processos estacionários X(t) e Y (t): Z(t) = X(t) + Y (t) A função de autocorrelação de Z(t) é R Z (τ) = E {[X(t) + Y (t)][x(t + τ) + Y (t + τ)]} = E[X(t)X(t + τ)] + E[Y (t)x(t + τ)] + E[X(t)Y (t + τ)] + E[Y (t)y (t + τ)] = R X (τ) + R Y X (τ) + R XY (τ) + R Y (τ) () Se X e Y forem processos descorrelacionados, os termos do meio da expressão (), tem-se R Z (τ) = R X (τ) + R Y (τ) para X e Y descorrelacionados (2) Este resultado pode, obviamente, ser generalizado para mais de dois processos. 9 Função de Densidade Espectral de Potência Se a função de autocorrelação decai rapidamente com τ, o processo varia rapidamente com o tempo e vice-versa. Portanto, pode-se suspeitar que a função de autocorrelação contém informação sobre o conteúdo frequencial do sinal. Esta relação é conhecida como relação de Wiener-Khinchine: 8
9 S X (jω) = F [R X (τ)] = R X (τ)e jωτ dτ (3) onde S X é denominada função de densidade espectral de potência Note que se o processo X(t) é estacionário, ele não é absolutamente integrável e portanto a integral da transformada de Fourier não converge. Logo, se é forçado a considerar uma versão truncada do processo, X T (t), que é truncado para zero fora da faixa de tempo T. Assim, a transformada de Fourier de uma realização do processo truncado existirá. Seja F [X T (t)] a transformada de Fourier X T (t). Para um conjunto de realizações de X T (t), haverá um conjunto de realizações de F [X T (t)]. Portanto, F [X T (t)] é estocástica assim como X T (t). Pode-se demonstrar que a função densidade espectral de potência pode ser calculada através da seguinte esperança: [ ] E T F [X T (t)] 2 onde o argumento da esperança é denominado periodograma do sinal. A esperança do periodograma de um sinal dentro do intervalo de tempo [, T ] pode ser escrita como [ ] E T F [X T (t)] 2 [ T ] T = E X(t)e jωt dt X(s)e jωs ds T = T T E [X(t)X(s)] e jω(t s) dtds (4) T Assumindo-se X(t) estacionário, E[X(t)X(s)] torna-se R X (t s), e a expressão (4) torna-se [ ] E T F [X T (t)] 2 = T T R X (t s)e jω(t s) dsdt T Ou, fazendo-se a troca de variáveis τ = t s: [ ] E T F [X T (t)] 2 = T t T R X (τ)e jωτ dτdt T t A região de integração é mostrada na figura 4. Invertendo-se a ordem de integração e integrando-se as duas regiões triangulares separadamente tem-se [ ] E T F [X T (t)] 2 = T t+t T R X (τ)e jωτ dtdτ+ T 9 T T τ R X (τ)e jωτ dtdτ
10 Figura 4: Região de Integração no plano τt. Integrando-se com relação a t, resulta [ ] E T F [X T (t)] 2 = T T (τ + T )R X (τ)e jωτ dτ+ T T (T τ)r X (τ)e jωτ dτ que pode ser escrita como [ ] E T F [X T (t)] 2 = ( T τ ) R X (τ)e jωτ dτ T T O fator τ pode ser encarado como um fator de ponderação que aproximase da unidade quando T torna-se grande, principalmente se R X (τ) tender para T zero quando τ torna-se grande, o que ocorre quando X(t) não contém componentes periódicos. Logo, quanto T cresce, tem-se a seguinte relação: [ ] lim E T T F [X T (t)] 2 = R X (τ)e jωτ dτ (5) É a expressão (5) que relaciona a função espectral S X (t) ao espectro como no sentido determinístico usual. A função de densidade espectral como definida pela expressão (3) é um conceito probabilístico. Por outro lado, periodograma é um
11 conceito espectral no sentido usual, relacionado com a transformada de Fourier do sinal. Devido aos atributos da função de autocorrelação R X (τ), a sua transformada de Fourier S X (jω) é sempre uma função real, não negativa e simétrica de ω. Exemplo 2 Considere um processo estocástico X(t) cuja função de autocorrelação seja R X (τ) = σ 2 e β τ onde β e τ são constantes conhecidas. A função de densidade espectral do processo X(t) será: S X (jω) = F [R X (τ)] = R X e S X estão esboçados na figura 5 σ2 jω + β + σ 2 jω + β = 2σ2 β ω 2 + β 2 Figura 5: Funções de Autocorrelação e Densidade Espectral. Ás vezes é conveniente escrever a função de densidade espectral em termos da frequência complexa s. Isto pode ser feito substituindo-se jω por s. Da teoria da transformada de Fourier, sabe-se que a transformada inversa da função de densidade espectral resulta na função de autocorrelação, ou seja F [S X (jω)] = 2π Ou, fazendo-se τ = : S X (jω)e jωτ dω = R X (τ) R X () = E [ X 2 (t) ] = S X (jω)dω (6) 2π A expressão (6) fornece um meio de calcular o valor médio quadrático de um processo estacionário, dada a sua função de densidade espectral. Se for usada a frequência complexa s ao invés de jω, a expressão (6) torna-se
12 E [ X 2 (t) ] = j S X (s)ds (7) 2πj j As expressões (6) e (7) sugerem que pode-se considerar a potência do sinal como sendo distribuída em frequência de acordo com S X (jω). Com este conceito, pode-se obter a potência em uma faixa finita de frequências integrando-se sobre esta faixa: [Potência na faixa ω ω ω2] = ω S X (jω)dω + ω2 S X (jω)dω 2π ω 2 2π ω Função de Densidade Espectral Cruzada As funções de densidade espectral cruzada para processos estacionários X(t) e Y (t) são definidas como S XY (jω) = F [R XY (τ)] = S Y X (jω) = F [R Y X (τ)] = R XY (τ)e jωτ dτ (8) R Y X (τ)e jωτ dτ (9) As funções de correlação cruzada R XY e R Y não são necessariamente funções pares de ω. Logo, as funções de densidade espectral cruzada correspondentes não são usualmente reais. Da expressão () pode-se concluir que e, portanto, que a soma de S XY (jω) e S Y X (jω) é real. Define-se função de coerência como: S XY (jω) = S Y X(jω) (2) γ 2 XY = S XY (jω) S X (jω)s Y (jω) (2) A função de coerência é uma medida semelhante ao coeficiente de correlação, porém no domínio da frequência. Se Z(t) é a soma de dois processos X(t) e Y (t), a densidade espectral de Z(t) á dada por: Da expressão () tem-se S Z (jω) = F [R X+Y (τ)] S Z (jω) = S X (jω) + S Y X (jω) + S XY (jω) + S Y (jω) (22) 2
13 Como no caso da função de autocorrelação, se os processos X(t) e Y (t) são descorrelacionados, os termos do meio da expressão (22) são zero. Portanto, para este caso especial S X+Y (jω) = S X (jω) + S Y (jω) para X(t) e Y (t) descorrelacionados (23) Ruído Branco O ruído branco é definido como sendo um processo aleatório estacionário com uma função de densidade espectral constante. Ou seja Neste caso, a função de autocorrelação é S wn (jω) = A (24) R wn (τ) = Aδ(t) (25) Embora o ruído branco seja definido de forma bastante simples, ele possui variância infinita. Um ruído branco é um processo que está variando com amplitude infinita, infinitamente rápido. No entanto, sistemas físicos são limitados em frequência, de forma que o sinal de saída sempre será limitado em frequência, mesmo que se assuma uma entrada igual à um ruído branco. Ruído branco limitado em frequência é um processo aleatório cuja amplitude espectral é constante em uma faixa limitada de frequências e zero fora desta faixa. Se a faixa de frequências inclui a origem (sinal de banda básica) tem-se S bwn (jω) = { A, ω ωc, ω > ω c (26) onde ω c é a largura de banda. A função de autocorrelação correspondente é R bwn (τ) = Aω c π sin ω c τ ω c τ (27) Os gráficos da autocorrelação e da função de densidade espectral estão esboçados na figura 6. Note-se que a função de autocorrelação para um ruído branco de banda básica limitado em frequência é zero para τ = π/ω c, 2π/ω c, 3π/ω c,.... Se o processo é amostrado com uma taxa de 2ω c o conjunto resultante de variáveis aleatórias é descorrelacionado. A faixa de frequência do ruído branco limitado em frequência pode ser deslocada da origem e centrada em outra frequência ω. As funções de autocorrelação e densidade espectral para este caso são: 3
14 Figura 6: Funções de Autocorrelação e Densidade Espectral para um Ruído Branco de Banda Básica Limitado em Frequência. S(jω) = { A, ω ω c ω ω + ω c, ω < ω ω c e ω > ω + ω c (28) R(τ) = A [ (ω + ω c ) sin (ω + ω c )τ π (ω + ω c )τ = 2Aω c sin ω c τ π ω c τ (ω ω c ) sin (ω ω c )τ (ω ω c )τ cos 2ω t (29) Estas funções estão esboçadas na figura 7. O ruído branco limitado em frequência possui um valor RMS finito e portanto é fisicamente factível, enquanto o ruído branco não o é. No entanto, o tratamento matemático do caso limitado em frequência é, em geral, mais complicado do que para o ruído branco puro. 2 Processo de Gauss-Markov Um processo gaussiano estacionário com autocorrelação exponencial é denominado processo de Gauss-Markov. A autocorrelação e a função de densidade espectral para este processo tem a forma: S X (jω) = R X (τ) = σ 2 e β τ (3) 2σ2 β ω 2 + β 2 ou S X(s) = 2σ2 β s 2 + β 2 (3) Estas funções estão esboçadas na figura 8. O valor médio quadrático do processo e a constante de tempo são dados, respectivamente por σ 2 e /β. Como 4 ]
15 Figura 7: Funções de Autocorrelação e Densidade Espectral para um Ruído Branco de Banda Básica Limitado em Frequência Deslocado em Frequência. o processo é não determinístico, uma função construída por amostras deste sinal não possui qualquer estrutura determinística e parece ruído. A autocorrelação exponencial indica que as amostras do processo tornam-se menos correlacionadas quando a separação no tempo entre elas aumenta. A função de autocorrelação tende a zero quando τ, e portanto o valor médio do processo deve ser zero. O processo de Gauss-Markov é importante porque se ajusta a um grande número de processo físicos e possui uma descrição matemática simples. Como no caso dos processos gaussianos estacionários, a especificação da função de autocorrelação do processo define completamente o processo. Ou seja, qualquer função de densidade de probabilidade de ordem superior pode ser escrita explicitamente dada a função de autocorrelação. Exemplo 3 Seja X(t) um processo de Gauss-Markov com função de autocorrelação 5
16 Figura 8: Funções de Autocorrelação e Densidade Espectral para um Processo de Gauss-Markov. R X (τ) = e 2 τ deseja-se escrever explicitamente a função de densidade de probabilidade de terceira ordem f X X 2 X 3 (x, x 2, x 3 ) onde X = X(), X 2 = X(.5) e X 3 = X(). A média do processo é zero, pois é um processo de Gauss-Markov. A matriz de covariância é dada por: C X = = E[X 2] E[X X 2 ] E[X X 3 ] E[X 2 X ] E[X2] 2 E[X 2 X 3 ] E[X 3 X ] E[X 3 X 2 ] E[X3 2] e e 2 e e e 2 e e = R X () R X (.5) R X () R X (.5) R X () R X (.5) R X () R X (.5) R X () E da expressão (32) tem-se f X (x) = { (2π) n/2 C exp [ (x m) T C (x m) ]} (32) /2 2 f X (x) = onde x = [ x x 2 x 3 ] T. C (2π) 2/3 C X /2 e/2(xt X x) 3 Processo de Wiener ou Brownian Motion Considere um integrador cuja entrada seja um ruído branco. A resposta do sistema será dada por 6
17 e a média da saída é [ t E[X(t)] = E t X(t) = F (u)du ] t F (u)du = E[F (u)]du = O valor médio quadrático (variância) da saída é [ t E[X 2 (t)] = E t ] t t F (u)du F (v)dv = E[F (u)f (v)]dudv Mas E[F (u)f (v)] é a função de autocorrelação R F (u v), que neste caso é a função delta de Dirac. Logo E[X 2 (t)] = t t δ(u v)dudv = t dv = t Portanto, E[X 2 (t)] cresce linearmente com o tempo e o valor RMS cresce de acordo com t. Se for exigido que a entrada seja um ruído branco gaussiano, a saída será um processo gaussiano, já que a integração é uma operação linear sobre a entrada. O processo resultante é denominado processo de Wiener ou brownian-motion. O processo é não estacionário, gaussiano e suas média, variância e autocorrelação são dadas por E[X(t)] = E[X 2 (t)] = t R X (t, t 2 ) = E[X(t )X(t 2 )] = E = t t2 [ t E[F (u)f (v)]dudv = t2 F (u)du t t2 ] F (v)dv δ(u v)dudv R X (t, t 2 ) = { t2, t t 2 t, t < t 2 (33) Um processo de ruído branco gaussiano é difícil de definir, devido ao problema da "variância infinita". Por outro lado, o processo de Wiener é bem comportado. Pode-se, portanto, definir o ruído branco gaussiano em função do processo de Wiener. 7
18 Para tanto, pode-se definir o processo de Wiener como um processo gaussiano cuja função de autocorrelação é dada pela expressão (33). O ruído branco gaussiano é, então, o processo hipotético que, quando integrado, resulta no processo de Wiener. 4 Exercícios. Considere um processo com densidade espectral de potência S X (jω) = 2σ 2 β ω 2 +β 2. Calcule o valor RMS do sinal correspondente. 2. Uma amplificador com a entrada em curto apresenta na sua saída uma tensão RMS de µv. Assumindo-se que o espectro de frequência do ruído é plano de até 25kHz e zero acima de 25kHz, obtenha as expressões para a função de densidade espectral do ruído e da sua função de autocorrelação. 3. Considere o processo aleatório X(t) = 2 sin ωt, onde ω é uma variável aleatória uniformemente distribuída entre ω = 2 e ω = 6. (a) O processo é estacionário? (b) O processo é ergódigo? 4. A entrada de um retificador ideal é um processo gaussiano estacionário. A saída é um processo estacionário? É um processo gaussiano? 5. Calcule a autocorrelação de um sinal aleatório X(t) = at + Y, onde a é uma constante conhecida e Y é uma variável aleatória N(, σ 2 ). 6. Um processo estacionário X(t) possui função de autocorrelação dada por R X (τ) = σ 2 e β τ Um outro processo Y (t) está relacionado com X(t) pela expressão Y (t) = ax(t) + b onde a e b são constante conhecidas. (a) Calcule a autocorrelação de Y (t). (b) Calcule a correlação cruzada R XY (τ). 8
Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores
António M. Gonçalves Pinheiro Departamento de Física Covilhã - Portugal pinheiro@ubi.pt Processos Estocásticos - Sinais que variam aleatoriamente no tempo. são regidos por processos estocásticos. 2 1 1
Leia maisProcessos estocásticos
36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Processos estocásticos Geovany A. Borges gaborges@ene.unb.br
Leia maisMódulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios
Módulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia
Leia mais195
195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245
Leia maisANÁLISE DE SINAIS DINÂMICOS
ANÁLISE DE SINAIS DINÂMICOS Paulo S. Varoto 7 . - Classificação de Sinais Sinais dinâmicos são geralmente classificados como deterministicos e aleatórios, como mostra a figura abaixo: Periódicos Determinísticos
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade
Leia maisANÁLISE DE SINAIS E SISTEMAS
ANÁLISE DE SINAIS E SISTEMAS AULA 2: :. Sinais de Tempo Contínuo e Sinais de Tempo Discreto; 2. Sinais Analógicos e Digitais; 3. Sinais Determinísticos e Sinais Aleatórios; 4. Sinais Pares e Sinais Ímpares;
Leia maisTE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017
TE802 Processos Estocásticos em Engenharia Processos Aleatórios 18 de outubro de 2017 Processo Aleatório Processo Aleatório (ou Estocástico), X(t): Função aleatória do tempo para modelar formas de onda
Leia maisSinais e Sistemas Mecatrónicos
Sinais e Sistemas Mecatrónicos Sinais e Sistemas Sinais Contínuos no Tempo José Sá da Costa José Sá da Costa T2 - Sinais Contínuos 1 Sinais Sinal É uma função associada a um fenómeno (físico, químico,
Leia maisResumo. Parte 7 Processos Estocásticos. Ramiro Brito Willmersdorf
Parte 7 Processos Estocásticos Ramiro Brito Willmersdorf ramiro@willmersdorf.net Departamento de Engenharia Mecânica Universidade Federal de Pernambuco 2011.2 Resumo 1 Processos Estocásticos 2 Classicação
Leia maisIntrodução aos Circuitos Elétricos
1 / 47 Introdução aos Circuitos Elétricos Séries e Transformadas de Fourier Prof. Roberto Alves Braga Jr. Prof. Bruno Henrique Groenner Barbosa UFLA - Departamento de Engenharia 2 / 47 Séries e Transformadas
Leia maisProcessos Estocásticos
Processos Estocásticos Luis Henrique Assumpção Lolis 26 de maio de 2014 Luis Henrique Assumpção Lolis Processos Estocásticos 1 Conteúdo 1 Introdução 2 Definição 3 Especificando um processo aleatório 4
Leia maisSinais e Sistemas. Luis Henrique Assumpção Lolis. 21 de fevereiro de Luis Henrique Assumpção Lolis Sinais e Sistemas 1
Sinais e Sistemas Luis Henrique Assumpção Lolis 21 de fevereiro de 2014 Luis Henrique Assumpção Lolis Sinais e Sistemas 1 Conteúdo 1 Classificação de sinais 2 Algumas funções importantes 3 Transformada
Leia mais2/47. da matemática é ainda de grande importância nas várias áreas da engenharia. Além disso, lado de Napoleão Bonaparte. 1/47
Introdução aos Circuitos Elétricos Séries e Transformadas de Fourier Prof. Roberto Alves Braga Jr. Prof. Bruno Henrique Groenner Barbosa UFLA - Departamento de Engenharia Sinais: conjunto de dados ou informação
Leia maisAula de Processamento de Sinais I.B De Paula. Tipos de sinal:
Tipos de sinal: Tipos de sinal: Determinístico:Sinais determinísticos são aqueles que podem ser perfeitamente reproduzidos caso sejam aplicadas as mesmas condições utilizadas sua geração. Periódico Transiente
Leia maisPROCESSOS ESTOCÁSTICOS. O resultado de muitas experiências aleatórias é função do tempo ou de uma (ou mais) coordenada espacial.
37 PROCESSOS ESTOCÁSTICOS O resultado de muitas experiências aleatórias é função do tempo ou de uma (ou mais) coordenada espacial. Ex: i) O valor da temperatura média diária ou semanal numa cidade. O acontecimento
Leia maisProcessos Aleatórios e Ruído
Processos Aleatórios e Ruído Luis Henrique Assumpção Lolis 11 de abril de 2014 Luis Henrique Assumpção Lolis Processos Aleatórios e Ruído 1 Conteúdo 1 O Experimento Aleatório / Espaço de Amostras 2 Algebra
Leia maisSistemas Lineares. Aula 9 Transformada de Fourier
Sistemas Lineares Aula 9 Transformada de Fourier Séries de Fourier A Série de Fourier representa um sinal periódico como uma combinação linear de exponenciais complexas harmonicamente relacionadas. Como
Leia maisM. Eisencraft 6.3 Funções de correlação 81. R YX (τ) R YY (τ). (6.19) R XY (τ) = R YX ( τ) (6.20)
M. Eisencraft 6.3 Funções de correlação 81 R XY (τ) = E[X(t)Y(t+τ)] e (6.17) R YX (τ) = E[Y(t)X(t+τ)]. (6.18) As propriedades de correlação de dois processos X(t) e Y(t) podem ser mostradas convenientemente
Leia maisAnexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos
1 Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos Documento auxiliar à disciplina de Modelação, Identificação e Controlo Digital Alexandre Bernardino IST-Secção de Sistemas e Controlo
Leia maisPRE29006 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES PRE9006 LISTA DE EXERCÍCIOS #3 06. Exercícios. [, Exercício 7.] Seja A uma variável
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos
Leia maisIntrodução aos Sinais e Sistemas
Introdução aos Sinais e Sistemas Edmar José do Nascimento (Análise de Sinais e Sistemas) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Colegiado de Engenharia
Leia maisMódulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk
Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica
Leia maisIntrodução à análise de sinais
Introdução à análise de sinais PEF 6 - Tópicos especiais em dinâmica de estruturas Prof. Dr. Guilherme R. Franzini 1/35 Resumo 1 Objetivos 2 Série de Fourier 3 Transformada de Fourier 4 Aspectos práticos
Leia maisAnexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos
1 Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos Documento auxiliar à disciplina de Modelação, Identificação e Controlo Digital Alexandre Bernardino 003/005 IST-Secção de Sistemas
Leia maisModelos para Séries Temporais Aula 1. Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2
Modelos para Séries Temporais Aula 1 Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2 Modelos para Séries Temporais Os modelos utilizados para descrever séries temporais
Leia maisEN2607 Transformadas em Sinais e Sistemas Lineares Lista de Exercícios Suplementares 2 2 quadrimestre 2011
EN607 Transformadas em Sinais e Sistemas Lineares Lista de Exercícios Suplementares quadrimestre 0 (P-0003D) (HAYKIN, 00, p 9) Use a equação de definição da TF para obter a representação no domínio da
Leia maisp.1/48 Eduardo Mendes Departamento de Engenharia Eletrônica Universidade Federal de Minas Gerais Av. Antônio Carlos 6627, Belo Horizonte, MG, Brasil
p1/48 Capítulo 4 - Métodos ão Paramétricos Eduardo Mendes Departamento de Engenharia Eletrônica Universidade Federal de Minas Gerais Av Antônio Carlos 27, elo Horizonte, MG, rasil p2/48 Introdução Os métodos
Leia maisAnálise Espectral de Processos Estocásticos
Análise Espectral de Processos Estocásticos Airlane Pereira Alencar 21 de Março de 2019 Alencar, A.P. (IME-USP) Análise espectral 21 de Março de 2019 1 / 24 Índice 1 Objetivos 2 Pré-requisitos 3 Espectro
Leia maisSérie de Fourier. Prof. Dr. Walter Ponge-Ferreira
Resposta à Excitação Periódica Série de Fourier Prof. Dr. Walter Ponge-Ferreira E-mail: ponge@usp.br Escola Politécnica da Universidade de São Paulo Departamento de Engenharia Mecânica - PME Av. Prof.
Leia maisPRINCÍPIOS DE COMUNICAÇÃO
PRINCÍPIOS DE COMUNICAÇÃO RUÍDO EM MODULAÇÕES ANALÓGICAS Evelio M. G. Fernández - 2011 Processo Aleatório (ou Estocástico): Função aleatória do tempo para modelar formas de onda desconhecidas. Processos
Leia maisFACULDADE DE CIÊNCIAS EXATAS E TECNOLÓGICAS CAMPUS
FACULDADE DE CIÊNCIAS EXATAS E TECNOLÓGICAS CAMPUS UNIVERSITÁRIO DE SINOP CURSO DE ENGENHARIA ELÉTRICA Princípios de Comunicações Slides 5 e 6 Milton Luiz Neri Pereira (UNEMAT/FACET/DEE) 1 2.1 Sinais Um
Leia mais4.1. ESPERANÇA x =, x=1
4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova 1 Gabarito
Prova Gabarito Questão (4 pontos) Um pulso é descrito por: g t = t e t / u t u t, a) Esboce o pulso. Este é um sinal de energia ou de potência? Qual sua energia/potência? (,7 ponto) b) Dado um trem periódico
Leia maisEstimação da Resposta em Frequência
27 Estimação da Resposta em Frequência jω Ge ( ) = jω Ye ( ) jω Ue ( ) Objectivo: Calcular a magnitude e fase da função de transferência do sistema, para um conjunto grande de frequências. A representação
Leia maisAnálise e Transmissão de Sinais
Análise e Transmissão de Sinais Edmar José do Nascimento (Princípios de Comunicações) Universidade Federal do Vale do São Francisco Roteiro 1 Transformada de Fourier 2 Sistemas Lineares 3 Filtros 4 Distorção
Leia maisM. Eisencraft 6.5 Processos aleatórios gaussianos 86. t1 +T. x(t)y(t+τ)dt. (6.35) t 1 T. x(t)y(t+τ)dt R xy (τ) = R XY (τ). (6.36)
M. Eisencraft 6.5 Processos aleatórios gaussianos 86 R 0 (t 1 +2T) = 1 2T t1 +T t 1 Assim, tomando t 1 = 0 e assumindo que T é grande, temos x(t)y(t+τ)dt. (6.35) R 0 (2T) = 1 2T x(t)y(t+τ)dt R xy (τ) =
Leia maisTRANSFORMADA DE FOURIER. Larissa Driemeier
TRANSFORMADA DE FOURIER Larissa Driemeier TESTE 7hs30 às 8hs00 Este não é um sinal periódico. Queremos calcular seu espectro usando análise de Fourier, mas aprendemos que o sinal deve ser periódico. O
Leia maisAnálise de Sinais no Tempo Contínuo: A Série de Fourier
Análise de Sinais no Tempo Contínuo: A Série de Fourier Edmar José do Nascimento (Análise de Sinais e Sistemas) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco
Leia maisTRANSFORMADA DE FOURIER EM TEMPO DISCRETO (DTFT) E TRANSFORMADA DISCRETA DE FOURIER (DFT) Larissa Driemeier
TRANSFORMADA DE FOURIER EM TEMPO DISCRETO (DTFT) E TRANSFORMADA DISCRETA DE FOURIER (DFT) Larissa Driemeier LIVRO TEXTO Essa aula é baseada nos livros: [1] [2] INTRODUCTION TO Signal Processing Sophocles
Leia maisResumo. Sinais e Sistemas Transformada de Laplace. Resposta ao Sinal Exponencial
Resumo Sinais e Sistemas Transformada de aplace uís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Definição da transformada de aplace Região de convergência Propriedades da transformada de
Leia maisAnálise e Processamento de Sinal e Imagem. III - Sinais Aleatórios e Filtragem Óptima
III - Sinais Aleatórios e Filtragem Óptima António M. Gonçalves Pinheiro Departamento de Física Covilhã - Portugal pinheiro@ubi.pt Sinais Aleatórios e Filtragem Óptima 1. Noção de Sinal Aleatório 2. Sinais
Leia maisMódulo III: Processos de Poisson, Gaussiano e Wiener
Módulo III: Processos de Poisson, Gaussiano e Wiener Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica Processos Estocásticos Campina Grande - PB Módulo
Leia maisProcessos aleatórios - características
Capítulo 6 Processos aleatórios - características temporais 6.1 O conceito de processo aleatório Um processo aleatório ou estocástico é um espaço de amostras em que cada elemento é associado a uma função
Leia maisLicenciatura em Engenharia Biomédica. Faculdade de Ciências e Tecnologia. Universidade de Coimbra. Análise e Processamento de Bio-Sinais - MIEBM
Licenciatura em Engenharia Biomédica Faculdade de Ciências e Tecnologia Slide Slide 1 1 Tópicos: Representações de Fourier de Sinais Compostos Introdução Transformada de Fourier de Sinais Periódicos Convolução
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 35 Fabrício Simões
Leia maisIND 1115 Inferência Estatística Aula 6
Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal
Leia maisSUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS
4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está
Leia maiscanal para sinais contínuos
Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos
Leia maisNOTAS DE AULAS DE FÍSICA MODERNA
NOTAS DE AULAS DE FÍSICA MODERNA Prof. Carlos R. A. Lima CAPÍTULO 5 MECÂNICA QUÂNTICA DE SCHRÖDINGER Edição de junho de 2014 CAPÍTULO 5 MECÂNICA QUÂNTICA DE SCHRÖDINGER ÍNDICE 5.1- Introdução 5.2- Equação
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE
Leia maisAula 1. Wilson Correa. June 27, 2017
Aula 1 Definições Básicas Wilson Correa June 27, 2017 Série de Tempo Definição Uma série de tempo é qualquer conjunto de observações ordenadas no tempo. Podem ser: Discretas. Ex: Valores Diários de Poluição,
Leia maisTiago Viana Flor de Santana
ESTATÍSTICA BÁSICA DISTRIBUIÇÃO NORMAL DE PROBABILIDADE (MODELO NORMAL) Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual
Leia maisEstimação da Resposta em Frequência
27 Estimação da Resposta em Frequência ω = ω ω Objectivo: Calcular a magnitude e fase da função de transferência do sistema, para um conjunto grande de frequências. A representação gráfica deste conjunto
Leia maisAnálise e Previsão de Séries Temporais Aula 1: Introdução às séries temporais. Eraylson Galdino
Análise e Previsão de Séries Temporais Aula 1: Introdução às séries temporais egs@cin.ufpe.br Agenda Séries Temporais: Definições Exemplos Modelos simples com média zero: Ruído I.I.D Processo Binário Random
Leia maisNeste capítulo é introduzido um conceito que permite definir eventos de uma forma mais
Capítulo 2 A variável aleatória Neste capítulo é introduzido um conceito que permite definir eventos de uma forma mais consistente. Este novo conceito é o de variáveis aleatórias e se constitui em uma
Leia maisFundamentos de Análise Tempo-Frequência
Fundamentos de com Aplicação a Processamento de Sinais - 4 Luiz W. P. Biscainho 1 Paulo A. A. Esquef 2 1 Programa de Engenharia Elétrica do COPPE Universidade Federal do Rio de Janeiro 2 Coordenação de
Leia maisSinais e ruídos em sistemas de medição
(parte I) Instrumentação eletrônica para sistemas de medição Capítulo 7 Sinais e ruídos em sistemas de medição Prof. Lélio R. Soares Júnior ENE FT UnB Introdução Sinal determinístico o valor do sinal em
Leia maisAnálise e Transmissão de Sinais
Análise e Transmissão de Sinais Edmar José do Nascimento (Princípios de Comunicações) Universidade Federal do Vale do São Francisco Roteiro 1 Análise de Fourier 2 Sistemas Lineares 3 Filtros 4 Distorção
Leia maisI-5 Espetro de sinais não periódicos A Transformada de Fourier
I-5 Espetro de sinais não periódicos A Transformada de Fourier Comunicações Sumário 1. Sinais não periódicos. Transformada de Fourier Representação, no domínio da frequência, de sinais não periódicos Relação
Leia mais04/04/ :31. Sumário. 2.1 Sistemas LIT de Tempo Discreto 2.2 Sistemas LIT de Tempo Contínuo 2.3 Propriedades dos Sistemas LIT
Sumário 2.1 Sistemas LIT de Tempo Discreto 2.2 Sistemas LIT de Tempo Contínuo 2.3 Propriedades dos Sistemas LIT slide 1 2 Introdução Muitos processos físicos podem ser modelados como sistemas lineares
Leia maisDefinição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
Leia maisANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS TESTES DE RECUPERAÇÃO A - 6 DE JUNHO DE 9 - DAS H ÀS :3H Teste Apresente e justifique
Leia maisNOTAS DE AULAS DE FÍSICA MODERNA
NOTAS DE AULAS DE FÍSICA MODERNA Prof. Carlos R. A. Lima CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER Edição de janeiro de 2009 CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER ÍNDICE 6.1- Introdução 6.2- Equação
Leia maisDistribuição Normal. Prof. Eduardo Bezerra. (CEFET/RJ) - BCC - Inferência Estatística. 25 de agosto de 2017
padrão - padronização Distribuição Normal Prof. Eduardo Bezerra (CEFET/RJ) - BCC - Inferência Estatística 25 de agosto de 2017 Eduardo Bezerra (CEFET/RJ) Distribuição Normal Março/2017 1 / 32 Roteiro Distribuições
Leia maisAnálise e Processamento de BioSinais. Mestrado Integrado em Engenharia Biomédica. Faculdade de Ciências e Tecnologia. Universidade de Coimbra
Análise e Processamento de BioSinais Mestrado Integrado em Engenharia Biomédica Faculdade de Ciências e Tecnologia Slide Análise e Processamento de BioSinais MIEB Adaptado dos slides S&S de Jorge Dias
Leia maisIntrodução. Faculdade Pitágoras Unidade Divinópolis. Márcio Júnior Nunes. O que é um Sinal? Sinal Unidimensional Sinal Multidimensional 24/08/2016
Faculdade Pitágoras Unidade Divinópolis Introdução Márcio Júnior Nunes O que é um Sinal? Sinal Unidimensional Sinal Multidimensional 2 1 Nível de líquido 3 Eletrocardiograma 4 2 Pressão Arterial 5 Índice
Leia maisSinais e Sistemas. Série de Fourier. Renato Dourado Maia. Faculdade de Ciência e Tecnologia de Montes Claros. Fundação Educacional Montes Claros
Sinais e Sistemas Série de Fourier Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Lembremos da resposta de um sistema LTI discreto a uma exponencial
Leia mais)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD
)XQGDPHQWRVGHUREDELOLGDGHHHVWDWtVWLFD,QWURGXomR A história da estatística pode ser dividida em três fases. De acordo com PEANHA (00), a estatística inicialmente não mantinha nenhuma relação com a probabilidade,
Leia maisInstrumentação Industrial. Fundamentos de Instrumentação Industrial: Introdução a Metrologia Incerteza na Medição
Instrumentação Industrial Fundamentos de Instrumentação Industrial: Introdução a Metrologia Incerteza na Medição Introdução a Metrologia O que significa dizer: O comprimento desta régua é 30cm. A temperatura
Leia maisSinais e Sistemas. Sinais e Sistemas Fundamentos. Renato Dourado Maia. Universidade Estadual de Montes Claros. Engenharia de Sistemas
Sinais e Sistemas Sinais e Sistemas Fundamentos Renato Dourado Maia Universidade Estadual de Montes Claros Engenharia de Sistemas Classificação de Sinais Sinal de Tempo Contínuo: É definido para todo tempo
Leia maisEN2607 Transformadas em Sinais e Sistemas Lineares Lista de Exercícios Suplementares 3 3 quadrimestre 2012
EN607 Transformadas em Sinais e Sistemas Lineares Lista de Exercícios Suplementares 3 fevereiro 03 EN607 Transformadas em Sinais e Sistemas Lineares Lista de Exercícios Suplementares 3 3 quadrimestre 0
Leia maisTransformada de Laplace
Sinais e Sistemas Transformada de Laplace lco@ist.utl.pt Instituto Superior Técnico Sinais e Sistemas p.1/60 Resumo Definição da transformada de Laplace. Região de convergência. Propriedades da transformada
Leia maisNOTAS DE AULAS DE FÍSICA MODERNA
NOTAS DE AULAS DE FÍSICA MODERNA Prof. Carlos R. A. Lima CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER Edição de agosto de 2011 CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER ÍNDICE 6.1- Introdução 6.2- Equação
Leia maisUm modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15
2 Simulação estocástica A simulação computacional consiste em empregar técnicas matemáticas em computadores com o propósito de gerar ensaios que tentam reproduzir de maneira análoga um processo ou operação
Leia maisNOTAS DE AULAS DE FÍSICA MODERNA
NOTAS DE AULAS DE FÍSICA MODERNA Prof. Carlos R. A. Lima CAPÍTULO 6 MECÂNICA QUÂNTICA DE DE SCHRÖDINGER Primeira Edição junho de 2005 CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER ÍNDICE 6.1- Introdução
Leia mais, (1) onde v é o módulo de v e b 1 e b 2 são constantes positivas.
Oscilações Amortecidas O modelo do sistema massa-mola visto nas aulas passadas, que resultou nas equações do MHS, é apenas uma idealização das situações mais realistas existentes na prática. Sempre que
Leia maisSéries Temporais. Fernando Lucambio. Agosto de Departamento de Estatística Universidade Federal do Paraná Curitiba/PR, , Brasil
Séries rais Autocorrelação Fernando Lucambio Departamento de Estatística Universidade Federal do Paraná Curitiba/PR, 81531 990, Brasil email: lucambio.ufpr@gmail.com Agosto de 2015 AUTOCORRELAÇÃO Uma importante
Leia maisCircuitos Elétricos III
Circuitos Elétricos III Prof. Danilo Melges Depto. de Eng. Elétrica Universidade Federal de Minas Gerais A Transformada de Fourier Série de Fourier e Transformada de Fourier Partindo da Série de Fourier
Leia maisTeoria da Probabilidade e Modelos Discretos de Mercados Financeiros Edição de 7 de Fevereiro de 2017
QUESTÕES PARA AS AVALIAÇÕES Teoria da Probabilidade e Modelos Discretos de Mercados Financeiros 2016-2017 Edição de 7 de Fevereiro de 2017 Nota Prévia Todos os exercícios enunciados nas aulas são considerados
Leia maisSistemas Lineares e Invariantes
Universidade Federal da Paraíba Programa de Pós-Graduação em Engenharia Elétrica Sistemas Lineares e Invariantes Prof. Juan Moises Mauricio Villanueva jmauricio@cear.ufpb.br www.cear.ufpb.br/juan 1 Sistemas
Leia maisNOTAS DE AULAS DE FÍSICA MODERNA
NOTAS DE AULAS DE FÍSICA MODERNA Prof. Carlos R. A. Lima CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER Edição de janeiro de 2010 CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER ÍNDICE 6.1- Introdução 6.2- Equação
Leia maisResumo. Sinais e Sistemas Representação de Sinais Periódicos em Séries de Fourier. Objectivo. Função Própria de um Sistema
Resumo Sinais e Sistemas Representação de Sinais Periódicos em Séries de Fourier lco@ist.utl.pt Instituto Superior Técnico Resposta de SLITs a exponenciais complexas Série de Fourier de sinais contínuos
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova /02
eoria das Comunicações Prova 1-1/ Aluno: Matrícula: Instruções A prova terá a duração de h3 A prova pode ser feita a lápis ou caneta Não é permitida consulta a notas de aula, todas as fórmulas necessárias
Leia maisTransformada de Fourier. Theo Pavan e Adilton Carneiro TAPS
Transformada de Fourier Theo Pavan e Adilton Carneiro TAPS Análise de Fourier Análise de Fourier - representação de funções por somas de senos e cossenos ou soma de exponenciais complexas Uma análise datada
Leia maisMais sobre Modelos Continuos
Mais sobre Modelos Continuos Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 41 Transformação Linear da Uniforme Seja X uma variável aleatória
Leia maisProcessamento de Sinais 2013/14
Processamento de Sinais / Instituto Superior Técnico MEAer Respostas ao. Exame 7 de Janeiro de Nota: As respostas dadas são apenas sumariamente justificadas, destinando-se a validar as resoluções dos alunos..
Leia maisTE060 Princípios de Comunicação. Probabilidade. Probabilidade Condicional. Notes. Notes. Notes
TE060 Princípios de Comunicação Efeito do Ruído em Sistemas com Modulação de Onda Contínua 5 de novembro de 2013 Probabilidade Uma medida de probabilidade P é uma função que associa um número não negativo
Leia maisUniversidade Federal do Pará Instituto de Tecnologia. Cálculo III. Campus de Belém Curso de Engenharia Mecânica
Universidade Federal do Pará Instituto de Tecnologia Cálculo III Prof. Dr. Jorge Teófilo de Barros Lopes Campus de Belém Curso de Engenharia Mecânica Universidade Federal do Pará Instituto de Tecnologia
Leia maisSistemas lineares. Realce no domínio de freqüências. Propriedades. Sistema: definição. Sistemas harmônicos e análise de sinais complexos
Realce no domínio de freqüências Hitoshi Capítulo 4 do Gonzalez Sistemas lineares muito utilizado para a descrição de sistemas elétricos e ópticos possuem fundamentos matemáticos bem estabelecidos para
Leia maisDISTRIBUIÇÃO NORMAL DISTRIBUIÇÕES DE PROBABILIDADE CONJUNTAS ROTEIRO DISTRIBUIÇÃO NORMAL
ROTEIRO DISTRIBUIÇÕES DE PROBABILIDADE CONJUNTAS 1. Distribuições conjuntas 2. Independência 3. Confiabilidade 4. Combinações lineares de variáveis aleatórias 5. Referências DISTRIBUIÇÃO NORMAL Definição:
Leia maisSegunda Lista de Exercícios Cálculo de Probabilidades II Prof. Michel H. Montoril
Exercício 1. Uma urna contém 4 bolas numeradas: {1, 2, 2, 3}. Retira-se dessa urna duas bolas aleatoriamente e sem reposição. Sejam 1 : O número da primeira bola escolhida; 2 : O número da segunda bola
Leia maisMEDIDAS DINÂMICAS. Figura 1: Classificação de sinais
MEDIDAS DINÂMICAS INRODUÇÃO A medição é uma operação, ou conjunto de operações, destinadas a determinar o valor de uma grandeza física. O seu resultado, acompanhado da unidade conveniente, constitui a
Leia maisParâmetros importantes de um Analisador de Espectros: Faixa de frequência. Exatidão (frequência e amplitude) Sensibilidade. Resolução.
Parâmetros importantes de um Analisador de Espectros: Faixa de frequência Exatidão (frequência e amplitude) Sensibilidade Resolução Distorção Faixa dinâmica Faixa de frequência: Determina as frequências
Leia maisSinais e Sistemas. Tempo para Sistemas Lineares Invariantes no Tempo. Representações em Domínio do. Profª Sandra Mara Torres Müller.
Sinais e Sistemas Representações em Domínio do Tempo para Sistemas Lineares Invariantes no Tempo Profª Sandra Mara Torres Müller Aula 7 Representações em Domínio do Tempo para Sistemas Lineares e Invariantes
Leia maisIntrodução aos Sinais e Sistemas
Introdução aos Sinais e Sistemas Deise Monquelate Arndt deise.arndt@ifsc.edu.br Curso Superior de Tecnologia em Sistemas de Telecomunicações IFSC - Campus São José Índice 1 Sinais Operações com Sinais
Leia maisRepresentação de Sinais Periódicos em Séries de Fourier
Sinais e Sistemas Representação de Sinais Periódicos em Séries de Fourier lco@ist.utl.pt Instituto Superior Técnico Sinais e Sistemas p.1/39 Resumo Resposta de SLITs a exponenciais complexas Sinais e Sistemas
Leia maisCAPÍTULO 5: VARIÁVEIS ALEATÓRIAS BIDIMENSIONAIS Todas as coisas aparecem e desaparecem por causa da concorrência de causas e condições. Nada nunca existe inteiramente só, tudo está em relação com todo
Leia mais