canal para sinais contínuos
|
|
- Luiz Fernando da Costa Assunção
- 6 Há anos
- Visualizações:
Transcrição
1 Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin
2 Conteúdo 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para2 sin
3 Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para3 sin
4 Revisão de processos estocásticos Até agora falamos de fontes discretas. Não se explica a origem do erro na transição e não é uma descrição mais correta do canal. O ruído pode ter uma continuidade de amplitudes, bem como o sinal útil analógico também. Em um sinal discreto se falava da probabilidade de um evento. Em um sinal contínuo existe a probabilidade de um evento estar entre um intervalo de a b. Para saber a probabilidade de um sinal estar entre e x se usa Densidade de Probabilidade Acumulada. Para sistemas discretos, a soma das probabilidades é igual a 1. Em sistemas contínuos, a Densidade de Probabilidade Acumulada começa em 0 e termina em 1. Processos estocásticos, Entropia e capacidade de canal para4 sin
5 Propriedades: (i) 0 F (x) 1 (ii) lim x F (x) = 1 (iii) lim x F (x) = 0 (iv) F (x) é não decrescente em x, se a < b, então F (a) F (b) A Função de Densidade de Probabilidade ou F.D.P. é dada como a derivada da distribuição de probabilidade acumulada : df (x) p(x) = dx x b a x b) p(u)du = F (x) F () = F (x) p(x)dx = F ( ) F () = 1 p(x)dx = F (b) F (a) = P (x b) P (x a) = P (a < Processos estocásticos, Entropia e capacidade de canal para5 sin
6 Processos estocásticos, Entropia e capacidade de canal para6 sin
7 A função de densidade de probabilidade mais importante para nós é a distribuição normal, ou gaussiana. A sua integral, ou seja, a distribuição de probabilidade acumulada é calculada através da função de erro erf(x). E(x) = Média x p(x)dx F.D.P da curva normal - gaussiana { p(x) = 1 σ 2π exp } (x µ)2 2σ 2 Variância var(x) = E [ (x E(x)) 2] = (x E(x)) 2 p(x)dx erf erf(x) = 2 x exp( t 2 )dt π 0 Processos estocásticos, Entropia e capacidade de canal para7 sin
8 Todas as propriedades de probabilidade continuam válidas. Onde havia uma somatória para variáveis discretas agora é uma integral: Distribuição de Probabilidade Acumulada Conjunta: F (x, y) = P (x x, y y) Função de Densidade de Probabilidade Conjunta: p(x, y) = 2 F (x, y) p(x, y)dxdy = 1 x y p(x) = Função de Densidade de Probabilidade Marginal: p(x, y)dy q(y) = p(x, y)dx Processos estocásticos, Entropia e capacidade de canal para8 sin
9 Função de densidade de probabilidade condicional: p(x, y) p(x, y) p(x y) = q(y x) = q(y) p(x) Covariância: cov(x, y) = E [(x E(x)) (y E(y))] = Coeficiente de correlação: Correlação: (x E(x)) (y E(y)) p(x, y) dxdy cov(x, x) =var(x) ρ = R(x, y) = E(x y) = cov(x, y) var(x)var(y) x y p(x, y) dxdy Processos estocásticos, Entropia e capacidade de canal para9 sin
10 Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para10sin
11 {X(t), t T }. Probabilidade de t 0, x(t 0 ). Entender o sinal como estocástico para cada ponto de t. Todas as possíveis realizações de x(t) definem a variável estocástica. A distribuição de x(t) é contínua, então x(t) é uma variável estocástica contínua. Processos estocásticos, Entropia e capacidade de canal para11sin
12 Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para12sin
13 Entropia em sistemas contínuos Um processo estocástico no tempo, contém para cada instante do tempo, um valor aleatório, cujas características de probabilidade são descritas pela função de densidade de probabilidade. Se as características da função de densidade de probabilidade não variam no tempo, o sinal pode ser chamado de estacionário. Se um sinal não varia de maneira infinitamente rápida, isso significa que ele possui banda passante finita. Esse sinal pode ser então descrito como uma sequência de amostras discretas com no mínimo duas amostras por ciclo da frequência mais rápida do sinal (NYQUIST). Em comunicações digitais esse resultado é importante pois essa abstração vai permitir calcular taxas de erro binário através do teorema da capacidade do canal de Shannon. Processos estocásticos, Entropia e capacidade de canal para13sin
14 Entropia em sistemas contínuos Revisão: Entropia no caso discreto: J 1 ( ) 1 H(x) = p(x j ) log 2 J sendo um número finito. p(x j ) j=0 Entropia no caso contínuo (entropia relativa entropia diferencial): ( ) 1 h(x) = p(x) log 2 dx p(x) Sem fazer alguma hipótese sobre p(x), h(x) pode ser infinita. p(x) a densidade de probabilidade de x Processos estocásticos, Entropia e capacidade de canal para14sin
15 Limitando p(x) em amplitude Para limitar h(x), algumas hipóteses devem ser feitas em torno de x ou p(x) para poder limitar a entropia de fontes contínuas. Se limitarmos a amplitude de x entre ( A, A). Consideramos a distribuição de probabilidade uniforme: p(x) = 1 por ser limitada em amplitude ela satisfaz a 2A h(x) = A A relação: A A = 1 1 2A log 2(2A)dx = log 2 2A Processos estocásticos, Entropia e capacidade de canal para15sin
16 Limitando p(x) em potência Consideramos um sinal de potência constante, i.e. variância constante σ 2 = E [ (x E(x)) 2] e média µ = E(x) A distribuição normal é aquela que contém a maior quantidade de informação para sinais contínuos a potência constante A entropia da variável gaussiana não depende da sua média Quando se fala de ruído gaussiano ou normal é o pior caso para considerar o canal. O resultado da quantidade de informação sinal gaussiano é o mais Aplicado para inferir valores de taxa de erro binário. Processos estocásticos, Entropia e capacidade de canal para16sin
17 Calculando a entropia da distribuição normal Processos estocásticos, Entropia e capacidade de canal para17sin
18 Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) Processos estocásticos, Entropia e capacidade de canal para17sin
19 Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 Processos estocásticos, Entropia e capacidade de canal para17sin
20 Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 Processos estocásticos, Entropia e capacidade de canal para17sin
21 Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 E(x) = µ Processos estocásticos, Entropia e capacidade de canal para17sin
22 Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 E(x) = µ (x E(x)) 2 p(x)dx = (x µ)) 2 p(x)dx = σ 2 Processos estocásticos, Entropia e capacidade de canal para17sin
23 Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 E(x) = µ (x E(x)) 2 p(x)dx = (x µ)) 2 p(x)dx = σ 2 Processos estocásticos, Entropia e capacidade de canal para17sin
24 ( }) 1 h(x) = p(x) log 2 { σ 2π exp (x µ)2 2σ 2 dx Processos estocásticos, Entropia e capacidade de canal para18sin
25 h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx Processos estocásticos, Entropia e capacidade de canal para18sin
26 h(x) = h(x) = h(x) = p(x) p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx Processos estocásticos, Entropia e capacidade de canal para18sin
27 h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 Processos estocásticos, Entropia e capacidade de canal para18sin
28 h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 ( ) log h(x) = log 2 σ 2π + 2 e 2 Processos estocásticos, Entropia e capacidade de canal para18sin
29 h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 ( ) log h(x) = log 2 σ 2π + 2 e 2 h(x) = 2 log ( ) 2 σ 2π + log2 e 2 Processos estocásticos, Entropia e capacidade de canal para18sin
30 h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 ( ) log h(x) = log 2 σ 2π + 2 e 2 h(x) = 2 log ( ) 2 σ 2π + log2 e 2 h(x) = log ( 2 σ 2 2π ) + log 2 e 2 = 1 2 log ( 2 2πeσ 2 ) Processos estocásticos, Entropia e capacidade de canal para18sin
31 Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para19sin
32 Entropia conjunta e condicional Quantidade de informação conjunta: H(X, Y ) = p(x, y) log p(x, y)dxdy Quantidade de informação condicional: H(X Y ) = H(Y X) = p(x, y) log p(x y)dxdy p(x, y) log p(y x)dxdy Processos estocásticos, Entropia e capacidade de canal para20sin
33 Informação mútua I(X ; Y) = h(x ) h(x Y) Revisão: em sistemas discretos K 1 J 1 [ ] p(yk x j ) I(X ; Y) = p(x j, y k ) log 2 = I(Y; X ) p(y k ) k=0 j=0 Em sistemas contínuos I(X ; Y) = I(X ; Y) = [ ] p(x y) p(x, y) log 2 p(x) p(x, y) log 2 [ p(x, y) p(x)p(y) dxdy ] dxdy Processos estocásticos, Entropia e capacidade de canal para21sin
34 Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para22sin
35 Ruído na entropia de Y Vamos usar a hipótese de um canal gaussiano aditivo. Gaussiano porque o ruído do canal se comporta como uma variável contínua com distribuição normal. Aditivo pois: n = y x q(y x) = q((x + n) x). Como o ruído é independente de x: q((x + n) x) = p(n x) = p(n) = p(y x) A incerteza de y dado x é a quantidade de informação (entropia) de n. h(y X ) = = = = p(x, y) log 2 [q(y x)] dxdy p(x)q(y x) log 2 [q(y x)] dxdy p(x)p(n) log 2 [p(n)] dxdn p(n) log 2 [p(n)] dn = h(n ) Processos estocásticos, Entropia e capacidade de canal para23sin
36 Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para24sin
37 Capacidade do canal aditivo gaussiano Para canais discretos estava definido como a máxima informação mútua. No caso de sinais contínuos é a mesma coisa: C = max p(x) {h(y) h(y X )} = max p(x) {h(y) h(n )} = max p(x) {h(y)} h(n ) Se o ruído é gaussiano a sua entropia já foi calculada: h(n ) = log 2 σ n 2πe bits/amostra Agora definimos o ruído com banda passante finita de B e que pode se amostrado a cada T S = 1/(2B) (respeitando assim o critério de Nyquist), que é o tempo de cada amostra. A entropia passa a ser medida em bits/seg. h(n ) = 1 [ log T 2 (2πeσn) 2 1/2] S = 2B log 2 [ (2πeσ 2 n ) 1/2] = B log 2 (2πeσ 2 n) bits/seg Processos estocásticos, Entropia e capacidade de canal para25sin
38 Para ter o máximo em H(Y), H(Y) tem de ser gaussiano, e como y = x + n, e n é gaussiano, então x tem de ser gaussiano também. Quanto mais X se comportar como um sinal aleatório gaussiano mais ele vai ter entropia e mais próximo vai estar no limite da capacidade do canal. O desafio na criação de códigos, sujeito de pesquisa até hoje, é a criação de códigos que tenha um comportamento mais gaussiano possível. C = max p(x) {h(y)} h(n ) A potência em Y é dada por: p y = σ 2 y = σ 2 x + σ 2 n O máximo em H(Y): max p(x) {H(Y)} = 1 2 log 2 { 2πe ( σ 2 x + σ 2 n)} bits/amostra = B log 2 { 2πe ( σ 2 x + σ 2 n)} bits/seg Processos estocásticos, Entropia e capacidade de canal para26sin
39 Considerando que a potência é constante, a capacidade é: { ( C = B log 2 2πe σ 2 x + σn 2 )} { } B log2 2πeσ 2 ( n σ 2 = B log x + σ 2 ) ( ) n px + p n 2 σn 2 = B log 2 ( p n = B log p ) x btis/seg p n Nota intuitiva Quanto menos pot^encia de ruído relaç~ao ao sinal, maior é a quantidade de informaç~ao que eu posso transmitir nesse canal, ou seja, maior é a capacidade. A capacidade do canal é mais sensível à banda passante B que à relaç~ao sinal sobre ruído Processos estocásticos, Entropia e capacidade de canal para27sin
40 Considerando o ruído como branco de densidade espectral de potência N 0 e de banda passante B, a capacidade é: ( C = B log P ) x BN 0 Veja que para P x /(BN 0 ) a relação é logarítmica e que para aumentar a capacidade é melhor aumentar B do que a relação sinal sobre ruído. Esse resultado é um limite teórico para códigos que sejam suficientemente complexos para se aproximar desse limite. Para se aproximar desse limite o sinal deve ter propriedades que se aproximem do ruído gaussiano. Processos estocásticos, Entropia e capacidade de canal para28sin
41 Empacotamento em esferas Luis Henrique Assumpc a o Lolis Processos estoca sticos, Entropia e capacidade de canal para29sin
42 Noção de constelação Processos estocásticos, Entropia e capacidade de canal para30sin
43 Eficiência Espectral x E b /N 0 P = E b C P : potência, E b : energia do bit, C: capacidade (bits/seg) ( C B = log E ) b C E b = 2C/B 1 N 0 B N 0 C/B Quando B se obtém o limite de Shannon: ( E b /N) 0 = 1, 6dB ( ) Eb Eb = lim B = log N 0 N 2 = 0, Processos estocásticos, Entropia e capacidade de canal para31sin
44 Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para32sin
Canais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisPar de Variáveis Aleatórias
Par de Variáveis Aleatórias Luis Henrique Assumpção Lolis 7 de abril de 2014 Luis Henrique Assumpção Lolis Par de Variáveis Aleatórias 1 Conteúdo 1 Introdução 2 Par de Variáveis Aleatórias Discretas 3
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisProbabilidade, entropia, surpresa, e quantidade de informação 1
Probabilidade, entropia, surpresa, e quantidade de informação 10 de setembro de 2013 Probabilidade, entropia, surpresa, e quantidade de informação 1 Conteúdo 1 Revisão de Probabilidade Teorema de Bayes
Leia maisProcessos Estocásticos
Processos Estocásticos Luis Henrique Assumpção Lolis 26 de maio de 2014 Luis Henrique Assumpção Lolis Processos Estocásticos 1 Conteúdo 1 Introdução 2 Definição 3 Especificando um processo aleatório 4
Leia maisTeoria de distorção da taxa
Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades
Leia maisAula 11. Variáveis Aleatórias Contínuas Bidimensionais
Aula. Variáveis Aleatórias Contínuas Bidimensionais Resumo de caso unidimensional Caso Discreto p p 2 p 3 Caso Contínuo f(x) x x 2 x 3 i p i + f x dx X x x 2 x 3 P p p 2 p 3 Caso bidimensional Caso Discreto
Leia maisProcessos Aleatórios e Ruído
Processos Aleatórios e Ruído Luis Henrique Assumpção Lolis 11 de abril de 2014 Luis Henrique Assumpção Lolis Processos Aleatórios e Ruído 1 Conteúdo 1 O Experimento Aleatório / Espaço de Amostras 2 Algebra
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 35 Fabrício Simões
Leia maisProcessos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos
Leia maisProcessos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos
Leia maisProcessos Estocásticos. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema
Leia maisVariáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22
all Variáveis Aleatórias Bidimensionais & Teoremas de Limite Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário
Leia maisVetor de Variáveis Aleatórias
Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias
Leia maisAnexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos
1 Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos Documento auxiliar à disciplina de Modelação, Identificação e Controlo Digital Alexandre Bernardino 003/005 IST-Secção de Sistemas
Leia maisTE802 Processos Estocásticos em Engenharia
TE802 Processos Estocásticos em Engenharia Duas Variáveis Aleatórias 29 de agosto de 2017 Duas Variáveis Aleatórias Função Distribuição Acumulada Conjunta: F X,Y (x,y) = P[X x, Y y] Propriedades: (a) 0
Leia maisAnexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos
1 Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos Documento auxiliar à disciplina de Modelação, Identificação e Controlo Digital Alexandre Bernardino IST-Secção de Sistemas e Controlo
Leia maisProcessos estocásticos
36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Processos estocásticos Geovany A. Borges gaborges@ene.unb.br
Leia maisTransmissão de impulsos em banda-base
ransmissão de impulsos em banda-base ransmissão de impulsos através de um canal com ruído aditivo.3 O filtro adaptado e o correlacionador ransmissão de sinais em canais banda-base Introdução Consideremos
Leia maisMódulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk
Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 20 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 tópicos 1 probabilidades - cont. 2 distribuições de probabilidades 1 binomial 2 Poisson 3
Leia maisTransmissão Digital em Banda Base
Transmissão Digital em Banda Base Luis Henrique Assumpção Lolis 27 de maio de 2014 Luis Henrique Assumpção Lolis Transmissão Digital em Banda Base 1 Conteúdo 1 Introdução 2 Análise de erro de bits 3 Interferência
Leia maisTransmissão de impulsos em banda-base
Transmissão de impulsos em banda-base Transmissão de impulsos através de um canal com ruído aditivo. Probabilidades de erro com detecção no ponto central Detecção de sinais binários em ruído gaussiano
Leia maisAula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas
Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas Matheus Rosso e Camila Steffens 19 de Março de 2018 Independência de variáveis aleatórias Duas V.A. são independentes se, e somente
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM98 LISTA DE EXERCÍCIOS # 8. Exercícios. [, 9.5] Um processo estocástico gaussiano,
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos
Leia maisTE060 Princípios de Comunicação. Probabilidade. Probabilidade Condicional. Notes. Notes. Notes
TE060 Princípios de Comunicação Efeito do Ruído em Sistemas com Modulação de Onda Contínua 5 de novembro de 2013 Probabilidade Uma medida de probabilidade P é uma função que associa um número não negativo
Leia mais1.1 Exemplo da diferença da média da população para a média amostral.
1 Estatística e Probabilidades Inferência Estatística consiste na generalização das informações a respeito de uma amostra, para a sua população. A Probabilidade considera modelos para estimar informações
Leia maisSeja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:
46 VALOR ESPERADO CONDICIONADO Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: Variável contínua E + ( X Y
Leia maisVetor de Variáveis Aleatórias
Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 14 de abril de 2014 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE
Leia mais4.1. ESPERANÇA x =, x=1
4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor
Leia maisLEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%
. Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística
Leia mais3 3. Variáveis Aleatórias
ÍNDICE 3. VARIÁVEIS ALEATÓRIAS...49 3.. VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS...49 3.2. VARIÁVEIS DISCRETAS FUNÇÃO DE PROBABILIDADE E FUNÇÃO DISTRIBUIÇÃO DE PROBABILIDADE...50 3.2.. Função de probabilidade...50
Leia maisCálculo das Probabilidades I
Cálculo das Probabilidades I Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Função Geradora de Momentos 10/13 1 / 19 Calculamos algumas características da
Leia maisModelagem Estocástica e Quantificação de Incertezas
Modelagem Estocástica e Quantificação de Incertezas Rubens Sampaio rsampaio@puc-rio.br Roberta de Queiroz Lima robertalima@puc-rio.br Departamento de Engenharia Mecânica DINCON 2015 Organização do curso
Leia maisA estacionariedade prova-se de maneira semel- hante.
Se por outro lado (U 1, U 2,...) é IID então mostremos que X n U 1 + + U n tem incrementos independentes e estacionários. De facto, dados n > m temos que X n X m U m+1 + + U n. Tome-se quaisquer n 1
Leia maisSinais e Sistemas Mecatrónicos
Sinais e Sistemas Mecatrónicos Sinais e Sistemas Sinais Contínuos no Tempo José Sá da Costa José Sá da Costa T2 - Sinais Contínuos 1 Sinais Sinal É uma função associada a um fenómeno (físico, químico,
Leia maisVariáveis Aleatórias Contínuas
Variáveis Aleatórias Contínuas Bacharelado em Administração - FEA - Noturno 2 o Semestre 2017 MAE0219 (IME-USP) Variáveis Aleatórias Contínuas 2 o Semestre 2017 1 / 35 Objetivos da Aula Sumário 1 Objetivos
Leia maisPARTE TEÓRICA Perguntas de escolha múltipla
PROBABILIDADES E ESTATÍSTICA MIEEC/FEUP PARTE TEÓRICA Perguntas de escolha múltipla 1 Dada a experiência aleatória ε define-se espaço amostral associado a ε como sendo: A O espaço físico onde se realiza
Leia maisEntropia, Entropia Relativa
Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos
Leia maisTiago Viana Flor de Santana
ESTATÍSTICA BÁSICA DISTRIBUIÇÃO NORMAL DE PROBABILIDADE (MODELO NORMAL) Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual
Leia maisSistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Leia maisEstatística Descritiva e Exploratória
Gledson Luiz Picharski e Wanderson Rodrigo Rocha 9 de Maio de 2008 Estatística Descritiva e exploratória 1 Váriaveis Aleatórias Discretas 2 Variáveis bidimensionais 3 Váriaveis Aleatórias Continuas Introdução
Leia maisSUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS
4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está
Leia mais3 Expressões de BER para as diferentes modulações
TE248 - Teoria da Informação e Codificação - 2013 Luis Henrique A. Lolis Trabalho MATLAB - Escolha de modulação e código para uma comunicação sem fio 1 Objetivos Considerando um projeto de comubnicação
Leia maisTE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017
TE802 Processos Estocásticos em Engenharia Processos Aleatórios 18 de outubro de 2017 Processo Aleatório Processo Aleatório (ou Estocástico), X(t): Função aleatória do tempo para modelar formas de onda
Leia maisII-6 Análise de Ruído e Capacidade de Canal
II-6 Análise de Ruído e Capacidade de Canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN (canal físico) Modelo BSC (canal discreto) Efeito do ruído
Leia mais2.4 Esperança e distribuição condicionais
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 35 2.4 Esperança e distribuição condicionais Estendemos aqui o conceito de probabilidade condicional em (2.8) para obter a distribuição condicional e, posteriormente,
Leia maisPRINCÍPIOS DE COMUNICAÇÃO
PRINCÍPIOS DE COMUNICAÇÃO RUÍDO EM MODULAÇÕES ANALÓGICAS Evelio M. G. Fernández - 2011 Processo Aleatório (ou Estocástico): Função aleatória do tempo para modelar formas de onda desconhecidas. Processos
Leia maisSUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49
SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo
Leia maisComunicações Digitais Prof. André Noll Barreto. Prova /1 (04/04/2017)
Prova 7/ (4/4/7) Aluno: Matrícula: Instruções A prova consiste de 4 (quatro) questões discursivas A prova terá a duração de h A prova pode ser feita a lápis ou caneta Não é permitida consulta a qualquer
Leia maisCálculo II (Primitivas e Integral)
Cálculo II (Primitivas e Integral) Antônio Calixto de Souza Filho Escola de Artes, Ciências e Humanidades Universidade de São Paulo 5 de março de 2013 1 Aplicações de Integrais subject Aplicações de Integrais
Leia maisBioestatística. AULA 6 - Variáveis aleatórias. Isolde Previdelli
Universidade Estadual de Maringá Mestrado Acadêmico em Bioestatística Bioestatística Isolde Previdelli itsprevidelli@uem.br isoldeprevidelli@gmail.com AULA 6 - Variáveis aleatórias 30 de Março de 2017
Leia maisTEORIA DE INFORMAÇÃO UM NANOCURSO
TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set. 2016 Centenário de Shannon - SBrT - Santarém Dedicação: a memória de Claude Shannon Claude Shannon 1916-2001 matemático, engenheiro eletrônico,
Leia mais195
195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade
Leia maisAnálise de Dados em Astronomia. 3. Distribuições de Probabilidades
1 / 24 3. Distribuições de Probabilidades Análise de Dados em Astronomia 3. Distribuições de Probabilidades Laerte Sodré Jr. AGA0505, 1o. semestre 2019 introdução aula de hoje 1 2 a distribuição uniforme
Leia maisFormatação de fonte. PCM ( Pulse Code Modulation )
Formatação de fonte PCM ( Pulse Code Modulation ) Elementos básicos de um sistema PCM A obtenção de um sinal PCM envolve três operações: 1. Amostragem. uantização (uniforme ou não-uniforme) 3. Codificação
Leia maisO movimento Browniano
O movimento Browniano R. Vilela Mendes http://label2.ist.utl.pt/vilela/ March 2010 () March 2010 1 / 35 Sumário O movimento Browniano Propriedade Markoviana Probabilidade de transição. Medida de Wiener
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log
Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )
Leia maisTE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Leia maisX(t) = A cos(2πf c t + Θ)
Exercícios Extras de Comunicações Digitais. Seja um sinal aleatório X(t), estacionário no sentido restrito, dado por onde X(t) = A cos(πf c t + Θ) A é uma variável aleatória Gaussiana com média de 4Volts
Leia maisVariável Aleatória Contínua (v.a.c)
Variável Aleatória Contínua (v.a.c) Lucas Santana da Cunha email: lscunha@uel.br http://www.uel.br/pessoal/lscunha/ 20 de junho de 2018 Londrina 1 / 14 (v.a.c.) Uma função Y definida sobre o espaço amostral
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia maisTE060 Princípios de Comunicação. Sistemas de Comunicação Digital Notes. Por quê Digital? Notes. Notes. Evelio M. G. Fernández. 5 de novembro de 2013
TE060 Princípios de Comunicação Modulação de Pulso 5 de novembro de 2013 Sistemas de Comunicação Digital Sistema digital no sentido de utilizar uma sequência de símbolos pertencentes a um conjunto finito
Leia maisCompressão e Codificação de Dados. Primeiro Exame e Segundo Teste
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova 3
Prova 3 6/08/010 Aluno: Matrícula: Questão 1 ( pontos) Queremos transmitir a seguinte sequência de bits: 1001110010 Esboce o sinal transmitido para os seguintes esquemas (0, ponto cada): a) sinalização
Leia maisMódulo III: Processos de Poisson, Gaussiano e Wiener
Módulo III: Processos de Poisson, Gaussiano e Wiener Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica Processos Estocásticos Campina Grande - PB Módulo
Leia maisNoções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
Leia maisComparação entre limite de Shannon, diferentes modulações 1 e. modulações e o ganho vindo de um código de canal. Luis Henrique Assumpção Lolis
Comparação entre limite de Shannon, diferentes modulações e o ganho vindo de um código de canal 3 de outubro de 2013 Comparação entre limite de Shannon, diferentes modulações 1 e Conteúdo Comparação entre
Leia maisFUNÇÕES DE VARIÁVEL ALEATÓRIA
5 FUNÇÕES DE VARIÁVEL ALEATÓRIA Dada uma variável aleatória contínua X com função de densidade f (x). Considerando Y = g(x), uma função de X, também é uma variável aleatória. A definição da variável Y
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana
Leia maisAnálise de Dados e Simulação
Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer
Leia maisMódulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios
Módulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia
Leia maisCapítulo II-Teoria da Probabilidade
Capítulo II-Teoria da Probabilidade Os assuntos expostos nos slides 58 a 75 serão estudados apenas na aulas práticas, visto serem assuntos de revisão. Noções Preliminares Definição Fenómenos aleatórios
Leia maisVariáveis Aleatórias. Henrique Dantas Neder. April 26, Instituto de Economia - Universidade Federal de Uberlândia
Variáveis Aleatórias Henrique Dantas Neder Instituto de Economia - Universidade Federal de Uberlândia April 2, 202 VARIÁVEL ALEATÓRIA DISCRETA O conceito de variável aleatória está intrínsicamente relacionado
Leia maisANÁLISE DE SINAIS E SISTEMAS
ANÁLISE DE SINAIS E SISTEMAS AULA 2: :. Sinais de Tempo Contínuo e Sinais de Tempo Discreto; 2. Sinais Analógicos e Digitais; 3. Sinais Determinísticos e Sinais Aleatórios; 4. Sinais Pares e Sinais Ímpares;
Leia maisProcessamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores
António M. Gonçalves Pinheiro Departamento de Física Covilhã - Portugal pinheiro@ubi.pt Processos Estocásticos - Sinais que variam aleatoriamente no tempo. são regidos por processos estocásticos. 2 1 1
Leia maisIND 1115 Inferência Estatística Aula 6
Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal
Leia maisVariáveis Aleatórias Contínuas e Distribuição de Probabilidad
Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte III 23 de Abril de 2012 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Calcular probabilidades aproximadas
Leia maisProf. Lorí Viali, Dr.
Prof. Lorí Viali, Dr. viali@mat.ufgrs.br http://www.mat.ufrgsbr/~viali/ Motivação Em muitas situações precisamos lidar com duas ou mais variáveis aleatórias ao mesmo tempo. Por exemplo o comprimento e
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Lei dos Grandes Números e Teorema Central do Limite 02/14 1 / 9 Lei dos Grandes Números Lei
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade
Leia maisComunicações Digitais Prof. André Noll Barreto. Prova /1 (04/04/2017)
Prova 1 17/1 (4/4/17) Aluno: Matrícula: Instruções A prova consiste de quatro questões discursivas A prova terá a duração de h A prova pode ser feita a lápis ou caneta Não é permitida consulta a notas
Leia maisLucas Santana da Cunha de junho de 2018 Londrina
Variável aleatória contínua: Lucas Santana da Cunha email: lscunha@uel.br http://www.uel.br/pessoal/lscunha/ 13 de junho de 2018 Londrina 1 / 26 Esperança e variância de Y Função de distribuição acumulada
Leia maisMAT 121 : Cálculo Diferencial e Integral II. Sylvain Bonnot (IME-USP)
MAT 121 : Cálculo Diferencial e Integral II Sylvain Bonnot (IME-USP) 2014 1 Informações gerais Prof.: Sylvain Bonnot Email: sylvain@ime.usp.br Minha sala: IME-USP, 151-A (Bloco A) Site: ver o link para
Leia maisVARIÁVEIS ALEATÓRIAS
UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE ESTATÍSTICA VARIÁVEIS ALEATÓRIAS Joaquim H Vianna Neto Relatório Técnico RTE-03/013 Relatório Técnico Série Ensino Variáveis
Leia maisMotivação. VA n-dimensional. Distribuições Multivariadas VADB
Motivação Em muitas situações precisamos lidar com duas ou mais variáveis aleatórias ao mesmo tempo. Por exemplo o comprimento e a largura de uma Prof. Lorí Viali, Dr. viali@mat.ufgrs.br http://www.mat.ufrgsbr/~viali/
Leia maisProbabilidades e Estatística TODOS OS CURSOS
Duração: 90 minutos Grupo I Probabilidades e Estatística TODOS OS CURSOS Justifique convenientemente todas as respostas o semestre 07/08 0/07/08 :0 o Teste C 0 valores. Um relatório anual estabelece que
Leia maisALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara
1 ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS Prof.: Idemauro Antonio Rodrigues de Lara 2 Modelos de variáveis aleatórias discretas 1. Distribuição Uniforme Discreta 2. Distribuição Binomial
Leia maisCE085 - Estatística Inferencial
CE085 - Estatística Inferencial Revisão: Probabilidade Básica Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal do Paraná
Leia mais5. PRINCIPAIS MODELOS CONTÍNUOS
5. PRINCIPAIS MODELOS CONTÍNUOS 2019 5.1. Modelo uniforme Uma v.a. contínua X tem distribuição uniforme com parâmetros e ( < ) se sua função densidade de probabilidade é dada por f ( x )={ 1 β α, α x β
Leia maisII-6 Análise de ruído e capacidade de canal
II-6 Análise de ruído e capacidade de canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN e ISI Modelo BSC Efeito do ruído Relação sinal/ruído 2. Curvas
Leia maisAULA 17 - Distribuição Uniforme e Normal
AULA 17 - Distribuição Uniforme e Normal Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Distribuições Contínuas Em muitos problemas se torna matematicamente mais simples considerar um espaço
Leia maisPRE29006 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES PRE9006 LISTA DE EXERCÍCIOS #3 06. Exercícios. [, Exercício 7.] Seja A uma variável
Leia maisPrincípios de Modelagem Matemática Aula 10
Princípios de Modelagem Matemática Aula 10 Prof. José Geraldo DFM CEFET/MG 19 de maio de 2014 1 Alguns resultados importantes em estatística A distribuição normal tem importante papel em estatística pois
Leia maisRicardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Leia maisAula 1. Wilson Correa. June 27, 2017
Aula 1 Definições Básicas Wilson Correa June 27, 2017 Série de Tempo Definição Uma série de tempo é qualquer conjunto de observações ordenadas no tempo. Podem ser: Discretas. Ex: Valores Diários de Poluição,
Leia mais