canal para sinais contínuos

Documentos relacionados
Canais discretos sem memória e capacidade do canal

Fundamentos da Teoria da Probabilidade

Par de Variáveis Aleatórias

Teoria da Informação

Probabilidade, entropia, surpresa, e quantidade de informação 1

Processos Estocásticos

Teoria de distorção da taxa

Aula 11. Variáveis Aleatórias Contínuas Bidimensionais

Processos Aleatórios e Ruído

Introdução aos Proc. Estocásticos - ENG 430

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

Vetor de Variáveis Aleatórias

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

TE802 Processos Estocásticos em Engenharia

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Processos estocásticos

Transmissão de impulsos em banda-base

Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk

AGA Análise de Dados em Astronomia I. 2. Probabilidades

Transmissão Digital em Banda Base

Transmissão de impulsos em banda-base

Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas

COM29008 LISTA DE EXERCÍCIOS #

Introdução aos Proc. Estocásticos - ENG 430

TE060 Princípios de Comunicação. Probabilidade. Probabilidade Condicional. Notes. Notes. Notes

1.1 Exemplo da diferença da média da população para a média amostral.

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:

Vetor de Variáveis Aleatórias

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

4.1. ESPERANÇA x =, x=1

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

3 3. Variáveis Aleatórias

Cálculo das Probabilidades I

Modelagem Estocástica e Quantificação de Incertezas

A estacionariedade prova-se de maneira semel- hante.

Sinais e Sistemas Mecatrónicos

Variáveis Aleatórias Contínuas

PARTE TEÓRICA Perguntas de escolha múltipla

Entropia, Entropia Relativa

Tiago Viana Flor de Santana

Sistemas discretos sem memória e codificação da fonte

Estatística Descritiva e Exploratória

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

3 Expressões de BER para as diferentes modulações

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017

II-6 Análise de Ruído e Capacidade de Canal

2.4 Esperança e distribuição condicionais

PRINCÍPIOS DE COMUNICAÇÃO

SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49

Comunicações Digitais Prof. André Noll Barreto. Prova /1 (04/04/2017)

Cálculo II (Primitivas e Integral)

Bioestatística. AULA 6 - Variáveis aleatórias. Isolde Previdelli

TEORIA DE INFORMAÇÃO UM NANOCURSO

195

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Análise de Dados em Astronomia. 3. Distribuições de Probabilidades

Formatação de fonte. PCM ( Pulse Code Modulation )

O movimento Browniano

Teoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log

TE111 Comunicação Digital

X(t) = A cos(2πf c t + Θ)

Variável Aleatória Contínua (v.a.c)

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

TE060 Princípios de Comunicação. Sistemas de Comunicação Digital Notes. Por quê Digital? Notes. Notes. Evelio M. G. Fernández. 5 de novembro de 2013

Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste

Teoria das Comunicações Prof. André Noll Barreto Prova 3

Módulo III: Processos de Poisson, Gaussiano e Wiener

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Comparação entre limite de Shannon, diferentes modulações 1 e. modulações e o ganho vindo de um código de canal. Luis Henrique Assumpção Lolis

FUNÇÕES DE VARIÁVEL ALEATÓRIA

AGA Análise de Dados em Astronomia I. 2. Probabilidades

Análise de Dados e Simulação

Módulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios

Capítulo II-Teoria da Probabilidade

Variáveis Aleatórias. Henrique Dantas Neder. April 26, Instituto de Economia - Universidade Federal de Uberlândia

ANÁLISE DE SINAIS E SISTEMAS

Processamento de Sinal e Imagem Engenharia Electrotécnica e de Computadores

IND 1115 Inferência Estatística Aula 6

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Prof. Lorí Viali, Dr.

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

Comunicações Digitais Prof. André Noll Barreto. Prova /1 (04/04/2017)

Lucas Santana da Cunha de junho de 2018 Londrina

MAT 121 : Cálculo Diferencial e Integral II. Sylvain Bonnot (IME-USP)

VARIÁVEIS ALEATÓRIAS

Motivação. VA n-dimensional. Distribuições Multivariadas VADB

Probabilidades e Estatística TODOS OS CURSOS

ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara

CE085 - Estatística Inferencial

5. PRINCIPAIS MODELOS CONTÍNUOS

II-6 Análise de ruído e capacidade de canal

AULA 17 - Distribuição Uniforme e Normal

PRE29006 LISTA DE EXERCÍCIOS #

Princípios de Modelagem Matemática Aula 10

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Aula 1. Wilson Correa. June 27, 2017

Transcrição:

Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin

Conteúdo 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para2 sin

Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para3 sin

Revisão de processos estocásticos Até agora falamos de fontes discretas. Não se explica a origem do erro na transição e não é uma descrição mais correta do canal. O ruído pode ter uma continuidade de amplitudes, bem como o sinal útil analógico também. Em um sinal discreto se falava da probabilidade de um evento. Em um sinal contínuo existe a probabilidade de um evento estar entre um intervalo de a b. Para saber a probabilidade de um sinal estar entre e x se usa Densidade de Probabilidade Acumulada. Para sistemas discretos, a soma das probabilidades é igual a 1. Em sistemas contínuos, a Densidade de Probabilidade Acumulada começa em 0 e termina em 1. Processos estocásticos, Entropia e capacidade de canal para4 sin

Propriedades: (i) 0 F (x) 1 (ii) lim x F (x) = 1 (iii) lim x F (x) = 0 (iv) F (x) é não decrescente em x, se a < b, então F (a) F (b) A Função de Densidade de Probabilidade ou F.D.P. é dada como a derivada da distribuição de probabilidade acumulada : df (x) p(x) = dx x b a x b) p(u)du = F (x) F () = F (x) p(x)dx = F ( ) F () = 1 p(x)dx = F (b) F (a) = P (x b) P (x a) = P (a < Processos estocásticos, Entropia e capacidade de canal para5 sin

Processos estocásticos, Entropia e capacidade de canal para6 sin

A função de densidade de probabilidade mais importante para nós é a distribuição normal, ou gaussiana. A sua integral, ou seja, a distribuição de probabilidade acumulada é calculada através da função de erro erf(x). E(x) = Média x p(x)dx F.D.P da curva normal - gaussiana { p(x) = 1 σ 2π exp } (x µ)2 2σ 2 Variância var(x) = E [ (x E(x)) 2] = (x E(x)) 2 p(x)dx erf erf(x) = 2 x exp( t 2 )dt π 0 Processos estocásticos, Entropia e capacidade de canal para7 sin

Todas as propriedades de probabilidade continuam válidas. Onde havia uma somatória para variáveis discretas agora é uma integral: Distribuição de Probabilidade Acumulada Conjunta: F (x, y) = P (x x, y y) Função de Densidade de Probabilidade Conjunta: p(x, y) = 2 F (x, y) p(x, y)dxdy = 1 x y p(x) = Função de Densidade de Probabilidade Marginal: p(x, y)dy q(y) = p(x, y)dx Processos estocásticos, Entropia e capacidade de canal para8 sin

Função de densidade de probabilidade condicional: p(x, y) p(x, y) p(x y) = q(y x) = q(y) p(x) Covariância: cov(x, y) = E [(x E(x)) (y E(y))] = Coeficiente de correlação: Correlação: (x E(x)) (y E(y)) p(x, y) dxdy cov(x, x) =var(x) ρ = R(x, y) = E(x y) = cov(x, y) var(x)var(y) x y p(x, y) dxdy Processos estocásticos, Entropia e capacidade de canal para9 sin

Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para10sin

{X(t), t T }. Probabilidade de t 0, x(t 0 ). Entender o sinal como estocástico para cada ponto de t. Todas as possíveis realizações de x(t) definem a variável estocástica. A distribuição de x(t) é contínua, então x(t) é uma variável estocástica contínua. Processos estocásticos, Entropia e capacidade de canal para11sin

Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para12sin

Entropia em sistemas contínuos Um processo estocástico no tempo, contém para cada instante do tempo, um valor aleatório, cujas características de probabilidade são descritas pela função de densidade de probabilidade. Se as características da função de densidade de probabilidade não variam no tempo, o sinal pode ser chamado de estacionário. Se um sinal não varia de maneira infinitamente rápida, isso significa que ele possui banda passante finita. Esse sinal pode ser então descrito como uma sequência de amostras discretas com no mínimo duas amostras por ciclo da frequência mais rápida do sinal (NYQUIST). Em comunicações digitais esse resultado é importante pois essa abstração vai permitir calcular taxas de erro binário através do teorema da capacidade do canal de Shannon. Processos estocásticos, Entropia e capacidade de canal para13sin

Entropia em sistemas contínuos Revisão: Entropia no caso discreto: J 1 ( ) 1 H(x) = p(x j ) log 2 J sendo um número finito. p(x j ) j=0 Entropia no caso contínuo (entropia relativa entropia diferencial): ( ) 1 h(x) = p(x) log 2 dx p(x) Sem fazer alguma hipótese sobre p(x), h(x) pode ser infinita. p(x) a densidade de probabilidade de x Processos estocásticos, Entropia e capacidade de canal para14sin

Limitando p(x) em amplitude Para limitar h(x), algumas hipóteses devem ser feitas em torno de x ou p(x) para poder limitar a entropia de fontes contínuas. Se limitarmos a amplitude de x entre ( A, A). Consideramos a distribuição de probabilidade uniforme: p(x) = 1 por ser limitada em amplitude ela satisfaz a 2A h(x) = A A relação: A A = 1 1 2A log 2(2A)dx = log 2 2A Processos estocásticos, Entropia e capacidade de canal para15sin

Limitando p(x) em potência Consideramos um sinal de potência constante, i.e. variância constante σ 2 = E [ (x E(x)) 2] e média µ = E(x) A distribuição normal é aquela que contém a maior quantidade de informação para sinais contínuos a potência constante A entropia da variável gaussiana não depende da sua média Quando se fala de ruído gaussiano ou normal é o pior caso para considerar o canal. O resultado da quantidade de informação sinal gaussiano é o mais Aplicado para inferir valores de taxa de erro binário. Processos estocásticos, Entropia e capacidade de canal para16sin

Calculando a entropia da distribuição normal Processos estocásticos, Entropia e capacidade de canal para17sin

Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) Processos estocásticos, Entropia e capacidade de canal para17sin

Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 Processos estocásticos, Entropia e capacidade de canal para17sin

Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 Processos estocásticos, Entropia e capacidade de canal para17sin

Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 E(x) = µ Processos estocásticos, Entropia e capacidade de canal para17sin

Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 E(x) = µ (x E(x)) 2 p(x)dx = (x µ)) 2 p(x)dx = σ 2 Processos estocásticos, Entropia e capacidade de canal para17sin

Calculando a entropia da distribuição normal ( ) 1 h(x) = p(x) log 2 dx p(x) p(x) = 1 } { σ 2π exp (x µ)2 2σ 2 p(x) = 1 E(x) = µ (x E(x)) 2 p(x)dx = (x µ)) 2 p(x)dx = σ 2 Processos estocásticos, Entropia e capacidade de canal para17sin

( }) 1 h(x) = p(x) log 2 { σ 2π exp (x µ)2 2σ 2 dx Processos estocásticos, Entropia e capacidade de canal para18sin

h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx Processos estocásticos, Entropia e capacidade de canal para18sin

h(x) = h(x) = h(x) = p(x) p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx Processos estocásticos, Entropia e capacidade de canal para18sin

h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 Processos estocásticos, Entropia e capacidade de canal para18sin

h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 ( ) log h(x) = log 2 σ 2π + 2 e 2 Processos estocásticos, Entropia e capacidade de canal para18sin

h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 ( ) log h(x) = log 2 σ 2π + 2 e 2 h(x) = 2 log ( ) 2 σ 2π + log2 e 2 Processos estocásticos, Entropia e capacidade de canal para18sin

h(x) = h(x) = h(x) = p(x) log 2 ( 1 p(x) { σ 2π exp ) [ log 2 ( σ 2π }) (x µ)2 2σ 2 dx ] (x µ)2 2σ 2 log 2 e dx ( p(x) [log 2 σ )] [ ] (x µ) 2 2π dx + p(x) 2σ 2 log 2 e dx ( ) log h(x) = log 2 σ 2π + 2 e 2σ 2 σ2 ( ) log h(x) = log 2 σ 2π + 2 e 2 h(x) = 2 log ( ) 2 σ 2π + log2 e 2 h(x) = log ( 2 σ 2 2π ) + log 2 e 2 = 1 2 log ( 2 2πeσ 2 ) Processos estocásticos, Entropia e capacidade de canal para18sin

Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para19sin

Entropia conjunta e condicional Quantidade de informação conjunta: H(X, Y ) = p(x, y) log p(x, y)dxdy Quantidade de informação condicional: H(X Y ) = H(Y X) = p(x, y) log p(x y)dxdy p(x, y) log p(y x)dxdy Processos estocásticos, Entropia e capacidade de canal para20sin

Informação mútua I(X ; Y) = h(x ) h(x Y) Revisão: em sistemas discretos K 1 J 1 [ ] p(yk x j ) I(X ; Y) = p(x j, y k ) log 2 = I(Y; X ) p(y k ) k=0 j=0 Em sistemas contínuos I(X ; Y) = I(X ; Y) = [ ] p(x y) p(x, y) log 2 p(x) p(x, y) log 2 [ p(x, y) p(x)p(y) dxdy ] dxdy Processos estocásticos, Entropia e capacidade de canal para21sin

Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para22sin

Ruído na entropia de Y Vamos usar a hipótese de um canal gaussiano aditivo. Gaussiano porque o ruído do canal se comporta como uma variável contínua com distribuição normal. Aditivo pois: n = y x q(y x) = q((x + n) x). Como o ruído é independente de x: q((x + n) x) = p(n x) = p(n) = p(y x) A incerteza de y dado x é a quantidade de informação (entropia) de n. h(y X ) = = = = p(x, y) log 2 [q(y x)] dxdy p(x)q(y x) log 2 [q(y x)] dxdy p(x)p(n) log 2 [p(n)] dxdn p(n) log 2 [p(n)] dn = h(n ) Processos estocásticos, Entropia e capacidade de canal para23sin

Sumário 1 Probabilidade de sinais contínuos 2 Definição de processo estocástico 3 Entropia em sistemas contínuos 4 Entropias conjuntas e condicionais e Informação mútua 5 Ruído na entropia de Y 6 Capacidade do canal aditivo gaussiano Empacotamento em esferas Noção de constelação Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para24sin

Capacidade do canal aditivo gaussiano Para canais discretos estava definido como a máxima informação mútua. No caso de sinais contínuos é a mesma coisa: C = max p(x) {h(y) h(y X )} = max p(x) {h(y) h(n )} = max p(x) {h(y)} h(n ) Se o ruído é gaussiano a sua entropia já foi calculada: h(n ) = log 2 σ n 2πe bits/amostra Agora definimos o ruído com banda passante finita de B e que pode se amostrado a cada T S = 1/(2B) (respeitando assim o critério de Nyquist), que é o tempo de cada amostra. A entropia passa a ser medida em bits/seg. h(n ) = 1 [ log T 2 (2πeσn) 2 1/2] S = 2B log 2 [ (2πeσ 2 n ) 1/2] = B log 2 (2πeσ 2 n) bits/seg Processos estocásticos, Entropia e capacidade de canal para25sin

Para ter o máximo em H(Y), H(Y) tem de ser gaussiano, e como y = x + n, e n é gaussiano, então x tem de ser gaussiano também. Quanto mais X se comportar como um sinal aleatório gaussiano mais ele vai ter entropia e mais próximo vai estar no limite da capacidade do canal. O desafio na criação de códigos, sujeito de pesquisa até hoje, é a criação de códigos que tenha um comportamento mais gaussiano possível. C = max p(x) {h(y)} h(n ) A potência em Y é dada por: p y = σ 2 y = σ 2 x + σ 2 n O máximo em H(Y): max p(x) {H(Y)} = 1 2 log 2 { 2πe ( σ 2 x + σ 2 n)} bits/amostra = B log 2 { 2πe ( σ 2 x + σ 2 n)} bits/seg Processos estocásticos, Entropia e capacidade de canal para26sin

Considerando que a potência é constante, a capacidade é: { ( C = B log 2 2πe σ 2 x + σn 2 )} { } B log2 2πeσ 2 ( n σ 2 = B log x + σ 2 ) ( ) n px + p n 2 σn 2 = B log 2 ( p n = B log 2 1 + p ) x btis/seg p n Nota intuitiva Quanto menos pot^encia de ruído relaç~ao ao sinal, maior é a quantidade de informaç~ao que eu posso transmitir nesse canal, ou seja, maior é a capacidade. A capacidade do canal é mais sensível à banda passante B que à relaç~ao sinal sobre ruído Processos estocásticos, Entropia e capacidade de canal para27sin

Considerando o ruído como branco de densidade espectral de potência N 0 e de banda passante B, a capacidade é: ( C = B log 2 1 + P ) x BN 0 Veja que para P x /(BN 0 ) a relação é logarítmica e que para aumentar a capacidade é melhor aumentar B do que a relação sinal sobre ruído. Esse resultado é um limite teórico para códigos que sejam suficientemente complexos para se aproximar desse limite. Para se aproximar desse limite o sinal deve ter propriedades que se aproximem do ruído gaussiano. Processos estocásticos, Entropia e capacidade de canal para28sin

Empacotamento em esferas Luis Henrique Assumpc a o Lolis Processos estoca sticos, Entropia e capacidade de canal para29sin

Noção de constelação Processos estocásticos, Entropia e capacidade de canal para30sin

Eficiência Espectral x E b /N 0 P = E b C P : potência, E b : energia do bit, C: capacidade (bits/seg) ( C B = log 2 1 + E ) b C E b = 2C/B 1 N 0 B N 0 C/B Quando B se obtém o limite de Shannon: ( E b /N) 0 = 1, 6dB ( ) Eb Eb = lim B = log N 0 N 2 = 0, 693 0 Processos estocásticos, Entropia e capacidade de canal para31sin

Eficiência Espectral x E b /N 0 Processos estocásticos, Entropia e capacidade de canal para32sin