Teoria da Informação

Documentos relacionados
Teoria da Informação

Canais discretos sem memória e capacidade do canal

canal para sinais contínuos

TE111 Comunicação Digital

COM29008 LISTA DE EXERCÍCIOS #

Universidade de Pernambuco Escola Politécnica de Pernambuco

II-6 Análise de Ruído e Capacidade de Canal

Teoria da Informação. Codificação de Fonte

Teorema de Nyquist Teorema da Amostragem

Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste

Estudo sobre decodificação iterativa usando códigos de treliça

TEORIA DE INFORMAÇÃO UM NANOCURSO

II-6 Análise de ruído e capacidade de canal

FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO

Comunicações Digitais

Compromissos da Modulação e da Codificação

Apresentação... 1 Introdução... 1

X(t) = A cos(2πf c t + Θ)

Teoria das Comunicações

Conceito de Comunicação Digital: Transmissão de informação em forma digital a partir de uma fonte geradora da informação até um ou mais destinatários.

EET-61 Introdução a Teoria da Informação

Introdução aos Sistemas de Comunicações

Exercícios de Telecomunicações 2

TE-060 PRINCÍPIOS DE COMUNICAÇÃO Prof. Evelio M. G. Fernández LISTA DE EXERCÍCIOS N 3

Sistemas discretos sem memória e codificação da fonte

Aula 3- Codificação de Canal. October 18, 2017

Teoria de distorção da taxa

COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO

Entropia, Entropia Relativa

SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49

Códigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações.

Teoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log

TE060 Princípios de Comunicação. Sistemas de Comunicação Digital Notes. Por quê Digital? Notes. Notes. Evelio M. G. Fernández. 5 de novembro de 2013

Modulação e Codificação

COMUNICAÇÃO DIGITAL 1. INTRODUÇÃO PROF. MARCIO EISENCRAFT

TÉCNICAS DE CODIFICAÇÃO DE SINAIS

Teoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522

4 Transmissão Através de Canal Ruidoso

2 Teoria da Informação

Teoria das Comunicações Prof. André Noll Barreto Prova 3

Transmissão Digital em Banda Base

Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal

1 O esquema de Alamouti: Diversidade na transmissão

universidade federal de pernambuco departamento de estatística

UFSM-CTISM. Comunicação de Dados. Aula-07

TELECOMUNICAÇÕES II Trabalho nº 2 Códigos de linha

Princípios de Telecomunicações. PRT60806 Aula 20: Códigos de Linha Professor: Bruno Fontana da silva 2014

Códigos convolucionais

ELE-31 Principios de Telecomunicações

Princípios de Telecomunicações AULA 1. Elementos de um sistema de comunicações. Prof. Eng. Alexandre Dezem Bertozzi, Esp.

Códigos de blocos lineares. Outubro de 2017

CÓDIGOS CORRETORES DE ERROS

Probabilidade, entropia, surpresa, e quantidade de informação 1

Princípios Básicos de Teoria da Informação

Teoria das Comunicações Prof. André Noll Barreto Prova /02

Introdução aos Proc. Estocásticos - ENG 430

Codificação de Linha

1 Técnicas de Seleção de Antenas Transmissoras

Transmissão de impulsos em banda-base

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Trabalho n o 2 Códigos de Linha

EEC4164 Telecomunicações 2

Comunicação Digital Exercícios

Redes de Computadores

SEL 0412 Tecnologia Digital Teoria

Camada Física. Camada Física

Princípios de Telecomunicações. PRT60806 Aula 19: Modulação por Código de Pulso (PCM) Professor: Bruno Fontana da silva 2014

5 Testes em Imagens. Figura 5.1: Esquema de proteção com detecção de erros LT Hamming. Imagem. Cod-Hamming SPIHT. Cod-LT. Canal.

Modulação e Codificação

Transmissão e comunicação de dados. Renato Machado

Parte 02 Multiplexação Analógica e Digital no STFC. Prof. Rafael Saraiva Campos 2013/1

I-11 Digitalização e Reconstrução

INTRODUÇÃO À TEORIA DA INFORMAÇÃO

2 Descrição do Problema

Codificação de Huffman

MODULAÇÃO POR CÓDIGO DE PULSO PCM

Lista de Exercícios GQ1

TRANSMISSÃO DE DADOS

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a):

Camada Física. Professor Ivan Pires. Introdução. Licenciatura Plena em Computação

COMUNICAÇÃO DIGITAL II

I-7 Digitalização e Reconstrução

4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON

COM29008 LISTA DE EXERCÍCIOS #

04/03/2013. Transmissão de dados. Transmissão por rádio Frequência

Fundamentos de Telecomunicações 2002/03

Transcrição:

Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/ charles

A principal função de um sistema de comunicação é reproduzir, exatamente ou de forma aproximada, uma informação proveniente de outro ponto diferente. Claude Shannon, 1948

Conteúdo do curso 1 Revisão de probabilidade 2 Informação e Entropia 3 Codificação de fontes 4 Codificação e capacidade de canal 5 Complexidade de Kolmogorov 6 Funções de otimização 7 Independent Component Analysis

Parte IV Codificação e Capacidade de Canal

Sistema de comunicação - modelo geral TRANSMISSOR Fonte de Informação Codificador de Fonte Codificador de Canal Multiplex Modulador "Spread"em Freqüência Múltiplo Acesso Canal Múltiplo Acesso "Despread" em Freqüência Demodulador Demultiplex Decodificad or de Canal Decodificad or de Fonte Estimativa da Informação RECEPTOR

Considerações gerais Codificador de fonte retira redundância - compactação da informação Canal insere perturbações/interferência Necessidade de inserção de redundância (conhecida) para evitar/minimizar os efeitos do canal Transferência de informação torna-se complicada Necessidade de inclusão de algum controle de qualidade na mensagem Pergunta Qual o limite de informação que pode ser transmitida, sem erros, através de um canal que insere perturbação na mensagem?

Resposta Resposta a pergunta anterior: teorema da capacidade de canal Teorema da Capacidade de Canal A capacidade de informação de um canal é a quantidade máxima de informação capaz de ser transmitida, bits por uso do canal, sem erro de transmissão. Define-se então: C = max p X (x) I(X,Y ) (90)

Capacidade de canal Capacidade de canal é uma função apenas das probabilidades condicionais P(y k x j ) que definem o canal A maximização em relação às probabilidades dos símbolos (codificados) da fonte é sujeita a 1 P(x i ) 0, para todo i K 1 2 P(x i ) = 1 i=0

Capacidade de canal - propriedades 1 C 0, uma vez que I(X,Y ) 0 2 C log[ X ], uma vez que C = max I(X,Y ) max H(X) = log[ X ] 3 C log[ Y ] 4 I(X,Y ) é uma função contínua de p X (x) 5 I(X,Y ) é uma função côncava de p X (x)

Capacidade de canal - exemplo Canal Binário Simétrico (BSC) 1 p 0 p x p 1 1 p 0 1 y Diagrama é unicamente definido pela probabilidade de transição A entropia é maximizada quando Pr(x 0 ) = Pr(x 1 ) = 1/2

Capacidade de canal - exemplo Canal Binário Simétrico (BSC) Pr(y 0 x 1 ) = Pr(y 1 x 0 ) = p Pr(y 0 x 0 ) = Pr(y 1 x 1 ) = 1 p Sabendo que I(X,Y ) = K 1 k=0 K 1 j=0 P(x j,y k ) log [ ] P(yk x j ) P(y k ) Logo C = 1 + p log[p] + (1 p) log[1 p] = 1 H(p)

Capacidade de canal - exemplo Canal Binário Simétrico (BSC) 1 Capacidade de canal C 0.5 0 0 0.5 1 Probabilidade de transição p

Capacidade de canal - exemplo Canal Binário Simétrico (BSC) Curva simétrica (esperado!) Quando não há ruído (p = 0) a capacidade de canal é máxima, com um bit por uso do canal. Neste mesmo valor, a entropia atinge seu valor mínimo Com a probabilidade de erro p = 1/2, a capacidade atinge o menor valor enquanto a entropia atinge o máximo. Nestes casos, o canal é dito ser sem utilidade (useless)

Capacidade de canal - outros exemplos Canal com ruído com saídas não superpostas (não é canal com ruído!) C = max I(X,Y ) = 1 bit, para p(x) = ( 1 2, 1 2 ) 1 2 1 0 1 2 1 3 2 3 1 2 3 4

Capacidade de canal - outros exemplos Canal binário com apagamento C = max I(X,Y ) = 1 α bits 0 1 1 α α α 1 α e 0 1

Capacidade de canal - outros exemplos Máquina de escrever com ruído C = max I(X,Y ) = log[13] bits A C E A B C D A B C D A B C D G... Saídas não ruidosas... Canal com ruído

Codificação de canal - motivação Como melhorar a resistência do canal aos efeitos do ruído? Definição do limite de confiabilidade Idéia: Transformar a seqüência de dados em uma seqüência de entrada do canal Minimizar os efeitos do ruído (interferência) Mapeamento inverso após o canal para recuperar seqüência de dados Como fazer isso? Inserção de redundância!

Codificação de canal - definições Simplificado para códigos de bloco Mensagem é subdividida em blocos seqüenciais cada um com k bits, e cada bloco é mapeado em um block de n bits em que n > k Número de bits de redundância: n k A taxa de código é denominada a razão r = k n (91)

Codificação de canal - definições Acuracidade da recuperação requer probabilidade de erro tão pequena quanto possível Questão importante Existe algum método sofisticado de codificação de canal tal que a probabilidade de erro de seja menor que um número arbitrário positivo ǫ, em caso afirmativo, o esquema de codificação é eficiente tal que a taxa de codificação não necessite ser muito pequena? Resposta SIM!

Codificação de canal - definições A resposta é dada pelo teorema da capacidade de canal Generalização necessita de incluir o tempo como uma variável a ser considerada Suposições: fonte com alfabeto A e entropia H(A), emitindo sinais a cada T s segundos Taxa média de informação R = H(A) T s (92)

Codificação de canal - definições O decodificador tem de fornecer também símbolos do alfabeto A a uma taxa de T s segundos Seja a capacidade do canal dada por C bits por transmissão Supondo que o canal é capaz de ser utilizando uma vez a cada T c segundos Então, a capacidade do canal por unidade de tempo, representa a máxima taxa de transferência de informação pelo canal C T c (93)

Teorema da Codificação de Canal Segundo teorema de Shannon Primeira parte Seja uma fonte discreta com alfabeto A e entropia H(A) que produz símbolos a cada T s segundos. Seja um canal discreto sem memória com capacidade de canal C e utilizado a cada T c segundos. Então, se H(A) T s C T c (94) existe um esquema de codificação para o qual a saída da fonte pode ser transmitida pelo canal e ser reconstruída com a uma probabilidade de erro arbitrariamente pequena. O parâmetro C/T c é chamado de taxa crítica.

Teorema da Codificação de Canal Segundo teorema de Shannon Segunda parte Inversamente, se H(A) T s > C T c (95) não é possível transmitir informação pelo canal e reconstruí-la com uma probabilidade de erro arbitrariamente pequena.

Teorema da Codificação de Canal - discussão O teorema da codificação de canal é o resultado isolado mais importante da teoria da informação O teorema especifica que a capacidade de canal C é um limite fundamental na taxa na qual a transmissão é confiável sem erros, através de um canal discreto sem memória O teorema não mostra como construir um bom código Resultado: se a Equação (94) é satisfeita então um bom código existe

Teorema da Codificação de Canal - aplicação Canal binário simétrico (BSC) Fonte: símbolos equiprováveis a cada T s segundos, H(A) = 1 bit por símbolo Taxa de informação da fonte: 1/T s Codificar de canal com taxa de codificação r produzindo símbolos a cada T c segundos Taxa de transmissão de símbolos codificados é 1/T c A capacidade de canal por unidade de tempo é C/T c bits por segundo Logo, se 1 T s C T c (96) a probabilidade de erro pode ser tão pequena quanto se deseje, usando uma codificação adequada

Teorema da Codificação de Canal - aplicação Canal binário simétrico (BSC) A taxa de codificação é igual à razão r = T c /T s (97) Então, pode-se escrever r C (98) Interpretação: para r C existe um código (com taxa de codificação menor ou igual a capacidade de canal) capaz de atingir uma taxa de erro arbitrariamente pequena

Teorema da capacidade de informação Pergunta Qual a capacidade de informação a ser transmitida por meio de um canal limitado em faixa, limitado em potência e gaussiano? Seja X(t) Processo estocástico estacionário Média nula Faixa limitada em B Hz As K amostras discretas amostradas na taxa de Nyquist (2B símbolos por segundo) são X k,k = 1,2,...,K Amostras transmitidas a cada T segundos Canal limitado em faixa B Hertz Número de amostras K = 2BT (99)

Teorema da capacidade de informação Canal é a inserção de ruído aditivo gaussiano branco de média zero e densidade espectral de potência N 0 /2 Ruído limitado em B Hertz Logo Y k = X k + N k, k = 1,2,...,K (100) Amostras de ruído são gaussianas, estatisticamente independentes, com média zero e variância σ 2 = N 0 B (101)

Teorema da capacidade de informação Como o canal é limitado em potência, cada entrada do canal deve ter uma função custo { X 2 k } = P, k = 1,2,...,K (102) em que P é a potência média de transmissão Capacidade de informação é definida como o máximo da informação mútua entre a entrada X k e a saída Y k sobre todas as distribuições de probabilidade de X k que satisfazem a restrição da Equação (102) Matematicamente { { } } C = max I(Xk,Y k ) : X 2 k = P p X (x) (103)

Teorema da capacidade de informação Sabendo I(X k,y k ) = H(Y k ) H(Y k X k ) (104) E como X k e N k são independentes e a soma é igual a Y k, tem-se I(X k,y k ) = H(Y k ) H(N k ) (105) Como H(N k ) é independente da distribuição de X k, maximizar a Equação (105) é maximizar a entropia de Y k Para uma variância fixa, Y k terá máxima entropia se p Y (y) for uma distribuição gaussiana (será provado mais adiante!) Logo, X k também dever ser gaussiano e atender à restrição de potência

Teorema da capacidade de informação Então, escreve-se { } C = I(X k,y k ) : X k gaussiano, X 2 k = P (106) Cálculos 1 Variância de Y k é P + σ 2, logo 2 Variância do ruído N k é σ 2, assim H(Y k ) = 1 2 log [ 2πe(P + σ 2 ) ] (107) H(N k ) = 1 2 log [ 2πeσ 2] (108)

Teorema da capacidade de informação Substituindo as Equações (107) e (108) na Equação (105) tem-se C = 1 ( 2 log 1 + P ) σ 2 bits por transmissão (109) Lembrando que o canal é usado K vezes para transmitir as K amostras em T segundos, tem-se que a informação é dada por capacidade por unidade de tempo (K/T). Também K = 2BT, logo ( C = B log 1 + P ) bits por segundo (110) N 0 B

Teorema da capacidade de informação Terceiro teorema de Shannon A capacidade de informação de um canal contínuo de largura de faixa B Hertz corrompido com ruído aditivo gaussiano branco de densidade espectral de potência N 0 /2 e limitado em faixa em B Hertz é dado por ( C = B log 1 + P ) bits por segundo (111) N 0 B

Teorema da capacidade de informação Discussão Resultado mais famoso de Shannon Interrelaciona os parâmetros chaves de um sistema de transmissão: largura de faixa do canal, potência média transmitida e densidade espectral de potência O teorema implica que, para uma dada P e largura de faixa do canal B pode-se transmitir informação a uma taxa de C bits por segundo com uma probabilidade de erro arbitrariamente pequena, utilizando suficientemente complexos sistemas de codificação Não é possível transmitir a uma taxa maior que C bits por segundo usando nenhum sistema de codificação e ter uma probabilidade de erro arbitrariamente pequena Limite fundamental da transmissão sem erros Para se aproximar deste limite o sinal deve ter estatísticas próximas do ruído gaussiano branco

Implicações do teorema da capacidade de informação Sendo o canal limitado em faixa e potência, qual o impacto do teorema da capacidade de informação? Framework prático - sistema ideal Taxa de bits R b igual à capacidade de informação C Potência média de transmissão P = E b C (112) em que E b é a energia por bit Logo, para o sistema ideal C B = log ( 1 + E ) b C N 0 B (113)

Implicações do teorema da capacidade de informação De maneira equivalente pode-se definir a relação energia do sinal por bit pela densidade espectral de potência em termos da eficiência de faixa como E b = 2C/B 1 N 0 C/B (114) Eficiência de faixa C B

Implicações do teorema da capacidade de informação Curva de eficiência de faixa - limite de Shannon Limite de Shannon (-1.6 db) Limite de capacidade Rb = C Eficiência de faixa R b B 10 1 10 0 Rb > C Rb < C 10-1 -10-5 0 5 10 15 20 25 30 35 E b N 0 db