TEORIA DE INFORMAÇÃO UM NANOCURSO
|
|
- Silvana Azeredo da Cunha
- 7 Há anos
- Visualizações:
Transcrição
1 TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set Centenário de Shannon - SBrT - Santarém
2 Dedicação: a memória de Claude Shannon Claude Shannon matemático, engenheiro eletrônico, inventor da Teoria de Informação
3 Sumário o o o o o o o Introdução Teoria de Informação - Interdisciplinaridade Entropia, Divergência de K-L, Informação Mútua Compressão de dados Transmissão por Canais Ruidosos (Codificação de Canal) Entropia Diferencial, Canais Gaussianos Aplicações de Múltiplos Usuários Fechamento
4 Algumas referências: [1] T. Cover and J. Thomas, Elements of Information Theory, Wiley, 2nd ed., 2006 (1991). [2] R. Ash, Information Theory, Dover, [3] R. Gallager, Information Theory and Reliable Communication, Wiley, [4] A. El Gamal and Y-H. Kim, Network Information Theory, Cambridge, 2011.
5 Teoria de Informação e Áreas Afins A paisagem em torno de TI: Teoria de Comunicações Física Probabilidade Ciência de Computação TI Estatística Biologia Matemática Economia
6 Entropia Definição: H(X) = A Entropia de X Seja X uma variável aleatória discreta com valores em {x 1, x 2,..., x M } com probabilidades p = {p 1, p 2,..., p M }. M 1 H(X) = H(p) = k=1 p x k log 2 (bits) = = E ( log 2 1 p(x) ) bits p(x k ) H(X) é uma medida da incerteza de X.
7 Mudança de base H b (X)= E ( log b 1 p(x) ) = log ba H a (X) Unidades de Entropia: Base 2 bits Base 10 dits ou Hartleys Base e nats Base 3 trits (porque não?)
8 Exemplos Ex. 1) X {0,1}, p(x=0)=0, p(x=1)=1 H(X) = - 0 log 0-1 log 1 = 0 Note: lim p log p = 0 P0 por l Hôpital Nenhuma incerteza! X é determinística
9 Exemplos (continuação) Ex. 2) X {0,1}, p(x=0)=p, p(x=1) =1-p, h(p) H(X) = p log p (1-p) log (1-p) = h(p) p h(p) é a função binária de entropia
10 Lema ln x x-1, x>0 Prova: Série de Taylor com resto x-1 ln x 0 1 x
11 Divergência de Kulbach-Leibler Sejam p(x) e q(x) duas funções de massa de probabilidade definidas no alfabeto X. A divergência de Kullbach-Leibler de p em relação a q é dada por D(p q) = p x log p(x) q(x) X
12 Proposição: Desigualdade da Informação D(p q) 0 com igualdade se e somente se (sse) pq Prova: Seja A = {x : p(x) > 0} Use ln x x-1 (Lema)
13 Observação A divergência de K-L é muito útil em T I, mas não é uma métrica. Ela não é simétrica e não satisfaz a desigualdade do triângulo.
14 Aplicação Seja q a distribuição uniforme q i = 1/n for i=1,...,n p = {p 1, p 2,..., p n } Então D(p q) 0 p i log p i q i 0 p i log p i p i log q i = p i log 1/n Portanto H(p) log n A distribuição uniforme tem máxima entropia.
15 Distribuições conjunta, marginais e condicionais Distribuição conjunta: Y X y 1 y 2 x 1 x 2... p(x i,y j ) x M p(y j ) p(y 1 ) Distribuições marginais p(xi) = y j p x i, yj y N p(x i ) p(x 1 )... p(x M ) p(y N ) p(y j ) = x i p x i, yj
16 Distribuições Condicionais: p y j x i = p(xi,yj) p(xi) p x i y j = p(xi,yj) p(y j ) A distribuição conjunta determina as distribuições marginais e condicionais. Note: As marginais não determinam a distribuição conjunta.
17 Entropia Conjunta H(X,Y) = H(p(.,. )) = x i, yj p x i, yj log 1 p(x i,yj)
18 Entropias Condicionais H(X Y) = p x i, yj log 1 p(x i y j ) = - E (log p(x Y) ) H(Y X) = p y j, x i log 1 p(y j x i ) = - E (log p(y X) )
19 Regra da Cadeia (como descascar cebola) H(X,Y) = H(X) + H(Y X) = H(Y) + H(X Y) Prova: Sugestão para casa. Simples manipulação algébrica. Corolário (forma condicional): H(X,Y Z) = H(X Z) + H(Y X,Z) = H(Y Z) + H(X Y,Z)
20 Informação Mútua A Informação Mútua entre X e Y é a divergência de K-L entre a distribuição conjunta p(x,y) e o produto das marginais p(x) p(y). I(X;Y) = D(p(x,y) p(x) p(y) ) = p x, y log p(x,y) X Y p x p(y)
21 Propriedades de I(X;Y) 1) Não-negatividade: I(X;Y) 0, com igualdade sse X and Y forem independentes. Prova: I(X;Y) é uma divergência de K-L. 2) Simetria: I(X;Y) = I(Y;X) Prova: Trivial (p(x)p(y) = p(y)p(x))
22 Informação Mútua e Entropia I(X;Y) = p x, y log p(x,y) p x p(y) = H(X) + H(Y) H(X,Y) (simplificando) = H(X) H(X Y) = H(Y) H(Y X) (regra da cadeia) (forma alternativa) Note: A Informação mútua entre duas variáveis aleatórias é a incerteza residual sobre uma variável quando a outra é revelada.
23 Informação Mútua A informação mútua entre X e Y é a diferença entre as entropias de X antes e depois de conhecer Y: I(X;Y) = H(X) H(X Y) Também I(X;Y) = H(Y) H(Y X)
24 Diagrama de Venn H(X) H(Y) H(X Y) I(X;Y) H(Y X)
25 Informação não atrapalha Condicionamento não aumenta entropia: H(X Y) H(X) Prova: I(X;Y) = H(X) H(X Y) 0 Na média o conhecimento de Y não pode aumentar a incerteza sobre X.
26 Passando informação adiante: Sejam X e Y variáveis aleatórias dependentes X Mecanismo aleatório Y ( ) (Y) Proposição: I(X;Y) I(X; (Y)) Prova: I(X;Y) = H(X) H(X Y) = H(X) H(X Y, (Y)) H(X) H(X (Y)) = I(X; (Y)) Condicionamento reduz entropia Desigualdade de Processamento de dados.
27 Propriedade da Equipartição Assintótica Sejam X 1, X 2,, X n i.i.d. segundo p(x) Espaço amostra = conjunto de todas sequências (x 1, x 2,, x n ) A = Conjunto de sequências típicas 1) Pr{A } 1- P.E.A é o DNA de T.I.! P.E.A. { 2) p(x) 2 nh(x) 3) A 2 nh(x)
28 Exemplo de sequências típicas Seja X uma moeda viciada com P(Cara)=0.9 e P(Coroa) = 0.1 Considere o conjunto de 1000 lançamentos da moeda. Sequências típicas são aquelas aproximente 900 Caras e 100 Coroas. Note: A sequência mais provável, qual seja a de 1000 Caras, não é típica!
29 Conclusão da P.E.A. : Melhor apostar em A!
30 Espaço da fonte Espaço da reprodução Compressão de dados (Codificação de fonte) Objetivo: representar a fonte eficientemente. Fonte X Codificador de fonte índice Decodificador de fonte X
31 Código eficiente: Código de Shannon Seja l i = log D 1 p i, Use uma palavra de código com este comprimento. Este código satisfaz H D (X) L H D (X) +1
32 Código eficiente: Huffmann (1952) O código de Huffman é o código ótimo de prefixo (menor comprimento esperado) para uma dada distribuição p(x). Exemplo: X p(x) Código Este código tem comprimento médio de 2.3 bits/símbolo.
33 Códigos eficientes: Outros códigos eficientes: Códigos Shannon-Fano-Elias Códigos Aritméticos Códigos de Lempel-Ziv (Universal aprende a distribuição da fonte) Códigos de corridas + códigos de Golomb (muito simples)
34 Transmissão por Canais Ruidosos O Problema da codificação de canal: W Codificador de Canal X Canal p(y x) Y Decodificador de Canal W W {1,2,,2 nr } = conjunto de mensagens (Taxa R) X = (x 1 x 2 x n ) = palavra-código de entrada no canal Y = (y 1 y 2 y n ) = palavra-código de saída do canal W= mensagem decodificada P(erro) = P{WW}
35 Exemplos Máquina de escrever sem ruído: 1 1 Entrada X Saída Y 4 4 Número de símbolos sem ruído = 4 Pode-se transmitir R = log 2 4 = 2 bits/transmissão
36 Exemplos simples Máquina de escrever ruidosa (tipo 1): Entrada X Saída Y Número de símbolos sem ruído = 2 Pode-se transmitir R = log 2 2 = 1 bit/transmissão
37 Exemplos simples Máquina de escrever ruidosa (tipo 2): Entrada X Saída Y Número de símbolos sem ruído = 2 Pode-se transmitir R = log 2 2 = 1 bit/transmissão
38 Exemplos simples Máquina de escrever ruidosa (tipo 3): Entrada X Saída Y Número de símbolos sem ruído = 2 Use só X=1 e X=3 Pode-se transmitir R = log 2 2 = 1 bit/transmissão
39 Exemplos simples Máquina de escrever mais complicada: Entrada X Saída Y Quantos símbolos livres de ruído? Claramente pelo menos 2, talvez mais.
40 Exemplos Considere dois usos consecutivos do canal: X 1 1 X Código: Que quadrados Escolher?
41 Exemplos simples Dois usos consecutivos do canal: X X Sejam os pontos {X 1,X 2 } = {(1,1), (2,3), (3,5), (4,2), (5,4)} 5
42 Relembrando o canal Máquina de escrever complicada: Entrada X Saída Y Quantos símbolos livres de ruído? Mais de 2?
43 Exemplos simples Olhando as saídas do canal: Y Y Sejam {X 1,X 2 } = {(1,1), (2,3), (3,5), (4,2), (5,4)} 4 5
44 Exemplo simples - observações Pode-se transmitir 5 símbolos livres de ruído em n=2 transmissões. Portanto tem-se taxa de log 25 com P(erro) = 0. 2 = 1.16 bits/transmissão Pode-se usar códigos mais longos (n) para obter log 2 (5/2) =1.32 bits/transmissão, a capacidade do canal.
45 Exemplos: Canal Binário Simétrico (BSC) Quantos símbolos livres de ruído? X Y A.: Claramente para n=1 não há nenhum. Que tal para n grande?
46 Exemplo: Canal Binário Simétrico (BSC) X Y C = max (H(Y) H(Y X)) = 1 h() bits/transmissão C() 1 Note: C=0 para = ½ 0 ½ 1
47 Segundo Teorema de Shannon Usa-se o canal n vezes: X n Y n
48 Segundo Teorema de Shannon A Capacidade de um canal discreto sem memória é C = max I(X; Y). p(x) Note: I X; Y é uma function de p x, y = p x p y x. Mas p y x é fixada pelo canal.
49 Segundo Teorema de Shannon Prova (esboço usando P.E.A.): X n Y n Y n 2 nh(y) bola típica 2 nh(y X)
50 Entropia Diferencial Seja X uma variável aleatória contínua com densidade de probabilidade f x e suporte S. A entropia diferencial de X é dada por h X = f x log f x dx S (se existir). Note: Também é denotada por h f.
51 Exemplos: Distribuição Uniforme Seja X uniforme no intervalo 0, a. Então f x = 1 a no interval e f x = 0 fora dele. a h X = 1 0 log a 1 a dx = log a Note que h X pode ser negativa (quando a < 1). No entanto, 2 h(f) = 2 log a = a é o tamanho do conjunto-suporte, que é não-negativo.
52 Exemplo: Distribuição Gaussiana Seja X ~ x = exp ( x2 2 2) Então h X = EX = h = x [ x2 2 2 ln ln 2 2 = 1 2 ln 2e2 nats 22 ] dx Mudando a base tem-se h X = 1 2 log 2 2e 2 bits
53 Relação entre Entropias Diferencial e Discreta Considere uma quantização de X, denotada por X Seja X = x i dentro do intervalo i. Então H(X ) = - i p i log p i = - i f(x i ) log f(x i ) - log h f log
54 Entropia diferencial de um vetor Gaussiano Teorema: Seja X um vetor Gaussiano n-dimensional com média e matriz covariância K. Então h X = 1 2 log ((2e)n K ) onde K denota o determinante de K. Prova: Manipulação algébrica.
55 O Canal Gaussiano O Problema do canal Gaussiano: W X Codificador Z~N (0, N I) + Restrição de potência: EX 2 P Y Decodificador W W {1,2,,2 nr } = conjunto de mensagens de taxa R X = (x 1 x 2 x n ) = entrada do canal Y = (y 1 y 2 y n ) = saída do canal W= mensagem decodificada P(erro) = P{WW}
56 O canal Gaussiano Capacidade C = max I(X; Y) f(x): EX 2 P I X; Y = h Y h Y X = h Y h X + Z X = h Y h Z 1 log 2e P + N 1 log 2eN 2 2 = 1 log 1 + P bits/transmissão 2 N
57 O Canal Gaussiano Capacidade: C = max I(X; Y) f(x): EX 2 P C = 1 2 log 1 + P N bits/transmissão
58 O Canal Gaussiano de Banda Limitada C = W log (1+ P N 0 W ) bits/segundo Note: Se W tem-se C = P N 0 log 2 e bits/segundo.
59 Canal Gaussiano de Banda W Seja R a eficiência espectral em bits por segundo W por Hertz. Também seja P = E b R onde E b é a energia disponível por bit de informação. Obtem-se R Portanto W C W = log (1+ E br N 0 W ) bits/segundo. E b 2 1 N 0 Esta relação define o chamado Limitante de Shannon.
60 O Limitante de Shannon E b 2 1 N 0 E b N 0 E b N 0 (db) Shannon Bound E b N 0 (db) 6
61 Solução de Water-Filling (Shannon)
62 Canais Gaussianos Paralelos
63 Exemplo de Water Filling Canais com níveis de ruído 2, 1 and 3. Potência disponível = 2 Capacidade= 1 2 log ( ) log ( ) log (1+0 3 ) Nível de ruído mais potência de sinal = 2.5 Nenhuma potência alocada para o terceiro canal.
64 Teoria de informação de múltiplos usuários Blocos constituintes: Canal de Múltiplo Acesso (MACs) Canais de Broadcast (BCs) Canais de Interferência (IFCs) Canais de Relay (RCs) Note: Estes canais têm versões discretas sem memória e versões Gaussianas. Por simplicidade vamos ver apenas as versões Gaussianas.
65 Canal de Múltiplo Acesso (MAC)
66 Canal de Broadcast Gaussiano
67 Codificação por Superposição (1-)P N 2 P P 1
68 Canal de interferência Gaussiano padrão W 1 Power P1 a ^ W 1 W 2 b ^ W 2 Power P2
69 Canal de interferência Gaussiano simétrico Power P Power P
70 Canal de Interferência em Z
71 Canal de Interferência: estratégias O que se pode fazer com interferência: 1. Ignorar (tomar a interferência como ruído, 2. Evitar (dividir o espaço de sinal (TDM/FDM)), 3. Parcialmente decodificar os dois sinais de interferência, 4. Parcialmente decodificar um e totalmente o outro, 5. Decodificar os dois sinais de interferência (a melhor opção para interferência forte, a 1).
72 Canal de Relay X Y 1 : X 1 O canal de relay é dito fisicamente degradado se p(y,y 1 x,x 1 )=p(y 1 x,x 1 ) p(y y 1,x 1 ). Portanto Y é uma versão degradada do sinal de relay Y 1. Teorema: C = sup min { I(X,X 1 ;Y 1 ), I(X;Y 1 X 1 )} p(x,x 1 ) Y
73 Codificação de Fonte de Slepian Wolf X,Y variáveis aleatórias correlatadas ~ p(x,y) X Y Cod. X Cod. Y j k Decodifi- cador DE conjunto ^ ^ X, Y Índices j e k com taxas R x and R y, resp.
74 Slepian Wolf (continuação) Ry H(Y) Região atingível H(Y X) H(X Y) H(X) Rx
75 Fechamento Muitas frentes de pesquisa: Codificação conjunta de fonte e canal Codificação para canais com informação lateral Codificação distribuída de fonte Estratégias de codificação para redes Casamento de Network Coding e T I de múltiplos usuários.
76 Obrigado!
Teoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisEntropia, Entropia Relativa
Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos
Leia maisCanais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisTE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Leia maiscanal para sinais contínuos
Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos
Leia maisCompressão e Codificação de Dados. Primeiro Exame e Segundo Teste
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste
Leia maisCOMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.
Leia maisuniversidade federal de pernambuco departamento de estatística
soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM98 LISTA DE EXERCÍCIOS # 8. Exercícios. [, 9.5] Um processo estocástico gaussiano,
Leia maisFundamentos da Teoria de Informação
Fundamentos da Teoria de Informação 1 Introdução... 2 2 Informação... 3 3 Entropia... 6 3.1 Entropia Exemplos... 7 3.2 Entropia Conjunta e Entropia Condicional... 12 3.3 Entropia e Codificação de Fonte...
Leia maisTeoria de distorção da taxa
Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades
Leia maisSEGUNDO Massey [1] a história da criptologia mostra
REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisTeoria da Informação. Codificação de Fonte
Codificação de Fonte lucianol@inatel.br /62 Conteúdo e Referência. Revisão: Probabilidade e Variáveis Aleatórias 2. Fontes de informação amostragem e quantização 3. Princípios da 4. Compactação de Fonte
Leia maisPrincípios Básicos de Teoria da Informação
Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação
Leia maisSegundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014
Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisTÉCNICAS DE CODIFICAÇÃO DE SINAIS
TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia
Leia maisFACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO
FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO PROF. ENG. ESP. ANTONIO CARLOS LEMOS JÚNIOR acjunior@facthus.edu.br
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522
Teoria da Informação (4-) Exame de ecurso (-7-). Canais discretos sem memória e p =,: esolução X -p p p -p Y W ε ε ε -ε -ε -ε Z Canal A Canal B Vamos representar P(X = i) por P(X i ), etc. PY ( ) = P(
Leia maisProbabilidade, entropia, surpresa, e quantidade de informação 1
Probabilidade, entropia, surpresa, e quantidade de informação 10 de setembro de 2013 Probabilidade, entropia, surpresa, e quantidade de informação 1 Conteúdo 1 Revisão de Probabilidade Teorema de Bayes
Leia maisCódigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações.
1 Introdução Neste trabalho, estamos interessados nos problemas da teoria de comunicações conhecidos como compressão de dados e modulação. Um modelo típico de um sistema de comunicações é mostrado na Fig.
Leia mais1 O esquema de Alamouti: Diversidade na transmissão
1 O esquema de Alamouti: Diversidade na transmissão 1.1 O Caso de uma antena receptora A Figura?? mostra a representação em banda básica do esquema de Alamouti com diversidade na transmissão. O esquema
Leia maisSistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Leia maisSUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49
SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuições Condicionais 11/13 1 / 19 Em estudo feito em sala perguntamos aos alunos qual
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log
Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM29008 LISTA DE EXERCÍCIOS #1 2016.2 Exercícios 1. Verifique se os seguintes
Leia maisCompressão de Imagens. Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE
Compressão de Imagens Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE Imagens digitais necessitam de grande quantidade de espaço para armazenamento e
Leia maisII-6 Análise de Ruído e Capacidade de Canal
II-6 Análise de Ruído e Capacidade de Canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN (canal físico) Modelo BSC (canal discreto) Efeito do ruído
Leia maisEET-49 Comunicações II
EET-49 Comunicações II Parte 4 - Codificação sem perda de informação March 20, 2012 1 Introdução Realizar a codificação da fonte é representá-la da menor forma possível Se a utilização não permite a perda
Leia maisUniversidade de Pernambuco Escola Politécnica de Pernambuco
Universidade de Pernambuco Escola Politécnica de Pernambuco TV Analógica e Digital Codificação de Fonte Prof. Márcio Lima E-mail:marcio.lima@poli.br 12.06.2014 Introdução A principal função de um sistema
Leia maisLuis Henrique Assumpção Lolis 27 de agosto de 2013
http://www.eletrica.ufpr.br/~luis.lolis TE248 - Teoria da Informação e Codificação Luis Henrique Assumpção Lolis 27 de agosto de 2013 Conteúdo 1 Conteúdo da Disciplina 2 Origem e Aplicação 3 Bibliografia
Leia mais2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Leia maisDescodificação iterativa
Sílvio A. Abrantes DEEC/FEUP 26 Descodificação iterativa 2 Descodificação de códigos LDPC por transferência de mensagens em grafos de Tanner Introdução Diagrama de blocos de um sistema genérico de codificação
Leia maisAlgoritmos de Compressão sem Perdas
Algoritmos de Compressão sem Perdas (continuação) Aula 08 Diogo Pinheiro Fernandes Pedrosa Universidade Federal Rural do Semiárido Departamento de Ciências Exatas e Naturais Curso de Ciência da Computação
Leia maisA estacionariedade prova-se de maneira semel- hante.
Se por outro lado (U 1, U 2,...) é IID então mostremos que X n U 1 + + U n tem incrementos independentes e estacionários. De facto, dados n > m temos que X n X m U m+1 + + U n. Tome-se quaisquer n 1
Leia maisEstudo sobre decodificação iterativa usando códigos de treliça
Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco
Leia mais2. Geração de Funções Computáveis
2. Geração de Funções Computáveis 2.1 As funções básicas 2.2 Concatenação de programas 2.3 Substituição 2.5 Minimização Teresa Galvão LEIC - Teoria da Computação I 2.1 2.1 As funções básicas Métodos que
Leia maisCódigos convolucionais
Códigos convolucionais Luis Henrique Assumpção Lolis 29 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos convolucionais 1 Conteúdo 1 Introdução e definição 2 Diagrama de árvores, de treliça e
Leia maisAula 4. Aula de hoje. Aula passada
Aula 4 Aula passada Função de distribuição Bernoulli Sequência de v.a. Binomial, Geométrica, Zeta Valor esperado Variância Distribuição conjunta Independência de v.a. Aula de hoje Valor esperado condicional
Leia mais1.1 Exemplo da diferença da média da população para a média amostral.
1 Estatística e Probabilidades Inferência Estatística consiste na generalização das informações a respeito de uma amostra, para a sua população. A Probabilidade considera modelos para estimar informações
Leia maisMomentos: Esperança e Variância. Introdução
Momentos: Esperança e Variância. Introdução Em uma relação determinística pode-se ter a seguinte relação: " + " = 0 Assim, m =, é a declividade e a e b são parâmetros. Sabendo os valores dos parâmetros
Leia maisUm Passeio pela Teoria da Informação
WECIQ 2006 - Mini-curso 3 Um Passeio pela Teoria da Informação (Clássica e Quântica) Carlile Lavor 1 1 Instituto de Matemática, Estatística e Computação Científica UNICAMP clavor@ime.unicamp.br 1. Introdução
Leia maisProcessos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos
Leia maisProbabilidade. Definição de informação
Probabilidade. Definição de informação L.J. Amoreira UBI Novembro 2010 A distribuição binomial Repete-se n vezes uma experiência na qual um dado acontecimento A tem uma probabilidade de ocorrência p. Qual
Leia maisTE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.
TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio
Leia maisDados no R n. Dados em altas dimensões 29/03/2017
Dados no R n Dados em altas dimensões Alguns dados são apresentados como vetores em R n Alguns dados não são apresentados como vetores mas podem ser representados como vetores (e.g. Texto) Texto Dados
Leia maisTE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G.
TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 23 de agosto de 2017 Informação sobre a disciplina Segundas e Quartas feiras das 09:30 às 11:20 horas Professor:
Leia maisProcessos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos
Leia maisTÉCNICAS DE CODIFICAÇÃO DE SINAIS
Informação sobre a Disciplina TÉCNICAS DE CODIFICAÇÃO DE SINAIS INTRODUÇÃO Evelio M. G. Fernández - 2010 Terças e Quintas feiras das 07:30 às 11:20 horas Professor: Evelio Martín García Fernández Gabinete
Leia maisPRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE 3.1 INTRODUÇÃO Muitas variáveis aleatórias associadas a experimentos aleatórios têm propriedades similares e, portanto, podem ser descritas através de
Leia maisApresentação... 1 Introdução... 1
Apresentação O objetivo principal deste texto é servir como material básico para uma disciplina introdutória sobre sistemas de comunicações em um curso de Engenharia Elétrica. Ele tem abrangência limitada,
Leia maisContinuidade de processos gaussianos
Continuidade de processos gaussianos Roberto Imbuzeiro Oliveira April, 008 Abstract 1 Intrudução Suponha que T é um certo conjunto de índices e c : T T R é uma função dada. Pergunta 1. Existe uma coleção
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova 3
Prova 3 6/08/010 Aluno: Matrícula: Questão 1 ( pontos) Queremos transmitir a seguinte sequência de bits: 1001110010 Esboce o sinal transmitido para os seguintes esquemas (0, ponto cada): a) sinalização
Leia maisTE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias Notes. PDF da Soma de Duas Variáveis Aleatórias.
TE802 Processos Estocásticos em Engenharia Somas de Variáveis Aleatórias 25 de abril de 2016 Valores Esperados de Somas de Variáveis Aleatórias Seja W n = X 1 + + X n, E[W n ] = E[X 1 ] + E[X 2 ] + + E[X
Leia maisPrincípios de Telecomunicações AULA 1. Elementos de um sistema de comunicações. Prof. Eng. Alexandre Dezem Bertozzi, Esp.
Princípios de Telecomunicações AULA 1 Elementos de um sistema de comunicações Prof. Eng. Alexandre Dezem Bertozzi, Esp. COMUNICAÇÃO TRANSMISSÃO DE INFORMAÇÃO DE UM PONTO A OUTRO, ATRAVÉS DE UMA SUCESSÃO
Leia maisModelagem Estocástica e Quantificação de Incertezas
Modelagem Estocástica e Quantificação de Incertezas Rubens Sampaio rsampaio@puc-rio.br Roberta de Queiroz Lima robertalima@puc-rio.br Departamento de Engenharia Mecânica DINCON 2015 Organização do curso
Leia maisAula 9. Ivan Sendin. 12 de setembro de FACOM - Universidade Federal de Uberlândia SEG-9.
Segurança da Informação Aula 9 FACOM - Universidade Federal de Uberlândia ivansendin@yahoo.com,sendin@ufu.br 12 de setembro de 2018 Alice,Bob, Eva, Criptossistemas,... Ciptoanalise texto cifrado texto
Leia maisDaniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS
Daniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS INTRODUÇÃO O que é uma variável aleatória? Um tipo de variável que depende do resultado aleatório de um experimento aleatório. Diz-se que um experimento é
Leia maisFísica da Informação Probabilidades
Física da Informação Probabilidades L.J. Amoreira UBI Novembro 2009 Sobre um exemplo da aula passada Uma caixa contém N bolas numeradas Retira-se uma bola, repõe-se na caixa, retira-se outra bola Qual
Leia maisProcessos Estocásticos. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema
Leia maisCAPÍTULO 5: VARIÁVEIS ALEATÓRIAS BIDIMENSIONAIS Todas as coisas aparecem e desaparecem por causa da concorrência de causas e condições. Nada nunca existe inteiramente só, tudo está em relação com todo
Leia maisIntrodução aos Sistemas de Comunicações
aos Sistemas de Comunicações Edmar José do Nascimento () http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Colegiado de Engenharia Elétrica Roteiro 1 Sistemas de
Leia maisProbabilidades e Estatística TODOS OS CURSOS
Duração: 90 minutos Grupo I Probabilidades e Estatística TODOS OS CURSOS Justifique convenientemente todas as respostas o semestre 07/08 0/07/08 :0 o Teste C 0 valores. Um relatório anual estabelece que
Leia maisCálculo da Informação Acessível
Cálculo da Informação Acessível Michael Souza (LNCC) Renato Portugal (LNCC) Carlile Lavor (IME-UNICAMP) Este trabalho tem suporte financeiro das agências FAPERJ e CNPQ. Tópicos Abordagem pragmática da
Leia mais24/04/2017. Operações que podem ser aplicadas aos eventos
Inferência estatística: processo de extrair conclusões de uma população inteira com base na informação de uma amostra A base para a inferência estatística é a teoria da probabilidade Evento: é o resultado
Leia maisX(t) = A cos(2πf c t + Θ)
Exercícios Extras de Comunicações Digitais. Seja um sinal aleatório X(t), estacionário no sentido restrito, dado por onde X(t) = A cos(πf c t + Θ) A é uma variável aleatória Gaussiana com média de 4Volts
Leia maisProblemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual
Leia mais4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON
4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON A Teoria Matemática da Comunicação, ou Teoria da Comunicação de Shannon foi proposta por Claude Shannon no final da década de 1940 como forma de sistematizar
Leia maisTE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias
TE802 Processos Estocásticos em Engenharia Somas de Variáveis Aleatórias 27 de setembro de 2017 Valores Esperados de Somas de Variáveis Aleatórias Seja W n = X 1 + + X n, E[W n ] = E[X 1 ] + E[X 2 ] +
Leia maisSM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017)
SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) Tópicos Propriedades dos códigos de fonte Código ótimo e código ideal Singularidade, descodificação única,
Leia maisMP-208: Filtragem Ótima com Aplicações Aeroespaciais
MP-208: Filtragem Ótima com Aplicações Aeroespaciais Seção 2.6: Vetores Aleatórios Davi Antônio dos Santos Departamento de Mecatrônica Instituto Tecnológico de Aeronáutica davists@ita.br São José dos Campos,
Leia maisControle Ótimo - Aula 6 Exemplos e Exercícios
Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre
Leia maisEstudo e Implementação Computacional de um Sistema de Comunicação Digital
Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo e Implementação Computacional de um Sistema de Comunicação Digital Da Silva Junior, A. C. Escola Politécnica de Pernambuco Universidade
Leia maisCOMPRESSÃO E CODIFICAÇÃO SEM PERDAS. Mauro Nogueira Mônica Festa Paulo Antiquera
COMPRESSÃO E CODIFICAÇÃO SEM PERDAS Mauro Nogueira Mônica Festa Paulo Antiquera Introdução Armazenamento ou transmissão compressão (compactação) de dados Compressão sem perdas Imagens médicas documentos
Leia maisTeorema de Nyquist Teorema da Amostragem
Teorema de Nyquist Teorema da Amostragem Em um canal livre de ruídos, a única limitação imposta à taxa de transmissão de dados será devida à largura de banda do canal. A formulação para esta limitação
Leia mais2.3 Operações sobre uma variável aleatória - Esperança matemática
matemática 58 atingir a mosca dado que ele atingiu o alvo. Exercício 2.33. [3] Duas caixas tem bolas vermelhas, verdes e azuis dentro; a quantidade de cada uma é dada a seguir. Caixa 01-5 vermelhas; 35
Leia maisCódigos de blocos lineares. Outubro de 2017
Códigos de blocos lineares Outubro de 2017 Vamos introduzir alguns conceitos sobre códigos de blocos lineares. Definições: Deve-se assumir que a informação saída da fonte de informação é da forma binária
Leia mais3 3. Variáveis Aleatórias
ÍNDICE 3. VARIÁVEIS ALEATÓRIAS...49 3.. VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS...49 3.2. VARIÁVEIS DISCRETAS FUNÇÃO DE PROBABILIDADE E FUNÇÃO DISTRIBUIÇÃO DE PROBABILIDADE...50 3.2.. Função de probabilidade...50
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisMAE-219: Introdução à Probabilidade e Estatística I
MAE-219: Introdução à Probabilidade e Estatística I Prof. Pedro Morettin e Prof. Nelson I. Tanaka Gabarito - Lista de Exercícios 6 1o. Semestre de 216 1 Questão 1 X: Número de caras nos dois primeiros
Leia maisII-6 Análise de ruído e capacidade de canal
II-6 Análise de ruído e capacidade de canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN e ISI Modelo BSC Efeito do ruído Relação sinal/ruído 2. Curvas
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho
Tópicos em Recuperação de Informação 1 Nivio Ziviani 1 Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho Tópicos em Recuperação de Informação - Nivio Ziviani
Leia maisUNIVERSIDADE FEDERAL DE PERNAMBUCO. Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação
UNIVERSIDADE FEDERAL DE PERNAMBUCO GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO CENTRO DE INFORMÁTICA 2012.2 Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação PROPOSTA DE TRABALHO
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho.
Tópicos em Recuperação de Informação Nivio Ziviani Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho. 1 Compressão de Índices Arquivos invertidos são amplamente
Leia maisControle Ótimo - Aula 8 Equação de Hamilton-Jacobi
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova /02
Prova 3 010/0 7/01/011 Aluno: Matrícula: Instruções A prova consiste em 4 questões discursivas. A prova terá a duração de h30. A prova pode ser feita a lápis ou caneta. Não é permitida consulta a notas
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisRevisões de Matemática e Estatística
Revisões de Matemática e Estatística Joaquim J.S. Ramalho Contents 1 Operadores matemáticos 2 1.1 Somatório........................................ 2 1.2 Duplo somatório....................................
Leia maisCOMUNICAÇÕES DIGITAIS. Livro Texto: Communication Systems, 4 TH Edition Simon Haykin John Wiley & Sons, Inc.
COMUNICAÇÕES DIGITAIS Livro Texto: Communication Systems, 4 TH Edition Simon Haykin John Wiley & Sons, Inc. . Introdução Exemplo: Nível (Volts) Codificação Probabilidade 0 000 0,05 00 0,0 2 00 0,20 3 0
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE
Leia mais1 Técnicas de Seleção de Antenas Transmissoras
1 Técnicas de Seleção de Antenas Transmissoras Como visto em aulas anteriores, para se atingir uma ordem de diversidade espacial maior é necessário o emprego de múltiplas antenas no transmissor e/ou no
Leia maisDistribuições de Probabilidade Conjuntas
Distribuições de Probabilidade Conjuntas 1. Duas variáveis aleatórias discretas Exemplo 1. No desenvolvimento de um novo receptor para transmissão digital de informação, cada bit é classificado como aceitável,
Leia maisExercícios propostos:
INF 16 Exercícios propostos: 1. Sabendo-se que Y=X-5 e que E(X)= e V(X)=1, calcule: a)e(y); b)v(y); c)e(x+y); d)e(x + Y ); e)v(x+y); Resp.: 1; 9; 5; 15; 81. Uma urna contém 5 bolas brancas e 7 bolas pretas.
Leia maisMódulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira
Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Departamento de Electrónica, Telecomunicações e Informática Universidade de Aveiro Sumário Códigos binários Representação de informação com
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana
Leia mais3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.
1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-
Leia mais