TEORIA DE INFORMAÇÃO UM NANOCURSO

Tamanho: px
Começar a partir da página:

Download "TEORIA DE INFORMAÇÃO UM NANOCURSO"

Transcrição

1 TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set Centenário de Shannon - SBrT - Santarém

2 Dedicação: a memória de Claude Shannon Claude Shannon matemático, engenheiro eletrônico, inventor da Teoria de Informação

3 Sumário o o o o o o o Introdução Teoria de Informação - Interdisciplinaridade Entropia, Divergência de K-L, Informação Mútua Compressão de dados Transmissão por Canais Ruidosos (Codificação de Canal) Entropia Diferencial, Canais Gaussianos Aplicações de Múltiplos Usuários Fechamento

4 Algumas referências: [1] T. Cover and J. Thomas, Elements of Information Theory, Wiley, 2nd ed., 2006 (1991). [2] R. Ash, Information Theory, Dover, [3] R. Gallager, Information Theory and Reliable Communication, Wiley, [4] A. El Gamal and Y-H. Kim, Network Information Theory, Cambridge, 2011.

5 Teoria de Informação e Áreas Afins A paisagem em torno de TI: Teoria de Comunicações Física Probabilidade Ciência de Computação TI Estatística Biologia Matemática Economia

6 Entropia Definição: H(X) = A Entropia de X Seja X uma variável aleatória discreta com valores em {x 1, x 2,..., x M } com probabilidades p = {p 1, p 2,..., p M }. M 1 H(X) = H(p) = k=1 p x k log 2 (bits) = = E ( log 2 1 p(x) ) bits p(x k ) H(X) é uma medida da incerteza de X.

7 Mudança de base H b (X)= E ( log b 1 p(x) ) = log ba H a (X) Unidades de Entropia: Base 2 bits Base 10 dits ou Hartleys Base e nats Base 3 trits (porque não?)

8 Exemplos Ex. 1) X {0,1}, p(x=0)=0, p(x=1)=1 H(X) = - 0 log 0-1 log 1 = 0 Note: lim p log p = 0 P0 por l Hôpital Nenhuma incerteza! X é determinística

9 Exemplos (continuação) Ex. 2) X {0,1}, p(x=0)=p, p(x=1) =1-p, h(p) H(X) = p log p (1-p) log (1-p) = h(p) p h(p) é a função binária de entropia

10 Lema ln x x-1, x>0 Prova: Série de Taylor com resto x-1 ln x 0 1 x

11 Divergência de Kulbach-Leibler Sejam p(x) e q(x) duas funções de massa de probabilidade definidas no alfabeto X. A divergência de Kullbach-Leibler de p em relação a q é dada por D(p q) = p x log p(x) q(x) X

12 Proposição: Desigualdade da Informação D(p q) 0 com igualdade se e somente se (sse) pq Prova: Seja A = {x : p(x) > 0} Use ln x x-1 (Lema)

13 Observação A divergência de K-L é muito útil em T I, mas não é uma métrica. Ela não é simétrica e não satisfaz a desigualdade do triângulo.

14 Aplicação Seja q a distribuição uniforme q i = 1/n for i=1,...,n p = {p 1, p 2,..., p n } Então D(p q) 0 p i log p i q i 0 p i log p i p i log q i = p i log 1/n Portanto H(p) log n A distribuição uniforme tem máxima entropia.

15 Distribuições conjunta, marginais e condicionais Distribuição conjunta: Y X y 1 y 2 x 1 x 2... p(x i,y j ) x M p(y j ) p(y 1 ) Distribuições marginais p(xi) = y j p x i, yj y N p(x i ) p(x 1 )... p(x M ) p(y N ) p(y j ) = x i p x i, yj

16 Distribuições Condicionais: p y j x i = p(xi,yj) p(xi) p x i y j = p(xi,yj) p(y j ) A distribuição conjunta determina as distribuições marginais e condicionais. Note: As marginais não determinam a distribuição conjunta.

17 Entropia Conjunta H(X,Y) = H(p(.,. )) = x i, yj p x i, yj log 1 p(x i,yj)

18 Entropias Condicionais H(X Y) = p x i, yj log 1 p(x i y j ) = - E (log p(x Y) ) H(Y X) = p y j, x i log 1 p(y j x i ) = - E (log p(y X) )

19 Regra da Cadeia (como descascar cebola) H(X,Y) = H(X) + H(Y X) = H(Y) + H(X Y) Prova: Sugestão para casa. Simples manipulação algébrica. Corolário (forma condicional): H(X,Y Z) = H(X Z) + H(Y X,Z) = H(Y Z) + H(X Y,Z)

20 Informação Mútua A Informação Mútua entre X e Y é a divergência de K-L entre a distribuição conjunta p(x,y) e o produto das marginais p(x) p(y). I(X;Y) = D(p(x,y) p(x) p(y) ) = p x, y log p(x,y) X Y p x p(y)

21 Propriedades de I(X;Y) 1) Não-negatividade: I(X;Y) 0, com igualdade sse X and Y forem independentes. Prova: I(X;Y) é uma divergência de K-L. 2) Simetria: I(X;Y) = I(Y;X) Prova: Trivial (p(x)p(y) = p(y)p(x))

22 Informação Mútua e Entropia I(X;Y) = p x, y log p(x,y) p x p(y) = H(X) + H(Y) H(X,Y) (simplificando) = H(X) H(X Y) = H(Y) H(Y X) (regra da cadeia) (forma alternativa) Note: A Informação mútua entre duas variáveis aleatórias é a incerteza residual sobre uma variável quando a outra é revelada.

23 Informação Mútua A informação mútua entre X e Y é a diferença entre as entropias de X antes e depois de conhecer Y: I(X;Y) = H(X) H(X Y) Também I(X;Y) = H(Y) H(Y X)

24 Diagrama de Venn H(X) H(Y) H(X Y) I(X;Y) H(Y X)

25 Informação não atrapalha Condicionamento não aumenta entropia: H(X Y) H(X) Prova: I(X;Y) = H(X) H(X Y) 0 Na média o conhecimento de Y não pode aumentar a incerteza sobre X.

26 Passando informação adiante: Sejam X e Y variáveis aleatórias dependentes X Mecanismo aleatório Y ( ) (Y) Proposição: I(X;Y) I(X; (Y)) Prova: I(X;Y) = H(X) H(X Y) = H(X) H(X Y, (Y)) H(X) H(X (Y)) = I(X; (Y)) Condicionamento reduz entropia Desigualdade de Processamento de dados.

27 Propriedade da Equipartição Assintótica Sejam X 1, X 2,, X n i.i.d. segundo p(x) Espaço amostra = conjunto de todas sequências (x 1, x 2,, x n ) A = Conjunto de sequências típicas 1) Pr{A } 1- P.E.A é o DNA de T.I.! P.E.A. { 2) p(x) 2 nh(x) 3) A 2 nh(x)

28 Exemplo de sequências típicas Seja X uma moeda viciada com P(Cara)=0.9 e P(Coroa) = 0.1 Considere o conjunto de 1000 lançamentos da moeda. Sequências típicas são aquelas aproximente 900 Caras e 100 Coroas. Note: A sequência mais provável, qual seja a de 1000 Caras, não é típica!

29 Conclusão da P.E.A. : Melhor apostar em A!

30 Espaço da fonte Espaço da reprodução Compressão de dados (Codificação de fonte) Objetivo: representar a fonte eficientemente. Fonte X Codificador de fonte índice Decodificador de fonte X

31 Código eficiente: Código de Shannon Seja l i = log D 1 p i, Use uma palavra de código com este comprimento. Este código satisfaz H D (X) L H D (X) +1

32 Código eficiente: Huffmann (1952) O código de Huffman é o código ótimo de prefixo (menor comprimento esperado) para uma dada distribuição p(x). Exemplo: X p(x) Código Este código tem comprimento médio de 2.3 bits/símbolo.

33 Códigos eficientes: Outros códigos eficientes: Códigos Shannon-Fano-Elias Códigos Aritméticos Códigos de Lempel-Ziv (Universal aprende a distribuição da fonte) Códigos de corridas + códigos de Golomb (muito simples)

34 Transmissão por Canais Ruidosos O Problema da codificação de canal: W Codificador de Canal X Canal p(y x) Y Decodificador de Canal W W {1,2,,2 nr } = conjunto de mensagens (Taxa R) X = (x 1 x 2 x n ) = palavra-código de entrada no canal Y = (y 1 y 2 y n ) = palavra-código de saída do canal W= mensagem decodificada P(erro) = P{WW}

35 Exemplos Máquina de escrever sem ruído: 1 1 Entrada X Saída Y 4 4 Número de símbolos sem ruído = 4 Pode-se transmitir R = log 2 4 = 2 bits/transmissão

36 Exemplos simples Máquina de escrever ruidosa (tipo 1): Entrada X Saída Y Número de símbolos sem ruído = 2 Pode-se transmitir R = log 2 2 = 1 bit/transmissão

37 Exemplos simples Máquina de escrever ruidosa (tipo 2): Entrada X Saída Y Número de símbolos sem ruído = 2 Pode-se transmitir R = log 2 2 = 1 bit/transmissão

38 Exemplos simples Máquina de escrever ruidosa (tipo 3): Entrada X Saída Y Número de símbolos sem ruído = 2 Use só X=1 e X=3 Pode-se transmitir R = log 2 2 = 1 bit/transmissão

39 Exemplos simples Máquina de escrever mais complicada: Entrada X Saída Y Quantos símbolos livres de ruído? Claramente pelo menos 2, talvez mais.

40 Exemplos Considere dois usos consecutivos do canal: X 1 1 X Código: Que quadrados Escolher?

41 Exemplos simples Dois usos consecutivos do canal: X X Sejam os pontos {X 1,X 2 } = {(1,1), (2,3), (3,5), (4,2), (5,4)} 5

42 Relembrando o canal Máquina de escrever complicada: Entrada X Saída Y Quantos símbolos livres de ruído? Mais de 2?

43 Exemplos simples Olhando as saídas do canal: Y Y Sejam {X 1,X 2 } = {(1,1), (2,3), (3,5), (4,2), (5,4)} 4 5

44 Exemplo simples - observações Pode-se transmitir 5 símbolos livres de ruído em n=2 transmissões. Portanto tem-se taxa de log 25 com P(erro) = 0. 2 = 1.16 bits/transmissão Pode-se usar códigos mais longos (n) para obter log 2 (5/2) =1.32 bits/transmissão, a capacidade do canal.

45 Exemplos: Canal Binário Simétrico (BSC) Quantos símbolos livres de ruído? X Y A.: Claramente para n=1 não há nenhum. Que tal para n grande?

46 Exemplo: Canal Binário Simétrico (BSC) X Y C = max (H(Y) H(Y X)) = 1 h() bits/transmissão C() 1 Note: C=0 para = ½ 0 ½ 1

47 Segundo Teorema de Shannon Usa-se o canal n vezes: X n Y n

48 Segundo Teorema de Shannon A Capacidade de um canal discreto sem memória é C = max I(X; Y). p(x) Note: I X; Y é uma function de p x, y = p x p y x. Mas p y x é fixada pelo canal.

49 Segundo Teorema de Shannon Prova (esboço usando P.E.A.): X n Y n Y n 2 nh(y) bola típica 2 nh(y X)

50 Entropia Diferencial Seja X uma variável aleatória contínua com densidade de probabilidade f x e suporte S. A entropia diferencial de X é dada por h X = f x log f x dx S (se existir). Note: Também é denotada por h f.

51 Exemplos: Distribuição Uniforme Seja X uniforme no intervalo 0, a. Então f x = 1 a no interval e f x = 0 fora dele. a h X = 1 0 log a 1 a dx = log a Note que h X pode ser negativa (quando a < 1). No entanto, 2 h(f) = 2 log a = a é o tamanho do conjunto-suporte, que é não-negativo.

52 Exemplo: Distribuição Gaussiana Seja X ~ x = exp ( x2 2 2) Então h X = EX = h = x [ x2 2 2 ln ln 2 2 = 1 2 ln 2e2 nats 22 ] dx Mudando a base tem-se h X = 1 2 log 2 2e 2 bits

53 Relação entre Entropias Diferencial e Discreta Considere uma quantização de X, denotada por X Seja X = x i dentro do intervalo i. Então H(X ) = - i p i log p i = - i f(x i ) log f(x i ) - log h f log

54 Entropia diferencial de um vetor Gaussiano Teorema: Seja X um vetor Gaussiano n-dimensional com média e matriz covariância K. Então h X = 1 2 log ((2e)n K ) onde K denota o determinante de K. Prova: Manipulação algébrica.

55 O Canal Gaussiano O Problema do canal Gaussiano: W X Codificador Z~N (0, N I) + Restrição de potência: EX 2 P Y Decodificador W W {1,2,,2 nr } = conjunto de mensagens de taxa R X = (x 1 x 2 x n ) = entrada do canal Y = (y 1 y 2 y n ) = saída do canal W= mensagem decodificada P(erro) = P{WW}

56 O canal Gaussiano Capacidade C = max I(X; Y) f(x): EX 2 P I X; Y = h Y h Y X = h Y h X + Z X = h Y h Z 1 log 2e P + N 1 log 2eN 2 2 = 1 log 1 + P bits/transmissão 2 N

57 O Canal Gaussiano Capacidade: C = max I(X; Y) f(x): EX 2 P C = 1 2 log 1 + P N bits/transmissão

58 O Canal Gaussiano de Banda Limitada C = W log (1+ P N 0 W ) bits/segundo Note: Se W tem-se C = P N 0 log 2 e bits/segundo.

59 Canal Gaussiano de Banda W Seja R a eficiência espectral em bits por segundo W por Hertz. Também seja P = E b R onde E b é a energia disponível por bit de informação. Obtem-se R Portanto W C W = log (1+ E br N 0 W ) bits/segundo. E b 2 1 N 0 Esta relação define o chamado Limitante de Shannon.

60 O Limitante de Shannon E b 2 1 N 0 E b N 0 E b N 0 (db) Shannon Bound E b N 0 (db) 6

61 Solução de Water-Filling (Shannon)

62 Canais Gaussianos Paralelos

63 Exemplo de Water Filling Canais com níveis de ruído 2, 1 and 3. Potência disponível = 2 Capacidade= 1 2 log ( ) log ( ) log (1+0 3 ) Nível de ruído mais potência de sinal = 2.5 Nenhuma potência alocada para o terceiro canal.

64 Teoria de informação de múltiplos usuários Blocos constituintes: Canal de Múltiplo Acesso (MACs) Canais de Broadcast (BCs) Canais de Interferência (IFCs) Canais de Relay (RCs) Note: Estes canais têm versões discretas sem memória e versões Gaussianas. Por simplicidade vamos ver apenas as versões Gaussianas.

65 Canal de Múltiplo Acesso (MAC)

66 Canal de Broadcast Gaussiano

67 Codificação por Superposição (1-)P N 2 P P 1

68 Canal de interferência Gaussiano padrão W 1 Power P1 a ^ W 1 W 2 b ^ W 2 Power P2

69 Canal de interferência Gaussiano simétrico Power P Power P

70 Canal de Interferência em Z

71 Canal de Interferência: estratégias O que se pode fazer com interferência: 1. Ignorar (tomar a interferência como ruído, 2. Evitar (dividir o espaço de sinal (TDM/FDM)), 3. Parcialmente decodificar os dois sinais de interferência, 4. Parcialmente decodificar um e totalmente o outro, 5. Decodificar os dois sinais de interferência (a melhor opção para interferência forte, a 1).

72 Canal de Relay X Y 1 : X 1 O canal de relay é dito fisicamente degradado se p(y,y 1 x,x 1 )=p(y 1 x,x 1 ) p(y y 1,x 1 ). Portanto Y é uma versão degradada do sinal de relay Y 1. Teorema: C = sup min { I(X,X 1 ;Y 1 ), I(X;Y 1 X 1 )} p(x,x 1 ) Y

73 Codificação de Fonte de Slepian Wolf X,Y variáveis aleatórias correlatadas ~ p(x,y) X Y Cod. X Cod. Y j k Decodifi- cador DE conjunto ^ ^ X, Y Índices j e k com taxas R x and R y, resp.

74 Slepian Wolf (continuação) Ry H(Y) Região atingível H(Y X) H(X Y) H(X) Rx

75 Fechamento Muitas frentes de pesquisa: Codificação conjunta de fonte e canal Codificação para canais com informação lateral Codificação distribuída de fonte Estratégias de codificação para redes Casamento de Network Coding e T I de múltiplos usuários.

76 Obrigado!

Teoria da Informação

Teoria da Informação Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

Entropia, Entropia Relativa

Entropia, Entropia Relativa Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos

Leia mais

Canais discretos sem memória e capacidade do canal

Canais discretos sem memória e capacidade do canal Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais

Leia mais

TE111 Comunicação Digital

TE111 Comunicação Digital TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory

Leia mais

canal para sinais contínuos

canal para sinais contínuos Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos

Leia mais

Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste

Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste

Leia mais

COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO

COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.

Leia mais

universidade federal de pernambuco departamento de estatística

universidade federal de pernambuco departamento de estatística soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas

Leia mais

COM29008 LISTA DE EXERCÍCIOS #

COM29008 LISTA DE EXERCÍCIOS # INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM98 LISTA DE EXERCÍCIOS # 8. Exercícios. [, 9.5] Um processo estocástico gaussiano,

Leia mais

Fundamentos da Teoria de Informação

Fundamentos da Teoria de Informação Fundamentos da Teoria de Informação 1 Introdução... 2 2 Informação... 3 3 Entropia... 6 3.1 Entropia Exemplos... 7 3.2 Entropia Conjunta e Entropia Condicional... 12 3.3 Entropia e Codificação de Fonte...

Leia mais

Teoria de distorção da taxa

Teoria de distorção da taxa Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades

Leia mais

SEGUNDO Massey [1] a história da criptologia mostra

SEGUNDO Massey [1] a história da criptologia mostra REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de

Leia mais

Teoria da Informação

Teoria da Informação Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

Teoria da Informação. Codificação de Fonte

Teoria da Informação. Codificação de Fonte Codificação de Fonte lucianol@inatel.br /62 Conteúdo e Referência. Revisão: Probabilidade e Variáveis Aleatórias 2. Fontes de informação amostragem e quantização 3. Princípios da 4. Compactação de Fonte

Leia mais

Princípios Básicos de Teoria da Informação

Princípios Básicos de Teoria da Informação Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação

Leia mais

Segundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014

Segundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014 Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro

Leia mais

Teoria da Informação

Teoria da Informação Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

TÉCNICAS DE CODIFICAÇÃO DE SINAIS

TÉCNICAS DE CODIFICAÇÃO DE SINAIS TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia

Leia mais

FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO

FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO PROF. ENG. ESP. ANTONIO CARLOS LEMOS JÚNIOR acjunior@facthus.edu.br

Leia mais

Teoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522

Teoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522 Teoria da Informação (4-) Exame de ecurso (-7-). Canais discretos sem memória e p =,: esolução X -p p p -p Y W ε ε ε -ε -ε -ε Z Canal A Canal B Vamos representar P(X = i) por P(X i ), etc. PY ( ) = P(

Leia mais

Probabilidade, entropia, surpresa, e quantidade de informação 1

Probabilidade, entropia, surpresa, e quantidade de informação 1 Probabilidade, entropia, surpresa, e quantidade de informação 10 de setembro de 2013 Probabilidade, entropia, surpresa, e quantidade de informação 1 Conteúdo 1 Revisão de Probabilidade Teorema de Bayes

Leia mais

Códigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações.

Códigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações. 1 Introdução Neste trabalho, estamos interessados nos problemas da teoria de comunicações conhecidos como compressão de dados e modulação. Um modelo típico de um sistema de comunicações é mostrado na Fig.

Leia mais

1 O esquema de Alamouti: Diversidade na transmissão

1 O esquema de Alamouti: Diversidade na transmissão 1 O esquema de Alamouti: Diversidade na transmissão 1.1 O Caso de uma antena receptora A Figura?? mostra a representação em banda básica do esquema de Alamouti com diversidade na transmissão. O esquema

Leia mais

Sistemas discretos sem memória e codificação da fonte

Sistemas discretos sem memória e codificação da fonte Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo

Leia mais

SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49

SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49 SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuições Condicionais 11/13 1 / 19 Em estudo feito em sala perguntamos aos alunos qual

Leia mais

Teoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log

Teoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )

Leia mais

COM29008 LISTA DE EXERCÍCIOS #

COM29008 LISTA DE EXERCÍCIOS # INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM29008 LISTA DE EXERCÍCIOS #1 2016.2 Exercícios 1. Verifique se os seguintes

Leia mais

Compressão de Imagens. Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE

Compressão de Imagens. Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE Compressão de Imagens Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE Imagens digitais necessitam de grande quantidade de espaço para armazenamento e

Leia mais

II-6 Análise de Ruído e Capacidade de Canal

II-6 Análise de Ruído e Capacidade de Canal II-6 Análise de Ruído e Capacidade de Canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN (canal físico) Modelo BSC (canal discreto) Efeito do ruído

Leia mais

EET-49 Comunicações II

EET-49 Comunicações II EET-49 Comunicações II Parte 4 - Codificação sem perda de informação March 20, 2012 1 Introdução Realizar a codificação da fonte é representá-la da menor forma possível Se a utilização não permite a perda

Leia mais

Universidade de Pernambuco Escola Politécnica de Pernambuco

Universidade de Pernambuco Escola Politécnica de Pernambuco Universidade de Pernambuco Escola Politécnica de Pernambuco TV Analógica e Digital Codificação de Fonte Prof. Márcio Lima E-mail:marcio.lima@poli.br 12.06.2014 Introdução A principal função de um sistema

Leia mais

Luis Henrique Assumpção Lolis 27 de agosto de 2013

Luis Henrique Assumpção Lolis 27 de agosto de 2013 http://www.eletrica.ufpr.br/~luis.lolis TE248 - Teoria da Informação e Codificação Luis Henrique Assumpção Lolis 27 de agosto de 2013 Conteúdo 1 Conteúdo da Disciplina 2 Origem e Aplicação 3 Bibliografia

Leia mais

2 Teoria da Informação

2 Teoria da Informação 2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ

Leia mais

Descodificação iterativa

Descodificação iterativa Sílvio A. Abrantes DEEC/FEUP 26 Descodificação iterativa 2 Descodificação de códigos LDPC por transferência de mensagens em grafos de Tanner Introdução Diagrama de blocos de um sistema genérico de codificação

Leia mais

Algoritmos de Compressão sem Perdas

Algoritmos de Compressão sem Perdas Algoritmos de Compressão sem Perdas (continuação) Aula 08 Diogo Pinheiro Fernandes Pedrosa Universidade Federal Rural do Semiárido Departamento de Ciências Exatas e Naturais Curso de Ciência da Computação

Leia mais

A estacionariedade prova-se de maneira semel- hante.

A estacionariedade prova-se de maneira semel- hante. Se por outro lado (U 1, U 2,...) é IID então mostremos que X n U 1 + + U n tem incrementos independentes e estacionários. De facto, dados n > m temos que X n X m U m+1 + + U n. Tome-se quaisquer n 1

Leia mais

Estudo sobre decodificação iterativa usando códigos de treliça

Estudo sobre decodificação iterativa usando códigos de treliça Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco

Leia mais

2. Geração de Funções Computáveis

2. Geração de Funções Computáveis 2. Geração de Funções Computáveis 2.1 As funções básicas 2.2 Concatenação de programas 2.3 Substituição 2.5 Minimização Teresa Galvão LEIC - Teoria da Computação I 2.1 2.1 As funções básicas Métodos que

Leia mais

Códigos convolucionais

Códigos convolucionais Códigos convolucionais Luis Henrique Assumpção Lolis 29 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos convolucionais 1 Conteúdo 1 Introdução e definição 2 Diagrama de árvores, de treliça e

Leia mais

Aula 4. Aula de hoje. Aula passada

Aula 4. Aula de hoje. Aula passada Aula 4 Aula passada Função de distribuição Bernoulli Sequência de v.a. Binomial, Geométrica, Zeta Valor esperado Variância Distribuição conjunta Independência de v.a. Aula de hoje Valor esperado condicional

Leia mais

1.1 Exemplo da diferença da média da população para a média amostral.

1.1 Exemplo da diferença da média da população para a média amostral. 1 Estatística e Probabilidades Inferência Estatística consiste na generalização das informações a respeito de uma amostra, para a sua população. A Probabilidade considera modelos para estimar informações

Leia mais

Momentos: Esperança e Variância. Introdução

Momentos: Esperança e Variância. Introdução Momentos: Esperança e Variância. Introdução Em uma relação determinística pode-se ter a seguinte relação: " + " = 0 Assim, m =, é a declividade e a e b são parâmetros. Sabendo os valores dos parâmetros

Leia mais

Um Passeio pela Teoria da Informação

Um Passeio pela Teoria da Informação WECIQ 2006 - Mini-curso 3 Um Passeio pela Teoria da Informação (Clássica e Quântica) Carlile Lavor 1 1 Instituto de Matemática, Estatística e Computação Científica UNICAMP clavor@ime.unicamp.br 1. Introdução

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório? Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

Probabilidade. Definição de informação

Probabilidade. Definição de informação Probabilidade. Definição de informação L.J. Amoreira UBI Novembro 2010 A distribuição binomial Repete-se n vezes uma experiência na qual um dado acontecimento A tem uma probabilidade de ocorrência p. Qual

Leia mais

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes. TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio

Leia mais

Dados no R n. Dados em altas dimensões 29/03/2017

Dados no R n. Dados em altas dimensões 29/03/2017 Dados no R n Dados em altas dimensões Alguns dados são apresentados como vetores em R n Alguns dados não são apresentados como vetores mas podem ser representados como vetores (e.g. Texto) Texto Dados

Leia mais

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G. TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 23 de agosto de 2017 Informação sobre a disciplina Segundas e Quartas feiras das 09:30 às 11:20 horas Professor:

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

TÉCNICAS DE CODIFICAÇÃO DE SINAIS

TÉCNICAS DE CODIFICAÇÃO DE SINAIS Informação sobre a Disciplina TÉCNICAS DE CODIFICAÇÃO DE SINAIS INTRODUÇÃO Evelio M. G. Fernández - 2010 Terças e Quintas feiras das 07:30 às 11:20 horas Professor: Evelio Martín García Fernández Gabinete

Leia mais

PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE

PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE 3.1 INTRODUÇÃO Muitas variáveis aleatórias associadas a experimentos aleatórios têm propriedades similares e, portanto, podem ser descritas através de

Leia mais

Apresentação... 1 Introdução... 1

Apresentação... 1 Introdução... 1 Apresentação O objetivo principal deste texto é servir como material básico para uma disciplina introdutória sobre sistemas de comunicações em um curso de Engenharia Elétrica. Ele tem abrangência limitada,

Leia mais

Continuidade de processos gaussianos

Continuidade de processos gaussianos Continuidade de processos gaussianos Roberto Imbuzeiro Oliveira April, 008 Abstract 1 Intrudução Suponha que T é um certo conjunto de índices e c : T T R é uma função dada. Pergunta 1. Existe uma coleção

Leia mais

Teoria das Comunicações Prof. André Noll Barreto Prova 3

Teoria das Comunicações Prof. André Noll Barreto Prova 3 Prova 3 6/08/010 Aluno: Matrícula: Questão 1 ( pontos) Queremos transmitir a seguinte sequência de bits: 1001110010 Esboce o sinal transmitido para os seguintes esquemas (0, ponto cada): a) sinalização

Leia mais

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias Notes. PDF da Soma de Duas Variáveis Aleatórias.

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias Notes. PDF da Soma de Duas Variáveis Aleatórias. TE802 Processos Estocásticos em Engenharia Somas de Variáveis Aleatórias 25 de abril de 2016 Valores Esperados de Somas de Variáveis Aleatórias Seja W n = X 1 + + X n, E[W n ] = E[X 1 ] + E[X 2 ] + + E[X

Leia mais

Princípios de Telecomunicações AULA 1. Elementos de um sistema de comunicações. Prof. Eng. Alexandre Dezem Bertozzi, Esp.

Princípios de Telecomunicações AULA 1. Elementos de um sistema de comunicações. Prof. Eng. Alexandre Dezem Bertozzi, Esp. Princípios de Telecomunicações AULA 1 Elementos de um sistema de comunicações Prof. Eng. Alexandre Dezem Bertozzi, Esp. COMUNICAÇÃO TRANSMISSÃO DE INFORMAÇÃO DE UM PONTO A OUTRO, ATRAVÉS DE UMA SUCESSÃO

Leia mais

Modelagem Estocástica e Quantificação de Incertezas

Modelagem Estocástica e Quantificação de Incertezas Modelagem Estocástica e Quantificação de Incertezas Rubens Sampaio rsampaio@puc-rio.br Roberta de Queiroz Lima robertalima@puc-rio.br Departamento de Engenharia Mecânica DINCON 2015 Organização do curso

Leia mais

Aula 9. Ivan Sendin. 12 de setembro de FACOM - Universidade Federal de Uberlândia SEG-9.

Aula 9. Ivan Sendin. 12 de setembro de FACOM - Universidade Federal de Uberlândia SEG-9. Segurança da Informação Aula 9 FACOM - Universidade Federal de Uberlândia ivansendin@yahoo.com,sendin@ufu.br 12 de setembro de 2018 Alice,Bob, Eva, Criptossistemas,... Ciptoanalise texto cifrado texto

Leia mais

Daniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS

Daniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS Daniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS INTRODUÇÃO O que é uma variável aleatória? Um tipo de variável que depende do resultado aleatório de um experimento aleatório. Diz-se que um experimento é

Leia mais

Física da Informação Probabilidades

Física da Informação Probabilidades Física da Informação Probabilidades L.J. Amoreira UBI Novembro 2009 Sobre um exemplo da aula passada Uma caixa contém N bolas numeradas Retira-se uma bola, repõe-se na caixa, retira-se outra bola Qual

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema

Leia mais

CAPÍTULO 5: VARIÁVEIS ALEATÓRIAS BIDIMENSIONAIS Todas as coisas aparecem e desaparecem por causa da concorrência de causas e condições. Nada nunca existe inteiramente só, tudo está em relação com todo

Leia mais

Introdução aos Sistemas de Comunicações

Introdução aos Sistemas de Comunicações aos Sistemas de Comunicações Edmar José do Nascimento () http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Colegiado de Engenharia Elétrica Roteiro 1 Sistemas de

Leia mais

Probabilidades e Estatística TODOS OS CURSOS

Probabilidades e Estatística TODOS OS CURSOS Duração: 90 minutos Grupo I Probabilidades e Estatística TODOS OS CURSOS Justifique convenientemente todas as respostas o semestre 07/08 0/07/08 :0 o Teste C 0 valores. Um relatório anual estabelece que

Leia mais

Cálculo da Informação Acessível

Cálculo da Informação Acessível Cálculo da Informação Acessível Michael Souza (LNCC) Renato Portugal (LNCC) Carlile Lavor (IME-UNICAMP) Este trabalho tem suporte financeiro das agências FAPERJ e CNPQ. Tópicos Abordagem pragmática da

Leia mais

24/04/2017. Operações que podem ser aplicadas aos eventos

24/04/2017. Operações que podem ser aplicadas aos eventos Inferência estatística: processo de extrair conclusões de uma população inteira com base na informação de uma amostra A base para a inferência estatística é a teoria da probabilidade Evento: é o resultado

Leia mais

X(t) = A cos(2πf c t + Θ)

X(t) = A cos(2πf c t + Θ) Exercícios Extras de Comunicações Digitais. Seja um sinal aleatório X(t), estacionário no sentido restrito, dado por onde X(t) = A cos(πf c t + Θ) A é uma variável aleatória Gaussiana com média de 4Volts

Leia mais

Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal

Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual

Leia mais

4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON

4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON 4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON A Teoria Matemática da Comunicação, ou Teoria da Comunicação de Shannon foi proposta por Claude Shannon no final da década de 1940 como forma de sistematizar

Leia mais

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias TE802 Processos Estocásticos em Engenharia Somas de Variáveis Aleatórias 27 de setembro de 2017 Valores Esperados de Somas de Variáveis Aleatórias Seja W n = X 1 + + X n, E[W n ] = E[X 1 ] + E[X 2 ] +

Leia mais

SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017)

SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) Tópicos Propriedades dos códigos de fonte Código ótimo e código ideal Singularidade, descodificação única,

Leia mais

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

MP-208: Filtragem Ótima com Aplicações Aeroespaciais MP-208: Filtragem Ótima com Aplicações Aeroespaciais Seção 2.6: Vetores Aleatórios Davi Antônio dos Santos Departamento de Mecatrônica Instituto Tecnológico de Aeronáutica davists@ita.br São José dos Campos,

Leia mais

Controle Ótimo - Aula 6 Exemplos e Exercícios

Controle Ótimo - Aula 6 Exemplos e Exercícios Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre

Leia mais

Estudo e Implementação Computacional de um Sistema de Comunicação Digital

Estudo e Implementação Computacional de um Sistema de Comunicação Digital Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo e Implementação Computacional de um Sistema de Comunicação Digital Da Silva Junior, A. C. Escola Politécnica de Pernambuco Universidade

Leia mais

COMPRESSÃO E CODIFICAÇÃO SEM PERDAS. Mauro Nogueira Mônica Festa Paulo Antiquera

COMPRESSÃO E CODIFICAÇÃO SEM PERDAS. Mauro Nogueira Mônica Festa Paulo Antiquera COMPRESSÃO E CODIFICAÇÃO SEM PERDAS Mauro Nogueira Mônica Festa Paulo Antiquera Introdução Armazenamento ou transmissão compressão (compactação) de dados Compressão sem perdas Imagens médicas documentos

Leia mais

Teorema de Nyquist Teorema da Amostragem

Teorema de Nyquist Teorema da Amostragem Teorema de Nyquist Teorema da Amostragem Em um canal livre de ruídos, a única limitação imposta à taxa de transmissão de dados será devida à largura de banda do canal. A formulação para esta limitação

Leia mais

2.3 Operações sobre uma variável aleatória - Esperança matemática

2.3 Operações sobre uma variável aleatória - Esperança matemática matemática 58 atingir a mosca dado que ele atingiu o alvo. Exercício 2.33. [3] Duas caixas tem bolas vermelhas, verdes e azuis dentro; a quantidade de cada uma é dada a seguir. Caixa 01-5 vermelhas; 35

Leia mais

Códigos de blocos lineares. Outubro de 2017

Códigos de blocos lineares. Outubro de 2017 Códigos de blocos lineares Outubro de 2017 Vamos introduzir alguns conceitos sobre códigos de blocos lineares. Definições: Deve-se assumir que a informação saída da fonte de informação é da forma binária

Leia mais

3 3. Variáveis Aleatórias

3 3. Variáveis Aleatórias ÍNDICE 3. VARIÁVEIS ALEATÓRIAS...49 3.. VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS...49 3.2. VARIÁVEIS DISCRETAS FUNÇÃO DE PROBABILIDADE E FUNÇÃO DISTRIBUIÇÃO DE PROBABILIDADE...50 3.2.. Função de probabilidade...50

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

MAE-219: Introdução à Probabilidade e Estatística I

MAE-219: Introdução à Probabilidade e Estatística I MAE-219: Introdução à Probabilidade e Estatística I Prof. Pedro Morettin e Prof. Nelson I. Tanaka Gabarito - Lista de Exercícios 6 1o. Semestre de 216 1 Questão 1 X: Número de caras nos dois primeiros

Leia mais

II-6 Análise de ruído e capacidade de canal

II-6 Análise de ruído e capacidade de canal II-6 Análise de ruído e capacidade de canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN e ISI Modelo BSC Efeito do ruído Relação sinal/ruído 2. Curvas

Leia mais

Nivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho

Nivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho Tópicos em Recuperação de Informação 1 Nivio Ziviani 1 Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho Tópicos em Recuperação de Informação - Nivio Ziviani

Leia mais

UNIVERSIDADE FEDERAL DE PERNAMBUCO. Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação

UNIVERSIDADE FEDERAL DE PERNAMBUCO. Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação UNIVERSIDADE FEDERAL DE PERNAMBUCO GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO CENTRO DE INFORMÁTICA 2012.2 Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação PROPOSTA DE TRABALHO

Leia mais

Nivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho.

Nivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho. Tópicos em Recuperação de Informação Nivio Ziviani Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho. 1 Compressão de Índices Arquivos invertidos são amplamente

Leia mais

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere

Leia mais

Teoria das Comunicações Prof. André Noll Barreto Prova /02

Teoria das Comunicações Prof. André Noll Barreto Prova /02 Prova 3 010/0 7/01/011 Aluno: Matrícula: Instruções A prova consiste em 4 questões discursivas. A prova terá a duração de h30. A prova pode ser feita a lápis ou caneta. Não é permitida consulta a notas

Leia mais

Fundamentos da Teoria da Probabilidade

Fundamentos da Teoria da Probabilidade Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios

Leia mais

Teoria da Informação

Teoria da Informação Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

Revisões de Matemática e Estatística

Revisões de Matemática e Estatística Revisões de Matemática e Estatística Joaquim J.S. Ramalho Contents 1 Operadores matemáticos 2 1.1 Somatório........................................ 2 1.2 Duplo somatório....................................

Leia mais

COMUNICAÇÕES DIGITAIS. Livro Texto: Communication Systems, 4 TH Edition Simon Haykin John Wiley & Sons, Inc.

COMUNICAÇÕES DIGITAIS. Livro Texto: Communication Systems, 4 TH Edition Simon Haykin John Wiley & Sons, Inc. COMUNICAÇÕES DIGITAIS Livro Texto: Communication Systems, 4 TH Edition Simon Haykin John Wiley & Sons, Inc. . Introdução Exemplo: Nível (Volts) Codificação Probabilidade 0 000 0,05 00 0,0 2 00 0,20 3 0

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE

Leia mais

1 Técnicas de Seleção de Antenas Transmissoras

1 Técnicas de Seleção de Antenas Transmissoras 1 Técnicas de Seleção de Antenas Transmissoras Como visto em aulas anteriores, para se atingir uma ordem de diversidade espacial maior é necessário o emprego de múltiplas antenas no transmissor e/ou no

Leia mais

Distribuições de Probabilidade Conjuntas

Distribuições de Probabilidade Conjuntas Distribuições de Probabilidade Conjuntas 1. Duas variáveis aleatórias discretas Exemplo 1. No desenvolvimento de um novo receptor para transmissão digital de informação, cada bit é classificado como aceitável,

Leia mais

Exercícios propostos:

Exercícios propostos: INF 16 Exercícios propostos: 1. Sabendo-se que Y=X-5 e que E(X)= e V(X)=1, calcule: a)e(y); b)v(y); c)e(x+y); d)e(x + Y ); e)v(x+y); Resp.: 1; 9; 5; 15; 81. Uma urna contém 5 bolas brancas e 7 bolas pretas.

Leia mais

Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira

Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Departamento de Electrónica, Telecomunicações e Informática Universidade de Aveiro Sumário Códigos binários Representação de informação com

Leia mais

AGA Análise de Dados em Astronomia I. 2. Probabilidades

AGA Análise de Dados em Astronomia I. 2. Probabilidades 1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana

Leia mais

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente. 1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-

Leia mais