BC-0504 Natureza da Informação



Documentos relacionados
Processos Estocásticos

Processos Estocásticos

Unidade 11 - Probabilidade. Probabilidade Empírica Probabilidade Teórica

Comunicação de Dados. Aula 4 Conversão de Sinais Analógicos em digitais e tipos de transmissão

Exercícios Teóricos Resolvidos

Módulo VIII. Probabilidade: Espaço Amostral e Evento

Portas Lógicas (continuação)

PROJETO DE REDES

Regulamento Jogo de Truco

Eventos independentes

Resoluções comentadas de Raciocínio Lógico e Estatística SEFAZ - Analista em Finanças Públicas Prova realizada em 04/12/2011 pelo CEPERJ

ALGORITMOS E FLUXOGRAMAS

Algoritmos e Estruturas de Dados I 01/2013. Estruturas Condicionais e de Repetição (parte 2) Pedro O.S. Vaz de Melo

Professor Mauricio Lutz PROBABILIDADE

A Torre de Hanói e o Princípio da Indução Matemática

REPRESENTAÇÃO DE DADOS EM SISTEMAS DE COMPUTAÇÃO AULA 03 Arquitetura de Computadores Gil Eduardo de Andrade

1) Eficiência e Equilíbrio Walrasiano: Uma Empresa

O conceito de probabilidade

Como fazer um jogo usando o editor de apresentação

Sistemas Lineares. Módulo 3 Unidade 10. Para início de conversa... Matemática e suas Tecnologias Matemática

MODELOS PROBABILÍSTICOS MAIS COMUNS VARIÁVEIS ALEATÓRIAS DISCRETAS

Conhecendo o Decoder

Circuitos Digitais 144L

UNIVERSIDADE FEDERAL DO MATO GROSSO CAMPUS

1 CIRCUITOS COMBINACIONAIS

Aula 4 Conceitos Básicos de Estatística. Aula 4 Conceitos básicos de estatística

RESUMO TEÓRICO. n(a) P(A) = n(u) 0 P(A) 1

Matemática SSA 2 REVISÃO GERAL 1

MAT 461 Tópicos de Matemática II Aula 3: Resumo de Probabilidade

Aula 4 Estatística Conceitos básicos

SOCIEDADE BRASILEIRA DE MATEMÁTICA MESTRADO PROFISSIONAL EM REDE NACIONAL PROFMAT

3 - CONJUNTO DOS NÚMEROS RACIONAIS

Exercícios 1. Determinar x de modo que a matriz

Avaliação e Desempenho Aula 4

CONSERVAÇÃO DA ENERGIA

Informática básica Telecentro/Infocentro Acessa-SP

Estatística II Antonio Roque Aula 9. Testes de Hipóteses

Dois eventos são disjuntos ou mutuamente exclusivos quando não tem elementos em comum. Isto é, A B = Φ

DICAS DE BURACO ONLINE

Métodos Quantitativos Prof. Ms. Osmar Pastore e Prof. Ms. Francisco Merlo. Funções Exponenciais e Logarítmicas Progressões Matemáticas

Curso de Instalação e Gestão de Redes Informáticas

Trabalho de laboratório Avaliação semestral Exame final MÉDIA PONDERADA CONCEITO

Gestão da TI. Os custos escondidos da. Conheça os custos escondidos na gestão amadora da TI e pare de perder dinheiro.

Óptica Geométrica. Universidade do Estado do Rio Grande do Norte. Dr. Edalmy Oliveira de Almeida

Disponibilizo a íntegra das 8 questões elaboradas para o Simulado, no qual foram aproveitadas 4 questões, com as respectivas resoluções comentadas.

Lista 2 - Probabilidade. Probabilidade. 1. Uma letra é escolhida entre as letras da palavra PROBABILIDADE

1 Problemas de transmissão

PROBABILIDADE Prof. Adriano Mendonça Souza, Dr.

Texto 07 - Sistemas de Partículas. A figura ao lado mostra uma bola lançada por um malabarista, descrevendo uma trajetória parabólica.

Valor lógico UM (Verdade, 1): 5 Volts. Valor lógico ZERO (FALSO, 0): 0 Volts.

Profa. Dra. Amanda Liz Pacífico Manfrim Perticarrari

INSTITUTO TECNOLÓGICO

Aula 1: Introdução à Probabilidade

Numa turma de 26 alunos, o número de raparigas excede em 4 o número de rapazes. Quantos rapazes há nesta turma?

A Equação de Bernoulli

CPV 82% de aprovação na ESPM

UNITAU APOSTILA PROBABILIDADES PROF. CARLINHOS

Truques e Dicas. = 7 30 Para multiplicar fracções basta multiplicar os numeradores e os denominadores: 2 30 = 12 5

TORNEIO DE SUECA. Benfeita 2013 REGULAMENTO

Universidade Federal de Rondônia Técnicas de Desenvolvimento de Programas Lista 4

Sistemas Multimédia. Ano lectivo Aula 11 Conceitos básicos de Audio Digital. MIDI: Musical Instrument Digital Interface

CURSO ON-LINE PROFESSOR: VÍTOR MENEZES

CAPÍTULO 04 NOÇÕES DE PROBABILIDADE

Eletrônica Digital para Instrumentação. Herman Lima Jr.

Resolução de sistemas lineares

FACULDADE LA SALLE EDUCAÇÃO FÍSICA LICENCIATURA

Notas de Cálculo Numérico

LISTA DE INTERVALO DE CONFIANÇA E TESTE DE HIPÓTESES

Universidade Federal de São João Del Rei - UFSJ

Sistema de Numeração e Códigos. CPCX UFMS Prof. Renato F. dos Santos

NOÇÕES DE PROBABILIDADE

Tutorial ConvertXtoDVD 3

FRAÇÕES DE UMA QUANTIDADE

Variáveis aleatórias contínuas e distribuiçao Normal. Henrique Dantas Neder

Laboratório de Física I - EAD- UESC 2011

Engenharia Informática Engenharia Electrotécnica e Computadores Programação Orientada por Objectos Projecto PlayCards

Espaços Amostrais e Eventos. Probabilidade 2.1. Capítulo 2. Espaço Amostral. Espaço Amostral 02/04/2012. Ex. Jogue um dado

PROBABILIDADE. Aula 5

5 Dicas Testadas para Você Produzir Mais na Era da Internet

Noções de Probabilidade

Manifeste Seus Sonhos

Teoria das Probabilidades

1) 2) 3) CD 4 Faixas:

20 perguntas para descobrir como APRENDER MELHOR

MANUAL DA SECRETARIA

Sistemas de Numeração

3.4 O Princípio da Equipartição de Energia e a Capacidade Calorífica Molar

Desenhando perspectiva isométrica

Memórias. O que são Memórias de Semicondutores? São componentes capazes de armazenar informações Binárias (0s e 1s)

Manual de Operacionalização do Módulo de Prestação de Contas PCS

Introdução. Introdução. Objetivos da Aula. Bases Computacionais da Ciência(BC-0005)

Perfil Chefe de Transporte

MÓDULO 4 DISTRIBUIÇÃO DE FREQÜÊNCIAS

Notas sobre a Fórmula de Taylor e o estudo de extremos

Simulador PMP - 4º Edição Exame de Certificação do PMI

OFICINA DE JOGOS APOSTILA DO PROFESSOR

Componentes: - 50 Cartas Hanabi - 5 Cartas de Regra - 8 Cartas de Dica - 3 Cartas de Penalidade - 5 Cartas Multi-coloridas (para a expansão)

Matemática em Toda Parte II

Guia do Aluno. Campo Grande MS

Transcrição:

BC-0504 Natureza da Informação Aulas 2 Entropia na termodinâmica e na teoria da informação Equipe de professores de Natureza da Informação

Parte 4

Os pilares da teoria da informação Os estudos de criptografia desenvolvidos na 2ª Guerra mundial Os estudos de termodinâmica As tecnologias de transmissão de informação

Claude Elwood Shannon (1916-2001) Trabalhava nos Laboratórios Bell Quanta informação pode passar por uma linha de telefone? Inventou o término bigit ou bit

Shannon s ultimate machine Quando se abre a caixa, a mãozinha solta o pino e a caixa fecha de novo.

O Bit como unidade de informação Mede o grau de imprevisibilidade. 1 bit é a quantidade de informação necessária para tomar uma decisão perante duas opções igualmente prováveis Segundo fórmula de Boltzmann, S=k log(w) onde W é o n. de possíveis configurações para um determinado arranjo de partículas Segundo fórmula de Shannon. S 2 p log p i i

A informação é medida em bits 7 ) ( S log 2 n Se todos os estados tem a mesma probabilidade n n n n n n n p p S i n p i i i 2 2 2 2 log 1 log 1 1 log 1 log, 1/

A informação é medida em bits Bom Bom dia dia S log ( n) 2 Ele diz bom dia todo dia Há apenas um estado possível 0 bit. Não há informação S log 2 (1) 0 Entropia = 0 Não precisamos transmitir nada Já sabemos que ele diz bom dia. 8

A informação é medida em bits S log ( n) 2 S log (2) 2 1 1 bit dois estados igualmente prováveis Precisamos transmitir um bit para informar sobre o estado da moeda Mas sabemos que só pode ser cara ou coroa. Um bit resolve. 9

A informação é medida em bits S log (6) 2, 58bits 2 Dado: 6 estados. 2 bits não são suficientes 3 bits: sobram 2 estados O que quer dizer 2.58 bit? Quanto é.58 bit? 10

A informação é medida em bits S log (6) 2, 58bits 2 Código 000 1 Estado Do Dado 001 2 010 3 Sobram 2 estados Opção: código redundante. Podemos ser mais eficientes? 11 011 4 100 5 101 5 110 6 111 6

A informação é medida em bits S log (6) 2, 58bits 2 Código 000 1 Estado Do Dado 001 2 010 3 Para estados 5 e 6, não transmitimos o último bit Média de bits transmitidos: (4*3+2*2)/6 = 16/6= 2.67 12 011 4 10 5 10 5 11 6 11 6

A informação é medida em bits S log (6) 2, 58bits 2 Código 000 1 Estado Do Dado 001 2 010 3 Média de bits transmitidos: (4*3+2*2)/6 = 16/6= 2.67 Muito próximo de S S é um limite inferior 13 011 4 10 5 10 5 11 6 11 6

A informação é medida em bits S log (6) 2, 58bits 2 Supomos dado de prob. iguais Suponha um dado viciado com mais probabilidade para 1 e 2 Então seria mais vantajoso codificar os estados 1 e 2 com 2 bits e os outros com 3 bits A entropia do dado viciado é menor 14

Parte 5

Verdadeira contribuição de Shannon Quanta informação cabe num mensagem. Como arranjar melhor a informação para que a mensagem seja mais enxuta. Exemplo: programas de compressão de arquivos (Zip) Outro exemplo são as sinais em jogos de cartas como o truco.

Algumas sinais do truco Piscar um olho = Zap (Paus) Subir as sobrancelhas = Sete Copas (Copas) Fazer um montinho na bochecha usando a língua = Espadilha (Espadas) Mostrar a ponta da língua = Pica Fumo (Ouros) Levantar um ombro = Três Levantar dois ombros = Um par de três Encher as bochechas de ar = "To cheio de manilha" Tocar no peito = "deixa aqui que eu faço" Passar a mão no pescoço como se estivesse cortando-o= "Peça Truco

Algumas sinais do truco Cartas: 4 a 10; JQKA Basicamente há um sinal diferente para cada carta Queremos essa ineficiência para que os adversários não saibam onde estará o nosso sinal. Mas podemos usar o mesmo tipo de sinal para mais de uma carta? (mesmo que não seja bom para esconder dos adversários?)

Pro "ZAP" vc deita todas as cartas na mesa. Um código mais enxuto Pro "Pica-fumo" as cartas do baralho bem abertas, como um leque de três carta. Pra "Espadilha" as cartas do baralho bem abertas, como um leque de duas cartas só, vc coloca uma carta sobre uma outra, assim abre um leque somente como se fosse duas cartas só. Pro "Sete Copas" vc fecha o baralho como num maço de uma carta só

S=log 2 (w) Se W é o numero de diferentes mensagems que precisamos transmitir o código mais enxuto é aquele que tem log(w) bits. No caso do truco, se quisermos transmitir os quatro naipes com dois bits seria suficiente usando, talvez, os dois olhos. Para transmitir o número (de 1 para 7) poderíamos colocar algumas cartas deitadas (viradas para abaixo) representando os zeros, e algumas em pé representando os uns, formando um código binário.

Parte 6

Codificação binária (em 0 e 1) Permite identificar qualquer magnitude em termos de sim ou não Exemplo: Para identificar número entre 1 e n precisaríamos realizar log(n) questões (bem formuladas). Exemplo para identificar um átomo no meio do universo que têm 10 80 átomos Precisariamos Log2(10 80 ) = 266 perguntas

Codificação binária permite responder qualquer pergunta Exemplo: Qual é a capital da Islândia? Reykjavík. Poderia ser escrito em ASCII que é código binário que utilizam os computadores na hora de digitar as letras.

Benefícios codificação binária Favorece a transmissão e armazenagem da informação em forma de níveis de voltagem. Existem códigos corretores de erro que evitam perdas da informação (exemplo: código de controle dos cartões VISA ou número de ISBN) Permite conversão A-D e D-A. A codificação binária permite facilmente as operações aritméticas e as operações booleanas (lógicas)

Parte 7

Informação e incerteza

Bom Bom dia dia Uma emissor que fornece sempre a mesmo mensagem, fornece zero bits de informação. S log (1) 2 0 Enquanto que o conteúdo informativo de uma mensagem pouco previsível é grande

Como é um evento único, sabemos quando e onde foi tirada a foto. Se mostrasse o Dunga almoçando, a foto não passaria essa informação.

Uma interpretação da fórmula da Entropia: informação = -log(probabilidade) Numa seqüência binária, se todos são um, não há informação. Ex: 1111111111 Mas se o número 1 aparece 10% das vezes, o número 1 possui -log 2 (1/10) de informação ou segundo a fórmula de Shannon log 2 (p)=-log 2 (0,1)=log 2 (10)=3,3219 bits Enquanto que o número 0 possui segundo a fórmula de Shannon log 2 (p)=-log 2 (0,9)=log 2 (10/9)=0,152bits

S 2 p log p i i Esta fórmula de entropia representa uma media ponderada das informações de cada um dos eventos possíveis. Exemplo: 1000 lançamento de uma moeda. Informação em cada cara Informação em cada coroa I média 0,5log 0,5log p cara 500I 2 1000 (2) 0,5log 2 log (0,5) 2 cara ( p 500I cara ) I cara = -log 2 (0,5)=log(2)=1 I coroa = -log 2 (0,5)=log(2)=1 2 (2) 0,5log p coroa 2 coroa (0,5) log 2 ( p coroa )

Parte 8

Exemplo: Informação contida na jogada de uma moeda alterada para cair 60% das vezes em cara e 40% do tempo em coroa. S,6log (0,6) (0,4) log (0,4) 0, 97 bits 0 2 2 Observar que a soma das duas probabilidades é 1. 0,6+0,4=1 32

1. Codificação frequêncial Exemplo de cálculo de entropia de Shannon para distintas probabilidades de cair cara ou coroa Caso B: Dois tipos de resposta cara e coroa, onde P(cara)+P( coroa)=1. S P( cara)log P( cara)log 2 2 ( P( cara)) ( P( cara)) (1 P( coroa)log P( cara)log 2 2 ( P( coroa)) (1 P( cara)) 33

1. Codificação frequêncial 1 bit S 0,5 1 P(r 1 ) Quando ambas possibilidades têm a mesma probabilidade de acontecer P(cara)=P(coroa)=0,5 a entropia ou imprevisibilidade é máxima, e igual a 1 bit. 34

Parte 9

1. Codificação frequêncial Informação transmitida, I E a diferencia entre o grau de entropia ou imprevisibilidade inicial (S) e a imprevisibilidade final S e S I S e 36

Exemplo: Trata-se de jogar uma bola de numa matriz com 16 possíveis posições. Qual seria a entropia inicial e qual a entropia final, no caso de querermos lançar uma outra bola de gude. Qual seria a quantidade de informação fornecida pela bola?

Exemplo: Entropia inicial: S=log 2 (16)=4

Exemplo: Entropia final: S=log 2 (15) Informação (diferencia de entropias: I=Entropia inicial - Entropia final I= log 2 (16)-log 2 (15)= =log 2 (16/15)=0,09

Parte 10

Atenção!!! Embora a Entropia da Teoria da Comunicação tenha uma analogia matemática com a Entropia da Termodinâmica, são conceitos diferentes, e usadas para medir quantidades diferentes!

Entropia em Termodinâmica Entropia em Termodinâmica é uma medida da reversibilidade de um processo: se não há mudança no valor da entropia do sistema, o sistema é reversível. Mas a grande maioria dos fenômenos físicos são irreversíveis: nestes fenômenos, a entropia do sistema envolvido aumenta. Uma outra interpretação em Termodinâmica nos permite dizer que quando a entropia de um sistema aumenta, diminui a energia disponível neste sistema para ser transformada em trabalho. Uma outra interpretação em Mecânica Estatística é que o aumento da Entropia de um sistema significa um aumento da desordem deste sistema, num sentido de imprevisibilidade.

Existe uma relação entre matéria, energia, e informação. Ainda não 100% compreendida. Einstein: matéria transforma-se em energia: E = mc2 Entropia Termodinâmica: Exemplo: Comprimimos um gás Diminuir a entropia do gás compressão é reversível basta liberar o gás A entropia estatística da distribuição da probabilidade de encontrar gás também aumenta O que implica que ordenamos um sistema diminui a desordem Mas gastamos energia para comprimir, a entropia do universo aumentou Concentramos energia nesse gás há maior pressão se liberarmos o gás, ele se expande (pode-se fazer uma bomba assim) A expansão diminui a entropia termodinâmica é irreversível - gasta a energia concentrada no gás, e torna a distribuição da probabilidade de se encontrar o gás mais uniforme. Entropia em Termodinâmica

Parte 10

Demonstração: Distribuição uniforme é a maior entropia Definições necessárias Função concava Qualquer corda está acima da função.

Demonstração: Distribuição uniforme é a maior entropia Definições necessárias Função - convexa Qualquer corda está abaixo da função.

Demonstração: Distribuição uniforme é a maior entropia Definições necessárias Função côncava: definição matemática Uma função real f é côncava em um intervalo I se, p/ qualquer x e y em I: f x 2 y f ( x) 2 f ( y) A função será estritamente côncava se a desigualdade for sempre verdadeira ( > ao invés de >=)

Demonstração: Distribuição uniforme é a maior entropia Definições necessárias Desigualdade de Jensen Suponha função real f, estritamente côncava e contínua em um intervalo I, e: Então: Onde n Igualdade sse a ai i i i 1; 0; 1 1 x i n n a i i f ( xi ) f a i ix 1 1 i I, 1 i n x1... x n n

Demonstração: Distribuição uniforme é a maior entropia Teorema: Suponha X váriavel aleatória com distribuição de probabilidade p 1, p 2,..., p n, onde p i,>0, 1<=i<=n. Então Entropia(X)<=log 2 n, com igualdade sse p i,=1/n, 1<=i<=n. Entropia ( X) log n log p i1 i 2 2 2 n log n i1 p i 1 p i 1 n p i p log i1 i 2 ( Jensen ) p i

Exercícios

Exercícios - Individual 1) Dado viciado: Suponha que o dado está viciado, com as seguintes probabilidades: 1: 0.05 ; 6:0.3 ; de 2 a 5: 0,1625 a) qual é a entropia do dado viciado? b) Qual o número médio de bits transmitidos por jogada se para cada um dos códigos a seguir.

Códigos para estado do dado Cód. a Estado 000 1 001 2 010 3 011 4 10 5 11 6 Cód. b Estado 000 6 001 5 010 4 011 3 10 2 11 1 52 Cód. c Estado 000 1 001 2 010 3 011 4 100 5 101 5 110 6 111 6

Códigos para estado do dado Cód. d Estado 0000 1 000 2 001 3 010 4 011 5 1 6 c) i) Aqui utilizamos 4 bits para o 1 e apenas 1 bit para o 6. Conseguimos um código mais eficiente? Ii) Podemos conseguir um código muito mais eficiente do que este para o dado viciado? 53

2) Melhor de Três 2 times A, e B, jogam uma melhor de três jogos. Cada jogo é independente, e os times tem igual probabilidade de ganhar. Defina X como a seqüência de vencedores. Por exemplo X=AA; ou X=BAB; Defina Y como o número de jogos jogados (pode ser 2 ou 3) Defina Z como o vencedor final: A ou B

Melhor de Três a) Qual a entropia de X? Dica: liste todos os possíveis valores de X e a probabilidade de cada um. b) Qual a entropia de Y?

Melhor de Três c) Suponha que sabemos que A ganhou a melhor de três. i) Qual a entropia de X? Compare com (a), quantos bits de informação foram ganhos? ii) Qual a entropia de Y? Compare com (b), quantos bits de informação foram ganhos? d) Suponha que sabemos o valor de X. Qual a entropia de Z?