Cálculo da Informação Acessível
|
|
- Carlos Lopes Quintão
- 7 Há anos
- Visualizações:
Transcrição
1 Cálculo da Informação Acessível Michael Souza (LNCC) Renato Portugal (LNCC) Carlile Lavor (IME-UNICAMP) Este trabalho tem suporte financeiro das agências FAPERJ e CNPQ.
2 Tópicos Abordagem pragmática da teoria da informação clássica. Critérios de correlação para variáveis aleatórias. Interpretação alternativa para probabilidade (Teoria da tendência) Teoria da informação quântica. O problema da distinção de estados quânticos. O problema do cálculo da informação acessível (Abordagens e propostas) Métodos de Otimização Classificação de métodos Método Branch Bound + Aritmética Intervalar
3 Teoria da informação clássica A teoria moderna da informação clássica é marcada pelo célebre artigo [1] de Shannon publicado em Neste artigo, Shannon estabelece três de suas mais importantes contribuições à teoria da informação:
4 Teoria da informação clássica Formulação matemática do conceito de fonte de informação clássica.
5 Teoria da informação clássica Formulação matemática do conceito de fonte de informação clássica. Teorema de codificação da fonte Que quantifica os recursos físicos mínimos necessários ao armazenamento da informação produzida por uma fonte de informação clássica.
6 Teoria da informação clássica Formulação matemática do conceito de fonte de informação clássica. Teorema de codificação da fonte Que quantifica os recursos físicos mínimos necessários ao armazenamento da informação produzida por uma fonte de informação clássica. Teorema de codificação em canais ruidosos Que determina a quantidade de informação que pode ser transmitida com confiança através de um canal ruidoso.
7 Teoria da informação clássica Def 1. Uma fonte de informação é uma variável aleatória que assume valores em um conjunto finito (alfabeto).
8 Teoria da informação clássica Def 1. Uma fonte de informação é uma variável aleatória que assume valores em um conjunto finito (alfabeto). Exemplo: A variável aleatória é uma fonte de informação para a língua portuguesa.
9 Teoria da informação clássica Def 1. Uma fonte de informação é uma variável aleatória que assume valores em um conjunto finito (alfabeto). Exemplo: A variável aleatória é uma fonte de informação para a língua portuguesa. Def 2. Entropia de Shannon Seja uma variável aleatória com distribuição de probabilidades. Então
10 Teoria da informação clássica A entropia de Shannon pode ser entendida como a quantidade média de bits necessários para armazenar um único uso da fonte ou uma medida da incerteza sobre a variável o..
11 Teoria da informação clássica A entropia de Shannon pode ser entendida como a quantidade média de bits necessários para armazenar um único uso da fonte ou uma medida da incerteza sobre a variável o.. Exemplo: Imagine uma fonte X que assume os valores 0, 1, 2, 3 com as probabilidades 1/2, 1/4, 1/8, e 1/8, respectivamente. Usando o código de compressão que associa os resultados 0, 1, 2 e 3 às seqüências 0, 10, 100 e 101, então, em média, utilizaremos da fonte, ou seja, bits por uso
12 Teoria da informação clássica Def 3. Entropia conjunta Sejam variáveis aleatórias. Então
13 Teoria da informação clássica Def 3. Entropia conjunta Sejam variáveis aleatórias. Então Def 4. Informação mútua Sejam variáveis aleatórias. Então
14 Teoria da informação clássica Interpretação da Informação Mútua:
15 Teoria da informação clássica Interpretação da Informação Mútua:
16 Teoria da informação clássica Interpretação da Informação Mútua: Mede a quantidade de informação que X e Y têm em comum.
17 Teoria da informação clássica Interpretação da Informação Mútua: Mede a quantidade de informação que X e Y têm em comum.
18 Teoria da informação clássica Teorema da reconstrução Sejam variáveis aleatórias. Então com igualdade se, e somente se, dado possível reconstruir, for
19 Teoria da informação clássica A teoria da informação clássica fornece:
20 Teoria da informação clássica A teoria da informação clássica fornece: Ferramentas (entropias) para avaliar possíveis correlações entre variáveis aleatórias distintas.
21 Teoria da informação clássica A teoria da informação clássica fornece: Ferramentas (entropias) para avaliar possíveis correlações entre variáveis aleatórias distintas. Interpretações alternativas da probabilidade
22 Teoria da informação clássica A teoria da informação clássica fornece: Ferramentas (entropias) para avaliar possíveis correlações entre variáveis aleatórias distintas. Interpretações alternativas da probabilidade Teoria da freqüência Freqüência relativa da ocorrência de um evento, quando o experimento é realizado um grande número de vezes.
23 Teoria da informação clássica A teoria da informação clássica fornece: Ferramentas (entropias) para avaliar possíveis correlações entre variáveis aleatórias distintas. Interpretações alternativas da probabilidade Teoria da freqüência Freqüência relativa da ocorrência de um evento, quando o experimento é realizado um grande número de vezes. Teoria da Tendência Tendência objetiva de uma parte de um único experimento produzir uma saída ao invés de outra.
24 Teoria da informação quântica Mecânica quântica...(as regras do jogo)
25 Teoria da informação quântica Mecânica quântica...(as regras do jogo) 1º Postulado (Estados quânticos) Um estado quântico é um operador sobre um espaço de Hilbert de dimensão finita D. As propriedades requeridas para são e.
26 Teoria da informação quântica 2º Postulado (Medidas quânticas) As medidas são descritas por operadores de medida. Se o estado o sistema antes da medida for, então a probabilidade de um resultado m ocorrer é E o estado após a medida será i Os operadores de medida satisfazem a relação de completude
27 Teoria da informação quântica Def 5. Medidas POVM Um conjunto POVM é qualquer conjunto de operadores { E m } tq que é positivo e E m I. E m Se o estado do sistema antes da medida for, então p( m i) tr( Em ) m Def 6. Operador densidade Um sistema que tem probabilidade de estar no estado é representado por seu operador densidade
28 Teoria da informação quântica Def 5. Medidas POVM Um conjunto POVM é qualquer conjunto de operadores { E m } tq que é positivo e E m I. E m Se o estado do sistema antes da medida for, então p( m i) tr( Em ) m Def 6. Operador densidade Um sistema que tem probabilidade de estar no estado é representado por seu operador densidade
29 Teoria da informação quântica Teoria da informação quântica A introdução de novos tipos de informação, como os estados quânticos, ampliam as possibilidades dos processos dinâmicos de tratamento da informação:
30 Teoria da informação quântica Teoria da informação quântica A introdução de novos tipos de informação, como os estados quânticos, ampliam as possibilidades dos processos dinâmicos de tratamento da informação: Compressão Descompressão Codificação Decodificação Transmissão Códigos de correção de erros
31 Teoria da informação quântica O problema da distinção de estados quânticos
32 Teoria da informação quântica O problema da distinção de estados quânticos Estados quânticos não-ortogonais não podem ser distinguidos com certeza.
33 Teoria da informação quântica O problema da distinção de estados quânticos Estados quânticos não-ortogonais não podem ser distinguidos com certeza. Teorema da não clonagem: Estabelece a impossibilidade de criação de aparatos físicos capazes gerar cópias de estados quânticos arbitrários.
34 Teoria da informação quântica Critérios qualitativos para a capacidade de distinção de estados quânticos arbitrários:
35 Teoria da informação quântica Critérios qualitativos para a capacidade de distinção de estados quânticos arbitrários: 1. Probabilidade de Erro quântico
36 Teoria da informação quântica Critérios qualitativos para a capacidade de distinção de estados quânticos arbitrários: 1. Probabilidade de Erro quântico 2. Fidelidade quântica
37 Teoria da informação quântica Critérios qualitativos para a capacidade de distinção de estados quânticos arbitrários: 1. Probabilidade de Erro quântico 2. Fidelidade quântica 3. Quantum Rényi Overlaps
38 Teoria da informação quântica Critérios qualitativos para a capacidade de distinção de estados quânticos arbitrários: 1. Probabilidade de Erro quântico 2. Fidelidade quântica 3. Quantum Rényi Overlaps 4. Informação quântica de Kullback
39 Teoria da informação quântica Critérios qualitativos para a capacidade de distinção de estados quânticos arbitrários: 5. Informação Acessível
40 Teoria da informação quântica Informação acessível Motivação: Alice Bob
41 Teoria da informação quântica Informação acessível Alice Bob Motivação: Baseada no resultado de uma variável aleatória, com distribuição de probabilidade, Alice prepara um estado, escolhido em um conjunto fixo e o envia a Bob.
42 Teoria da informação quântica Informação acessível Alice Bob Motivação: Baseada no resultado de uma variável aleatória, com distribuição de probabilidade, Alice prepara um estado, escolhido em um conjunto fixo e o envia a Bob. O objetivo é fazer com que Bob, através de uma medida, determine da melhor forma possível o valor de a partir do resultado desta medida.
43 Teoria da informação quântica Uma boa medida da capacidade que Bob tem de, a partir do resultado de, reconstruir é a informação mútua de
44 Teoria da informação quântica Uma boa medida da capacidade que Bob tem de, a partir do resultado de, reconstruir é a informação mútua de
45 Teoria da informação quântica Def: Informação acessível É o máximo da informação mútua sobre todos os conjuntos POVM s possíveis.
46 Teoria da informação quântica Def: Informação acessível É o máximo da informação mútua sobre todos os conjuntos POVM s possíveis.
47 O cálculo da informação acessível Estratégias
48 O cálculo da informação acessível Estratégias Soluções Analíticas
49 O cálculo da informação acessível Estratégias Soluções Analíticas Limites
50 O cálculo da informação acessível Estratégias Soluções Analíticas Limites Soluções Numéricas
51 O cálculo da informação acessível Soluções Analíticas: Não existe solução conhecida para o problema geral. No entanto, soluções analíticas particulares baseadas em estruturas algébricas são conhecidas. Exemplo: Grupos covariantes ( [2], [5] ) [Davies 1978, Sasaki 1999]
52 O cálculo da informação acessível Soluções Analíticas: Não existe solução conhecida para o problema geral. No entanto, soluções analíticas particulares baseadas em estruturas algébricas são conhecidas. Exemplo: Grupos covariantes ( [2], [5] ) [Davies 1978, Sasaki 1999]
53 O cálculo da informação acessível Soluções Analíticas: Não existe solução conhecida para o problema geral. No entanto, soluções analíticas particulares baseadas em estruturas algébricas são conhecidas. Exemplo: Grupos covariantes ( [2], [5] ) [Davies 1978, Sasaki 1999]
54 O cálculo da informação acessível Soluções Analíticas: Não existe solução conhecida para o problema geral. No entanto, soluções analíticas particulares baseadas em estruturas algébricas são conhecidas. Exemplo: Grupos covariantes ( [2], [5] ) [Davies 1978, Sasaki 1999]
55 O cálculo da informação acessível Limites: Limites superiores e inferiores para a informação acessível vêm, ano após ano, sendo refinados. Exemplos: Limite de Holevo [Holevo 1973] Metodologia para geração de limites [Fucs 1995]
56 O cálculo da informação acessível Limites: Limites superiores e inferiores para a informação acessível vêm, ano após ano, sendo refinados. Exemplos: Limite de Holevo [Holevo 1973] Metodologia para geração de limites [Fucs 1995]
57 O cálculo da informação acessível Limites: Limites superiores e inferiores para a informação acessível vêm, ano após ano, sendo refinados. Exemplos: Limite de Holevo [Holevo 1973] Metodologia para geração de limites [Fucs 1995]
58 O cálculo da informação acessível Limites: Limites superiores e inferiores para a informação acessível vêm, ano após ano, sendo refinados. Exemplos: Limite de Holevo [Holevo 1973] Metodologia para geração de limites [Fucs 1995]
59 O cálculo da informação acessível Limites: Legenda: S(t):: Holevo upper bound L(t):: Fucs upper bound I(t):: Accessible Information M(t):: Fucs lower bound Q(t):: Jozsa lower bound
60 O cálculo da informação acessível Soluções Numéricas: Métodos de otimização não-determinísticos Incompletos (qualidade, critério de parada = heurísticas) Assintoticamente completos (critério de parada = heurística) Métodos de otimização determinísticos Completos
61 O cálculo da informação acessível Soluções Numéricas: Métodos de otimização não-determinísticos Incompletos (qualidade, critério de parada = heurísticas) Assintoticamente completos (critério de parada = heurística) Métodos de otimização determinísticos Completos Branch Bound + Aritmética Intervalar
62 O cálculo da informação acessível Futuras Contribuições Método branch and bound (BB) Etapas: Branching: Subdivisão recursiva do espaço de busca Bounding: Geração de cotas (via aritmética intervalar)
63 O cálculo da informação acessível Futuras Contribuições Método branch and bound (BB) Etapas: Branching: Subdivisão recursiva do espaço de busca Bounding: Geração de cotas (via aritmética intervalar) Aritmética intervalar é um conjunto de técnicas (baseadas em intervalos) que possibilitam a geração natural de cotas para funções.
64 Objetivos Abordagem pragmática da teoria da informação clássica. Critérios de correlação para variáveis aleatórias. Interpretação alternativa para probabilidade (Teoria da tendência) Teoria da informação quântica. O problema da distinção de estados quânticos. O problema do cálculo da informação acessível (Abordagens e propostas) Métodos de Otimização Classificação de métodos Método Branch Bound + Aritmética Intervalar
65 Referências bibliográficas [1] Shannon, C. E. (1948). A mathematical theory of communication. The Bell Sistem Tech. J., 27: , [2] Davies, E. B. (1978). Information and quantum measurement. IEEE Trans. Inf. Theory, IT-24(5): [3] Holevo, A. S. (1973). Bounds for the information transmitted by a quantum communication channel. Problems of Information Transmission, 9: [4] Fucs, C. A. (1995). Distinguishability and accessible information in quantum theory. PhD thesis, University of New Mexico, Department of Physics and Astronomy. [5] Sasaki, Barnett, Jozsa, Osaki and Hirota (1999). Accessible information and optimal strategies for real symmetrical quantum sources. Physical Review A, 59(5): [7] Nielsen, M. A. and Chuang, I. L. (2005). Computação quântica e informação quântica. Bookman.
Instituto de Física 1 ; 2
Discórdia Quântica Thiago Mureebe CARRIJO 1 ; Ardiley Torres AVELAR 2. Instituto de Física thiagomureebe@gmail.com 1 ; ardiley@gmail.com 2 Palavras-chave: entropia; discórdia quântica; teoria da informação.
Leia maisUm Passeio pela Teoria da Informação
WECIQ 2006 - Mini-curso 3 Um Passeio pela Teoria da Informação (Clássica e Quântica) Carlile Lavor 1 1 Instituto de Matemática, Estatística e Computação Científica UNICAMP clavor@ime.unicamp.br 1. Introdução
Leia maisALGORITMOS DE DECODIFICAÇÃO POR DECISÃO SUAVE APLICADOS A CÓDIGOS BCH
2014 Universidade Federal de Pernambuco Graduação em Ciências da Computação Centro de Informática 2014.1 ALGORITMOS DE DECODIFICAÇÃO POR DECISÃO SUAVE APLICADOS A CÓDIGOS BCH Proposta de Trabalho de Graduação
Leia maisFundamentos da Teoria Quântica da Informação
Fundamentos da Teoria Quântica da Informação Aluno: Julio Nicolini Orientador: Guilherme Temporão Introdução Em 1927, Heisenberg formulou o seu Princípio da Incerteza, introduzindo a ideia altamente contra-intuitiva
Leia maisIntrodução à Informação Quântica
Introdução à Informação Quântica Amir O. Caldeira IFGW-UNICAMP Sumário da palestra Introdução; a evolução histórica das áreas que geraram a Informação Quântica. A Teoria Clássica da Informação. A Mecânica
Leia maisLuis Henrique Assumpção Lolis 27 de agosto de 2013
http://www.eletrica.ufpr.br/~luis.lolis TE248 - Teoria da Informação e Codificação Luis Henrique Assumpção Lolis 27 de agosto de 2013 Conteúdo 1 Conteúdo da Disciplina 2 Origem e Aplicação 3 Bibliografia
Leia maisEstudo sobre decodificação iterativa usando códigos de treliça
Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco
Leia maisCOMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.
Leia maisCapacidade erro-zero de canais quânticos e estados puros
Capacidade erro-zero de canais quânticos e estados puros Rex A. C. Medeiros e Francisco M. de Assis Resumo Neste trabalho é mostrado que a capacidade errozero para a transmissão de informação clássica
Leia maisCanais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho
Tópicos em Recuperação de Informação 1 Nivio Ziviani 1 Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho Tópicos em Recuperação de Informação - Nivio Ziviani
Leia maisRodrigo Lopes QUANTIFICADOR DE INDISTINGUIBILIDADE PARA UM ENSEMBLE DE ESTADOS QUÂNTICOS
Rodrigo Lopes QUANTIFICADOR DE INDISTINGUIBILIDADE PARA UM ENSEMBLE DE ESTADOS QUÂNTICOS Dissertação submetida ao Programa de Pós-Graduação em Física da Universidade Federal de Santa Catarina para a obtenção
Leia maisPré-Processamento de Documentos
Pré-Processamento de Documentos Introdução Pré-Processamento : Análise léxica; Stopwords; Stemming; Vocabulário; Thesaurus Compressão: Fundamentos; Método Estatístico; Método Dicionário; Arquivos Invertidos
Leia maisUNIVERSIDADE FEDERAL DE PERNAMBUCO. Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação
UNIVERSIDADE FEDERAL DE PERNAMBUCO GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO CENTRO DE INFORMÁTICA 2012.2 Análise da Eficiência da Codificação de Huffman em Extensões de Fontes de Informação PROPOSTA DE TRABALHO
Leia maisUma Unidade Lógica e Aritmética Reversível
Uma Unidade Lógica e Aritmética Reversível Wilson Rosa de Oliveira DEINFO / UFRPE wrdo@ufrpe.br Luis Antônio Brasil Kowada PESC / COPPE / UFRJ kowada@ufrj.br Amanda Leonel Nascimento DSC / POLI / UPE aln@dsc.upe.br
Leia maisFundamentos de Estatística
Fundamentos de Estatística Clássica Workshop Análise de Incertezas e Validação Programa de Verão 2017 Marcio Borges 1 1LABORATÓRIO NACIONAL DE COMPUTAÇÃO CIENTÍFICA mrborges@lncc.br Petrópolis, 9 de Fevereiro
Leia maisTE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Leia maisMecânica Quântica para Sistemas Fechados
1 / 21 Universidade Federal de Santa Maria Centro de Ciências Naturais e Exatas Programa de Pós-Graduação em Física Grupo de Teoria da Matéria Condensada Mecânica Quântica para Sistemas Fechados Jonas
Leia maisEscala de Medidas de Variáveis. Tabelas de Frequência. Frequência absoluta e relativa de dados quantitativos.
Aula # 04 Escala de Medidas de Variáveis. Tabelas de Frequência. Frequência absoluta e relativa de dados quantitativos. Professor: Dr. Wilfredo Falcón Urquiaga Professor Titular Engenheiro em Telecomunicações
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisEstudo e Implementação Computacional de um Sistema de Comunicação Digital
Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo e Implementação Computacional de um Sistema de Comunicação Digital Da Silva Junior, A. C. Escola Politécnica de Pernambuco Universidade
Leia maisTeoria da Informação. Profa. Lillian Alvares Faculdade de Ciência da Informação Universidade de Brasília
Teoria da Informação Profa. Lillian Alvares Faculdade de Ciência da Informação Universidade de Brasília Claude Elwood Shannon, 1948 Autor que estabeleceu os fundamentos da Teoria da Informação Teoria da
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho.
Tópicos em Recuperação de Informação Nivio Ziviani Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho. 1 Compressão de Índices Arquivos invertidos são amplamente
Leia maisCódigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações.
1 Introdução Neste trabalho, estamos interessados nos problemas da teoria de comunicações conhecidos como compressão de dados e modulação. Um modelo típico de um sistema de comunicações é mostrado na Fig.
Leia maisNoções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
Leia mais2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Leia maisI WPPC. Workshop de Pesquisas do Grupo PET-Computação. Elloá B. Guedes Orientador: Bernardo Lula Jr.
I WPPC Workshop de Pesquisas do Grupo PET-Computação Produção de Material Didático em Computação Quântica Elloá B. Guedes elloa@dsc.ufcg.edu.br Orientador: Bernardo Lula Jr. lula@dsc.ufcg.edu.br Julho,
Leia maisSistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Leia maisAula 9. Ivan Sendin. 12 de setembro de FACOM - Universidade Federal de Uberlândia SEG-9.
Segurança da Informação Aula 9 FACOM - Universidade Federal de Uberlândia ivansendin@yahoo.com,sendin@ufu.br 12 de setembro de 2018 Alice,Bob, Eva, Criptossistemas,... Ciptoanalise texto cifrado texto
Leia maisEntropia, Entropia Relativa
Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos
Leia maisEisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos:
Eisencraft e Loiola 2.1 Probabilidade 37 Modelo matemático de experimentos Para resolver problemas de probabilidades são necessários 3 passos: a Estabelecimento do espaço das amostras b Definição dos eventos
Leia maisTÉCNICAS DE CODIFICAÇÃO DE SINAIS
TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia
Leia maisFundamentos de Teoria da Informação
Fundamentos de Teoria da Informação Israel Andrade Esquef a Márcio Portes de Albuquerque b Marcelo Portes de Albuquerque b a Universidade Estadual do Norte Fluminense - UENF b Centro Brasileiro de Pesquisas
Leia maisCurso Profissional de Nível Secundário
Curso Profissional de Nível Secundário Técnico Auxiliar de Saúde 2 TAS Ano Letivo: 2014/2015 Matemática (200 horas) 11º Ano PLANIFICAÇÃO A LONGO PRAZO A7 Probabilidades Fenómenos aleatórios. 2 aulas Argumento
Leia maisTeorema de Nyquist Teorema da Amostragem
Teorema de Nyquist Teorema da Amostragem Em um canal livre de ruídos, a única limitação imposta à taxa de transmissão de dados será devida à largura de banda do canal. A formulação para esta limitação
Leia mais)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD
)XQGDPHQWRVGHUREDELOLGDGHHHVWDWtVWLFD,QWURGXomR A história da estatística pode ser dividida em três fases. De acordo com PEANHA (00), a estatística inicialmente não mantinha nenhuma relação com a probabilidade,
Leia maisFundamentos da Teoria de Informação
Fundamentos da Teoria de Informação 1 Introdução... 2 2 Informação... 3 3 Entropia... 6 3.1 Entropia Exemplos... 7 3.2 Entropia Conjunta e Entropia Condicional... 12 3.3 Entropia e Codificação de Fonte...
Leia mais3º Ano da Licenciatura em Matemática Universidade de Lisboa Setembro 2009
3º Ano da Licenciatura em Matemática Universidade de Lisboa Setembro 2009 Introdução Experiência de Double-Slit Introdução- Experiência de Double-Slit Introdução - Experiência de Double-Slit Incrivelmente
Leia maisAnálise do comportamento da vazão do rio Atibaia através da entropia de Shannon
Análise do comportamento da vazão do rio Atibaia através da entropia de Shannon Evelyn Souza Chagas 1 Lucemberg de Araújo Pedrosa 1 Lêda Valéria Ramos Santana 1 Profa. Dra. Tatijana Stosic 1 Prof. Dr.
Leia mais6 Inserção Seletiva de Nulos
6 Inserção Seletiva de Nulos 6.1 Introdução Neste capítulo será apresentado o algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este algoritmo usa a técnica da esteganografia para esconder os símbolos codificados
Leia maisUtilização de Subespaços Livres de Descoerência em Comunicações Quânticas Incondicionalmente Seguras
Utilização de Subespaços Livres de Descoerência em Comunicações Quânticas Incondicionalmente Seguras Elloá B. Guedes e Francisco M. de Assis Resumo Neste trabalho será mostrado como subespaços livres de
Leia maisPrincípios Básicos de Teoria da Informação
Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação
Leia maisSegundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014
Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro
Leia maisTÉCNICAS DE CODIFICAÇÃO DE SINAIS
Informação sobre a Disciplina TÉCNICAS DE CODIFICAÇÃO DE SINAIS INTRODUÇÃO Evelio M. G. Fernández - 2010 Terças e Quintas feiras das 07:30 às 11:20 horas Professor: Evelio Martín García Fernández Gabinete
Leia maisAlgoritmos de Compressão sem Perdas
Algoritmos de Compressão sem Perdas (continuação) Aula 08 Diogo Pinheiro Fernandes Pedrosa Universidade Federal Rural do Semiárido Departamento de Ciências Exatas e Naturais Curso de Ciência da Computação
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisDISCIPLINA: PROBABILIDADE E ESTATÍSTICA TURMA: Informática de Gestão
Aula # 04 DISCIPLINA: PROBABILIDADE E ESTATÍSTICA TURMA: Informática de Gestão Escala de Medidas de Variáveis. Frequência absoluta e relativa de dados quantitativos. Professor: Dr. Wilfredo Falcón Urquiaga
Leia maisFísica Estatística Computacional
Física Estatística Computacional Tereza Mendes IFSC USP http://lattice.ifsc.usp.br/cbpf.html Física Estatística Computacional Vamos trabalhar com sistemas estocásticos, em que um grande número de integrantes
Leia maisComputação Quântica. Paulo Mateus. Centro de Lógica e Computação Instituto Superior Técnico NEEI-IST
Computação Quântica Paulo Mateus Centro de Lógica e Computação Instituto Superior Técnico NEEI-IST Motivação Lei de Moore Gordon Moore (co-fundador da Intel) O número de transístores por polegada quadrada
Leia maisGerenciamento de Memória. Aleardo Manacero Jr.
Gerenciamento de Memória Aleardo Manacero Jr. Introdução Até agora examinamos estruturas considerando apenas sua organização Com isso estudamos os algoritmos para a manipulação básica dos elementos dentro
Leia maisuniversidade federal de pernambuco departamento de estatística
soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas
Leia maisMomentos: Esperança e Variância. Introdução
Momentos: Esperança e Variância. Introdução Em uma relação determinística pode-se ter a seguinte relação: " + " = 0 Assim, m =, é a declividade e a e b são parâmetros. Sabendo os valores dos parâmetros
Leia maisTEORIA DE INFORMAÇÃO UM NANOCURSO
TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set. 2016 Centenário de Shannon - SBrT - Santarém Dedicação: a memória de Claude Shannon Claude Shannon 1916-2001 matemático, engenheiro eletrônico,
Leia maisTécnicas de Inteligência Artificial
Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 9 Algoritmos Genéticos Max Pereira Algoritmos Genéticos Algoritmos Genéticos São técnicas de busca e
Leia maisImplementando Algoritmo de Deutsch
Implementando Algoritmo de Deutsch Luiz Carlos Soares CIRQUEIRA 1 ; Ardiley Torres AVELAR. Instituto de Física luizcsc1@hotmail.com 1 ; ardiley@gmail.com Palavras-chave: algoritmos; porta quântica; cavidade.
Leia maisMódulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira
Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Departamento de Electrónica, Telecomunicações e Informática Universidade de Aveiro Sumário Códigos binários Representação de informação com
Leia maisUFCG IQuanta DSC. Cheyenne R. G. Isidro Bernardo Lula Júnior
Um Algoritmo para Transformar Autômatos Finitos Não- Determinísticos em Autômatos Finitos Quânticos Preservando o Número de Estados e a Linguagem Reconhecida Cheyenne R. G. Isidro cha@dsc.ufcg.edu.br Bernardo
Leia maisProbabilidade. É o conjunto de todos os possíveis resultados de um experimento aleatório.
Probabilidade Introdução O trabalho estatístico se desenvolve a partir da observação de determinados fenômenos e emprega dados numéricos relacionados aos mesmos, para tirar conclusões que permitam conhecê-los
Leia maisCompressão e Codificação de Dados. Primeiro Exame e Segundo Teste
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste
Leia mais3. Resolução de problemas por meio de busca
Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por
Leia maisII-6 Análise de Ruído e Capacidade de Canal
II-6 Análise de Ruído e Capacidade de Canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN (canal físico) Modelo BSC (canal discreto) Efeito do ruído
Leia maisSUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49
SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo
Leia maisChamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.
PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses
Leia maisReticulados e Criptograa Pós-Quântica
Reticulados e Criptograa Pós-Quântica Prof. Dr. Agnaldo José Ferrari Prof. Dr. Agnaldo José Ferrari Prof. Dr. Agnaldo José Ferrari Departamento de Matemática, Unesp, Bauru IV Workshop de Algebra da UFG-CAC
Leia maisInformática I. Aula Aula 22-12/11/2007 1
Informática I Aula 22 http://www.ic.uff.br/~bianca/informatica1/ Aula 22-12/11/2007 1 Ementa Noções Básicas de Computação (Hardware, Software e Internet) HTML e Páginas Web Internet e a Web Javascript
Leia maisInferência Estatística. 1 Amostra Aleatória. Baseado nos slides cedidos pelo Professor Vinícius D. Mayrink (DEST-UFMG)
Inferência Estatística 1 Amostra Aleatória Baseado nos slides cedidos pelo Professor Vinícius D. Mayrink (DEST-UFMG) O que é Inferência Estatística? Desconhecimento, incerteza Fenômenos/experimentos: determinísticos
Leia maisUniversidade Federal de Alagoas Instituto de Matemática. Imagem. Prof. Thales Vieira
Universidade Federal de Alagoas Instituto de Matemática Imagem Prof. Thales Vieira 2011 O que é uma imagem digital? Imagem no universo físico Imagem no universo matemático Representação de uma imagem Codificação
Leia maisUniversidade Federal de Campina Grande. TELECOM ParisTech
Universidade Federal de Campina Grande Thesis TELECOM ParisTech In partial fulfillment of the requirements for the degree of Doctor of Science from Universidade Federal de Campina Grande and TELECOM ParisTech
Leia maisESCOLA SECUNDÁRIA DE LOUSADA
ESCOLA SECUNDÁRIA DE LOUSADA 2012 2013 PLANIFICAÇÃO DA DISCIPLINA DE MATEMÁTICA Curso Profissional de Técnico de Multimédia ELENCO MODULAR A7 Probabilidades 28 A6 Taxa de variação 36 A9 Funções de crescimento
Leia maisSUMÁRIO. Prefácio, Espaço amostrai, Definição de probabilidade, Probabilidades finitas dos espaços amostrais fin itos, 20
SUMÁRIO Prefácio, 1 3 1 CÁLCULO DAS PROBABILIDADES, 15 1.1 Introdução, 15 1.2 Caracterização de um experimento aleatório, 15 1.3 Espaço amostrai, 16 1.4 Evento, 17 1.5 Eventos mutuamente exclusivos, 17
Leia maisTurma A - Segundas e Quartas das 8h30min - 10h10min Turma B - Segundas e Quartas das 10h30min - 12h10min
UNIVERSIDADE DEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA DEPARTAMENTO DE INFORMÁTICA TEÓRICA 2 Semestre 2008 04/08/2008 a 12/12/2008 DISCIPLINA: TEORIA DA COMPUTAÇÃO N CÓDIGO: INF05501. Horário:
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM29008 LISTA DE EXERCÍCIOS #1 2016.2 Exercícios 1. Verifique se os seguintes
Leia maisSM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017)
SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) Tópicos Propriedades dos códigos de fonte Código ótimo e código ideal Singularidade, descodificação única,
Leia maisComputação quântica, estamos preparados?
Computação quântica, estamos preparados? De conceitos a implicações futuras Fernando Vasconcelos Mendes fernandovm@gmail.com Ph.D., Software Architect, BCP, MCP, MCAD, MCSD, ITIL Agenda Contextualização
Leia maisCodificação de Huffman
Codificação de Huffman Bruna Gregory Palm 11 de setembro de 2017 A codificação de Huffman é um método de compressão que considera as probabilidades de ocorrência de cada símbolo no conjunto de dados a
Leia maisMarcos Castilho. DInf/UFPR. 16 de maio de 2019
16 de maio de 2019 Motivação Quais são os limites da computação? O que é um Problema de decisão? Um problema de decisão é um conjunto de perguntas, cada uma das quais tem um SIM ou um NÃO como resposta.
Leia maisIntrodução a Algoritmos Genéticos
Introdução a Algoritmos Genéticos Tiago da Conceição Mota Laboratório de Inteligência Computacional Núcleo de Computação Eletrônica Universidade Federal do Rio de Janeiro Outubro de 2007 O Que São? Busca
Leia maisPLANO DE CONTEÚDO MÍNIMO (PCM) - UNIDADE UNIVERSITÁRIA DE COMPUTAÇÃO. Professora Rosana da Paz Ferreira CCB1052 (2018.2)
PLANO DE CONTEÚDO MÍNIMO (PCM) - UNIDADE UNIVERSITÁRIA DE COMPUTAÇÃO Curso(s): Ciência da Computação Período: 2018.2 Professora: Rosana da Paz Ferreira Disciplina(s): INF5325 Probabilidade e Estatística
Leia maisNOTAS DA AULA REVISÃO SOBRE FUNDAMENTOS DE PROBABILIDADE. Prof.: Idemauro Antonio Rodrigues de Lara
1 NOTAS DA AULA REVISÃO SOBRE FUNDAMENTOS DE PROBABILIDADE Prof.: Idemauro Antonio Rodrigues de Lara 2 Experimentos aleatórios Definição 1. Experimentos aleatórios são experimentos que quando executados
Leia maisAlgoritmos Genéticos
Algoritmos Genéticos Roteiro Introdução Algoritmos Genéticos Otimização Representação Seleção Operadores Genéticos Aplicação Caixeiro Viajante Introdução Algoritmos Genéticos (AGs), são métodos de otimização
Leia maisCodificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações
AG Simples/Canônico (AGS) AG introduzido por Holland Funciona bem para problemas de otimização simples e/ou de pequenas dimensões A maior parte da teoria dos AGs está baseada no AGS Utilidade didática
Leia maisNão-localidade como recurso para comunicação. Autor: Marco Túlio Coelho Quintino Orientador: Marcelo O. Terra Cunha
Não-localidade como recurso para comunicação Autor: Marco Túlio Coelho Quintino Orientador: Marcelo O. Terra Cunha Setembro, 010 Sumário Sumário 3 Resumo 5 Abstract 7 Prólogo 9 1 Mecânica quântica: teoria
Leia maisCode Compression for Embedded Systems
Daniel Stefani Marcon, Thiago Nunes Kehl 30 de maio de 2008 1 2 3 4 Sistemas Embarcados os sistemas embarcados são dispositivos invisíveis se limitam a executar bem uma única tarefa basicamente qualquer
Leia maisAnálise e Projeto de Algoritmos
Análise e Projeto de Algoritmos 2018.2 Modelo de Computação Determinação de como os cálculos são realizados pelo computador e que funcionalidades ele possui. Máquina de Turing É um modelo de computação
Leia mais2, ao medirmos um observável deste estado que possui autovetores 0 e 1, obtemos o resultado 0 com probabilidade α 2, e 1 com probabilidade β 2.
4 Informação Quântica A teoria da Informação Quântica foi basicamente desenvolvida na última década (3, 10, 16). Nosso objetivo neste capítulo é apresentar sua estrutura fundamental, o bit quântico, e
Leia maisTransmissão e comunicação de dados. Renato Machado
Renato Machado UFSM - Universidade Federal de Santa Maria DELC - Departamento de Eletrônica e Computação renatomachado@ieee.org renatomachado@ufsm.br 23 de Abril de 2012 Sumário 1 2 3 4 Térmico de Intermodulação
Leia maisALGORITMOS AVANÇADOS UNIDADE I Análise de Algoritmo - Notação O. Luiz Leão
Luiz Leão luizleao@gmail.com http://www.luizleao.com Conteúdo Programático 1.1 - Algoritmo 1.2 - Estrutura de Dados 1.2.1 - Revisão de Programas em C++ envolvendo Vetores, Matrizes, Ponteiros, Registros
Leia maisAula 15. Ivan Sendin. 11 de outubro de FACOM - Universidade Federal de Uberlandia TSeg.
Tópicos em Segurança da Informação Aula 15 FACOM - Universidade Federal de Uberlandia ivansendin@yahoo.com,sendin@ufu.br 11 de outubro de 2017 Constroem os compostos São infinitos p n n = p.n Infinitos...
Leia maisProjeto e Análise de Algoritmos. Prof. Ruy Luiz Milidiú
Projeto e Análise de Algoritmos Prof. Introdução 2 www.inf.puc-rio.br/~milidiu/inf2926 3 Resumo Objetivo Apresentar o enfoque adotado no curso para capacitação em Projeto e Análise de Algoritmos Sumário
Leia maisProblemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual
Leia maisO Uso do Método Científico para a Avaliação de Evidências
V Seminário - A Filosofia das Origens Rio de Janeiro, Agosto de 2008 O Uso do Método Científico para a Avaliação de Evidências Prof. Eduardo F. Lütz O Uso do Método Científico para a Avaliação de Evidências
Leia maisProblema de Satisfação de Restrições. Problema de Satisfação de Restrições. Grafo de restrições. Exemplo: 4 Rainhas como um PSR
Problema de Satisfação de Restrições Problema de Satisfação de Restrições Exemplos de PSR (CSP, Constraint Satisfaction Problem) Busca genérica aplicada a PSRs Backtracking Verificação forward Heurísticas
Leia maisProblema de Satisfação de Restrições
Problema de Satisfação de Restrições Exemplos de PSR (CSP, Constraint Satisfaction Problem) Busca genérica aplicada a PSRs Backtracking Verificação forward Heurísticas para PSRs Problema de Satisfação
Leia maisProbabilidade. Definição de Probabilidade Principais Teoremas Probabilidades dos Espaços Amostrais Espaços Amostrais Equiprováveis.
Probabilidade Definição de Probabilidade Principais Teoremas Probabilidades dos Espaços Amostrais Espaços Amostrais Equiprováveis Renata Souza Probabilidade É um conceito matemático que permite a quantificação
Leia maisAvaliação Quantitativa de Sistemas
Avaliação Quantitativa de Sistemas Contexto A Avaliação Quantitativa de Sistemas permite a avaliação de sistemas antes mesmo da sua implementação física. Dessa forma, é possível avaliar um sistema projetado
Leia maisSEGUNDO Massey [1] a história da criptologia mostra
REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de
Leia maisNotas sobre minorantes de complexidade
Notas sobre minorantes de complexidade Fevereiro 2007 Armando B. Matos 1 Neste trabalho faremos uma introdução às aplicações da teoria da Informação aos problemas de complexidade mínima, isto é, à procura
Leia maisUNIVERSIDADE FEDERAL DE UBERLÂNDIA Faculdade de Computação Curso de Eng. Química Disciplina: FACOM39017 (Alg. Prog. de Computadores) Fundamentos
UNIVERSIDADE FEDERAL DE UBERLÂNDIA Faculdade de Computação Curso de Eng. Química Disciplina: FACOM39017 (Alg. Prog. de Computadores) Fundamentos Diariamente, executamos diversas operações, isto é, processamos
Leia maisIntrodução à Computação Quântica
Introdução à Computação Quântica Aula 2 Computação quântica: princípios matemáticos e físicos Renato de Oliveira Violin José Hiroki Saito Departamento de Computação - UFSCar Conteúdo Bits quânticos (qubits).
Leia maisAlaor Cervati Neto. Teoria de Controle Ótimo em Sistemas Abertos
Alaor Cervati Neto Teoria de Controle Ótimo em Sistemas Abertos São José do Rio Preto 2018 Alaor Cervati Neto Teoria de Controle Ótimo em Sistemas Abertos Dissertação de Mestrado elaborada junto ao programa
Leia mais