INTRODUÇÃO À TEORIA DA INFORMAÇÃO
|
|
|
- Orlando di Azevedo Philippi
- 8 Há anos
- Visualizações:
Transcrição
1 INTRODUÇÃO À TEORIA DA INFORMAÇÃO
2 SISTEMA DE TRANSMISSÃO DIGITAL Oscodificadores defonte possuem a finalidade de casar a fonte de dados com o sistema levando em consideração a estatística de acontecimento dos símbolos da fonte Os códigos de fonte mais conhecidos são os que utilizam o algoritmo de Huffman e o de Huffman modificado O codificador de canal está projetado para, através da inclusão de símbolos de redundância de forma inteligente, fazer com que a informação, após trafegar pelo canal, possa ser recuperada de eventuais erros de acordo com o critério de qualidade eigido O conjunto modulador-demodulador ( MODEM ) transforma o canal analógico em canal discreto para possibilitar o funcionamento do conjunto codificador-decodificador ( CODEC )
3 Denomina-se alfabeto de uma fonte de informação discreta o conjunto de elementos que a fonte pode selecionar Por eemplo: Teto: {A, B, C X, Y, Z, 0, 1, 9,?,!, } Sensor de nível ( h h A? ):{sim, não} Opção do cardápio: (1,,3,4,5, 6) Considere-se uma fonte discreta com alfabeto de k elementos, { 1,,, k } A relação entre o número de vezes n, em que um dado elemento i, (com i = 1,,, k) é selecionado pela fonte e o número total N de seleções, para N tendendo a infinito, é a probabilidade de ocorrência daquele elemento: p( i ) = lim N n i N
4 A soma das probabilidades de ocorrência de todos os elementos do alfabeto da fonte é, evidentemente,, pois a fonte só seleciona elementos contidos em seu alfabeto (a probabilidade de selecionar elemento não-contido no alfabeto é nula) A quantidade de informação associada à ocorrência de um elemento i mede o grau de surpresa quando aquele elemento é selecionado pela fonte Elementos selecionados com maior freqüência causam menos surpresa, ao passo que elementos de ocorrência mais rara causam mais surpresa Define-se a quantidade de informaçãoi( i ), associada à seleção do elemento i ; usando a função logaritmo de base : 1 k i= 1 p( I( i ) = log p( i i ) ) = 1
5 I( i ) = log p( Quantidade de informação, assim definida, tem como características: Quantidade de informação varia com o inverso da probabilidade de ocorrência - elementos menos freqüentes têm quantidade de informação maior que elementos mais freqüentes 1 Se o alfabeto da fonte tem um único elemento, a quantidade de informação associada à seleção desse elemento (evento certo) é nula: I( i )= O para p( i ) = 1 Se a fonte seleciona um elemento não-contido em seu alfabeto (evento impossível), a quantidade de informação associada a essa seleção é infinita:i( i )= para p( i ) = 0 Se a seleção de cada elemento não afeta a probabilidade de ocorrência de outros nas seleções seguintes, a quantidade total de informação de uma seqüência de elementos é a soma das quantidades de informação individuais i )
6 A quantidade de informação - medida em bit (acrônimo de binary unit = unidade binária, devido ao uso logaritmo de base ) - é um número real não-negativo adimensional Quantidade de informação é importante para a criação de códigos (representações de elementos da fonte discreta) para transmissão eficiente de informação Ao criar um código para representar letras, algarismos e sinais de pontuação no telégrafo elétrico, Morse intuitivamente associou representação mais curta para caracteres mais freqüentes (com menor quantidade de informação) e mais longa para caracteres menos freqüentes (com maior quantidade de informação) Define-se como entropia de uma fonte discreta a quantidade média de informação por ocorrência (seleção de um elemento pela fonte)
7 Considere-se que a fonte discreta seleciona, num dado intervalo, um total de N = n l + n + + n k, elementos, com n 1 ocorrências do elemento 1, n ocorrências do elemento,, n k ocorrências do elemento k Com ocorrências estatisticamente independentes, a quantidade total de informação total dessas N seleções é I T = n l I( 1 ) + n I( ) + + n k I( k ) : A relação entre a quantidade total de informação e o número de ocorrência no intervalo é: I T N = n1 n nk I( 1 ) + I ( ) + + N N N I( Para N, tem-se a entropia, definida pela epressão: H = lim N I T N = k i= 1 p( ) I ( ) i i = Entropia é uma característica da fonte de informação discreta que depende da probabilidade de Ocorrência de cada um dos elementos de seu alfabeto Quanto maior a entropia da fonte maior será a incerteza sobre qual elemento a ser selecionado (menor previsibilidade da fonte) k i= 1 p( )log i k ) 1 ( bit) p( i )
8 Eemplo: Considere-se que, no restaurante, observando-se pedidos feitos durante um período de tempo suficientemente longo, foram determinadas as probabilidades de ocorrência de cada uma das opções, conforme Tabela 9B Observe-se que a soma das probabilidades de todos os elementos do alfabeto da fonte deve ser igual a l: Opção Prato Probabilidade de ocorrência 1 Moqueca capiaba 1/ Filé com fritas 1/4 3 Mocotó no feijão 1/8 4 Rabada à moda 1/16 5 Buchada de bode 3/64 6 Jabá com jerimum 1/64
9 Opção Prato Probabilidade de ocorrência 1 Moqueca capiaba 1/ Filé com fritas 1/4 3 Mocotó no feijão 1/8 4 Rabada à moda 1/16 5 Buchada de bode 3/64 6 Jabá com jerimum 1/64 A quantidade de informação de cada uma das opções é: A entropia dessa fonte discreta é: H = (1/) 1 + (1/4) + (1/8) 3 + (1/16) 4 + (3/64) 4,415 + (1/64)6= 1,96 bit Tem-se, em média, a quantidade de informação de 1,96 bit por elemento selecionado
10 Considere-se uma fonte discreta com alfabeto de apenas dois elementos como, por eemplo, um sensor chave: {sim, não} - uma fonte binária Sejam p(sim) = e p(não) = 1 - as respectivas probabilidades de ocorrência desses elementos (com real, adimensional e 0 < < 1) A entropia da fonte binária é função da probabilidade : H() = log(1/) + (l - ) log [ l / (l - )] = - log () - (l - ) log (l - ) (1) dh A entropia é máima para tal que a derivada primeira é nula, = 0, e a derivada segunda é negativa, d H d < 0 Derivando (1) em relação a : dh 1 d d = log Essa derivada é nula para 1 - =, ou seja, = 1/
11 d d H Para = 1 log d 1 ( e) d 1 dh d H =, obtém - se = 0 e = 4log e d d A entropia máima ( para = ½ ) é: Hmá = 1 log = log 1 ( 1) (1 ( e) )1 log( e) = (1 ) ( ) < 0 Ponto de máima entropia 1 ( ) + 1 log ( ) 1bit =
12 Com dois elementos equiprováveis ( = 1 - = ½ ), a entropia é máima (a fonte é menos previsível) Observe-se que, à medida que um dos elementos se torna mais provável que o outro, a entropia da fonte decresce Se a probabilidade de ocorrência de um dos elementos é igual a 1 (evento certo), a do outro é 0 (evento impossível) e a entropia da fonte é zero Esse resultado pode ser generalizado - a entropia de uma fonte discreta com alfabeto de k elementos é máima para p( i ) = 1/k, i = 1,,, k (elementos equiprováveis) O valor máimo de entropia de uma fonte discreta com alfabeto de k elementos é, portanto: H = log ( k) Por eemplo, para a fonte de opções de cardápio (Tabela 9B), a quantidade de informação de cada opção varia entre 1 bit para a preferida do público e 6 bits para a menos procurada e a entropia da fonte é H = 1,96 bit Se todas as seis opções ocorressem com a mesma probabilidade (= 1/6), a entropia da fonte teria o valor máimo: H = log (6),58 bits ma ma
13 CODIFICAÇÃO DE FONTE Codificação de fonte consiste em associar, a cada elemento do alfabeto da fonte, um caractere uma combinação de elementos de código Se todos os caracteres têm o mesmo número de elementos de código, diz-se que o código é de comprimento constante Se o número de elementos de código não é o mesmo para todos os caracteres, o código é de comprimento variável A codificação com elementos binários (que podem assumir apenas dois valores) é particularmente interessante para transmissão elétrica Cada elemento do conjunto binário, representado por {0, 1}, é denominado dígito binário - ou bit (acrônimo de binary digit - não confundir com unidade binária, embora seja usado o mesmo acrônimo) Com n elementos binários de código obtêm-se n combinações de bits (caracteres) que podem representar elementos do alfabeto da fonte de informação discreta No eemplo do restaurante, com código binário com comprimento variável, duas das opções podem ser representadas com caracteres de 1 bit, e as quatro opções restantes com caracteres de bits De preferência, devem ser associados caracteres mais curtos aos elementos mais freqüentes
14 CODIFICAÇÃO DE FONTE Para representar as seis opções, com código de comprimento constante n, deve-se ter: n log(6) 6 n = log(6),58 n Hma = log( k) log() Como n ( número de dígitos binários ) deve ser inteiro, o número mínimo de bits para o código de comprimento constante é n = 3 No código binário de comprimento variável, o número médio de bits (dígitos binários) por caractere, considerando as probabilidades de ocorrência indicadas na Tabela 9B, é inferior ao número de bits por caractere do código de comprimento constante: n = = + = 1,
15 CODIFICAÇÃO DE FONTE Opção Prato Probabilidade de ocorrência Comprimento Variável Código Binário Comprimento Constante 1 Moqueca capiaba 1/ Filé com fritas 1/ Mocotó no feijão Rabada à moda Buchada de bode Jabá com jerimum 1/ / / /
16 Algoritmo de Huffman Algoritmo para a compressão de arquivos, principalmente arquivos tetos Atribui códigos menores para símbolos mais freqüentes e códigos maiores para símbolos menos freqüentes Código é um conjunto de bits Representação dos dados é feita com códigos de tamanho variável Código ASCII A= B= a= b= Código de Huffman A=? (0) B=? (110) a=? ( ) b=? ( )
17 Algoritmo de Huffman Supondo A e C mais freqüentes que C e D no conjunto de valores possíveis ABACDA= A B A C D A Símbolo A B C D Código
18 Algoritmo de Huffman Dado:Tabela de freqüências dos N símbolos de um alfabeto Objetivo: Atribuir códigos aos símbolos de modo que os mais freqüentes tenham códigos menores (menos bits)
19 Algoritmo de Huffman Huffman A-0 B-01 a-01 A-0 B-10 a-110 Fdjoiasdjfoidsjfoisofnsdo Sdjfoisdjfoisdfoisdfoid Oidsfoisdnfosdf Sdoifsjfsdfskodnfsdknf Arquivo comprimido
Sistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Teoria da Informação
Charles Casimiro Cavalcante [email protected] Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira
Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Departamento de Electrónica, Telecomunicações e Informática Universidade de Aveiro Sumário Códigos binários Representação de informação com
SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017)
SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) Tópicos Propriedades dos códigos de fonte Código ótimo e código ideal Singularidade, descodificação única,
Universidade de Pernambuco Escola Politécnica de Pernambuco
Universidade de Pernambuco Escola Politécnica de Pernambuco TV Analógica e Digital Codificação de Fonte Prof. Márcio Lima E-mail:[email protected] 12.06.2014 Introdução A principal função de um sistema
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.
FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO
FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO PROF. ENG. ESP. ANTONIO CARLOS LEMOS JÚNIOR [email protected]
Algoritmos de Compressão sem Perdas
Algoritmos de Compressão sem Perdas (continuação) Aula 08 Diogo Pinheiro Fernandes Pedrosa Universidade Federal Rural do Semiárido Departamento de Ciências Exatas e Naturais Curso de Ciência da Computação
2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Códigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações.
1 Introdução Neste trabalho, estamos interessados nos problemas da teoria de comunicações conhecidos como compressão de dados e modulação. Um modelo típico de um sistema de comunicações é mostrado na Fig.
universidade federal de pernambuco departamento de estatística
soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas
4 C odigos de Huffman 4.1 Arvores de c odigo folhas os internos n ıvel altura Arvore bin aria arvore bin aria ordenada
4 Códigos de Huffman 4.1 Árvores de código Numa árvore qualquer, os nós que não têm filhos são chamados de folhas e os demais nós são chamados de nós internos. Se um nó de uma árvore é filho de outro,
Processamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 23 de novembro de 2016 Compressão de imagens engloba técnicas
Compressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré
Compressão Sem Perdas: Codificações Huffman e Aritmética Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas (Lossless Data Compression) Refere-se a métodos de compressão
TÉCNICAS DE CODIFICAÇÃO DE SINAIS
TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia
Princípios Básicos de Teoria da Informação
Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação
Teoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log
Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )
Teoria da Informação
Charles Casimiro Cavalcante [email protected] Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Circuitos Combinacionais
! Circuitos Combinacionais x Sequenciais Combinacional - saídas dependem unicamente das entradas Entradas Circuito Combinacional Saídas Sequencial -háuma realimentação da saída para a entrada, denominada
Canais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste
Binário Decimal
Sistema Binário Existem duas maneiras de representar uma informação eletrônica: analogicamente ou digitalmente. Uma música qualquer, por exemplo, gravada em uma fita K-7 é uma forma analógica de gravação.
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual
Circuitos Combinacionais. Arquitetura de Computadores I
Circuitos Combinacionais Arquitetura de Computadores I Roteiro } Introdução } Gerador e Verificador de Paridade } Comparadores } Circuitos aritméticos } Somador (Half Adder e Full Adder) } Subtrator (Meio
Codificação de Huffman
Codificação de Huffman Bruna Gregory Palm 11 de setembro de 2017 A codificação de Huffman é um método de compressão que considera as probabilidades de ocorrência de cada símbolo no conjunto de dados a
Circuitos Lógicos Aula 5
Circuitos Lógicos Aula 5 Aula passada Sistemas numéricos Metodo de conversão Conversão entre sistemas Números fracionários Aula de hoje Conversão fracionária Método da multiplicação Código BCD Código ASCII
Compactação de Dados. Fonte de consulta: Szwarcfiter, J.; Markezon, L. Estruturas de Dados e seus Algoritmos, 3a. ed. LTC. Seção 12.5 em diante.
Compactação de Dados Fonte de consulta: Szwarcfiter, J.; Markezon, L. Estruturas de Dados e seus Algoritmos, 3a. ed. LTC. Seção 12.5 em diante. Compactação de Dados } Armazenar arquivos grandes (backup)
Teoria de distorção da taxa
Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades
Processamento de Imagem. Compressão de Imagens Professora Sheila Cáceres
Processamento de Imagem Compressão de Imagens Professora Sheila Cáceres Porque comprimir? Técnicas de compressão surgiram para reduzir o espaço requerido para armazenamento e o tempo necessário para transmissão
Fundamentos de Telecomunicações
Fundamentos de Telecomunicações LEEC_FT 4,5&6: Teoria da Informação Codificação de Fonte Professor Victor Barroso [email protected] Lição 4 Informação e Entroia Introdução Incerteza, robabilidade e informação
Introdução à Ciência da Computação
1 Universidade Federal Fluminense Campus de Rio das Ostras Curso de Ciência da Computação Introdução à Ciência da Computação Professor: Leandro Soares de Sousa e-mail: [email protected] site: http://www.ic.uff.br/~lsousa
Teoria da Informação. Codificação de Fonte
Codificação de Fonte [email protected] /62 Conteúdo e Referência. Revisão: Probabilidade e Variáveis Aleatórias 2. Fontes de informação amostragem e quantização 3. Princípios da 4. Compactação de Fonte
Algoritmos em Strings (compressão de texto)
Algoritmos em Strings (compressão de texto) R. Rossetti, A.P. Rocha, A. Pereira, P.B. Silva, T. Fernandes FEUP, MIEIC, CAL, 2010/2011 1 Teoria da Informação O que é? É uma ferramenta matemática para determinar
Princípios de Telecomunicações AULA 1. Elementos de um sistema de comunicações. Prof. Eng. Alexandre Dezem Bertozzi, Esp.
Princípios de Telecomunicações AULA 1 Elementos de um sistema de comunicações Prof. Eng. Alexandre Dezem Bertozzi, Esp. COMUNICAÇÃO TRANSMISSÃO DE INFORMAÇÃO DE UM PONTO A OUTRO, ATRAVÉS DE UMA SUCESSÃO
Redes de Computadores
Introdução Redes de Computadores Transmissão de Informações nálise de Sinais ula 03 camada de nível físico define Características físicas das interfaces e dos meios (ex. conectores, pinagem, semântica
REDES DE COMPUTADORES. Comunicação de Dados
Sinais Uma das funções mais importantes da camada física é converter informação em sinais eletromagnéticos para poder enviá-los num meio de transmissão. Sejam estas informações uma sequência de 1s e 0s
Compressão de Dados. Prof. Flávio Humberto Cabral Nunes
Compressão de Dados Prof. Flávio Humberto Cabral Nunes Conteúdo 1. Introdução 2. Compressão Unária 3. Compressão Elias-Gama 4. Run Length Encoding 5. Huffman 6. LZ77, LZ78 e LZW Capítulo: 12 (POSTIL).
Sistemas Digitais Módulo 1 Introdução e Sistemas de Numeração
Universidade Federal de Uberlândia Faculdade de Computação Sistemas Digitais Módulo 1 Introdução e Sistemas de Numeração Graduação em Sistemas de Informação Prof. Dr. Daniel A. Furtado Conteúdo Introdução
Fundamentos da Compressão de Vídeo
Sistemas de Telecomunicações 2007-2008 Televisão Digital Fundamentos da Compressão de Vídeo Rui Marcelino Abril 2008 Engenharia Electrica e Electrónica - TIT Sumário 1. Motivação para Compressão de Vídeo
Compressão de Textos. Introdução. Introdução. Introdução. O volume de informação textual disponível on-line é imenso:
Compressão de Textos Estrutura de Dados II Prof. Guilherme Tavares de Assis Universidade Federal de Ouro Preto UFOP Instituto de Ciências Exatas e Biológicas ICEB Departamento de Computação DECOM O volume
TE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Prof. Carlos messani
Prof. Carlos messani Em processamento digital de sinais, Codificação significa a modificação de características de um sinal para torná-lo mais apropriado para uma aplicação específica, como por exemplo
Compressão de Imagens: Padrão JPEG
Compressão de Imagens: Padrão JPEG PTC2547 Princípios de Televisão Digital Guido Stolfi 09/2017 EPUSP - Guido Stolfi 1 / 75 Temas Abordados Justificativas para Compressão de Imagens Codificador JPEG Transformada
Conceitos Básicos de Teleprocessamento e Comunicação de Dados
Conceitos Básicos de Teleprocessamento e Comunicação de Dados Conceitos Básicos de Teleprocessamento e Comunicação de Dados Desde 1838, quando Samuel F. B. Morse transmitiu, pela primeira vez, uma mensagem
Redes de Computadores
Redes de Computadores Prof. Macêdo Firmino Camada Física Macêdo Firmino (IFRN) Redes de Computadores Setembro de 2011 1 / 32 Pilha TCP/IP A B M 1 Aplicação Aplicação M 1 Cab M T 1 Transporte Transporte
Analógico vs Digital
Arquitectura de Computadores I Engenharia Informática (11537) Tecnologias e Sistemas de Informação (6616) Analógico vs Digital Nuno Pombo / Miguel Neto Arquitectura Computadores I 2014/2015 1 Os circuitos
Compressão de Imagens. Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE
Compressão de Imagens Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE Imagens digitais necessitam de grande quantidade de espaço para armazenamento e
Conceito de Comunicação Digital: Transmissão de informação em forma digital a partir de uma fonte geradora da informação até um ou mais destinatários.
Conceito de Comunicação Digital: Transmissão de informação em forma digital a partir de uma fonte geradora da informação até um ou mais destinatários. Figura 1: Diagrama de blocos simplificado, contendo
Televisão Digital. Codificação de Entropia Códigos de Huffman. Hélio Manuel Gonçalves Jaco
Codificação de Entropia Códigos de Huffman Hélio Manuel Gonçalves Jaco Porto, Outubro de 2006 1. Objectivo Desenvolver um programa que gere códigos de Huffman de imagens às quais foi aplicada uma transformada
Sistemas Digitais Representação Digital de Informação
Sistemas Digitais Representação Digital de Informação João Paulo Baptista de Carvalho [email protected] Representação de números em Base b Base 10: 435 10 = 4 x 100 + 3 x 10 + 5 x 1 = 4 x 10 2
Códigos. Códigos. Bits, Bytes & etc. 9/20/10
Códigos Códigos Introdução Códigos Numéricos Códigos Decimais Códigos Ponderados Códigos Reflectidos Códigos Alfanuméricos Bits, Bytes & etc. 2 1 Viu-se como representar números usando apenas os dois símbolos
Tipos de códigos de fonte
Tipos de códigos de fonte Luis Henrique Assumpção Lolis 13 de setembro de 2013 Luis Henrique Assumpção Lolis Tipos de códigos de fonte 1 Conteúdo 1 Código de prefixo 2 Código de Fano 3 Código de Huffman
Sistemas numéricos e a Representação Interna dos Dado no Computador
Sistemas numéricos e a Representação Interna dos Dado no Computador Ricardo Azambuja Silveira INE-CTC-UFSC E-Mail: [email protected] URL: http://www.inf.ufsc.br~silveira Material elaborado pelo prof
EXPRESSÕES E FUNÇÕES EXPONENCIAIS E LOGARITMICAS
EXPRESSÕES E FUNÇÕES EXPONENCIAIS E LOGARITMICAS - 06. (Unicamp 06) Considere a função f() 5, definida para todo número real. a) Esboce o gráfico de y f() no plano cartesiano para. b) Determine os valores
III-1 Códigos detetores e corretores de erros
III-1 Códigos detetores e corretores de erros Comunicações ISEL-ADEETC-Comunicações 1 Sumário 1. Aspetos gerais sobre a comunicação digital Comportamento do canal Causas da existência de erros 2. Códigos
Douglas Antoniazi Kleberson Hayashi Angelossi
Fundamentos de compressão e codificação de imagens Douglas Antoniazi Kleberson Hayashi Angelossi 1 Sumário Redundância Codificação Interpixel Psicovisual Critérios de fidelidade Erro total Erro médio quadrático
7.1 Código Excesso de 3
Capítulo 7 Códigos Binários Códigos binários são esquemas especiais de representação em binário. Eles servem diversos propósitos. Note que um código binário nada mais é que uma sequência finita de bits
Circuitos Digitais. Prof. Esp. Pedro Luís Antonelli Anhanguera Educacional
Circuitos Digitais Prof. Esp. Pedro Luís Antonelli Anhanguera Educacional OBJETIVOS DA AULA : Relembrar os conceitos: - Sinais Analógicos e Digitais; - Sistemas de Numeração Decimal, Binário, Octal e Hexadecimal;
PCS 3115 Sistemas Digitais I Códigos Prof. Dr. Marcos A. Simplicio Jr.
PCS 3115 Sistemas Digitais I Códigos Prof. Dr. Marcos A. Simplicio Jr. versão: 3.0 (Jan/2016) Adaptado por Glauber (2018) CÓDIGOS NUMÉRICOS 2 Códigos Numéricos Conjunto de cadeias com n bits: cadeias diferentes
Universidade Federal do Rio Grande do Sul Instituto de Informática
Universidade Federal do Rio Grande do Sul Instituto de Informática INF01046: Fundamento de Processamento de Imagens PROFESSOR JACOB SCHARCANSKI Projeto II: Compactação de Imagens Autores: Charles Arnoud
TÉCNICAS DE CODIFICAÇÃO DE SINAIS
Informação sobre a Disciplina TÉCNICAS DE CODIFICAÇÃO DE SINAIS INTRODUÇÃO Evelio M. G. Fernández - 2010 Terças e Quintas feiras das 07:30 às 11:20 horas Professor: Evelio Martín García Fernández Gabinete
Segundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014
Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro
Árvores. Fabio Gagliardi Cozman. PMR2300 Escola Politécnica da Universidade de São Paulo
PMR2300 Escola Politécnica da Universidade de São Paulo Árvore: estrutura composta por nós e arestas entre nós. As arestas são direcionadas ( setas ) e: um nó (e apenas um) é a raiz; todo nó (exceto a
Probabilidade, entropia, surpresa, e quantidade de informação 1
Probabilidade, entropia, surpresa, e quantidade de informação 10 de setembro de 2013 Probabilidade, entropia, surpresa, e quantidade de informação 1 Conteúdo 1 Revisão de Probabilidade Teorema de Bayes
Técnicas de Compactação e Compressão. Compressão. Técnicas de Compactação e Compressão. Compactação x Compressão
Departamento de Engenharia de Telecomunicações - UFF Técnicas de Compactação e Compressão Profa. Débora Christina Muchaluat Saade [email protected] Técnicas de Compactação e Compressão Compactação
Representação da Informação
Conteúdo Representação da Informação Bit, Byte e múltiplos Conversão de Unidades Representação de Informação Representação de Símbolos/Texto Representação de Imagem Representação de Vídeo Bit BInary digit
Conversão de Bases. Introdução à Organização de Computadores 5ª Edição/2007 Página 54. Sistemas Numéricos - Aritmética. Prof.
Conversão de Bases Introdução à Organização de Computadores 5ª Edição/2007 Página 54 1 NOTAÇÃO POSICIONAL - BASE DECIMAL O SISTEMA DE NUMERAÇÃO É FORMADO POR UM CONJUNTO DE SÍMBOLOS UTILIZADOS PARA REPRESENTAR
Fundamentos de TI. Aula07_Representação de dados pelo Computador.doc 1
Aula07_Representação de dados pelo Computador.doc 1 Organização e representação de dados e Informações em computador. Introdução As informações e o conhecimento compõem recursos estratégicos essenciais
Árvores. Thiago Martins, Fabio Gagliardi Cozman. PMR2300 / PMR3201 Escola Politécnica da Universidade de São Paulo
PMR2300 / PMR3201 Escola Politécnica da Universidade de São Paulo Árvore: estrutura composta por nós e arestas entre nós. As arestas são direcionadas ( setas ) e: um nó (e apenas um) é a raiz; todo nó
III-1 Códigos detetores e corretores de erros
III-1 Códigos detetores e corretores de erros Comunicações 21 de novembro de 2017 ISEL-ADEETC-Comunicações 1 Sumário 1. Aspetos gerais sobre a comunicação digital Comportamento do canal Causas da existência
Variáveis Aleatórias Discretas e Distribuição de Probabilidade
Variáveis Aleatórias Discretas e Distribuição de Probabilidades - parte IV 2012/02 1 Distribuição Poisson Objetivos Ao final deste capítulo você deve ser capaz de: Ententer suposições para cada uma das
III-1 Códigos detetores e corretores de erros
III-1 Códigos detetores e corretores de erros Comunicações ISEL-ADEETC-Comunicações 1 Sumário 1. Aspetos gerais sobre a comunicação digital Causa de erros 2. Códigos detetores e corretores de erros Códigos
Transmissão de Sinais Digitais
Transmissão de Sinais Digitais Pedro Alípio [email protected] CC-DI Universidade do Minho Transmissão de Sinais Digitais p.1/19 Sumário Transmissão de sinais digitais Largura de banda Meios de Transmissão
Sistemas Digitais Representação Digital de Informação
Sistemas Digitais Representação Digital de Informação João Paulo Baptista de Carvalho (Prof. Auxiliar do IST) [email protected] Representação de números em Base b Base 10: 435 10 = 4 x 100 + 3
ARQUITETURA DE COMPUTADORES
Representação de Dados Professor: Airton Ribeiro de Sousa E-mail: [email protected] 1 Ao longo dos anos, muitos padrões e convenções foram estabelecidas para determinar certos aspectos da
Apresentação... 1 Introdução... 1
Apresentação O objetivo principal deste texto é servir como material básico para uma disciplina introdutória sobre sistemas de comunicações em um curso de Engenharia Elétrica. Ele tem abrangência limitada,
Exercícios de Telecomunicações 2
Departamento de Engenharia Electrotécnica e de Computadores Exercícios de Telecomunicações 2 (2004-2005) Sílvio A. Abrantes e Artur Moura Transmissão em banda-base 2.1. Um terminal gera 1250 caracteres/s,
Sistema Supervisório - IHM
Faculdade de Tecnologia Pentágono Tecnologia em Mecatrônica Industrial Sistema Supervisório - IHM Aula 2: Sistemas Numéricos, Sinal Digital e Sinal Analógico PROF. MSC. THIAGO ABRAÃO 21 de Agosto de 2017
Processamento de Imagem. Prof. MSc. André Yoshimi Kusumoto
Processamento de Imagem Prof. MSc. André Yoshimi Kusumoto [email protected] Definição Compressão de Imagem Formas de diminuir a área de armazenamento dos dados, reduzindo a quantidade de bits
Sistemas Numéricos - Aritmética. Conversão de Bases. Prof. Celso Candido ADS / REDES / ENGENHARIA
Conversão de Bases 1 NOTAÇÃO POSICIONAL - BASE DECIMAL Desde os primórdios da civilização o homem adota formas e métodos específicos para representar números, para contar objetos e efetuar operações aritméticas.
Modelo de Comunicação
Modelo de Comunicação Propósito principal A troca de informação entre dois agentes Comunicação de Computadores Comunicação de Dados Transmissão de Sinais Agente Dispositivo de entrada Transmissor Meio
Aula 3- Codificação de Canal. October 18, 2017
ELE-32 Introdução a Comunicações Aula 3- Codificação de Canal October 18, 2017 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits. Entretanto,
Sistemas de Numeração
Infra-Estrutura de Hardware Sistemas de Numeração Conversão entre bases Bit e byte ECC Prof. Edilberto Silva www.edilms.eti.br [email protected] Sumário Conversão de bases Aritmética binária e hexadecimal
