Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste
|
|
- Giulia Vasques
- 5 Há anos
- Visualizações:
Transcrição
1 Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste (90 minutos): Parte I, questões 11 20; Parte II, problemas 2 e Parte I (exame): resposta certa = 0.5 valores; resposta errada = 0.25 valores. 3. Parte I (teste): resposta certa = 1 valor; resposta errada = 0.5 valores. 4. Factos potencialmente úteis: log ; log 10 (2) 0.30; log a b = (log c b)/(log c a). Parte I 1. Sejam X, Y {1, 2,..., 6} duas variáveis representando o resultado do lançamento de dois dados equilibrados independentes e Z = X + Y a sua soma (note que Z {2, 3,..., 12}); então, a) H(Z) < log 2 11 bits/symbol; b) H(Z) = log 2 11 bits/symbol; c) H(Z) > log 2 11 bits/symbol. 2. Sejam X, Y, Z as variáveis aleatórias definidas na questão anterior e U = Z 2 uma outra variável; então, a) H(U) < log 2 11 bits/symbol; b) H(U) = log 2 11 bits/symbol; c) H(U) > log 2 11 bits/symbol. 3. Sejam A {1, 2, 3, 4} e B {5, 10, 15, 20} um par de variáveis aleatórias. Seja X = B A uma nova variável, função de A e B. Então é necessariamente verdade que a) H(X) = H(A). b) H(X) = H(B). c) H(X) = H(A, B). 4. Considere que as variáveis aleatórias A e B da questão anterior são independentes e têm distribuições marginais não uniformes; então, then, a) I(X; A) < 2 bits/symbol; b) I(X; A) = 2 bits/symbol; c) I(X; A) > 2 bits/symbol. 5. Considere as variáveis aleatórias A e B da questão 3 não são independentes mas têm distribuições marginais uniformes; então, a) I(X; A) < 2 bits/symbol; b) I(X; A) = 2 bits/symbol; c) I(X; A) > 2 bits/symbol. 6. Considere o código {C(a) = 0, C(b) = 10, C(c) = 110, C(d) = 111} para uma fonte com alfabeto {a, b, c, d}, com probabilidades P (a) > P (b) = P (c) = P (d). a) Este código é necessariamente óptimo; b) este código é necessariamente não óptimo; c) este código pode ser, ou não, óptimo. 1
2 7. Para uma fonte que gera símbolos do alfabeto {a, b, c, d} com probabilidades P (a) = P (b) = P (c) > P (d), a) qualquer código óptimo é um código de Huffman; b) há códigos óptimos que não são códigos de Huffman; c) há códigos de Huffman que não são óptimos. 8. Considere uma fonte sem memória X {a, b, c, d}, com distribuição de probabilidades uniforme, gerando 5000 símbolos/segundo. Qual é a menor ordem de extensão necessária para ser possível transmitir a informação gerada por esta fonte através de um canal binário cuja taxa máxima de transmissão é bits/segundo? a) 2; b) 3; c) não é necessária qualquer extensão. 9. Considere uma fonte X {a, b, c}, com probabilidades P (a) = 1/6, P (b) = 1/3 e P (c) = 1/2. O valor esperado do comprimento do código ternário óptimo para esta fonte é a) 2/3 trits/símbolo; b) 1 trit/símbolo; c) 4/3 trits/símbolo 10. Considere uma fonte X {a, b, c, d, e} com probabilidades P (a) = 1/3, P (b) = 1/3, P (c) = P (d) = P (e) = 1/9. O valor esperado do comprimento do código ternário óptimo para a extensão de segunda ordem desta fonte (referida aos símbolos da fonte original) é a) 3/4 trits/símbolo; b) 4/3 trits/símbolo; c) 8/3 trits/símbolo 11. Considere uma fonte que gera símbolos do alfabeto {a, b, c}, com probabilidades {1/2 ε, 1/4 + ε, 1/4}, com ε [0, 1/4]. O código {C(a) = 0, C(b) = 10, C(c) = 11}, a) é óptimo para qualquer valor de ε [0, 1/4]. b) não é óptimo para qualquer valor de ε [0, 1/4]. c) apenas é óptimo para alguns valores de ε [0, 1/4]. 12. Considere uma fonte markoviana de primeira ordem com a seguinte matriz de transição: A taxa de entropia condicional desta fonte verifica P (X n X n 1 ) X n = a X n = b X n = c X n 1 = a 1/3 1/3 1/3 X n 1 = b 1/3 1/3 1/3 X n 1 = c 1/2 1/2 0 a) H (X) < log 2 3 bits/símbolo; b) H (X) = log 2 3 bits/símbolo; c) H (X) > log 2 3 bits/símbolo.; 13. Seja p a distribuição estacionária da fonte da questão 12. Então, a) p = (1/4, 3/8, 3/8); b) p = (3/8, 1/4, 3/8); c) p = (3/8, 3/8, 1/4); 2
3 14. Considere uma fonte markoviana de primeira ordem com a seguinte matriz de transição: P (X n X n 1 ) X t = a X t = b X t = c X t = d X t 1 = a 0 1/2 1/4 1/4 X t 1 = b 1/2 0 1/4 1/4 X t 1 = c 1/2 1/4 0 1/4 X t 1 = d 1/2 1/4 1/4 0 O valor esperado do comprimento de um esquema de codificação ternária óptima é a) > 1 trit/símbolo; b) = 1 trit/símbolo; c) < 1 trit/símbolo. 15. Considere que sequência abacad foi gerada pela fonte da questão 14. Assumindo que a distribuição do símbolo inicial é uniforme (1/4, 1/4, 1/4, 1/4), qual o comprimento da palavra de código aritmético resultante? a) 9 bits; b) 10 bits; c) 11 bits. 16. Qual das seguintes sequências tem maior probabilidade de ter sido gerada pela fonte dada na questão 14? (assuma distribuição inicial uniforme). a) abacaddacaba b) abcddcbabcda c) acbdcadbadbc 17. Qual das seguintes sequências corresponde à codificação Lempel-Ziv-Welch da sequência abcaababcabca. Assuma que o alfabeto é {a, b, c} e que os índices do dicionário começam em 1. a) 1, 2, 3, 1, 4, 4, 6, 5, 1. b) 1, 2, 3, 2, 3, 4, 6, 5, 1. c) 1, 2, 3, 1, 4, 4, 6, 5, Considere uma fonte X R com função densidade de probabilidade f X (x) = (3/2) x 2, para x [ 1, 1], e f X (x) = 0, para x [ 1, 1], aplicada na entrada de um quantizador uniforme com 2048 regiões. O representante óptimo de cada região a) localiza-se sempre à esquerda do centro da região; b) localiza-se sempre à direita do centro da região; c) nenhuma das respostas anteriores. 19. Considere a fonte e o quantizador definidos na questão 18. A entropia da saída do quantizador é a) menor que 11 bits/símbolo; b) igual 11 bits/símbolo; c) maior que 11 bits/símbolo. 20. Considere a variável aleatória X com função densidade de probabilidade uniforme no intervalo [0, 1], quantizada por um quantizador uniforme de 8 bits. Se o número de bits do quantizador for aumentado para 10, o erro quadrático médio resultante a) reduz-se por um factor de 8; b) reduz-se por um factor de 12; c) reduz-se por um factor de 16. 3
4 Parte II Problema 1 Considere duas fontes discretas sem memória, X e Y ; a fonte X gera símbolos do alfabeto {a, b, c, d}, com probabilidades P (X = a) = 3/4, P (X = b) = P (X = c) = P (X = d) = 1/12; a fonte Y gera símbolos do alfabeto {1, 2, 3} com probabilidades P (Y = 1) = 2/3, P (Y = 2) = P (Y = 3) = 1/6. 1. Determine as entropias H(X) e H(Y ), desenhe códigos óptimos para as duas fontes e calcule os respectivos valores esperados do comprimento. 2. Considere que a distribuição de probabilidades conjunta P (X = x, Y = y) é a seguinte (a qual é compatível com as marginais dadas acima): y a 2/3 1/12 0 x b 0 1/12 0 c 0 0 1/12 d 0 0 1/12 Calcule a entropia conjunta H(X, Y ); é igual H(X) + H(Y )? Porquê? 3. Para a distribuição de probabilidades conjunta dada na alínea anterior, calcule H(X Y ), H(Y X) e I(X; Y ). 4. Desenhe um código conjunto óptimo para o par (X, Y ); note que este par toma valores no conjunto {(a, 1), (a, 2), (a, 3), (b, 1), (b, 2), (b, 3), (c, 1), (c, 2), (c, 3), (d, 1), (d, 2), (d, 3)}, com as probabilidades dadas na tabela da alínea 2. Calcule o correspondente valor esperado do comprimento, compare com os resultados da alínea 1 e comente os resultados. 5. Para a distribuição conjunta da alínea 2, quantos códigos óptimos existem? 6. Considere agora que as variáveis X e Y são independentes, isto é, P (X = x, Y = y) = P (X = x) P (Y = y) (onde P (X = x) e P (Y = y) são as marginais dadas acima), em vez da distribuição conjunta dada na alínea 2. Calcule a entropia conjunta H(X, Y ) e desenhe um código conjunto óptimo para o par (X, Y ). Calcule o correspondente valor esperado do comprimento, compare com os resultados das alíneas 1 e 4 e comente os resultados. Problema 2 Considere uma fonte markoviana de primeira ordem, com alfabeto {a, b, c, d}, definida pela seguinte matriz de transição: P (X t X t 1 ) X t = a X t = b X t = c X t = d X t 1 = a 1/8 1/8 1/4 1/2 X t 1 = b 1/2 1/8 1/8 1/4 X t 1 = c 1/4 1/2 1/8 1/8 X t 1 = d 1/8 1/4 1/2 1/8 1. Determine a distribuição estacionária desta fonte, a entropia da distribuição estacionária, a taxa de entropia condicional e comente os resultados. 2. Apresente um esquema de codificação binário óptimo para esta fonte e determine o comprimento médio resultante. Compare com a taxa de entropia taxa de condicional e comente. 3. Apresente um esquema de codificação ternário óptimo para esta fonte e determine o comprimento médio resultante. 4
5 Problema 3 Considere uma variável aleatória real X, com função densidade de probabilidade 1/2 ε x [ 1, 0[, f X (x) = 1/2 + ε x [0, 1], 0 x [ 1, 1]. 1. Considere ε = 3/8 e que a variável X está aplicada na entrada de um quantizador uniforme de 2 bits (4 células, R 0, R 1, R 2, R 3 ), definido no região [ 1, 1]. Determine os representantes óptimos das 4 células e calcule o valor exacto do erro quadrático médio de quantização. 2. O quantizador obtido na alínea anterior é óptimo? Justifique (por exemplo, se não for óptimo, apresente um quantizador melhor). 3. Considere ε = 1/8; determine a entropia da variável indicadora do quantizador I(X), isto é, a variável discreta que indica em qual das quatro células se encontra a variável de entrada: I(x) = i x R i. 4. Considere agora a variável aleatória Y cuja função densidade de probabilidade é f Y (y) = y 1, para y [0, 2], e f Y (y) = 0, para y [0, 2]. Determine os representante óptimos das duas regiões de quantizador uniforme de 1 bit (R 0 = [0, 1[ e R 1 = [1, 2]). 5
Segundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014
Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM98 LISTA DE EXERCÍCIOS # 8. Exercícios. [, 9.5] Um processo estocástico gaussiano,
Leia maisCOMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.
Leia maisCanais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisInstituto Superior Técnico. 19 de Janeiro de 2001. Parte I
Exame de Compressão e Codificação de Dados Secção de Telecomunicacções DEEC, Instituto Superior Técnico 19 de Janeiro de 1 Parte I Esta parte do exame é constituida por 20 perguntas de resposta múltipla.
Leia maisTÉCNICAS DE CODIFICAÇÃO DE SINAIS
TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522
Teoria da Informação (4-) Exame de ecurso (-7-). Canais discretos sem memória e p =,: esolução X -p p p -p Y W ε ε ε -ε -ε -ε Z Canal A Canal B Vamos representar P(X = i) por P(X i ), etc. PY ( ) = P(
Leia maisCompressão e Codificação de Dados Segundo Exame e Primeiro/Segundo Teste
Compressão e Codificação de Dados Segundo Exame e Primeiro/Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 29 de Janeiro de 213 WARNING: there were several different versions
Leia maisPrincípios Básicos de Teoria da Informação
Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação
Leia maisTeoria de distorção da taxa
Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades
Leia maisFACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO
FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO PROF. ENG. ESP. ANTONIO CARLOS LEMOS JÚNIOR acjunior@facthus.edu.br
Leia maisTE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Leia maisuniversidade federal de pernambuco departamento de estatística
soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log
Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )
Leia maisEEC4164 Telecomunicações 2
Licenciatura em Engenharia Electrotécnica e de Computadores EEC4164 Telecomunicações (00/003) 1ª Parte Duração: 1 hora (sem consulta) 1ª chamada 4 de Janeiro de 003 1. a) Uma alternativa a PCM é a modulação
Leia maisSistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisProblemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual
Leia maisTelevisão Digital. Codificação de Entropia Códigos de Huffman. Hélio Manuel Gonçalves Jaco
Codificação de Entropia Códigos de Huffman Hélio Manuel Gonçalves Jaco Porto, Outubro de 2006 1. Objectivo Desenvolver um programa que gere códigos de Huffman de imagens às quais foi aplicada uma transformada
Leia maisCompressão de Imagens. Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE
Compressão de Imagens Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE Imagens digitais necessitam de grande quantidade de espaço para armazenamento e
Leia maisPré-Processamento de Documentos
Pré-Processamento de Documentos Introdução Pré-Processamento : Análise léxica; Stopwords; Stemming; Vocabulário; Thesaurus Compressão: Fundamentos; Método Estatístico; Método Dicionário; Arquivos Invertidos
Leia maisFundamentos da Compressão de Vídeo
Sistemas de Telecomunicações 2007-2008 Televisão Digital Fundamentos da Compressão de Vídeo Rui Marcelino Abril 2008 Engenharia Electrica e Electrónica - TIT Sumário 1. Motivação para Compressão de Vídeo
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 23 de novembro de 2016 Compressão de imagens engloba técnicas
Leia maisMódulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira
Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Departamento de Electrónica, Telecomunicações e Informática Universidade de Aveiro Sumário Códigos binários Representação de informação com
Leia maisCodificação de Huffman
Codificação de Huffman Bruna Gregory Palm 11 de setembro de 2017 A codificação de Huffman é um método de compressão que considera as probabilidades de ocorrência de cada símbolo no conjunto de dados a
Leia maisTipos de códigos de fonte
Tipos de códigos de fonte Luis Henrique Assumpção Lolis 13 de setembro de 2013 Luis Henrique Assumpção Lolis Tipos de códigos de fonte 1 Conteúdo 1 Código de prefixo 2 Código de Fano 3 Código de Huffman
Leia maiscanal para sinais contínuos
Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos
Leia maisAlgoritmos de Compressão sem Perdas
Algoritmos de Compressão sem Perdas (continuação) Aula 08 Diogo Pinheiro Fernandes Pedrosa Universidade Federal Rural do Semiárido Departamento de Ciências Exatas e Naturais Curso de Ciência da Computação
Leia maisUniversidade de Pernambuco Escola Politécnica de Pernambuco
Universidade de Pernambuco Escola Politécnica de Pernambuco TV Analógica e Digital Codificação de Fonte Prof. Márcio Lima E-mail:marcio.lima@poli.br 12.06.2014 Introdução A principal função de um sistema
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisComunicação de Dados Quantização Aula-15
Comunicação de Dados Aula-15 Professor: Andrei Piccinini Legg Santa Maria, 2012 Sumário 1 2 3 Sumário Considere, como exemplo, que após um processo de amostragem de um sinal variando entre -3,5V e 3,5V,
Leia maisTEORIA DE INFORMAÇÃO UM NANOCURSO
TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set. 2016 Centenário de Shannon - SBrT - Santarém Dedicação: a memória de Claude Shannon Claude Shannon 1916-2001 matemático, engenheiro eletrônico,
Leia maisEntropia, Entropia Relativa
Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos
Leia maisPrincípios de Telecomunicações. PRT60806 Aula 19: Modulação por Código de Pulso (PCM) Professor: Bruno Fontana da silva 2014
1 Princípios de Telecomunicações PRT60806 Aula 19: Modulação por Código de Pulso (PCM) Professor: Bruno Fontana da silva 2014 Bloco de Comunicação Genérico Emissor sinais analógicos x sinais digitais Sinais
Leia maisCompressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré
Compressão Sem Perdas: Codificações Huffman e Aritmética Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas (Lossless Data Compression) Refere-se a métodos de compressão
Leia maisCódigos convolucionais
Códigos convolucionais Luis Henrique Assumpção Lolis 29 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos convolucionais 1 Conteúdo 1 Introdução e definição 2 Diagrama de árvores, de treliça e
Leia maisFundamentos de Telecomunicações
Fundamentos de Telecomunicações LEEC_FT 4,5&6: Teoria da Informação Codificação de Fonte Professor Victor Barroso vab@isr.ist.utl.t Lição 4 Informação e Entroia Introdução Incerteza, robabilidade e informação
Leia maisProbabilidade. Definição de informação
Probabilidade. Definição de informação L.J. Amoreira UBI Novembro 2010 A distribuição binomial Repete-se n vezes uma experiência na qual um dado acontecimento A tem uma probabilidade de ocorrência p. Qual
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova 3
Prova 3 6/08/010 Aluno: Matrícula: Questão 1 ( pontos) Queremos transmitir a seguinte sequência de bits: 1001110010 Esboce o sinal transmitido para os seguintes esquemas (0, ponto cada): a) sinalização
Leia maisExercícios de Telecomunicações 2
Departamento de Engenharia Electrotécnica e de Computadores Exercícios de Telecomunicações 2 (2004-2005) Sílvio A. Abrantes e Artur Moura Transmissão em banda-base 2.1. Um terminal gera 1250 caracteres/s,
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho
Tópicos em Recuperação de Informação 1 Nivio Ziviani 1 Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho Tópicos em Recuperação de Informação - Nivio Ziviani
Leia maisTelevisão Digital 5ºano 2006/2007. Compressão/Descompressão de Imagens JPEG. Trabalho realizado por: Carla Neves, nº
Televisão Digital 5ºano 2006/2007 Compressão/Descompressão de Imagens JPEG Trabalho realizado por: Carla Neves, nº010503162 Índice Índice... pág2 Introdução... pág.3 Objectivos... pág.5 Implementação...
Leia maisTE060 Princípios de Comunicação. Sistemas de Comunicação Digital Notes. Por quê Digital? Notes. Notes. Evelio M. G. Fernández. 5 de novembro de 2013
TE060 Princípios de Comunicação Modulação de Pulso 5 de novembro de 2013 Sistemas de Comunicação Digital Sistema digital no sentido de utilizar uma sequência de símbolos pertencentes a um conjunto finito
Leia maisEET-49 Comunicações II
EET-49 Comunicações II Parte 4 - Codificação sem perda de informação March 20, 2012 1 Introdução Realizar a codificação da fonte é representá-la da menor forma possível Se a utilização não permite a perda
Leia maisParte 1 Questões Teóricas
Universidade de Brasília (UnB) Faculdade de Tecnologia (FT) Departamento de Engenharia Elétrica (ENE) Disciplina: Processamento de Imagens Profa.: Mylène C.Q. de Farias Semestre: 2014.2 LISTA 04 Entrega:
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho.
Tópicos em Recuperação de Informação Nivio Ziviani Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho. 1 Compressão de Índices Arquivos invertidos são amplamente
Leia maisDuração do Teste: 2h.
Telecomunicações e Redes de Computadores Licenciatura em Engenharia e Gestão Industrial Prof. João Pires 1º Teste, 2007/2008 30 de Abril de 2007 Nome: Número: Duração do Teste: 2h. A prova é composta por
Leia maisSEGUNDO Massey [1] a história da criptologia mostra
REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de
Leia maisSUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49
SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo
Leia maisFundamentos de Telecomunicações 2002/03
INSTITUTO SUPERIOR TÉCNICO Número: Fundamentos de Telecomunicações 2002/03 EXAME Janeiro, 2003 Duração: 20 minutos Nome: Pretende contabilizar as notas dos testes? sim não Assinatura A resolução do exame
Leia mais2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Leia maisI-7 Digitalização e Reconstrução
I-7 Digitalização e Reconstrução (29 Novembro 2010) 1 Sumário 1. Teorema da Amostragem 1. Ritmo de Nyquist 2. Amostragem Ideal e Natural (análise no tempo e na frequência) 1. Sinais Passa Baixo 2. Sinais
Leia maisFormatação de fonte. PCM ( Pulse Code Modulation )
Formatação de fonte PCM ( Pulse Code Modulation ) Elementos básicos de um sistema PCM A obtenção de um sinal PCM envolve três operações: 1. Amostragem. uantização (uniforme ou não-uniforme) 3. Codificação
Leia maisINTRODUÇÃO À TEORIA DA INFORMAÇÃO
INTRODUÇÃO À TEORIA DA INFORMAÇÃO SISTEMA DE TRANSMISSÃO DIGITAL Oscodificadores defonte possuem a finalidade de casar a fonte de dados com o sistema levando em consideração a estatística de acontecimento
Leia maisTE-060 PRINCÍPIOS DE COMUNICAÇÃO Prof. Evelio M. G. Fernández LISTA DE EXERCÍCIOS N 3
f(x) 3 1 1.- O sinal xt πt πt 1 cos 1 sin 1 TE-6 PRINCÍPIOS DE COMUNICAÇÃO Prof. Evelio M. G. Fernández LISTA DE EXERCÍCIOS N 3 3 Volts, é amostrado e processado por um quantizador uniforme de 7 its, funcionando
Leia mais6 Inserção Seletiva de Nulos
6 Inserção Seletiva de Nulos 6.1 Introdução Neste capítulo será apresentado o algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este algoritmo usa a técnica da esteganografia para esconder os símbolos codificados
Leia maisCompressão de Dados. Prof. Flávio Humberto Cabral Nunes
Compressão de Dados Prof. Flávio Humberto Cabral Nunes Conteúdo 1. Introdução 2. Compressão Unária 3. Compressão Elias-Gama 4. Run Length Encoding 5. Huffman 6. LZ77, LZ78 e LZW Capítulo: 12 (POSTIL).
Leia maisI-11 Digitalização e Reconstrução
I-11 Digitalização e Reconstrução Comunicações ( de novembro de 017) ISEL - ADEETC - Comunicações 1 Sumário 1. Enquadramento em SCD Transmissão de sinal analógico sobre SCD. Teorema da Amostragem Ritmo
Leia maisTeoria da Informação. Codificação de Fonte
Codificação de Fonte lucianol@inatel.br /62 Conteúdo e Referência. Revisão: Probabilidade e Variáveis Aleatórias 2. Fontes de informação amostragem e quantização 3. Princípios da 4. Compactação de Fonte
Leia maisL.J. Amoreira UBI. Dezembro 2010
Definição de informação L.J. Amoreira UBI Dezembro 2010 Entropia (ou incerteza [ou ignorância]) A incerteza associada a uma variável aleatória X que pode tomar os valores x 1, x 2,..., x n com probabilidades
Leia maisI-8 Digitalização e Reconstrução
I-8 Digitalização e Reconstrução Comunicações (15 de novembro de 2016) ISEL - ADEETC - Comunicações 1 Sumário 1. Enquadramento em SCD Transmissão de sinal analógico sobre SCD 2. Teorema da Amostragem Ritmo
Leia mais4 C odigos de Huffman 4.1 Arvores de c odigo folhas os internos n ıvel altura Arvore bin aria arvore bin aria ordenada
4 Códigos de Huffman 4.1 Árvores de código Numa árvore qualquer, os nós que não têm filhos são chamados de folhas e os demais nós são chamados de nós internos. Se um nó de uma árvore é filho de outro,
Leia maisSílvio A. Abrantes. Uns pequenos truques que facilitam alguns cálculos de Códigos e Teoria da Informação
Sílvio A. Abrantes Livro de receitas. Receitas?! Uns pequenos truques que facilitam alguns cálculos de Códigos e Teoria da Informação Abril 00 Codificação aritmética: Representação binária de números reais
Leia maisCódigos de Permutação para Compressão de Dados e Modulação 13. Codificador de fonte. Decodificador. Figura 1.1: Modelo de um sistema de comunicações.
1 Introdução Neste trabalho, estamos interessados nos problemas da teoria de comunicações conhecidos como compressão de dados e modulação. Um modelo típico de um sistema de comunicações é mostrado na Fig.
Leia maisX(t) = A cos(2πf c t + Θ)
Exercícios Extras de Comunicações Digitais. Seja um sinal aleatório X(t), estacionário no sentido restrito, dado por onde X(t) = A cos(πf c t + Θ) A é uma variável aleatória Gaussiana com média de 4Volts
Leia maisProblemas de Processamento de Sinais Estruturas de Sistemas Discretos
Problemas de Processamento de Sinais Estruturas de Sistemas Discretos. Determine a função de transferência dos sistemas que se seguem. Mostre que têm os mesmos pólos. r cosθ r r cosθ r senθ r senθ r cosθ.
Leia maisIII-1 Códigos detetores e corretores de erros
III-1 Códigos detetores e corretores de erros Comunicações ISEL-ADEETC-Comunicações 1 Sumário 1. Aspetos gerais sobre a comunicação digital Comportamento do canal Causas da existência de erros 2. Códigos
Leia maisCap. 6: Métodos para alinhamento de múltiplas seqüências
Cap. 6: Métodos para alinhamento de múltiplas seqüências Organização O que é um alinhamento múltiplo Escores para alinhamentos múltiplos Relação entre alinhamento múltiplo e análise filogenética Métodos
Leia maisProbabilidade, entropia, surpresa, e quantidade de informação 1
Probabilidade, entropia, surpresa, e quantidade de informação 10 de setembro de 2013 Probabilidade, entropia, surpresa, e quantidade de informação 1 Conteúdo 1 Revisão de Probabilidade Teorema de Bayes
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova /02
Prova 3 010/0 7/01/011 Aluno: Matrícula: Instruções A prova consiste em 4 questões discursivas. A prova terá a duração de h30. A prova pode ser feita a lápis ou caneta. Não é permitida consulta a notas
Leia maisAula 3- Codificação de Canal. October 18, 2017
ELE-32 Introdução a Comunicações Aula 3- Codificação de Canal October 18, 2017 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits. Entretanto,
Leia maisCompressão de Imagens: Padrão JPEG
Compressão de Imagens: Padrão JPEG PTC2547 Princípios de Televisão Digital Guido Stolfi 09/2017 EPUSP - Guido Stolfi 1 / 75 Temas Abordados Justificativas para Compressão de Imagens Codificador JPEG Transformada
Leia maisPRE29006 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES PRE9006 LISTA DE EXERCÍCIOS # 06. Eercícios. Considere uma variável aleatória
Leia maisUniversidade Federal do Rio Grande do Sul Instituto de Informática
Universidade Federal do Rio Grande do Sul Instituto de Informática INF01046: Fundamento de Processamento de Imagens PROFESSOR JACOB SCHARCANSKI Projeto II: Compactação de Imagens Autores: Charles Arnoud
Leia maisII-6 Análise de ruído e capacidade de canal
II-6 Análise de ruído e capacidade de canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN e ISI Modelo BSC Efeito do ruído Relação sinal/ruído 2. Curvas
Leia maisCódigos de Detecção de Erros 2ª. parte. Prof. Ricardo de O. Duarte DECOM - UFOP
Códigos de Detecção de Erros 2ª. parte Prof. Ricardo de O. Duarte DECOM - UFOP Códigos de Checksum Principais características: Código separável. Usados em Pen-drives, HDs, Floppy Disks, Redes. Código Não
Leia maisAmostragem de Sinais
UNIVERSIDADE FEDERAL DA PARAÍBA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA Amostragem de Sinais Prof. Juan Moises Mauricio Villanueva jmauricio@cear.ufpb.br 1 Amostragem (Sampling) Para um sinal
Leia maisFundamentos de Telecomunicações 2004/05
Pretende contabilizar as notas dos testes? sim não Assinatura A resolução do exame é feita no enunciado que acaba de lhe ser distribuído. Não se esqueça de reencher todos os cabeçalhos com a sua identificação.
Leia maisIII-1 Códigos detetores e corretores de erros
III-1 Códigos detetores e corretores de erros Comunicações 21 de novembro de 2017 ISEL-ADEETC-Comunicações 1 Sumário 1. Aspetos gerais sobre a comunicação digital Comportamento do canal Causas da existência
Leia maisPadrões de Compressão de Imagens
Aula 10 Padrões de Compressão de Imagens Diogo Pinheiro Fernades Pedrosa diogopedrosa@ufersa.edu.br http://www2.ufersa.edu.br/portal/professor/diogopedrosa Universidade Federal Rural do Semiárido Departamento
Leia maisTécnicas de Compactação e Compressão. Compressão. Técnicas de Compactação e Compressão. Compactação x Compressão
Departamento de Engenharia de Telecomunicações - UFF Técnicas de Compactação e Compressão Profa. Débora Christina Muchaluat Saade deborams@telecom.uff.br Técnicas de Compactação e Compressão Compactação
Leia maisIII-1 Códigos detetores e corretores de erros
III-1 Códigos detetores e corretores de erros Comunicações ISEL-ADEETC-Comunicações 1 Sumário 1. Aspetos gerais sobre a comunicação digital Causa de erros 2. Códigos detetores e corretores de erros Códigos
Leia maisII-6 Análise de Ruído e Capacidade de Canal
II-6 Análise de Ruído e Capacidade de Canal Comunicações ISEL - ADEETC - Comunicações 1 Sumário 1. Causa dos erros na transmissão Modelo AWGN (canal físico) Modelo BSC (canal discreto) Efeito do ruído
Leia maisIntrodução aos Sistemas de Comunicações
aos Sistemas de Comunicações Edmar José do Nascimento () http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Colegiado de Engenharia Elétrica Roteiro 1 Sistemas de
Leia mais3.2 Função de Distribuição Conjunta Acumulada e Função de Densidade de Probabilidade Marginal
. Função de Distribuição Conjunta Acumulada e Função de Densidade de Probabilidade Marginal ( ) 9 F ( ) P( y ) / 4 Por vezes o interesse do pesquisador recai sobre as chances de ocorrência de um subconjunto
Leia maisEET-61 Introdução a Teoria da Informação
EET-61 Introdução a Teoria da Informação Aula 3- Codificação de Canal October 24, 2018 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits.
Leia maisExpressões e Gramáticas Regulares e Autómatos Finitos
Folha Prática Expressões e Gramáticas Regulares e Autómatos Finitos 1 Expressões e Gramáticas Regulares e Autómatos Finitos Expressões Regulares e Autómatos Finitos 1. Determine e implemente computacionalmente
Leia maisPrincípios de Comunicação: Simulação /2
Princípios de Comunicação: Simulação 2 2015/2 18 de Novembro de 2015 Instruções 1. A simulação poderá ser feita em Matlab, Scilab ou C++; 2. A simulação deve ser entregue sob a forma de relatório em formato
Leia maisCOMPRESSÃO E CODIFICAÇÃO SEM PERDAS. Mauro Nogueira Mônica Festa Paulo Antiquera
COMPRESSÃO E CODIFICAÇÃO SEM PERDAS Mauro Nogueira Mônica Festa Paulo Antiquera Introdução Armazenamento ou transmissão compressão (compactação) de dados Compressão sem perdas Imagens médicas documentos
Leia maisFormatos Imagem. Licenciatura em Engenharia Informática e de Computadores Computação Gráfica. Apontamentos CG Edward Angel, Sec. 8.
Licenciatura em Engenharia Informática e de Computadores Computação Gráfica Formatos Imagem Apontamentos CG Edward Angel, Sec. 8.2 Siglas DIB: Device Independent Bitmap windows BMP: Windows Bitmap GIF:
Leia maisProcessamento Digital de Imagens. Quantização de Imagens
Processamento Digital de Imagens Quantização de Imagens Eduardo A. B. da Silva Programa de Engenharia Elétrica - COPPE/UFRJ Laboratório de Sinais, Multimídia e Telecomunicações eduardo@smt.ufrj.br Sergio
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM29008 LISTA DE EXERCÍCIOS #1 2016.2 Exercícios 1. Verifique se os seguintes
Leia maisProfessor: Jarbas Araújo.
Professor: Jarbas Araújo professorjarbasaraujo@gmail.com Sinais Digitais Analógicas 2 O que e o sinal Analógico? A onda senoidal possui um padrão que se repete (esse padrão é chamdo de ciclo). Cada ciclo
Leia mais3 3. Variáveis Aleatórias
ÍNDICE 3. VARIÁVEIS ALEATÓRIAS...49 3.. VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS...49 3.2. VARIÁVEIS DISCRETAS FUNÇÃO DE PROBABILIDADE E FUNÇÃO DISTRIBUIÇÃO DE PROBABILIDADE...50 3.2.. Função de probabilidade...50
Leia maisTRANSMISSÃO DE DADOS PROTEGIDOS POR CÓDIGOS CORRETORES DE ERRO
TRANSMISSÃO DE DADOS PROTEGIDOS POR CÓDIGOS CORRETORES DE ERRO Aluno: Débora Almeida Oliveira Orientador: Weiler Alves Finamore 1.Introdução Este trabalho tem como objetivo demonstrar a utilização de códigos
Leia maisAntes de começar o exame leia atentamente esta folha de rosto
Instituto Superior Técnico Licenciatura em Engenharia eroespacial Licenciatura em Engenharia Electrotécnica e de Computadores Sistemas Digitais Exame de 2ª Época 7 de Julho de 23 ntes de começar o exame
Leia maisCodificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações
AG Simples/Canônico (AGS) AG introduzido por Holland Funciona bem para problemas de otimização simples e/ou de pequenas dimensões A maior parte da teoria dos AGs está baseada no AGS Utilidade didática
Leia maisMODULAÇÃO POR CÓDIGO DE PULSO PCM
Instituto Federal de Santa Catarina Curso Técnico Integrado em Telecomunicações PRT- Princípios de Telecomunicações MODULAÇÃO POR CÓDIGO DE PULSO PCM Prof. Deise Monquelate Arndt Fontes: Princípios de
Leia mais1ª Série de Problemas
INSTITUTO SUPERIOR TÉCNICO MESTRADO INTEGRADO EM ENGENHARIA ELECTROTÉCNICA E DE COMPUTADORES 1ª Série de Problemas de Sistemas e Redes de Telecomunicações Ano Lectivo de 2007/2008 Abril 2008 1 Na resolução
Leia maisAntes de começar o exame leia atentamente esta folha de rosto
Instituto Superior Técnico Licenciatura em Ciências Informáticas Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia Electrotécnica e de Computadores Sistemas Digitais Exame de ª Época
Leia mais