Segundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014
|
|
- Theodoro Canário Fraga
- 5 Há anos
- Visualizações:
Transcrição
1 Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro teste (90 minutos): Parte I, questões 1 10, Parte II, Problemas 1 e 2. Segundo teste (90 minutos): Parte I, questões 11 20; Parte II, Problema 3. Parte I 2. Parte I (exame): resposta certa = 0.5 valores; resposta errada = 0.25 valores. 3. Parte I (testes): resposta certa = 1 valor; resposta errada = 0.5 valores.. Factos potencialmente úteis: log 10 (2) 0.30; log ; log 2 (5) 2.322; log 2 (7) Considere dois baralhos (A e B) de cartas convencionais (52 cartas). Seja H 1 a quantidade de informação (em bits) adquirida ao extrair de modo aleatório e observar uma carta do baralho A. Seja H 2 a quantidade de informação (em bits) adquirida ao extrair de modo aleatório e observar um par de cartas, uma de cada baralho. Então, a) H 2 = 1 2 H 1. b) H 2 = 2 H 1. c) nenhuma das resposta anteriores. 2. Considere ainda dois baralhos de cartas convencionais (52 cartas) distinguíveis (por exemplo, com o verso da carta em cores diferentes). Seja X a variável aleatória obtida do seguinte modo: primeiro, escolhe-se um dos dois baralhos, atirando ao ar uma moeda equilibrada; do baralho escolhido, extrai-se uma carta de modo aleatório. Sendo H(X) a entropia de X, tem-se que a) H(X) = 1 + log 2 52 bits/carta. b) H(X) = 2 log 2 52 bits/carta. c) nenhuma das resposta anteriores. 3. Sejam X, Y {1, 2,..., 6} duas variáveis representando o resultado do lançamento de dois dados equilibrados independentes e U = X Y o valor absoluto da sua diferença; então, a) H(U) < 1 + log 2 3 bits/símbolo; b) H(U) = 1 + log 2 3 bits/símbolo; c) H(U) > 1 + log 2 3 bits/símbolo.. Considere as variáveis aleatórias X, Y e U definidas na questão anterior e uma outra variável Z = X Y. Então, a) I(U, Z) = H(U); b) I(U, Z) = H(Z); c) nenhuma das resposta anteriores. 5. Considere as variáveis aleatórias X, Y e U definidas na questão 3 e uma variável T = X + Y ; então, a) H(U, T ) < H(X, Y ); b) H(U, T ) = H(X, Y ); c) H(U, T ) > H(X, Y ). 1
2 6. Considere uma fonte sem memória que gera símbolos do alfabeto X = {1, 2, 3,, 5} com probabilidades p 1 = 0.23, p 2 = 0.2, p 3 = 0.26, p = 0.27 e p 5 = 0. O comprimento médio do código binário óptimo para esta fonte é a) < 2 bits/símbolo; b) = 2 bits/símbolo; c) > 2 bits/símbolo. 7. Considere uma fonte X gerando símbolos de um alfabeto com N símbolos, com distribuição de probabilidades uniforme (todos os símbolos com probabilidade 1/N). Pode então afirmar-se que, necessariamente, a) o comprimento médio do código binário óptimo é igual log 2 N; b) o código binário óptimo tem todas as palavras com o mesmo comprimento; c) um código binário óptimo pode não ser um código de Huffman. 8. Considere uma fonte sem memória com alfabeto X = {1, 2, 3} e distribuição de probabilidades p 1 = 1/2, p 2 = 1/ e p 3 = 1/. O comprimento médio do código ternário óptimo para a extensão de segunda ordem desta fonte é a) < 1 trit/símbolo; b) = 1 trit/símbolo; c) > 1 trit/símbolo. 9. Considere uma fonte Markoviana, de primeira ordem, com alfabeto X = {1, 2, 3} e a seguinte matriz de transição: 0 1/2 1/2 P = 3/ 0 1/. 1/3 1/3 1/3 A distribuição estacionária desta fonte é p = [1/1, 12/1, 15/1] T. O comprimento médio do esquema de codificação binária óptimo é a) < /5 bit/símbolo; b) = /5 bit/símbolo; c) > /5 bit/símbolo. 10. Considere uma fonte X {1, 2, 3,..., N}, com distribuição de probabilidades uniforme: p 1 = p 2 =... = p N = 1/N, com N 3. Para esta fonte, o número de códigos binários óptimos a) é necessariamenge igual a N!; b) é necessariamenge menor que N!; c) pode ser maior que N!. 11. Considere a fonte definida na questão anterior; o terceiro bit da palavra de código aritmético binário para a sequência de símbolos a) é necessariamente 0; b) é necessariamente 1; c) depende dos símbolos que se seguem. 12. Qual das seguintes sequências corresponde à codificação Lempel-Ziv-Welch (LZW) da sequência ah ah ah ah ah do alfabeto {espaço, a, b, c, d, e, f, g, h}, assumindo que os índices do dicionário começam em 1? a) 2,9,1,10,12,11,13,10; b) 2,9,1,10,12,11,13,11; c) 2,9,1,10,12,11,13,12. 2
3 13. Considerando o mesmo alfabeto da questão anterior (e os índices do dicionário a começar em 1), qual das seguintes sequências não é descodificável por um descodificador LZW? a) 2,1,2,2,,13,13; b) 2,1,2,2,,1,13; c) 2,1,2,2,,15, Considere a variável aleatória X [0, 1] com função densidade de probabilidade f X (x) e uma outra variável real Y [0, 1], função da primeira: Y = g(x), onde g : [0, 1] [0, 1], é uma função injectiva. Então, verifica-se necessariamente que a) h(y ) = h(x); b) h(y ) h(x); c) nenhuma das respostas anteriores. 15. Considere a variável aleatória X [ 1, 1] com função densidade de probabilidade dada por f X (x) = 1/3, para x [ 1, 0] e f X (x) = 2/3, para x [1, 0]. Então, a) h(x) = log ; b) h(x) = 1; c) h(x) = log Considere uma fonte X [0, π], com função densidade de probabilidade f X (x) = ( 1 2 ) sin(x), ligada a um quantizador uniforme de 3 bits. O representante óptimo de cada uma das regiões a) localiza-se sempre à direita do centro da região; b) localiza-se sempre à esquerda do centro da região; c) nenhuma das respostas anteriores. 17. Considere uma fonte Z [ π, π], com função densidade de probabilidade f Z (z) = ( 1 ) sin(z) e um quantizador de 1 bit com as duas seguintes regiões: R 0 = [ π, 0] e R 1 = [0, π]. O representante óptimo da região R 1 é a) y 1 < π 2 ; b) y 1 = π 2 ; c) y 1 > π Considere uma fonte Y [ π, π], com função densidade de probabilidade uniforme, e um quantizador uniforme de bits. O erro quadrático médio de quantização é a) < π2 102 ; b) = π2 102 ; c) > π Considere ainda a fonte da pergunta 16, agora ligada a quantizador de 1 bit, cujos representantes são y 0 = π 3 e y 1 = π 2. Naturalmente, as regiões têm a forma R 0 = [0, a] e R 1 =]a, π]. O valor óptimo de a (isto é, aquele que conduz ao menor erro quadrático médio de quantização) é a) < π 2 ; b) = π 2 ; c) > π Considere uma fonte T [0, 2] com função densidade de probabilidade f T (t) = t/2, ligada a um quantizador uniforme de 1 bit (duas regiões de igual dimensão). A entropia da saída deste quantizador é igual a a) 1 bit/símbolo; b) 2 2 log bits/símbolo; c) 2 3 log 2 3 bits/símbolo. 3
4 Parte II Problema 1 Considere uma fonte discreta sem memória X que gera símbolos do alfabeto {1, 2, 3, }, com probabilidades onde ε [ 1/9, 1/9]. x P (X = x) 1/3 1/3 2/9 + ε 1/9 ε 1. Considere ε = 0 e determine a entropia da fonte em base 3, isto é, expressa em trits/símbolo (apresente uma expressão exacta, não um valor numérico aproximado). 2. Considerando agora ε = 1/18, determine um código ternário óptimo para esta fonte. 3. Considerando ainda ε = 1/18, quantos códigos ternários óptimos existem para esta fonte?. Considere agora o seguinte código binário: {C(1) = 00, C(2) = 010, C(3) = 1, C() = 011}. Para que valores de ε no intervalo indicado acima este código é óptimo? 5. Considere agora ε = 1/9; desenhe um código binário óptimo para a extensão de segunda ordem da fonte e determine o correspondente comprimento médio. Problema 2 Considere uma fonte markoviana de primeira ordem, X = (X 1, X 2,..., X t,...) com alfabeto {1, 2, 3, }, definida pela matriz de transição dada e cuja distribuição estacionária é a indicada: 1/2 1/ /6 P = 1/2 1/ 1/ 0 1/2 1/ 1/8 1/8, p( ) = 2/6 7/6 1/2 1/ 1/8 1/8 1/6 1. Apresente um esquema de codificação binário óptimo para esta fonte e determine o comprimento médio resultante. 2. Apresente um esquema de codificação ternário óptimo para esta fonte e determine o comprimento médio resultante. 3. Apresente um esquema de codificação quaternário óptimo para esta fonte e determine o comprimento médio resultante.. Note que cada símbolo quaternário pode ser representado por 2 bits. Usando uma representação binária para as palavras de código quaternário obtidas na alínea anterior, calcule o comprimento médio resultante (em bits/símbolo) e compare com o resultado da alínea 1. Problema 3 Considere uma variável aleatória real X, com função densidade de probabilidade { 1 f X (x) = sin( x ) x [ π, π] 0 x [ π, π] 1. Para um quantizador uniforme de 1 bit, isto é, com 2 regiões de igual dimensão, determine os correspondentes representantes óptimos. 2. Para um quantizador uniforme de 2 bits, isto é, com regiões de igual dimensão, determine os correspondentes representantes óptimos. (Nota 1: a primitiva da função x sin x é conhecida: P [x sin x] = sin x x cos x. Nota 2: tire partido das várias simetrias do problema.)
5 3. Repita a alínea 1, considerando agora que a função densidade de probabilidade de X é { 3 f X (x) = ( x 1)2 x [ 2, 2] 0 x [ 2, 2]. Determine o valor exacto do erro quadrático médio do quantizador obtido na alínea anterior. 5. Determine a aproximação de alta resolução do erro quadrático médio do quantizador obtido na alínea 3; compare com o valor exacto e justifique brevemente a diferença. 5
6 6
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste
Leia maisCOMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522
Teoria da Informação (4-) Exame de ecurso (-7-). Canais discretos sem memória e p =,: esolução X -p p p -p Y W ε ε ε -ε -ε -ε Z Canal A Canal B Vamos representar P(X = i) por P(X i ), etc. PY ( ) = P(
Leia maisTÉCNICAS DE CODIFICAÇÃO DE SINAIS
TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia
Leia maisFACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO
FACULDADE DE TALENTOS HUMANOS DEPARTAMENTO DE ENGENHARIA ELÉTRICA PROCEDIMENTOS EXPERIMENTAIS DE COMUNICAÇÃO DIGITAL II PARA TELECOMUNICAÇÃO PROF. ENG. ESP. ANTONIO CARLOS LEMOS JÚNIOR acjunior@facthus.edu.br
Leia maisCompressão e Codificação de Dados Segundo Exame e Primeiro/Segundo Teste
Compressão e Codificação de Dados Segundo Exame e Primeiro/Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 29 de Janeiro de 213 WARNING: there were several different versions
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM98 LISTA DE EXERCÍCIOS # 8. Exercícios. [, 9.5] Um processo estocástico gaussiano,
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log
Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )
Leia maisInstituto Superior Técnico. 19 de Janeiro de 2001. Parte I
Exame de Compressão e Codificação de Dados Secção de Telecomunicacções DEEC, Instituto Superior Técnico 19 de Janeiro de 1 Parte I Esta parte do exame é constituida por 20 perguntas de resposta múltipla.
Leia maisEEC4164 Telecomunicações 2
Licenciatura em Engenharia Electrotécnica e de Computadores EEC4164 Telecomunicações (00/003) 1ª Parte Duração: 1 hora (sem consulta) 1ª chamada 4 de Janeiro de 003 1. a) Uma alternativa a PCM é a modulação
Leia maisMódulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira
Módulo 5 Codificação Sistemas Multimédia Ana Tomé José Vieira Departamento de Electrónica, Telecomunicações e Informática Universidade de Aveiro Sumário Códigos binários Representação de informação com
Leia maisCanais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisPré-Processamento de Documentos
Pré-Processamento de Documentos Introdução Pré-Processamento : Análise léxica; Stopwords; Stemming; Vocabulário; Thesaurus Compressão: Fundamentos; Método Estatístico; Método Dicionário; Arquivos Invertidos
Leia maisFundamentos de Telecomunicações
Fundamentos de Telecomunicações LEEC_FT 4,5&6: Teoria da Informação Codificação de Fonte Professor Victor Barroso vab@isr.ist.utl.t Lição 4 Informação e Entroia Introdução Incerteza, robabilidade e informação
Leia maisuniversidade federal de pernambuco departamento de estatística
soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas
Leia maisPrincípios Básicos de Teoria da Informação
Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova 3
Prova 3 6/08/010 Aluno: Matrícula: Questão 1 ( pontos) Queremos transmitir a seguinte sequência de bits: 1001110010 Esboce o sinal transmitido para os seguintes esquemas (0, ponto cada): a) sinalização
Leia maisAlgoritmos de Compressão sem Perdas
Algoritmos de Compressão sem Perdas (continuação) Aula 08 Diogo Pinheiro Fernandes Pedrosa Universidade Federal Rural do Semiárido Departamento de Ciências Exatas e Naturais Curso de Ciência da Computação
Leia maisProblemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual
Leia maisTE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Leia maisTeoria de distorção da taxa
Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades
Leia maisSistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 23 de novembro de 2016 Compressão de imagens engloba técnicas
Leia maisTelevisão Digital. Codificação de Entropia Códigos de Huffman. Hélio Manuel Gonçalves Jaco
Codificação de Entropia Códigos de Huffman Hélio Manuel Gonçalves Jaco Porto, Outubro de 2006 1. Objectivo Desenvolver um programa que gere códigos de Huffman de imagens às quais foi aplicada uma transformada
Leia maisCompressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré
Compressão Sem Perdas: Codificações Huffman e Aritmética Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas (Lossless Data Compression) Refere-se a métodos de compressão
Leia maisTipos de códigos de fonte
Tipos de códigos de fonte Luis Henrique Assumpção Lolis 13 de setembro de 2013 Luis Henrique Assumpção Lolis Tipos de códigos de fonte 1 Conteúdo 1 Código de prefixo 2 Código de Fano 3 Código de Huffman
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisEET-49 Comunicações II
EET-49 Comunicações II Parte 4 - Codificação sem perda de informação March 20, 2012 1 Introdução Realizar a codificação da fonte é representá-la da menor forma possível Se a utilização não permite a perda
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho.
Tópicos em Recuperação de Informação Nivio Ziviani Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho. 1 Compressão de Índices Arquivos invertidos são amplamente
Leia maisCodificação de Huffman
Codificação de Huffman Bruna Gregory Palm 11 de setembro de 2017 A codificação de Huffman é um método de compressão que considera as probabilidades de ocorrência de cada símbolo no conjunto de dados a
Leia maisNivio Ziviani. Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho
Tópicos em Recuperação de Informação 1 Nivio Ziviani 1 Conjunto de transparências elaborado por Nivio Ziviani, Patrícia Correia e Fabiano C. Botelho Tópicos em Recuperação de Informação - Nivio Ziviani
Leia maisFundamentos de Telecomunicações 2002/03
INSTITUTO SUPERIOR TÉCNICO Número: Fundamentos de Telecomunicações 2002/03 EXAME Janeiro, 2003 Duração: 20 minutos Nome: Pretende contabilizar as notas dos testes? sim não Assinatura A resolução do exame
Leia maisLicenciatura em Engenharia Electrotécnica e de Computadores. 1 a chamada Ou seja,
Licenciatura em Engenharia Electrotécnica e de Computadores Análise Numérica 1 a chamada 00-01-08 Resolução da Parte Prática 1 (a) O valor aproximado de w é obtido a partir dos valores aproximados de x,
Leia maisFundamentos da Compressão de Vídeo
Sistemas de Telecomunicações 2007-2008 Televisão Digital Fundamentos da Compressão de Vídeo Rui Marcelino Abril 2008 Engenharia Electrica e Electrónica - TIT Sumário 1. Motivação para Compressão de Vídeo
Leia maisCompressão de Imagens. Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE
Compressão de Imagens Lilian Nogueira de Faria (Bolsista)...DPI/INPE Leila Maria Garcia Fonseca (Coordenadora)...DPI/INPE Imagens digitais necessitam de grande quantidade de espaço para armazenamento e
Leia maisCompressão de Dados. Prof. Flávio Humberto Cabral Nunes
Compressão de Dados Prof. Flávio Humberto Cabral Nunes Conteúdo 1. Introdução 2. Compressão Unária 3. Compressão Elias-Gama 4. Run Length Encoding 5. Huffman 6. LZ77, LZ78 e LZW Capítulo: 12 (POSTIL).
Leia maisProblemas de Processamento de Sinais Estruturas de Sistemas Discretos
Problemas de Processamento de Sinais Estruturas de Sistemas Discretos. Determine a função de transferência dos sistemas que se seguem. Mostre que têm os mesmos pólos. r cosθ r r cosθ r senθ r senθ r cosθ.
Leia maisParte 1 Questões Teóricas
Universidade de Brasília (UnB) Faculdade de Tecnologia (FT) Departamento de Engenharia Elétrica (ENE) Disciplina: Processamento de Imagens Profa.: Mylène C.Q. de Farias Semestre: 2014.2 LISTA 04 Entrega:
Leia maisTécnicas de Compactação e Compressão. Compressão. Técnicas de Compactação e Compressão. Compactação x Compressão
Departamento de Engenharia de Telecomunicações - UFF Técnicas de Compactação e Compressão Profa. Débora Christina Muchaluat Saade deborams@telecom.uff.br Técnicas de Compactação e Compressão Compactação
Leia maisCódigos convolucionais
Códigos convolucionais Luis Henrique Assumpção Lolis 29 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos convolucionais 1 Conteúdo 1 Introdução e definição 2 Diagrama de árvores, de treliça e
Leia maisUniversidade de Pernambuco Escola Politécnica de Pernambuco
Universidade de Pernambuco Escola Politécnica de Pernambuco TV Analógica e Digital Codificação de Fonte Prof. Márcio Lima E-mail:marcio.lima@poli.br 12.06.2014 Introdução A principal função de um sistema
Leia maisINSTITUTO SUPERIOR TÉCNICO Mestrado em Engenharia Electrotécnica e de Computadores Ano Lectivo: 2007/2008 Semestre: 2 o
INSTITUTO SUPERIOR TÉCNICO Mestrado em Engenharia Electrotécnica e de Computadores Ano Lectivo: 2007/2008 Semestre: 2 o MATEMÁTICA COMPUTACIONAL Eercícios 1 1.1 Represente num sistema de ponto flutuante
Leia maisTE060 Princípios de Comunicação. Sistemas de Comunicação Digital Notes. Por quê Digital? Notes. Notes. Evelio M. G. Fernández. 5 de novembro de 2013
TE060 Princípios de Comunicação Modulação de Pulso 5 de novembro de 2013 Sistemas de Comunicação Digital Sistema digital no sentido de utilizar uma sequência de símbolos pertencentes a um conjunto finito
Leia maisExercícios de Telecomunicações 2
Departamento de Engenharia Electrotécnica e de Computadores Exercícios de Telecomunicações 2 (2004-2005) Sílvio A. Abrantes e Artur Moura Transmissão em banda-base 2.1. Um terminal gera 1250 caracteres/s,
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisTE-060 PRINCÍPIOS DE COMUNICAÇÃO Prof. Evelio M. G. Fernández LISTA DE EXERCÍCIOS N 3
f(x) 3 1 1.- O sinal xt πt πt 1 cos 1 sin 1 TE-6 PRINCÍPIOS DE COMUNICAÇÃO Prof. Evelio M. G. Fernández LISTA DE EXERCÍCIOS N 3 3 Volts, é amostrado e processado por um quantizador uniforme de 7 its, funcionando
Leia maisFormatação de fonte. PCM ( Pulse Code Modulation )
Formatação de fonte PCM ( Pulse Code Modulation ) Elementos básicos de um sistema PCM A obtenção de um sinal PCM envolve três operações: 1. Amostragem. uantização (uniforme ou não-uniforme) 3. Codificação
Leia maisI-11 Digitalização e Reconstrução
I-11 Digitalização e Reconstrução Comunicações ( de novembro de 017) ISEL - ADEETC - Comunicações 1 Sumário 1. Enquadramento em SCD Transmissão de sinal analógico sobre SCD. Teorema da Amostragem Ritmo
Leia mais2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Leia maisEEC4164 Telecomunicações 2
Departamento de Engenharia Electrotécnica e de Computadores EEC4164 Telecomunicações 2 (2001/2002) 1ª Parte Duração: 1 hora (sem consulta) 1ª chamada 4 de Janeiro de 2002 1. a) Mostre que a potência média
Leia maisCodificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações
AG Simples/Canônico (AGS) AG introduzido por Holland Funciona bem para problemas de otimização simples e/ou de pequenas dimensões A maior parte da teoria dos AGs está baseada no AGS Utilidade didática
Leia maisTelevisão Digital 5ºano 2006/2007. Compressão/Descompressão de Imagens JPEG. Trabalho realizado por: Carla Neves, nº
Televisão Digital 5ºano 2006/2007 Compressão/Descompressão de Imagens JPEG Trabalho realizado por: Carla Neves, nº010503162 Índice Índice... pág2 Introdução... pág.3 Objectivos... pág.5 Implementação...
Leia maisAntes de começar o exame leia atentamente esta folha de rosto
Instituto Superior Técnico Licenciatura em Engenharia eroespacial Licenciatura em Engenharia Electrotécnica e de Computadores Sistemas Digitais Exame de 2ª Época 7 de Julho de 23 ntes de começar o exame
Leia maisI-8 Digitalização e Reconstrução
I-8 Digitalização e Reconstrução Comunicações (15 de novembro de 2016) ISEL - ADEETC - Comunicações 1 Sumário 1. Enquadramento em SCD Transmissão de sinal analógico sobre SCD 2. Teorema da Amostragem Ritmo
Leia maisTEORIA DE INFORMAÇÃO UM NANOCURSO
TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set. 2016 Centenário de Shannon - SBrT - Santarém Dedicação: a memória de Claude Shannon Claude Shannon 1916-2001 matemático, engenheiro eletrônico,
Leia maisComunicação de Dados Quantização Aula-15
Comunicação de Dados Aula-15 Professor: Andrei Piccinini Legg Santa Maria, 2012 Sumário 1 2 3 Sumário Considere, como exemplo, que após um processo de amostragem de um sinal variando entre -3,5V e 3,5V,
Leia mais4 C odigos de Huffman 4.1 Arvores de c odigo folhas os internos n ıvel altura Arvore bin aria arvore bin aria ordenada
4 Códigos de Huffman 4.1 Árvores de código Numa árvore qualquer, os nós que não têm filhos são chamados de folhas e os demais nós são chamados de nós internos. Se um nó de uma árvore é filho de outro,
Leia maiscanal para sinais contínuos
Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos
Leia maisUNIVERSIDADE FEDERAL DE PERNAMBUCO Lista de Exercícios / Cálculo Numérico 1ª Unidade
1) Analise as alternativas abaixo e marque V para verdadeiro e F para falso. No segundo caso, explique como as tornaria verdadeiras: ( ) O método das secantes é utilizado para solucionar um problema de
Leia maisCódigos de Detecção de Erros 2ª. parte. Prof. Ricardo de O. Duarte DECOM - UFOP
Códigos de Detecção de Erros 2ª. parte Prof. Ricardo de O. Duarte DECOM - UFOP Códigos de Checksum Principais características: Código separável. Usados em Pen-drives, HDs, Floppy Disks, Redes. Código Não
Leia maisEntropia, Entropia Relativa
Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos
Leia maisTópicos Avançados em Algoritmos
Tópicos Avançados em Algoritmos Armando Matos 2008 Departamento de Ciência de Computadores Faculdade de Ciências da Universidade do Porto 2 Tópicos Avançados de Algoritmos Armando B. Matos DCC-FC-UP 2009
Leia maisX(t) = A cos(2πf c t + Θ)
Exercícios Extras de Comunicações Digitais. Seja um sinal aleatório X(t), estacionário no sentido restrito, dado por onde X(t) = A cos(πf c t + Θ) A é uma variável aleatória Gaussiana com média de 4Volts
Leia maisTRANSMISSÃO DE DADOS PROTEGIDOS POR CÓDIGOS CORRETORES DE ERRO
TRANSMISSÃO DE DADOS PROTEGIDOS POR CÓDIGOS CORRETORES DE ERRO Aluno: Débora Almeida Oliveira Orientador: Weiler Alves Finamore 1.Introdução Este trabalho tem como objetivo demonstrar a utilização de códigos
Leia maisSUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49
SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo
Leia maisIntrodução a Algoritmos Genéticos
Introdução a Algoritmos Genéticos Tiago da Conceição Mota Laboratório de Inteligência Computacional Núcleo de Computação Eletrônica Universidade Federal do Rio de Janeiro Outubro de 2007 O Que São? Busca
Leia maisSEGUNDO Massey [1] a história da criptologia mostra
REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de
Leia maisÁlgebra Booleana. UNIVERSIDADE DA BEIRA INTERIOR Faculdade de Engenharia Departamento de Informática
Arquitectura de Computadores I Engenharia Informática (11537) Tecnologias e Sistemas de Informação (6616) Álgebra Booleana Nuno Pombo / Miguel Neto Arquitectura Computadores I 2014/2015 1 Nas primeiras
Leia maisMAT 103 Complementos de Matemática para Contabilidade e Administração Prova 2 D 26 de Junho de 2008
MAT 103 Complementos de Matemática para Contabilidade e Administração Prova D 6 de Junho de 008 Nome: RG: Assinatura: Instruções A duração da prova é de uma hora e quarenta minutos. Assinale as alternativas
Leia maisMAT 103 Complementos de Matemática para Contabilidade e Administração Prova 2 C 26 de Junho de 2008
MAT 103 Complementos de Matemática para Contabilidade e Administração Prova C 6 de Junho de 008 Nome: RG: Assinatura: Instruções A duração da prova é de uma hora e quarenta minutos. Assinale as alternativas
Leia maisI-7 Digitalização e Reconstrução
I-7 Digitalização e Reconstrução (29 Novembro 2010) 1 Sumário 1. Teorema da Amostragem 1. Ritmo de Nyquist 2. Amostragem Ideal e Natural (análise no tempo e na frequência) 1. Sinais Passa Baixo 2. Sinais
Leia maisUNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
Leia maisUm Esquema de Codificação Homofônica Universal Utilizando o Algoritmo LZW
Um Esquema de Codificação Homofônica Universal Utilizando o Algoritmo LZW Daniel da R. Simões e Valdemar C. da Rocha Jr. Resumo Este artigo pretende analisar uma aplicação da codificação de fonte em criptografia,
Leia maisUNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE ENGENHARIA ELÉTRICA CURSO DE GRADUAÇÃO EM ENGENHARIA ELETRÔNICA E DE TELECOMUNICAÇÕES
UNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE ENGENHARIA ELÉTRICA CURSO DE GRADUAÇÃO EM ENGENHARIA ELETRÔNICA E DE TELECOMUNICAÇÕES Gabriel Dos Santos Ferreira De Faria COMPARAÇÃO ENTRE OS ALGORITMOS
Leia maisResolução do Exame Tipo
Departamento de Matemática e Engenharias Análise e Computação Numérica Resolução do Exame Tipo 1. O computador IBM 3090 possuía um sistema de vírgula flutuante F F(16, 5, 65, 62) (em precisão simples),
Leia maisCOMPRESSÃO E CODIFICAÇÃO SEM PERDAS. Mauro Nogueira Mônica Festa Paulo Antiquera
COMPRESSÃO E CODIFICAÇÃO SEM PERDAS Mauro Nogueira Mônica Festa Paulo Antiquera Introdução Armazenamento ou transmissão compressão (compactação) de dados Compressão sem perdas Imagens médicas documentos
Leia mais6 Inserção Seletiva de Nulos
6 Inserção Seletiva de Nulos 6.1 Introdução Neste capítulo será apresentado o algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este algoritmo usa a técnica da esteganografia para esconder os símbolos codificados
Leia maisAmostragem de Sinais
UNIVERSIDADE FEDERAL DA PARAÍBA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA Amostragem de Sinais Prof. Juan Moises Mauricio Villanueva jmauricio@cear.ufpb.br 1 Amostragem (Sampling) Para um sinal
Leia maisINTRODUÇÃO À TEORIA DA INFORMAÇÃO
INTRODUÇÃO À TEORIA DA INFORMAÇÃO SISTEMA DE TRANSMISSÃO DIGITAL Oscodificadores defonte possuem a finalidade de casar a fonte de dados com o sistema levando em consideração a estatística de acontecimento
Leia maisModulações digitais. Quadrature Amplitude Modulation (QAM) Detecção coerente e probabilidade de erro
Modulações digitais 5 Quadrature Amplitude Modulation (QAM Detecção coerente e probabilidade de erro Quadrature Amplitude Modulation (QAM Sinal M-QAM: E0 E0 0 i( = icosπ c + isenπ c s t a f t b f t T T
Leia maisTeoria da Informação. Codificação de Fonte
Codificação de Fonte lucianol@inatel.br /62 Conteúdo e Referência. Revisão: Probabilidade e Variáveis Aleatórias 2. Fontes de informação amostragem e quantização 3. Princípios da 4. Compactação de Fonte
Leia maisExercícios de MATEMÁTICA COMPUTACIONAL. 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares
Exercícios de MATEMÁTICA COMPUTACIONAL Mestrado Integrado em Engenharia Biomédica 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares 1. Considere a equação sin(x) e x = 0. a) Prove que
Leia maisMAT 104 Cálculo 1 Prof. Paolo Piccione. Prova
MAT 104 Cálculo 1 Prof. Paolo Piccione Prova 1 26.04.2010 2010122 Nome: RG: Assinatura: Instruções A duração da prova é de uma hora e quarenta minutos. Assinale as alternativas corretas na folha de respostas
Leia maisMAT 104 Cálculo 1 Prof. Paolo Piccione. Prova
MAT 104 Cálculo 1 Prof. Paolo Piccione Prova 1 26.04.2010 2010122 Nome: RG: Assinatura: Instruções A duração da prova é de uma hora e quarenta minutos. Assinale as alternativas corretas na folha de respostas
Leia maisAntes de começar o exame leia atentamente esta folha de rosto
Instituto Superior Técnico Licenciatura em Ciências Informáticas Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia Electrotécnica e de Computadores Sistemas Digitais Exame de ª Época
Leia maisf(1) = 6 < 0, f(2) = 1 < 0, f(3) = 16 > 0 x [2, 3].
1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Métodos Numéricos Para Solução
Leia maisTeoria das Comunicações Prof. André Noll Barreto Prova /02
Prova 3 010/0 7/01/011 Aluno: Matrícula: Instruções A prova consiste em 4 questões discursivas. A prova terá a duração de h30. A prova pode ser feita a lápis ou caneta. Não é permitida consulta a notas
Leia maisPropagação e Antenas Exame 28 de Janeiro de Duração: 3 horas 28 de Janeiro de 2019
Propagação e Antenas Exame 8 de Janeiro de 9 Docente Responsável: Prof Carlos R Paiva Duração: horas 8 de Janeiro de 9 Ano Lectivo: 8 / 9 SEGUNDO EXAME (Neste problema considere unidades geométricas em
Leia maisPrincípios de Telecomunicações. PRT60806 Aula 19: Modulação por Código de Pulso (PCM) Professor: Bruno Fontana da silva 2014
1 Princípios de Telecomunicações PRT60806 Aula 19: Modulação por Código de Pulso (PCM) Professor: Bruno Fontana da silva 2014 Bloco de Comunicação Genérico Emissor sinais analógicos x sinais digitais Sinais
Leia maisAntes de começar o exame leia atentamente esta folha de rosto
Instituto Superior Técnico Licenciatura em Ciências Informáticas Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia Electrotécnica e de Computadores Sistemas Digitais Exame de 2ª
Leia maisUniversidade Federal do Rio Grande do Sul Instituto de Informática
Universidade Federal do Rio Grande do Sul Instituto de Informática INF01046: Fundamento de Processamento de Imagens PROFESSOR JACOB SCHARCANSKI Projeto II: Compactação de Imagens Autores: Charles Arnoud
Leia maisCONVERSÃO ANALÓGICA PARA DIGITAL
CONVERSÃO ANALÓGICA PARA DIGITAL CONVERSÃO ANALÓGICA PARA DIGITAL A maior parte dos sinais de interesse práticos são analógicos ( voz, biológicos, radar, sonar, comunicações ). Para processá-los por meios
Leia maisLista de exercícios de Análise Numérica
Lista de exercícios de Análise Numérica 1. Calcule 10 log x dx : 6 a) Usando a formula dos trapézios; b) Usando a fórmula do trapézio repetida 8 vezes c) Delimite o erro nos dois casos e compare-os. 2.
Leia maisUFPE CODEC ESTUDO DIRIGIDO TELEMÁTICA- COMUNICAÇÃO DE DADOS
UFPE CODEC ESTUDO DIRIGIDO TELEMÁTICA- COMUNICAÇÃO DE DADOS 1) Explique o processo de amostragem topo plano, e indique qual o valor adotado para o tempo de retenção? 2) Comente o funcionamento do conversor
Leia maisQuestão (a) 4.(b) 5.(a) 5.(b) 6.(a) 6.(b) 6.(c) 7 Cotação
Faculdade de Ciências Exatas e da Engenharia PROVA DE AVALIAÇÃO DE CONHECIMENTOS E COMPETÊNCIAS PARA ADMISSÃO AO ENSINO SUPERIOR PARA MAIORES DE ANOS - 018 Matemática - 1/0/018 Atenção: Justifique os raciocínios
Leia maisSM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017)
SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) Tópicos Propriedades dos códigos de fonte Código ótimo e código ideal Singularidade, descodificação única,
Leia maisAntes de começar o exame leia atentamente esta folha de rosto
Instituto Superior Técnico Licenciatura em Engenharia eroespacial Licenciatura em Engenharia Electrotécnica e de Computadores Sistemas Digitais Exame de ª Época de Julho de 4 ntes de começar o exame leia
Leia maisCÁLCULO DIFERENCIAL E INTEGRAL I (CDI-I) PROVA I 20/03/2013. O desenvolvimento de todos os cálculos deve estar presente na prova.
Universidade do Estado de Santa Catarina Centro de Ciências Tecnológicas - CCT Departamento de Matemática Antônio João Fidélis CÁLCULO DIFERENCIAL E INTEGRAL I (CDI-I) PROVA I 0/03/013 É proibido o uso
Leia maisexercícios de análise numérica II
exercícios de análise numérica II lic. matemática aplicada e computação (4/5) aulas práticas - capítulo Exercício. Mostre que a soma dos polinómios base de Lagrange é a função constante. Exercício. Usando
Leia maisCálculo Diferencial e Integral II
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Cálculo Diferencial e Integral II Ficha de trabalho 1 (versão de 6/0/009 (Esboço de Conjuntos. Topologia. Limites. Continuidade
Leia mais