DO ANALÓGICO AO DIGITAL: CONCEITOS E TÉCNICAS BÁSICASB Fernando Pereira Instituto Superior TécnicoT
Digitalização Processo onde se expressa informação analógica de forma digital. A informação analógica implica continuidade enquanto a informação digital implica discretização, e.g símbolos, bits. Vantagens da digitalização: Facilidade de processamento Facilidade de comprimir Facilidade de multiplexar Facilidade em proteger Potências mais baixas... 134 135 132 12 15... 133 134 133 133 11... 130 133 132 16 12... 137 135 13 14 13... 140 135 134 14 12...
Amostragem ou Discretização no Tempo Processo onde se obtém de forma periódica uma sequência de amostras do sinal. A amostragem é governada pelo Teorema da Amostragem ou Teorema de Nyquist que especifica: Um sinal analógico pode ser completamente reconstruído a partir de uma sequência periódica de amostras se a frequência de amostragem for de, pelo menos, duas vezes a frequência máxima presente no sinal amostrado.
Quantificação ou Discretização na Amplitude Processo através do qual a gama contínua de variação de um sinal à entrada é dividida em intervalos não sobrepostos e a cada um destes intervalos é atribuído um valor discreto na saída. 7 Saída Entrada contínua Saída discreta 5 3 1 0 1 2 3 4 5 6 7 8 9 Entrada
Quantificação com 2 Níveis Níveis de reconstrução Saída 192 64 Imagem a 1 bit/pixel (bínível) 0 128 255 Entrada Limiares de decisão Imagem a 8 bit/pixel
Quantificação com 4 Níveis Níveis de reconstrução Saída 224 160 96 32 Imagem a 2 bit/pixel 0 64 128 192 255 Entrada Limiares de decisão Imagem a 8 bit/pixel
Quantificação Uniforme 4 bit/amostra 2 bit/amostra 3 bit/amostra 1 bit/amostra
Quantificação Não Uniforme Para muitos sinais, p.e. voz, a quantificação linear ou uniforme não é a melhor escolha em termos da minimização do erro quadrático médio (e logo da maximização de SQR) em virtude da estatística não uniforme do sinal. 7 5 3 1 0 1 2 3 4 5 6 7 8 9 Saída Entrada Para muitos sinais, p.e. voz, a quantificação linear ou uniforme não é a melhor escolha em termos da minimização do erro quadrático médio (e logo da maximização de SQR) em virtude da estatística não uniforme do sinal. Além disso, para alcançar um certo SQR, menores passos de quantificação devem ser usados para as menores amplitudes de sinal e vice-vesa.
Pulse Code Modulation (PCM) O PCM é a forma mais simples de codificação de fonte onde cada amostra é independentemente representada com o mesmo número de bits. Exemplo 1: Imagem com 600 400 amostras a 8 bit/amostra precisa de 600 400 8 = 1.92 Mbits para codificação PCM Exemplo 2: Áudio com 11 khz de largura de banda a 8 bit/amostra precisa de 11000 2 8 = 176 kbit/s para codificação PCM Sendo a forma mais simples de codificação, bem como a menos eficiente, o PCM é tipicamente usado como a referência para a avaliação das capacidades de compressão de codificadores de fonte mais potentes.
TV Digital: um Exemplo Recomendação ITU-R 601: 25 imagem/s com 720 576 amostras de luminância e 360 576 amostras de cada crominância a 8 bit/amostra [(720 576) + 2 (360 576)] 8 25 = 166 Mbit/s Débito aceitável, p.e. usando MPEG-2 Vídeo: 2-4 Mbit/s => Factor de Compressão: 166/2-4 40-80 A diferença de recursos exigidos entre formatos comprimidos e não comprimidos pode levar ao aparecimento ou não de uma nova indústria, p.e. TV digital, DVD.
Porquê Comprimir? Por exemplo, uma imagem é criada e consumida como um conjunto de M N amostras de luminância e crominâncias, com um certo número de bits por amostra (L) O número de bits - e logo a memória e a largura de banda necessário para representar digitalmente uma imagem é ENORME!!!
Codificação/Compressão (Digital) de Fonte Processo através do qual a informação criada por uma fonte, p.e. imagens, vídeo, áudio, é digitalmente representada levando em conta os requisitos relevantes como eficiência, resiliência a erros, acesso aleatório, complexidade, etc. Exemplo 1: Maximização da qualidade para um dado débito disponível Exemplo 2: Minimização do débito binário para uma dada qualidade objectivo
Dados originais, e.g. bits PCM Codificação de Fonte: Dados Originais, Símbolos e Bits Codificador de Símbolos (Modelo) Símbolos Codificador Codificador Entrópico Bits comprimidos O codificador representa a informação/dados original como uma sequência de símbolos e mais tarde bits, usando da melhor forma que sabe as ferramentas de codificação disponíveis, de modo a satisfazer os requisitos relevantes. O codificador extrai da informação o seu melhor.
Codificando e Descodificando D... Codificador Descodificador
Digitalização Eficiente: Amostragem + Quantificação + Codificação de Fonte
Principais Tipos de Codificação CODIFICAÇÃO EXACTA (SEM PERDAS) O sinal (p.e. imagem ou voz) é codificado preservando toda a informação presente; isto significa que o sinal original e o sinal descodificado são matematicamente idênticos. CODIFICAÇÃO COM PERDAS O sinal é codificado sem preservar toda a informação presente; isto significa que o sinal original e descodificado são matematicamente diferentes ainda que possam parecer subjectivamente idênticos (codificação transparente). Codificador com perdas Visualmente transparente Original Visualmente diferente
Mas Afinal de Onde Vem a Compressão? REDUNDÂNCIA Relacionada com as semelhanças, correlação e preditabilidade das amostras e símbolos correspondentes à informação de imagem/vídeo/áudio/voz. -> a redução de redundância não envolve qualquer perda da informação original ou seja é um processo reversível > codificação sem perdas (lossless coding) IRRELEVÂNCIA Relacionada com a parte da informação original que é imperceptível para o sistema visual ou auditivo humano -> a redução de irrelevância é um processo irreversível -> codificação com perdas (lossy coding) A codificação de fonte explora estes dois conceitos; para isso, é essencial ter conhecimento sobre a estatística da fonte e sobre as características do sistema visual/auditivo humanos.
Teoria da Informação: Entropia da Fonte A Teoria da Informação indica um limite inferior para o comprimento médio do código que permite codificar m mensagens duma fonte de informação, cada uma delas com probabilidade p i. Esse limite é dado pela entropia da fonte de informação calculada através de: H = Σ p i log 2 ( 1/p i ) bit/símbolo que apresenta as seguintes propriedades: mede a quantidade de informação média transportada por cada símbolo é uma função convexa das probabilidade p i o seu valor máximo ocorre quando todos os p i são iguais o seu valor máximo é log 2 m bits/símbolo A Teoria da Informação não indica como encontrar o código que corresponde a este valor, mas existem métodos que permitem encontrar códigos que se aproximam deste valor tanto quanto se desejar.
Redundância Estatística stica Define-se REDUNDÂNCIA ESTATÍSTICA de uma fonte, R(X), como a diferença entre a entropia máxima possível e a entropia da fonte R(X) = log 2 m - H(X) R(X) > 0 implica preditabilidade dos símbolos gerados pela fonte que se manifesta de dois modos: Dependência estatística (memória) entre símbolos sucessivos do sinal gerado Distribuição desigual das probabilidades dos símbolos do alfabeto da fonte A exploração destes factores conduz à diminuição dos dados associados à representação de uma imagem, vídeo, v etc.
Métricas de Compressão Factor de Compressão = Número de bits PCM para a imagem original Número de bits para a imagem codificada Bit/pixel = Número de bits para a imagem codificada Número de pixels na imagem (tipicam. amostras Y) O número de pixels de uma imagem corresponde ao número de amostras da sua componente com mais resolução, tipicamente a luminância.
Sistema Visual Humano É essencial lembrar que a informação visual é consumida pelo Sistema Visual Humano! O Sistema Visual Humano é o cliente que deve ser satisfeito em termos de qualidade visual!
Sistema Auditivo Humano É essencial lembrar que a informação auditiva é consumida pelo Sistema Auditivo Humano! O Sistema Auditivo Humano é o cliente que deve ser satisfeito em termos de qualidade áudio!
Métricas de Qualidade Compressão X(m,n) Y(m,n) Avaliação subjectiva Avaliação objectiva e.g., votos numa escala de 5 níveis PSNR(dB) = 10log MSE 1 MN M N = i= 1 j= 1 10 2 255 MSE ( y x ij ij ) 2
Como Falha o PSNR Espelhamento horizontal PSNR: 50.98 db Qualidade subjectiva: X PSNR: 14.59 db Qualidade subjectiva: X
Codificação de Canal Processo aplicado aos bits à saída do codificador de fonte de modo a aumentar a sua robustez contra erros de transmissão ou de armazenamento. No emissor, é adicionada redundância ao sinal digital comprimido de forma a permitir ao descodificador de canal a detecção e correcção de erros. A introdução de redundância resulta num aumento do volume de dados a transmitir. A escolha da codificação de canal deve ter em conta o tipo de canal e de modulação. Símbolos com Informação Útil m n R = m/n = 1 k/n Símbolos Correctores k Códigos de Blocos
Modulação Digital Processo através do qual uma ou mais características de uma portadora (amplitude, fase ou ângulo) é feita variar em função de um sinal modulante (o sinal a ser transmitido). A escolha adequada da modulação é essencial para o uso eficiente da banda de qualquer canal. Codificação e modulação juntas determinam a largura de banda necessária para a transmissão de um certo sinal digital. FSK ASK PSK
Escolhendo a Modulação Factores a ponderar na escolha de uma modulação: Características do canal Eficiência do espectro Resistência a distorções no canal Tolerância às imperfeições do transmissor e receptor Minimização dos requisitos de protecção contra interferências Técnicas básicas de modulação digital: Modulação em amplitude (ASK) Modulação em frequência (FSK) Modulação em fase (PSK) Mistura de amplitude e fase (QAM)
Constelação 64-QAM 45º 54º 67º 82º 36º 45º 59º 79º Apenas 64 símbolos 23º 31º 45º 72º modulados são 8º 11º 18º 45º 2 10 26 50 10 18 34 58 26 34 50 74 50 58 74 98 possíveis!
A Cadeia Típica T de Transmissão Digital... Digitalização Codificação de Fonte Codificação de Canal Modulação Sinal analógico Bits PCM Bits comprimidos Bits protegidos Símbolos modulados
Bibliografia Fundamentals of Digital Image Processing, Anil K. Jain, Prentice Hall, 1989 Digital Video Processing, A. Murat Tekalp, Prentice Hall, 1995