Monitores 1-Conexões O primeiro passo para que as informações de um computador irem para uma tela. O processo todo começa quando um sinal de vídeo é enviado para o aparelho. Ele chega até ele por meio de um cabo externo, que pode ser VGA, HDMI, DVI ou qualquer outro dispositivo que permita a transmissão de dados para um monitor. Todos os tipos de conexão possuem a mesma função, porém o que muda entre um e outro é a quantidade de dados que estas conexões são capazes de transmitir em determinado tempo. Quanto mais rápido uma conexão for capaz de transmitir os dados, melhor será a qualidade de vídeo que aquele monitor poderá exibir. Por exemplo, se um filme for exibido através de um dispositivo blu-ray com certeza a melhor escolha neste momento seria uma conexão HDMI Tipos de conexões: VGA O VGA é um padrão de vídeo criado para os gráficos dos computadores. Esse padrão permite que imagens sejam transmitidas em tempo real de um computador para um monitor que tenha essa saída. VGA é a abreviação para Video Graphics Array que significa em português Padrão de Disposição Gráfica, trabalha em modo analógico, ou seja, serve para transmitir apenas imagens. O VGA foi introduzido pela IBM em 1987. DVI DVI, do inglês Digital Visual Interface (Interface Visual Digital) é um padrão de interface de vídeo criado por um consórcio de indústrias conhecido como Digital Display Working Group (DDWG) com o intuito de aumentar o máximo possível a qualidade dos dispositivos de vídeo digitais como monitores de LCD e projetores digitais. Esse padrão foi desenvolvido para transportar dados digitais não comprimidos para o vídeo. A conexão DVI é totalmente digital, ao contrário da VGA tradicional que é analógica e traz mais qualidade para a imagem nos monitores de cristal líquido. Com a conexão DVI evita-se o trabalho de ter que converter dados vindos da placa de vídeo para o formato analógico para transmissão e converter novamente para o digital pelo monitor LCD, desta maneira transmite dados mais rapidamente.
HDMI HDMI é um acrônimo para High-Definition Multimidia Interface (Interface Multimídia de Alta Definifição). O HDMI surgiu como um sistema de conexão de alta tecnologia que é capaz de transmitir áudio e vídeo através de um único cabo, ao invés do que acontecia anteriormente, onde cada tipo de transmissão possuía cabos e entradas exclusivas nos aparelhos. A primeira versão, o HDMI 1.0, além de toda a inovação de transmissão de áudio e vídeo por um único cabo, a uma velocidade de 4,95 Gbps (Gigabytes por segundo), esta versão permitia que seu usuário tivesse até 8 canais de áudio. A primeira revisão, lançada em maio de 2004 e chamada de HDMI 1.1, trouxe o suporte ao padrão DVD-Áudio. Em sua versão HDMI 1.2, lançada em agosto de 2005, o sistema passou a suportar formatos de áudio do tipo One Bit Audio e passava a ser utilizado também em computadores. Apesar de ter havido a versão 12a, o sistema só sofre uma alteração significativa em junho de 2006, com o lançamento do HDMI 1.3. Esta nova versão suportava maior frequência (até 340 Mhz) e numa velocidade de transmissão de 10,2 Gbps. Além disso, ela também ganhava uma inovação quanto a aparelhos utilizando o sistema: agora era possível conectar cabos HDMI a câmeras de vídeo portáteis, eliminando problemas de sincronismo entre áudio e vídeo. Ainda nesta versão, o sistema HDMI passou a suportar novos padrões de cores, de 30, 36 e 48 bits. Depois disso ainda foram realizadas pequenas alterações nas versões 1.3a e 1.3b, lançadas em novembro de 2006 e outubro de 2007 respectivamente.
2-Pixels Os pixels são pequenos pontos de imagem que, somados, compõem um quadro inteiro, formando uma imagem. Por exemplo, uma tela com resolução Full HD - 1920x1080 pixels. O primeiro número, 1920, corresponde ao número de linhas em que a tela será dividida. Já o segundo, 1080, corresponde ao número de colunas. Dessa forma você pode imaginar milhões de quadrados lado a lado para formar uma imagem. Para ser mais exato, em nosso exemplo da tela com resolução Full HD são exatos 2.073.600 quadrados de cor, ou pixels. A resolução de uma imagem é dado em pixels. Uma mesma imagem tem maior resolução quando possui mais pixels, isto é, quanto menor os pixels de uma imagem, maior a resolução da imagem. A quantidade de pixels em uma dada área é referenciada como resolução, a convenção é descrever a resolução em pixels como o conjunto de dois números positivos inteiros, em que o primeiro número é a quantidade de colunas (largura) de pixels e o segundo é número de linhas (altura) de pixels; algo como 640 X 480, por exemplo. Profundidade de cor, ou color depth, é um termo da computação gráfica que descreve a quantidade de bits usados para representar a cor de um único pixel numa imagem bitmap. Este conceito é conhecido também como bits por pixel (bpp), particularmente quando especificado junto com o número de bits usados. Quanto maior a quantidade da profundidade da cor presente na imagem, maior é a escala de cores disponível. O número de bits utilizados para descrever um pixel é conhecido como sua profundidade em bit (bit depth). Em um bit depth de 24 bits, 8 bits são dedicados para cada uma das 3 cores primárias: vermelho, verde e azul. Este bit depth também é chamado cor verdadeira porque ele pode produzir as 10 milhões de cores que o olho humano é capaz de perceber. Em 16 bits, o monitor só consegue gerar 65.536 cores. Os monitores passaram de 16 bits para 24 bits por trabalhar com acréscimos de 8 bits facilita a vida dos desenvolvedores e programadores. Em resumo, bit depth se refere ao número de bits utilizados para descrever a cor de um único pixel. O bit depth determina o número de cores que pode ser exibido ao mesmo tempo. A tabela a seguir mostra o número de cores que os diferentes bit depths podem produzir.
Tabela de Profundidade de cor Bit-Depth (bits) Número de cores 1 2 (monocromático) 2 4 (CGA) 4 16 (EGA) 8 256 (VGA) 16 65,536 (High Color, XGA) 24 16,777,216 (True Color, SVGA) 32 16,777,216 (True color + Canal alfa) 3-A evolução dos monitores. As telas evoluíram bem mais lentamente do que os outros aparelhos eletrônicos. Quando os primeiros computadores surgiram e começaram a ser utilizados industrialmente, as telas ainda não eram utilizadas. O resultado do trabalho dos computadores eram mostrados em cartões ou em impressoras que também são periféricos de saída de dados. A transferência de dados para uma tela sempre foi uma tarefa complexa. Nos primeiros computadores pessoais a televisão era utilizada como tela. A palavra monitor é utilizada para nomear a tela do computador pois a função da tela é justamente monitorar o que está acontecendo no computador. 4-Tipos de monitores CRT O primeiro tipo de monitor foi o CRT (Cathode Ray Tube ou Tubo de raios catódicos em português). O monitor de raios catódicos funciona comum feixe de elétrons que é projetado sobre uma tela que possui uma camada revestida com um composto de fósforo. A medida que este composto é estimulado pelo feixe de elétrons, partes do composto se tornam luminosas e mostram as imagens na tela. Eletroímãs posicionados no percurso do feixe de elétrons permitem que a trajetória do feixe seja modificada. A imagem formada é do tipo monocromática. Uma máscara colorida com pontos RGB (Red, Green, Blue) foi adicionada ao monitor de maneira que o feixe de elétrons iluminava os pontos individualmente, tornandose assim a base dos monitores coloridos. O monitor CRT é a tecnologia que ele possui a melhor fidelidade de cor e capacidade de reproduzir bem a escala de cor cinza comparando-se com as outras tecnologias. Por outro
lado o monitor do tipo CRT possui uma dificuldade de foco nas bordas das imagens. Eles possuem uma resolução menor que outras tecnologias além de ser pesado e gastar mais energia. Consumo de energia para um monitor de 17 polegadas: 75Watts/hora Plasma A tela de plasma foi criada em 1964 na Universidade Illinois. Um protótipo desta tela foi construído para demonstrar a tecnologia e logo depois patenteado. Porém a tecnologia demorou a ser utilizada em monitores por dificuldades tecnológicas. A empresa Fujitsu lançou em 1997 a primeira TV de plasma no mercado custando US$ 14999,00. O monitor de plasma utiliza a mesma tecnologia de uma lâmpada fluorescente. São células preenchidas com gás que ao serem energizadas emitem luz. Cada célula num monitor de plasma representa um pixel. Estas células são divididas em três tendo cada uma cor de fósforo (RGB), para que a tela se torne colorida. A tecnologia de plasma permitiu a diminuição da profundidade do monitor, além disso ele permite que o monitor seja bem visualizado em qualquer ângulo, ao contrário das tecnologias LCD por exemplo.
LCD O acrônimo LCD significa Liquid Cystal Display (Visor de cristal líquido). Foi desenvolvido na década de 70 para equipar monitores de calculadoras. Inicialmente eram monocromáticos também. A tela tem várias camadas, uma delas preenchida com uma substância chamada cristal líquido. Esta substância funciona como líquido e sólido ao mesmo tempo, formando cristais. Sobre cada pixel da tela, vários cristais são sensibilizados por uma corrente elétrica ao mesmo tempo em que um feixe de luz passa por eles. O efeito da luz passando pelos cristais, chamase difração e é o mesmo fenômeno que acontece na formação do arco-íris. Porém neste caso o efeito é controlado de maneira a escolher-se quais são as cores e intensidades que vão aparecer variando-se a iluminação e a corrente elétrica. Esse processo acontece dezenas de vezes por segundo dependendo da frequência do monitor. A tela de LCD comparada a de plasma tem um nível de contraste inferior, devido ao processo de formação de imagem que é ótico e não químico como a tela de plasma que proporciona maior controle. Textos e gráficos (imagens estáticas) apresentam-se mais nítidos e brilhantes em telas LCD do que de plasma. Imagens exibidas à luz do dia, em telas LCD, aparentam-se um pouco melhores do que as exibidas em telas de plasma. Por outro lado, em ambientes de baixa luz as telas de plasma são um pouco mais brilhantes. A durabilidade prevista para telas LCD é maior do que a para telas de plasma (50.000 horas contra 30.000 horas), em parte devido ao problema da "queima" gradual da tela. Esse tempo corresponde a 13 e 8 anos respectivamente, com uso diário de 10 horas, consideravelmente grande para o uso doméstico. Levando-se em conta a rotatividade dos produtos de consumo, provavelmente antes disso terão surgido aparelhos melhores e mais baratos, incentivando a troca. Consumo de energia para um monitor de 17 polegadas: 35Watts/hora
LED As telas de LED, acrônimo para Light Emitting Diode (Diodo emissor de luz), são em sua essência telas de LCD. Comercialmente há uma diferenciação porém na prática as telas são de LCD. A única diferença é que as telas de LED possuem em cada pixel, além de cristal líquido, três LEDs muito pequenos com as cores vermelho, verde e azul (RGB), para reforçar a intensidade das cores. Consumo de energia para um monitor de 17 polegadas: 21Watts/hora OLED OLED significa diodo orgânico que emite luz (organic light-emitting diode) e atualmente é a tecnologia mais avançada para a fabricação de qualquer tipo de tela, seja para TVs, computadores, telefones celulares ou para seu videogame portátil favorito. Diferente do LCD, Plasma ou LED, o OLED consome bem menos energia, é mais leve, fino, oferece ângulos de visão maiores com melhor brilho e contraste, além de reproduzir cores muito mais naturais do que qualquer outra tecnologia. É feito com um Diodo emissor de luz (LED) em que a camada de emissão electroluminescente é um filme orgânico que emite luz em resposta a uma corrente eléctrica. Esta camada de semicondutor orgânico fica situado entre dois eletrodos. Geralmente, pelo menos um destes eletrodos é transparente. Os OLEDs são usados em telas digitais de dispositivos como televisores, monitores de computador, sistemas portáteis, como telefones celulares, consoles de jogos portáteis e PDAs. O consumo de energia de um monitor OLED é cerca de 40% menor que um monitor LCD do mesmo tamanho, porém quando é necessário usar-se muito a cor branca o consumo passa a ser cerca de 300% maior do que um LCD de mesma dimensões.