2. PRINCÍPIOS BÁSICOS DE FOTOGRAMETRIA
|
|
|
- Raphael Garrau Canedo
- 10 Há anos
- Visualizações:
Transcrição
1 2. PRINCÍPIOS BÁSICOS DE FOTOGRAMETRIA 2.1 RADIAÇÃO ELETROMAGNÉTICA A maioria dos sensores imageadores detecta e registra radiação eletromagnética. Esta radiação caracteriza-se por viajar à velocidade da luz ( m/s ~ aproximadamente 3 x 10 8 m/s) e possuir dois campos a ela associados: um campo elétrico e um campo magnético associados (Figura 2.1), os quais são perpendiculares entre si e variam senoidalmente. Vale dizer que, embora possa ser encarada como onda, também pode ser considerada como pacotes de energia (partículas ou quanta) chamados fótons, caracterizando-se a dualidade onda-partícula. Figura 2.1 Onda Eletromagnética A radiação eletromagnética, vista como uma onda, possui um espectro de comprimentos de onda e, conseqüentemente, de freqüência 2.1
2 distintos. Como exemplos, encontram-se a luz visível, a região do infravermelho, do ultravioleta e as ondas de rádio, além dos raios X, raios Gama e outros, de menor importância. Considerando a clássica fórmula de propagação de ondas: v = λ. f (2.1) onde: v é a velocidade da onda; neste caso v = c = 3 x 10 8 m/s; λ é o comprimento da onda; f é a freqüência (número de ciclos por segundo passando por dado ponto) com a qual a onda se apresenta; Obviamente, a freqüência é inversamente proporcional ao comprimento de onda. As diferentes variedades de ondas eletromagnéticas podem ser, então, escalonadas da seguinte forma (Figura 3.2): Figura 2.2 Espectro Eletromagnético Voltando-se à natureza quântica da radiação eletromagnética, uma consideração importante pode ser feita a partir da equação de Planck para um pacote de energia. Sabe-se que esta fórmula equivale a: Q = h. f (2.2) onde: 2.2
3 h é a constante de Planck; f é a freqüência da radiação; Q é a energia do pacote. Combinando-se as equações (2.1) com a (2.2) chega-se a: Q = hc/ λ (2.3) Donde se deduz que, a medida que é maior a freqüência, menor é o comprimento de onda e maior é a energia transportada. Ou seja, é mais fácil de se detectar a radiação, pelo menos teoricamente, já que a quantidade de energia disponível é maior. Nesse ponto, uma pergunta pode surgir: Como é originada essa energia. Ou ainda... Como os corpos interagem com essa energia? Primeiramente, pode-se dizer que todos os corpos (na verdade, todos os corpos a mais de 0 Kelvin) emitem energia. A lei de Stefan- Boltzmann expressa quantitativamente a quantidade de energia emitida por um corpo, em função da sua temperatura: M = σ T 4 (2.4) onde: M é o fluxo de energia em W m -2 ; σ é a constante de Stefan-Boltzmann (5, Wm -2 K -4 ); T é a temperatura do corpo, em K; Mesmo sabendo que essa fórmula só se aplica numa situação ideal (absorção total da energia incidente e emissão total da energia que possui corpo negro), percebe-se que a quantidade de energia emitida aumenta consideravelmente à medida que sobe a temperatura do corpo. A fórmula de Wien relaciona a temperatura do corpo o comprimento de onda da radiação dominante, ou seja, a radiação que será a mais emitida. λ d = A / T (2.5) 2.3
4 onde: λ d, como já foi dito, é a radiação dominante em µm; A é uma constante, e equivale a 2898 µm K; T é a temperatura do corpo, em K; Para a temperatura do sol (aproximadamente 6000 K), a radiação mais emitida está na faixa do espectro visível. O espectro de luz chamado visível recebe essa denominação, em especial, e é a única região do espectro eletromagnético que sensibiliza os olhos dos seres humanos. O olho humano, de acordo com as teorias mais recentes, é sensível à luz em três colorações básicas: vermelho, verde e azul. Estas cores são as chamadas cores primárias e, a partir de combinações luminosas das três, pode-se gerar qualquer uma das outras (figura 2.3). Figura 2.3 Cores primárias da luz (processo aditivo Sistema RGB) e cubo de cores, com cor genérica X representada graficamente como uma combinação das outras três Figura 2.4 Cores complementares da luz, e primárias da impressão (processo subtrativo Sistema CMYK) De fato, o sistema denominado RGB (de Red, Green, Blue 2.4
5 vermelho, verde e azul em inglês) é utilizado nos televisores e monitores de computador. As cores complementares são o amarelo, o magenta e o ciano e são formadas pela subtração das cores primárias da cor branca. Nos sistemas de impressão (figura 2.4), as cores complementares são tomadas como básicas, ocorrendo fato inverso: as cores primárias passam a ser formadas pela combinação das complementares, isto é, o sistema denominado CMYK (Cyan, Magenta, Yellow and black) neste caso, a cor preta, que seria a subtração das três. Logo, atenção especial deve ser tomada de modo a, em uma impressão, manter-se a fidedignidade das cores exibidas. O espaço RGB também pode ser visto como um espaço vetorial de cores (cubo RGB), onde cada tonalidade pode ser obtida a partir de uma combinação primária das cores promárias (figura 2.3). Figura 2.5 Intensidade de emissão de energia eletromagnética por um corpo negro (ideal) a 6000 K, para diferentes comprimentos de onda. Fonte: Para um corpo com uma temperatura de 300 K (temperatura da maior parte dos corpos na superfície terrestre), o comprimento de onda da 2.5
6 radiação emitida encontra-se na região do infravermelho termal, nome que decorre justamente do relacionamento direto com a temperatura dos corpos que encontram-se ao nosso redor. De modo a visualizar estes dados de um modo mais interativo, é interessante utilizar um aplicativo que mostre as curvas para corpos de diferentes temperaturas. Como exemplo, tem-se o Black Body Applet, da Universidade de Colorado (Estados Unidos). As figuras 2.5 e 2.6 mostram as curvas para um corpo negro de 6000 K e 300 K. Figura 2.6 Intensidade de emissão de energia eletromagnética por um corpo negro (ideal) a 300 K, para diferentes comprimentos de onda. Fonte: INTERAÇÃO ENTRE DIFERENTES CORPOS E A ENERGIA ELETROMAGNÉTICA Os corpos respondem à energia eletromagnética sobre eles, que incide de três maneiras: absorvendo-a, transmitindo-a ou refletindo-a 2.6
7 além, é claro, da emissão, que é natural de todos os corpos. Para o Sensoriamento Remoto interessa principalmente a reflexão, pois é a partir da energia refletida pelas feições da superfície terrestre que os filmes ou dispositivos CCD das câmaras são sensibilizados. Essa reflexão se dá de duas maneiras: especular e difusa. Na reflexão especular, parte da luz incidente (que não é absorvida nem transmitida) é refletida com um ângulo igual ao de incidência, equivalendose a um espelho. Um exemplo é mostrado na figura 2.7. Figura 2.7 Reflexão especular A reflexão difusa ou Lambertiana é a de maior interesse à aquisição de imagens (Figura 2.8), pois, neste tipo, parte da luz incidente, que não é absorvida nem transmitida, é refletida em diversos ângulos e em diversas intensidades. Ora, cada corpo reage de maneira diferente à mesma radiação, graças às idiossincrasias que naturalmente cada um deles possui. Assim, para diferentes corpos e diferentes radiações e, conseqüentemente, para diferentes comprimentos de onda, têm-se diferentes intensidades refletidas e/ou emitidas. Graças a essa propriedade, pode-se ter o conceito de cores. Assim, vê-se um corpo como verde porque, em verdade, este reflete e/ou emite (de forma difusa) radiação na faixa do verde. Sabendo-se como determinado corpo reage aos mais diversos tipos de radiação eletromagnética, pode-se traçar um padrão de resposta espectral (ou assinatura espectral) para este corpo. 2.7
8 Figura 2.8 Reflexão difusa Um caso interessante de diferentes respostas espectrais ocorreu durante a segunda grande guerra, quando os aliados passaram a usar filmes que detectam radiação na faixa do infravermelho. Embora, no visível, a camuflagem de folhagem artificial tenha a mesma coloração que a vegetação natural, no infravermelho, a vegetação viva reflete muito melhor, graças à clorofila e à estrutura interna das folhas. Em conseqüência disso, tornou-se fácil a identificação de abrigos e casamatas inimigas camufladas. Outro aspecto importante a ser considerado é a reação da atmosfera à radiação que passa por ela. É notório o fato de que os raios ultravioleta são filtrados na atmosfera, graças à camada de ozônio (que, por sinal, está em processo de contínua destruição). Estes tipos de mecanismos se aplicam na atmosfera, até porque servem como uma proteção, que possibilita a existência de vida na superfície terrestre, uma vez que muitas das radiações eletromagnéticas são nocivas aos seres vivos. Desse modo, diz-se que há janelas atmosféricas, ou seja, zonas do espectro em que a atmosfera permite a passagem de energia. As principais são o visível, o infravermelho e as microondas (radar). Pode-se captar as duas primeiras diretamente a partir da energia gerada e refletida pelos corpos, por intermédio de sensores passivos. Para captar energia na faixa das microondas, deve-se gerá-la no próprio sensor (sensores ativos), uma vez que a quantidade de energia naturalmente disponível nessa faixa é muito baixa. Além disso, a atmosfera é responsável pelo fenômeno do 2.8
9 espalhamento, que, como o nome diz, espalha de modo disperso determinada radiação. O espalhamento de Rayleigh (o mais famoso) decorre da interação de partículas muito menores que o comprimento de onda da radiação. Graças a ele, vemos o céu azul, pois a radiação na faixa do azul (a de menor comprimento de onda) é a mais espalhada por esse tipo de partículas. O espalhamento de Mie ocorre para partículas da mesma ordem de grandeza que o comprimento de onda e afeta principalmente os comprimentos de onda maiores. O espalhamento não-seletivo é devido às partículas muito maiores que os comprimentos de onda (poeira em suspensão), e que espalham igualmente radiação de todos os comprimentos de onda. Por isso a neblina e as nuvens se apresentam na cor branca. O espalhamento pode empobrecer a imagem adquirida sobre determinada área onde esse efeito se faz notável. Filtros podem ser colocados nas câmaras para atenuar estes problemas. Técnicas de processamento digital também podem ser executadas. Ambos os casos serão estudados no decorrer do capítulo A CÂMARA FOTOGRÁFICA O processo chamado de fotografia foi desenvolvido a partir de 1839, graças aos esforços dos pioneiros Nicephore Nièpce, William Talbot e Louis Daguerre. O princípio da câmara escura é de tal simplicidade e eficácia que até os dias de hoje é utilizado em sua essência. Tal princípio está descrito esquematicamente na figura 2.9. Tem-se um objeto a ser fotografado e uma câmara, que se constitui em um recipiente oco (com um pequeno furo por onde passa a luz), com as paredes internas escuras, exceto uma, onde se encontra um dispositivo que pode ser sensibilizado pela luz (um filme ou matriz de CCD's, como exemplos). A imagem é formada de maneira invertida, em uma distância que depende da distância do objeto ao furo. 2.9
10 Figura 2.9 Princípio da câmara escura Tal aparato não se mostrou prático, pois eram necessárias horas de exposição para sensibilizar suficientemente o filme. Para contornar esse problema, instala-se um sistema de lentes na frente da câmara, o que diminui sensivelmente o tempo de exposição, como exibido na figura Figura 2.10 Princípio da câmara fotográfica Quando o arranjo está devidamente posicionado, pode-se relacionar a distância focal (f), a distância imagem (i) e a distância objeto (o) do seguinte modo (Lei de Gauss): 1/f = 1/o + 1/i (2.6) Embora a fórmula rigidamente especifique uma determinada distância imagem e uma determinada distância objeto necessárias para que o sistema esteja absolutamente focado, há um intervalo de tolerância dentro do qual mudanças de posição do objeto não acarretam perda de nitidez da imagem. Tal conceito chama-se profundidade de campo. No caso de fotografias aéreas (ou terrestres visando longas 2.10
11 distâncias), a distância-objeto assume valores muito grandes, reduzindo a equação 2.6 a 1/f = 1/i, donde se conclui que, nestes casos, f = i. Outro conceito importante para as câmaras fotográficas é a exposição em qualquer ponto do plano focal. Esta, de acordo com (Lillesand, Kiefer, 2000) é expressa pela fórmula: Exp = sd 2 t 4f 2 (2.7) Exp é a exposição em si, expressa em J mm -2 ; s expressa o brilho da cena, em J mm -2 s -1 ; d é o diâmetro da abertura da lente em mm; t é o tempo de exposição em s; f é a distância focal da câmara, em mm. Outro conceito igualmente importante é o de velocidade das lentes, ou f-stop. Este é dado pela relação entre a distância focal da câmara e o diâmetro da lente. f-stop = f / d (2.8) Com isso, pode-se reescrever a equação 2.7 da seguinte forma: Exp = st 4 fbstop 2 (2.9) Pode-se verificar que, à medida que o f-stop aumenta, a exposição diminui. Em geral, o f-stop é representado em potências de 2. Convenciona-se, para um valor x de f-stop, representá-lo como f/x. Assim, alguns valores comuns seriam: f/4, f/2, f/1.4 e assim por diante. Como na verdade, a velocidade das lentes é representada por uma relação, quanto maior a abertura das lentes (pequenos f-stop) permitem mais luz chegando ao filme, logo, sendo possível a diminuição da exposição. Pequenas aberturas de lentes obrigam maiores tempos de exposição, porém aumentam a profundidade de campo. É interessante 2.11
12 ressaltar que não existe uma relação ideal, cabendo ao profissional envolvido escolher o melhor filme e as melhores condições para cada situação prática que se apresente. As câmaras fotográficas podem ser classificadas quanto à fabricação em analógicas (sensibilizam um filme, que, se revelado, leva a uma imagem analógica) ou digitais (obtêm a imagem diretamente em formato digital). Outra chave de classificação das câmaras fotográficas permite dividi-la em dois grandes grupos, a saber: câmara métrica e câmaras nãométricas ou de fotógrafo amador. As câmaras métricas distinguem-se das não-métricas pelo fato de possuirem características especiais, descritas no tópico a seguir. 2.2 A CÂMARA FOTOGRAMÉTRICA Convencionou-se chamar de câmara fotogramétrica a câmara que possui certas características especiais. No caso, o que determina a dissensão entre estas definições é o maior rigor métrico na definição dos parâmetros que regem a câmara. Assim, pode-se extrair informação métrica e precisa das imagens adquiridas por tal tipo de câmara. As câmaras fotogramétricas em geral são aéreas, porém, podem ser terrestres (para uso em fotogrametria arquitetônica ou mesmo na aquisição de imagens oblíquas de determinadas feições bastante irregulares). Deve-se, porém, considerar que, para câmaras terrestres, a distância focal não é constante e os valores de profundidade de campo devem ser respeitados. No decorrer desse texto, entretanto, dar-se-á uma importância maior para as câmaras aéreas, pois são, de longe, as mais utilizadas em mapeamento fotogramétrico (aerolevantamentos). As partes principais de que se compõe uma câmara fotogramétrica são o cone e o magazine (figura 2.11). No cone, localiza-se o sistema de lentes da objetiva, o diafragma, o obturador, o suporte de filtros e a esquadria de registros. 2.12
13 Figura 2.11 Representação esquemática de uma câmara fotogramétrica O sistema da objetiva é um conjunto de lentes que deve direcionar os raios luminosos vindos do exterior em direção à imagem que será formada no plano focal. O obturador é responsável pela abertura necessária do diafragma (um conjunto de cortinas circulares concêntricas), de modo a se obter uma exposição desejada. Os filtros podem ser aplicados caso se queira aplicar determinados efeitos em especial às imagens. Convém ressaltar que a existência de filtros, caracterizados por sua transmitância (isto é, a percentagem de energia luminosa que estes deixam passar de tudo o que chega até eles), obriga maiores tempos de exposição dos filmes. Logo, estes devem ser utilizados apenas em casos indispensáveis. A esquadria de registros comporta várias informações marginais que virão a ser impressas em cada uma das fotografias. As mais importantes, de longe, são as marcas fiduciais (figura 2.12), que definem um sistema rígido de coordenadas da imagem. Outros dados que podem ser impressos são o número da foto, a empresa contratante, o vôo, dentre outros. O plano focal é onde se forma a imagem (f ~ i para câmaras aéreas) e onde se posiciona o filme. Nas câmaras digitais, há uma matriz de detectores nessa região da câmara, isto é, no lugar do filme. 2.13
14 Figura 2.12 Alguns dados marginais de fotografias aéreas (cortesia 1 a Divisão de Levantamento do Exército Brasileiro Porto Alegre, Brasil) Figura 2.13 Exemplo de Certificado de Calibração (cortesia 1 a Divisão de Levantamento do Exército Brasileiro Porto Alegre, Brasil) 2.14
15 No magazine, localiza-se o sistema de aderência a vácuo e de troca de filmes (câmaras analógicas apenas). Toda câmara fotogramétrica vem acompanhada de um certificado de calibração, ou seja: um documento que atesta os valores precisos de determinados parâmetros fundamentais da câmara, que serão devidamente utilizados nos processos fotogramétricos posteriores. Um exemplo de certificado encontra-se na figura Os parâmetros principais da câmara são: Tipo de Câmara e Tipo de Lentes Possui informações sobre o nome do fabricante e modelo da câmara, bem como das lentes utilizadas; Distância Focal Vem da lei de Gauss, exemplificada na equação (2.6). No caso de uma imagem tomada a grandes distâncias, o valor de f é constante e igual à distância-imagem. Em geral, f assume valores nominais de 88 mm, 150 mm ou 300 mm; Figura 2.14 Representação da posição do filme na tomada da fotografia (neste caso, o sistema de lentes está simplificado como se houvesse apenas uma) Ângulo de Abertura Este parâmetro está exemplificado graficamente na figura Em geral, pode assumir três valores principais, a saber: ângulo normal, grande angular e supergrande angular. A tabela 2.1 apresenta as principais características de cada tipo: 2.15
16 Tipo de câmara Ângulo de abertura Distância focal Características (recomendação de uso) Ângulo normal ~ 75 o ~ 300 mm Diminui bastante a distorção radial (neste momento, basta saber que esta é uma distorção que se manifesta aproximadamente de modo uniforme de acordo com a distância a partir do centro da imagem), permite maior altura de vôo, porém é desaconselhável para trabalhos estereoscópicos; Grande angular ~ 150 o ~ 150 mm Geralmente utilizadas para a confecção de cartas topográficas em escalas médias e grandes. Apresentam um bom rendimento; Supergrande angular ~ 88 o ~ 88 mm Aumentam bastante a cobertura, principalmente em baixas alturas de vôo. Entretanto, as distorções radiais tornam-se realmente incômodas em alguns casos. É mais utilizada para vôos em escalas pequenas. Tabela 2.1 Características dos diferentes tipos de câmaras fotogramétricas A seguir serão listados pontos notáveis para o estudo das câmaras: Ponto Nodal Anterior Ponto de entrada de um raio de luz no sistema de lentes com o mesmo. Ponto Nodal Posterior Ponto de saída de um raio de luz do sistema de lentes. Ponto Principal de Autocolimação Ponto, no plano do filme, onde chega um raio de luz que entra perpendicular ao sistema de lentes da câmara. Ponto Principal de Simetria Ponto situado no plano focal, onde as distorções são praticamente simétricas. A distância focal referente a este 2.16
17 ponto é chamada de distância focal calibrada. Figura 2.15 Relacionamento entre a distância focal e o ângulo de abertura Eixo Óptico É o eixo que contém os centros de curvatura de determinada lente. O sistema de lentes da câmara possui para si um eixo óptico comum, a não ser que hava um desalinhamento dos eixos dos diversos componentes do mesmo, o que na prática, sempre acontece. A distância focal efetiva nas proximidades do eixo óptico é chamada de distância focal equivalente (Andrade, 1997). Alguns dos elementos anteriormente descritos encontram-se destacados na figura 2.16, de modo a facilitar o entendimento dos mesmos. Constam dos certificados de calibração, em geral, as seguintes informações: coordenadas do ponto principal, distância focal calibrada, coordenadas das marcas fiduciais e coeficientes para correção das distorções (a serem melhor estudadas posteriormente), acompanhados 2.17
18 dos respectivos desvios-padrão. Os métodos utilizados para a calibração de câmaras fogem um pouco do escopo desta obra, sendo aconselhável aos mais interessados a leitura de (Andrade, 1998). Figura 2.16 Alguns parâmetros da câmara fotogramétrica AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS ANALÓGICAS Para a aquisição de imagens fotogramétricas analógicas, usam-se as já consagradas câmaras fotogramétricas a filme, ou seja, câmaras onde há um filme no plano focal que é sensibilizado pela luz que chega até ele. Em geral, um sistema de aderência a vácuo, que possui sistemas de enrolamento e descompressão, permitindo o avanço automático de uma fotografia para outra, sem haver dobras ou amassos no filme. Variam de filme para filme os aspectos referentes à absorção de luz e sensibilização da emulsão; porém, em geral, o filme fotográfico pancromático padrão é composto por diversos grãos de haleto de prata, que são sensibilizados pela luz que chega até eles. Obviamente, em cada parte do filme, chegará luz em comprimentos de onda e intensidades diferentes (uma vez que cada objeto reflete e/ou emite energia de formas 2.18
19 diferentes), acarretando em distintas exposições. A redução dos grãos, após a revelação, produz um depósito de prata no filme. À medida que essa prata se deposita, mais escura fica a região onde se dá o acúmulo ou seja, objetos mais claros terão suas imagens mais escuras a isso se chama negativo. Caso se queira gerar uma imagem em filme correspondente à coloração dos objetos, deve-se sensibilizar um filme com um negativo à frente. Esse filme, quando revelado, passa a se chamar diapositivo. Os diapositivos são muito empregados em fotogrametria, devido à translucidez característica deles, que permite melhor visualização contra projetores de luz e scanners. Obviamente, as fotografias em papel, opacas, são também geradas do mesmo modo. Sua utilização é igualmente irrestrita, servindo para a confecção de mosaicos analógicos e de apoio ao pessoal de campo, quando da medição dos pontos de controle e coleta dos topônimos. A medida chamada transmitância (T) expressa a razão entre a quantidade de luz que pode passar pelo diapositivo (ou pelo negativo) e o total de luz que incide sobre o filme. A opacidade (O) é igual ao inverso da transmitância. Assim, quanto mais escura for a imagem, menor é a quantidade de luz que por ela passa, menor é a transmitância e maior é a opacidade, e maior é a densidade (D). A densidade é o logaritmo decimal da opacidade. O uso de unidades logaritmicas advém do fato de o olho humano responder aos estímulos visuais de modo aproximadamente logaritmico. Colocando-se em um gráfico a densidade (D) pelo logaritmo da exposição (log E), obtém-se uma curva denominada curva característica do filme. Em geral, ela é representada para o filme em negativo, porém, curvas para diapositivos também podem ser encontradas. A figura 2.17 expressa o formato aproximado de tais curvas. Pode-se perceber que a curva característica possui uma parte central que assemelha-se a uma reta. É esta a área de utilização do filme. Se a exposição for curta demais, a densidade será baixa e a curva característica cairá numa região não-linear (início da curva). Se a exposição for longa demais, fato semelhante ocorrerá (final da curva). 2.19
20 Figura 2.17 Perfil de curvas características para um negativo e um diapositivo A tangente do ângulo α, representado na figura 2.18, é chamada γ (gama). O γ varia de filme para filme, porém, está relacionado com o conceito de contraste. Assim, quanto maior é o γ, maior é o contraste (e vice-versa), ou seja, para menores diferenças na exposição do filme, há maiores diferenças na densidade de grãos sensibilizados. Na prática, isso quer dizer que, para pequenas diferenças de iluminação, há maiores diferenças de coloração no negativo. Figura 2.18 Representação da parte reta de uma curva característica Cada filme possui sua própria curva característica. Isso determinará, de acordo com os objetivos do aerolevantamento, a escolha da emulsão mais propícia. Para ajudar nesta escolha, vários parâmetros 2.20
21 foram estabelecidos os mais importantes, denominados resoluções, são demonstrados no tópico a seguir RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS ANALÓGICAS Toda imagem possui quatro resoluções básicas, ou seja, quatro parâmetros básicos de avaliação de suas capacidades de aquisição de dados. Estas resoluções são denominadas: resolução espacial, resolução radiométrica, resolução espectral e resolução temporal. A resolução espacial está diretamente relacionada com a capacidade de enxergar objetos tão pequenos quanto o filme permita. Uma resolução, por exemplo, de 1m, quer dizer que os menores objetos passíveis de serem distinguidos terão 1m de dimensões. Objetos menores não serão visualizados. Esta resolução é determinada pelo tamanho dos grãos de haleto de prata da emulsão. Maiores grãos recaem em menor resolução espacial, porém, se sensibilizam mais rápido. Em especial para câmaras aéreas, o tempo de exposição deve ser o menor possível, de modo a evitar os efeitos danosos que a movimentação da aeronave pode acarretar (seção 2.3). Isso causa ao responsável pelo trabalho fotogramétrico um considerável problema: balancear resolução espacial e velocidade do filme. Para medir a resolução espacial, em laboratório, tiram-se fotos contra um alvo composto de inúmeras linhas brancas sobrepostas a um fundo preto (Figura 2.19). A resolução espacial é determinada pela quantidade de linhas que podem ser identificadas em um milímetro (l/mm). Também é comum a expressão pares de linhas por milímetro (lp/mm), que é exatamente igual à primeira, apenas considerando que os espaços em preto entre as linhas em branco são equivalentes a linhas pretas daí a expressão pares de linhas. Essa identificação pode ser visual (processo mais rudimentar), ou realizada por aparelhos denominados densitômetros (mais informações na 2.21
22 seção 2.2.2), cuja tarefa é identificar até que ponto a imagem obtida mantém os padrões regulares de transição branco para preto. Figura 2.19 Alvo para determinação de resolução espacial de uma câmara (fonte: USAF) Convém ressaltar que estes valores (resolução espacial estática), obtidos em laboratório, não correspondem ao real, uma vez que um vôo incorre em inúmeros outros problemas que afetam a resolução espacial final. Para obter uma medida mais realista, pode-se realizar um vôo contra um grande alvo com os padrões semelhantes aos da Figura A resolução obtida por este método seria chamada resolução espacial dinâmica, porém, raramente tais testes são realizados. Figura 2.20 Padrões ideais de transição branco para preto (ondas quadradas) e padrões obtidos através de um densitômetro (senóides). A tarefa de tal aparelho é identificar até onde há um verdadeiro contraste entre as linhas claras e escuras, uma vez que, à medida que as senóides se atenuam, a imagem perde sua nitidez nas bordas (fonte: USAF). 2.22
23 Os filmes geralmente utilizados em aerofotogrametria possuem uma resolução espacial em torno de 40 l/mm (ou 40 lp/mm). Para um vôo na escala de 1:25000, a resolução espacial no terreno seria igual a: (denominador da escala) / 40 = 625 mm = 0,625 m. A resolução radiométrica é um fator que está relacionado com a capacidade de se detectar as menores variações possíveis de incidência de energia sobre o filme. Por exemplo, um filme que seja capaz de registrar apenas dois tons: preto e branco, tem uma resolução radiométrica menor que um filme que seja capaz de registrar várias nuances de cinza dentro da mesma faixa de exposição. Esse exemplo vale muito mais para imagens digitais, porém, para imagens analógicas também se aplica. A resolução radiométrica pode ser melhor verificada através de um gráfico comparativo entre duas emulsões, como atesta a Figura Obviamente, há um intervalo mínimo de variação de densidade que acarreta em uma diferença de tonalidade na imagem final. Se, para esse intervalo mínimo de variação, corresponder uma menor diferença de exposição, logo, a resolução radiométrica é maior. Imagens com alta resolução radiométrica apresentam alto γ. Figura 2.21 Duas amostras de curvas características de filmes. Nota-se a maior resolução radiométrica da amostra da esquerda, uma vez que, dentro da mesma faixa de exposição (entre linhas pontilhadas), pode-se perceber onze nuances diferentes de cinza (relacionadas com as variações mínimas de densidade necessárias para acarretar uma mudança de tonalidade na imagem final. Na imagem da direita, há menos de seis variações de tons de cinza no mesmo intervalo de exposição e mesmas variações de densidade. 2.23
24 A resolução espectral envolve o número de bandas e a espessura de cada banda que o filme é capaz de cobrir. Um filme pancromático cobre a faixa do visível, por exemplo. Um filme colorido cobre a mesma faixa, porém em três bandas diferentes: vermelho, azul e verde. Como o filme colorido tem três bandas, e cada banda é mais estreita que o pancromático (obviamente, pois este equivale às três juntas), pode-se dizer que o filme colorido tem uma maior resolução espectral que o pancromático. Existem praticamente apenas quatro variedades de filme: pancromático (todo o visível, foto em tons de cinza), pancromático incluindo a faixa do infravermelho, colorido e falsa-cor (associa a coloração vermelha da foto à radiação infravermelha, a coloração verde à radiação vermelha e a coloração azul à radiação verde). O uso da cor se justifica devido à maior facilidade do olho humano de discernir entre cores diferentes, ao invés de tons de cinza. Entretanto, os filmes coloridos geralmente são mais pobres em termos de rapidez de exposição e resolução espacial o que limita seu uso apenas a casos em que são estritamente necessários. O filme colorido funciona de modo semelhante ao pancromático, porém envolve três emulsões diferentes, e que possuem curvas características semelhantes. Vale lembrar que, assim como no caso do negativo preto-e-branco, cuja emulsão corresponde, em coloração, contrariamente à radiação que o sensibiliza (exemplo: um objeto branco, no negativo, é representado com coloração preta) as emulsões sensíveis a determinada cor, são representadas, no negativo do filme colorido, pela coloração contrária à da radiação. Um exemplo: se um objeto azul é fotografado, sairá com a coloração amarela no negativo (basta ver no diagrama de cores primárias, ou complementares, qual é a cor que se encontra exatamente do lado oposto da cor desejada). As emulsões do filme colorido são as seguintes: emulsão sensível à luz azul e que tinge o negativo de amarelo; emulsão sensível à luz verde e à luz azul e emulsão sensível à luz vermelha e à azul. Como as duas últimas emissões são sensíveis ao azul também, convenciona-se colocar um filtro azul bastante fino entre a primeira camada de emulsão e as 2.24
25 outras duas. Com isso, chega às duas últimas apenas a luz vermelha e a verde, e com isso elas passam a se tornar: emulsão sensível à luz verde que tinge o negativo de magenta e emulsão sensível à luz vermelha que tinge o negativo de ciano. Como qualquer radiação no visível é uma composição de vermelho, verde e azul, pode-se representá-las através da fotografia colorida. Para os filmes falsa-cor, o princípio é o mesmo, apenas variando as radiações que os sensibilizam (maiores detalhes sobre a composição cromática do filme são encontrados em (Lillesand, Kiefer, 2000)). A última das resoluções de uma imagem é a resolução temporal, e que se relaciona com o tempo de revisita da plataforma na qual a câmara está montada. Um satélite que, por exemplo, adquira imagens de uma mesma região de 17 em 17 dias terá uma resolução temporal maior que uma série de vôos para atualização cartográfica que cobrem a mesma área, imageando-a apenas uma vez a cada ano. É um conceito que interessa muito às aplicações temáticas, tais como: movimentação de bacias, crescimento populacional, poluição urbana e estudos ambientais, etc. Como, em geral, para vôos fotogramétricos, a área é coberta apenas uma vez, este é um conceito que se aplica principalmente para imagens orbitais AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS DIGITAIS Para a fotogrametria digital, interessa bastante esse tópico, uma vez que as imagens digitais são a fonte para a aquisição dos dados tridimensionais das feições nela contidas. Há, basicamente, dois tipos de imagem digital: vetorial e matricial. A imagem vetorial é caracterizada pela delimitação de objetos pelos pontos que os determinam. Ela será melhor explicada posteriormente, na parte que abordará a restituição digital. A imagem digital é uma matriz composta por células quadradas, 2.25
26 chamadas pixels (picture elements). Dentro de cada pixel, há somente uma coloração sólida, definida por um número digital. Neste momento, basta saber que cada número digital possui uma determinada coloração associada a ele. Os pixels podem ser melhor evidenciados se a imagem for sucessivamente ampliada (Figura 2.22). Figura 2.22 Note-se a estrutura de pixels existente na imagem e melhor evidenciada após sucessivas ampliações da mesma Pode-se, assim, definir qualquer imagem digital por uma matriz, tendo por valor de cada um dos elementos o número digital equivalente. Isso fica explicitado de maneira melhor na figura Figura 2.23 Distribuição matricial (à direita) equivalente a um conjunto de pixels (à esquerda) 2.26
27 RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS DIGITAIS As quatro resoluções já delineadas para a imagem fotogramétrica analógica também se aplicam à imagem fotogramétrica digital. Entretanto, os conceitos variam razoavelmente entre elas, dada a natureza distinta que elas possuem. Na imagem digital, a resolução espacial está diretamente relacionada com o tamanho do pixel. Essa terminologia exprime o quanto, no terreno, equivale ao lado de um pixel na imagem. Um exemplo do cálculo desse valor: determinada imagem, de 32 X 32 pixels, equivale, no terreno, a uma área de 32 X 32 metros. Assim, cada pixel equivale a um quadrado de 1m X 1m no terreno. Como dentro de um pixel só pode haver uma coloração, pode-se dizer, a grosso modo, que esta equivale a uma composição das tonalidades dos diferentes objetos existentes naquela área. O tamanho do pixel, portanto, está diretamente relacionado com a capacidade de se discernir objetos no terreno. Obviamente, quanto menor o tamanho do pixel, maior é a resolução espacial da imagem digital. Hoje em dia, já há sensores por satélite com a capacidade de adquirir imagens de pixels iguais ou menores que 1m X 1m. Imagens digitalizadas a partir de fotografias analógicas ou adquiridas por câmaras aéreas digitais apresentam resoluções ainda maiores, habilitando a utilização em fotogrametria digital em escalas cada vez maiores. Por fim, convém ainda citar que, no momento em que se arranja uma área física da Terra em uma matriz de pixels de dimensões definidas, executa-se um processo chamado discretização. O espaço contínuo e de unidades de medida infinitamente complexas é reduzido a um conjunto discreto de elementos arrumados em uma matriz. Obviamente, se houver mais pixels cobrindo uma mesma área (Figura 2.24), a discretização darse-á de modo mais realista, porém, isso aumenta proporcionalmente o tamanho do arquivo final. Por exemplo, um trecho de 20 X 20 pixels é quatro vezes menor que um de 40 X 40 pixels. A resolução radiométrica, como exposto anteriormente, está ligada à 2.27
28 capacidade de discernir quantidades cada vez maiores de tons dentro de uma determinada banda do espectro eletromagnético. Para as imagens digitais, esse fator é mais facilmente quantificável, uma vez que, por definição, a imagem digital deve possuir uma quantidade certa de tons. Figura 2.24 Imagens da mesma região em resoluções geométricas diferentes (cortesia 1 a Divisão de Levantamento do Exército Brasileiro Porto Alegre, Brasil) Uma vez que o sistema utilizado em informática é o binário, a quantidade de tons de uma imagem digital está relacionada a uma potência de 2. Como exemplo, pode-se citar uma imagem de 256 tons de cinza. 256 = 2 8, ou seja, 8 bits (dígitos binários) por pixel. Na prática, isso quer dizer que o número digital relacionado a cada pixel deve ser expresso por oito dígitos binários, de modo a permitir 256 variações numéricas diferentes, podendo assim expressar a multiplicidade de tonalidades desejada. Uma imagem de 1 bit por pixel, ou seja, que só pode exprimir 2 1 = 2 variações de tonalidade é chamada imagem binária, e somente vai possuir tons de preto e branco. Intuitivamente, ela terá uma menor resolução radiométrica que a imagem de 256 tons de cinza, podendo-se formular que quanto maior a quantidade de tonalidades em uma determinada banda, maior é a resolução radiométrica. O tamanho do arquivo da imagem também é influenciado por esta resolução. Uma imagem que tenha, por exemplo, 20 pixels ao todo, se for expressa em formato tipo mapa de bits (bitmap), sem compressão ou compactação, possuirá o tamanho de 20 X 8 bits (1 byte) = 160 bits ou 20 bytes, se tiver 256 tons. Se tiver apenas dois, possuirá o tamanho de 20 X 1 bit = 20 bits. Quando uma imagem é adquirida ou convertida para a forma digital 2.28
29 (tópico a seguir), faz-se necessário realizar um processo chamado quantificação. Isso equivale a encaixar todas as respostas espectrais do terreno imageado, na banda desejada, ao número de tonalidades pré determinado. Figura 2.25 Imagens da mesma região em resoluções radiométricas diferentes - imagens da esquerda para a direita de: 8 bits, 4 bits, 2 bits e 1 bit (cortesia 1 a Divisão de Levantamento do Exército Brasileiro Porto Alegre, Brasil) Um exemplo ilustrativo hipotético seria uma imagem que expresse, em 16 (2 4 = imagem de 4 bits/pixel) tons de cinza, as variações de quantidade de energia que chega ao sensor, na faixa de 0 a 16 unidades de energia (u.e.). A distribuição final equivalerá a: de 0 a 1 u.e. número digital igual a zero (preto) de 1 a 2 u.e. número digital igual a 1 (preto) de 2 a 3 u.e. número digital igual a 2 (cinza) de 3 a 4 u.e. número digital igual a 3 (cinza) de 4 a 5 u.e. número digital igual a 4 (cinza) de 5 a 6 u.e. número digital igual a 5 (cinza) de 6 a 7 u.e. número digital igual a 6 (cinza) de 7 a 8 u.e. número digital igual a 7 (cinza) de 8 a 9 u.e. número digital igual a 8 (cinza) de 9 a 10 u.e. número digital igual a 9 (cinza) de 10 a 11 u.e. número digital igual a 10 (cinza) de 11 a 12 u.e. número digital igual a 11 (cinza) de 12 a 13 u.e. número digital igual a 12 (cinza) de 13 a 14 u.e. número digital igual a 13 (cinza) de 14 a 15 u.e. número digital igual a 14 (cinza) 2.29
30 de 15 a 16 u.e. número digital igual a 15 (branco) As tonalidades mais claras sempre terão números maiores, pois correspondem a uma quantidade maior de energia chegando ao sensor. Para um número de tons igual a 2 k, o tom mais escuro será igual a 0 e o mais claro igual a 2 k 1. É importante frisar que, embora, emissões de 13,1 u.e. e 13,9 u.e. sejam diferentes, durante a quantificação, elas serão representadas do mesmo modo, tornando-se indistinguíveis. Aumentar o número de tons diminui esse tipo de problema, porém aumenta o tamanho do arquivo. Uma discussão mais aprofundada sobre esse tema será apresentada no tópico seguinte. As outras duas resoluções (espectral e temporal) funcionam de modo semelhante ao das imagens analógicas. Apenas cabe aqui falar um pouco sobre as imagens digitais coloridas. Elas são compostas por três imagens separadas, que serão representadas visualmente por vermelho, verde e azul, mas que podem equivaler a quaisquer combinações de bandas do espectro. Uma imagem colorida que é exibida na tela de um computador é, na verdade, uma combinação de três imagens separadas. A grosso modo, pode-se compará-la a três diapositivos em tons de cinza que expressam três bandas do espectro e que são projetados sobre uma mesma superfície através dos filtros vermelho, azul e verde (um filtro para cada imagem). Assim, uma imagem colorida de 16 milhões de cores ( cores, na verdade) é uma combinação de três imagens de 256 cada, ou ainda, uma imagem de 8 bits por banda, exibindo três bandas. Embora ela tenha mais tons que uma imagem pancromática comum de 256 tons de cinza, diz-se que sua resolução radiométrica é igual, pois, para cada banda, a quantidade de tons é a mesma que a da imagem pancromática. Outro erro comum é dizer que essa imagem colorida é de 24 bits/pixel. Na prática, é isso que acontece, mas, formalmente ela continuará sendo uma imagem de 8 bits, porém, com três bandas. Dentro de cada banda, a capacidade de perceber variações de energia é a mesma, daí a injustiça de classificá-la como de resolução radiométrica maior. Ela terá, aí sim, uma resolução espectral maior, pois cobre bandas 2.30
31 menores e em maior quantidade MÉTODOS DE AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS DIGITAIS Para se obter a uma imagem fotogramétrica digital, há, basicamente, dois modos. O primeiro é a digitalização matricial de fotografias ou outro tipo de imagem analógica, por intermédio de aparelhos chamados scanners. O segundo é a aquisição diretamente no formato digital, a partir de câmaras fotogramétricas digitais. A digitalização matricial envolve vários tipos de scanner. O mais conhecido do usuário comum de informática é o scanner de mesa (Figura 2.26). A utilização do mesmo envolve a colocação da imagem analógica sobre a mesa de vidro. Após isso, a matriz de CCD's (charge coupled devices) percorrerá a imagem para a frente e para trás, gravando os valores dos números digitais dos pixels que comporão o arquivo digital. Figura 2.26 Scanner de mesa Microtek (fonte: howstuffworks.com) O CCD é, na verdade, um conjunto de pequenos diodos sensíveis a determinada radiação (neste caso, à luz) que convertem fótons em 2.31
32 elétrons, gerando uma pequena corrente em cada um dos detectores. Quanto maior a quantidade de energia que chega a um detector, maior é a corrente gerada no mesmo. Os scanners usados com fotogrametria digital são geralmente os drum scanners, ou os scanners a vácuo. Estes usam a tecnologia PMT (photo multiplier tube). O documento a ser digitalizado é posicionado em um cilindro de vidro (caso dos drum scanners), ou colado a vácuo a uma superfície lisa (caso dos scanners a vácuo). No centro do sistema, há um sensor que separa a luz refletida pelo documento em três raios. Cada raio é enviado a um filtro colorido onde a luz é transformada em um sinal elétrico correspondente, de modo semelhante aos scanners de mesa. Figura 2.27 Drum Scanner (fonte: printingsystems.com) Os scanners vêm, geralmente, com um programa de configuração, onde serão definidos os parâmetros radiométricos, como: digitalização em tons de cinza ou colorida, quantidade de bits por pixel e outros. A gradação dos diferentes tons da imagem será feita do seguinte modo: o tom mais claro equivalerá à corrente mais alta gerada para aquela imagem e o tom mais escuro à corrente mais baixa gerada para aquela imagem. Dentro deste intervalo, divide-se a variação entre a corrente mais alta e a mais baixa pelo número de tons envolvidos. Um fato importante que deve sempre ser ressaltado é a perda de informação decorrente do processo de digitalização. Esta perda é inevitável, uma vez que ainda não há dispositivos capazes de registrar em sua integridade toda a complexidade radiométrica da imagem original. A 2.32
33 perda de resolução geométrica pode ser evitada, como será visto a seguir, porém, freqüentemente é desejável, assim como a radiométrica, de modo a diminuir o tamanho dos arquivos finais. O papel do profissional envolvido na área de fotogrametria é fundamental no estabelecimento dos limites de discretização e quantificação, de modo a permitir o tratamento preciso dos dados, preservando a elegância das imagens originais. Um erro nesta fase pode acarretar em dados obtidos sem precisão ou imagens tão grandes que se tornam difíceis de manipular. Em geral, para a resolução radiométrica, os valores mais utilizados são os de 256 níveis de cinza (8 bits) ou 16 milhões de cores (8 bits em 3 bandas). Para a resolução geométrica (ou espacial), importantes considerações são apresentadas a seguir. Já foi previamente dito que a imagem analógica possui uma certa resolução espacial, expressa em linhas/mm (ou lp/mm). O chamado teorema da amostragem define que a resolução da imagem digital (RID) deve ser o dobro da resolução da imagem analógica (RIA), ou seja: RID= RIA 2 (2.10) O valor de RIA é determinado calculando-se o quanto, em unidades métricas, equivale a uma linha. Por exemplo, 40 linhas/mm equivalem à RIA de 0,025 mm/linha, ou 25 µm/linha. Analogicamente, os valores de RID devem ser expressos em (unidades métricas)/pixel. Outro parâmetro definido empiricamente é o Fator Kell, que considera a possibilidade de desalinhamento da imagem analógica. Pelo fator Kell, RID= RIA 2 2 (2.11) relação: Por fim, tendo (2.10) e (2.11), pode-se estabelecer a seguinte 2.33
34 RIA 2 2 TRIDTRIA 2 (2.11) Para o caso já citado anteriormente (RIA = 40µm), a resolução ótima da imagem digital deve estar entre 14 e 20 µm/pixel. Tomando-se uma média, pode-se fixar o valor para 17 µm/pixel. Ainda mais: se a escala da foto é de, por exemplo, 1:20000, o valor, no terreno, do lado do pixel será de 17 µm/pixel X = 0,34 m/pixel, que será o elemento de resolução no terreno (ERT). Hoje em dia, há scanners capazes de digitalizar pixels do tamanho de 3,5 µm/pixel, a 16 bits por banda, com acurácia geométrica de menos de 2 µm em cada eixo de digitalização. Figura 2.28 Três sistemas diferentes de obtenção de imagens a partir de câmaras aéreas: o primeiro envolve uma matriz de pixels completa (sistema de quadro), que adquire imagens sobre todo um trecho do terreno; o segundo é o sistema por varredura eletrônica: há somente uma linha de pixels, que adquirem uma linha imediatamente abaixo dela (a imagem final é montada a partir da união das imagens parciais adquiridas); o terceiro é o sistema por varredura mecânica: um conjunto de detectores é rotacionado até percorrer a área desejada (notadamente, é o método que envolve o maior esforço computacional para corrigir as distorções). O segundo método de aquisição de imagens digitais (câmaras fotogramétricas digitais) ainda não se encontra tão difundido para 2.34
35 levantamentos aéreos devido, sobretudo, aos altos preços das câmaras fotogramétricas digitais. Estas possuem um funcionamento semelhante ao de uma câmara a filme, porém, ao invés de ter um filme no plano focal, há uma matriz de CCD's. É vital perceber a diferença conceitual entre esse tipo de câmara e as câmaras digitais de satélites de sensoriamento remoto. Devido à maior distância entre estes e o terreno a ser imageado, é mais fácil utilizar arranjos mais econômicos de CCD's, como os de varredura (dois tipos: eletrônica e mecânica). A diferença entre os três sistemas está explicada sob forma de ilustração (Figura 2.28). 2.3 PRINCIPAIS PROBLEMAS QUE AFETAM A AQUISIÇÃO DE IMAGENS ABERRAÇÕES GEOMÉTRICAS Estas aberrações são devidas ao formato das lentes que compõem o sistema de lentes da câmara. São as seguintes: Aberração de Esfericidade É devida à curvatura da superfície da lente e afeta as imagens de objetos situados no eixo óptico. Como conseqüência, há uma falta de clareza e nitidez, reduzindo o contraste da imagem e piorando a observação de detalhes. Para corrigi-la, utilizam-se combinações de lentes no próprio sistema de lente da câmara. Coma É devida à forma da lente e afeta as imagens de objetos situados fora do eixo óptico (raios oblíquos). É eliminada através da alteração da superfície dos elementos componentes do sistema óptico e limitando-se a abertura do diafragma. Astigmatismo Produz, a partir de um ponto objeto, imagens definidas por linhas retas perpendiculares entre si, diminuindo a qualidade da imagem. É reduzido quando o plano focal é colocado no círculo de confusão mínima, onde o astigmatismo é minimizado. 2.35
36 Curvatura de Campo Objetos situados em um mesmo plano no objeto a ser imageado não possuem seus círculos de confusão mínima situados no mesmo plano, o que faz com que o plano-objeto não seja estritamente plano, e sim parabolóide. É bastante controlado quando se diminui a abertura do diafragma. Distorção É a única que afeta a posição dos objetos imageados, e não a qualidade da imagem. Há dois tipos de distorção: radial simétrica e descentrada. A distorção radial simétrica é devida à refração sofrida por um raio de luz ao atravessar uma lente e afeta regularmente os pontos da imagem, a partir do ponto principal de simetria. A distorção descentrada é causada pelo não-alinhamento dos eixos ópticos dos componentes da objetiva de uma câmara. Ambas são modeladas por equações matemáticas, cujos coeficientes são obtidos através do certificado de calibração de câmara. Para a distorção radial simétrica, as equações são do tipo polinomial (Schenk, 1999): δx = (k0 + k1 r 2 + k2 r 4 +k3 r 6 ) x'' (2.12) δy = (k0 + k1 r 2 + k2 r 4 +k3 r 6 ) y'' (2.13) x' = x'' - δx (2.14) y' = y'' - δy (2.15) δx e δy são as componentes da distorção radial simétrica; r é o raio a partir do ponto principal de simetria; k0, k1, k2 e k3 são os coeficientes que constam do certificado de calibração de câmara; x'' e y'' são as coordenadas do ponto sem correção, referidas ao ponto principal de simetria; x' e y' são as coordenadas corrigidas da distorção radial simétrica. Para a distorção descentrada, o seguinte modelo foi estabelecido (Schenk, 1999): 2.36
37 δx' = p1(r 2 + 2x'' 2 ) + 2 p2 x''y'' (2.16) δy' = p2(r 2 + 2y'' 2 ) + 2 p1 x''y'' (2.17) x = x' - δx (2.18) y = y' - δy (2.19) δx' e δy' são as componentes da distorção radial descentrada; r é o raio a partir do ponto principal de simetria; p1 e p2 são os coeficientes que constam do certificado de calibração de câmara; x'' e y'' são as coordenadas do ponto sem correção, referidas ao ponto principal de simetria; x' e y' são as coordenadas corrigidas da distorção radial simétrica; x e y são as coordenadas corrigidas das duas distorções. No passado, utilizavam-se princípios opto-mecânicos para corrigir estas distorções. Atualmente, os métodos numéricos mostram-se infinitamente mais práticos. Uma descrição mais detalhada da utilização deles será efetuada no capítulo ABERRAÇÃO CROMÁTICA Este tipo de efeito advém do fato de a luz se decompor em diversos comprimentos de onda ao passar por um sistema de lentes, de modo semelhante a um prisma. A distribuição de tal aberração independe da abertura do diafragma e é razoavelmente constante para todas as áreas do plano-imagem. A correção para este problema se dá ao combinar duas lentes de convergências opostas e índices de refração diferentes. Para maiores detalhes, pode-se consultar (Andrade, 1997). 2.37
38 2.3.3 DISTRIBUIÇÃO DE LUZ NO PLANO FOCAL A luz que chega ao plano focal para um ponto situado na periferia do plano focal tem uma intensidade proporcional ao fator E 0 cos 4 α (Figura 2.29), onde E 0 é a intensidade em um plano no eixo focal. A principal conseqüência é o escurecimento dos cantos da imagem. Hoje em dia, através de filtros especiais, tal efeito é quase que completamente eliminado. Figura 2.29 Princípio do escurecimento dos cantos da imagem (extraído de Lillesand, Kiefer, 2000) 2.38
39 2.3.4 ARRASTAMENTO DA IMAGEM O movimento da plataforma (sensor), durante o tempo de exposição, pode provocar este efeito, que se caracteriza por uma perda de nitidez na imagem final. Ele equivale a: a = V t E (2.20) a é o valor do arrastamento; V é a velocidade da plataforma, em m/s; t é o tempo de exposição, em s; E é a escala da foto. O arrastamento pode ser corrigido através do uso de mecanismos de compensação de movimento (Forward Motion Compensation), que movem o filme durante a exposição, mantendo-o na mesma posição relativa ao terreno. As melhores câmaras hoje em dia possuem sistemas desse tipo EFEITOS ATMOSFÉRICOS Variam de dia para dia. Alguns casos clássicos são: Dias ensolarados Causam sombras muito compridas em determinados horários. A solução é realizar vôos quando o sol está alto. Valores para ângulo de elevação do sol em função da época do ano e da atitude média do lugar são encontrados em (Albertz, Kreiling, 1989) Umidade Acentua a reflexão da luz solar nas camadas atmosféricas nas regiões tropicais, principalmente. Causa o efeito chamado hot-spot, que diminui o contraste da imagem final. Deve-se programar o vôo para que a distância zenital do sol esteja superior à metade do campo de abertura da objetiva da câmara usada. 2.39
40 Névoa atmosférica As partículas da névoa tendem a refletir o azul (espalhamento de Rayleigh), deixando a foto azulada. Para diminuir esse efeito, usa-se um filtro amarelo (chamado de minus blue) com boa transmitância para as demais cores. Variação do índice de refração nas camadas atmosféricas Em função dos diferentes índices de refração, os raios ópticos não são exatamente retos, sofrendo de curvaturas que levam, na imagem, ao deslocamento dos pontos de sua verdadeira posição. (Schenk, 1999) indica uma fórmula para a correção deste efeito: dr=k rar3 f 2 (2.21) 2410H K=ƒ H 2 B6HA250 B 2410h 2 h B6hA250 H 2 10B6 (2.22) r é a distância do ponto principal (i.e. centro da foto) a um determinado ponto na imagem; dr é a variação entre a posição verdadeira do ponto e a posição registrada na foto (a distância eivada de refração é sempre maior, logo, dr deve ser subtraído de r original); f é a distância focal da câmara; H é a altura de vôo; h é a altitude do plano médio do terreno. 2.4 PROCESSAMENTO DIGITAL DE IMAGENS Após a obtenção das imagens, em geral, é necessário realizar certas operações nas mesmas, de modo a melhorar a capacidade de interpretação e utilização das mesmas. Embora fuja um pouco do escopo desta obra, os principais métodos de processamento digital de imagens de sensoriamento remoto são citados adiante. Aumento de contraste Eventualmente, a imagem adquirida poderá 2.40
41 apresentar-se bastante clara ou escura. A função de aumento de contraste trabalha com a imagem, alterando os números digitais dos pixels de acordo com uma nova distribuição. Neste caso, objetos muito claros ou muito escuros perderão sua fidedignidade. Um exemplo apresenta-se na figura Figura 2.30 Aumento de contraste (cortesia 1 a Divisão de Levantamento do Exército Brasileiro Porto Alegre, Brasil) Filtragem O algoritmo de filtragem espacial funciona através do deslocamento de uma máscara ou janela de dimensões ímpares (3X3, 5X5, etc.). Essas janelas possuem valores diferentes para cada componente, os quais variam em função do filtro aplicado. O procedimento de filtragem consiste em se passar esta janela sobre a imagem, pixel a pixel, multiplicando os números digitais de todos os pixels sob a janela pelos valores contidos na janela e substituindo o pixel central da imagem original pelo resultado. Esse procedimento é melhor exemplificado na figura Alguns tipos de filtros importantes são: Filtros passa-baixa Recebem esta denominação os filtros que deixam passar apenas as baixas freqüências, ou seja, eliminam grandes contrastes, como, por exemplo, bordas bem definidas. São chamados filtros de suavização devido ao efeito que causam na imagem original, depois de sua aplicação; Filtros passa-alta Esses filtros deixam passar apenas as altas freqüências espaciais. São chamados filtros de realce de bordas, pois ressaltam mudanças bruscas nos níveis de cinza, que caracterizam bordas; Filtros direcionais São filtros passa-alta que realçam determinada 2.41
42 direção; Filtros de convolução São filtros destinados à eliminação de ruído nas imagens digitais. Como exemplos, citam-se os filtros de stripping e o salt & pepper (Albertz, Kreiling, 1989). Figura 2.31 Filtragem (Extraído de Crósta, 1993) Operações aritméticas Consistem em, a partir de duas (ou mais) imagens da mesma região, realizar uma operação aritmética elementar nos valores dos números digitais dos pixels de mesmo índice das imagens. Manipulação da imagem alterando o sistema de cores de RGB para HSI Uma maneira diferente de exprimir o sistema de coordenadas pelo qual se representa uma imagem digital é o sistema HSI (Hue, Saturation and Intensity matiz, saturação e intensidade). Genericamente, pode-se relacionar ao conceito de matiz a idéia de coloração, à saturação, a idéia de tons mais puros ou mais pastéis e à intensidade a idéia de claro e escuro. Uma operação muito útil que se torna possível graças a esse conceito é a fusão (merge) entre imagens de resoluções diferentes cobrindo a mesma área. Nesta hipótese, o objetivo é aliar a maior 2.42
43 resolução geométrica de uma imagem pancromática (tons de cinza) à maior resolução radiométrica de uma imagem em três bandas. Para fazer isso, basta trocar a coordenada intensidade da imagem colorida pela da imagem pancromática, preservando as proporções de tamanho dos pixels. O produto final é uma imagem que alia as duas resoluções ótimas. 2.5 CARACTERÍSTICAS BÁSICAS DE OBTENÇÃO DAS IMAGENS Como já citado no capítulo 1, as imagens devem possuir áreas de superposição de, no mínimo 50%, de modo a terem seu potencial fotogramétrico plenamente aproveitado. Alia-se a isso a necessidade de fixação de parâmetros rígidos de obtenção das mesmas, que implicarão na melhor manipulação destas a partir dos modelos matemáticos já desenvolvidos para a fotogrametria digital. Estes procedimentos serão explicitados para os três casos mais freqüentes de obtenção de imagens fotogramétricas: terrestre, aéreo e orbital. No método terrestre, a aquisição de imagens fotogramétricas se dá através de fototeodolitos ou de câmaras não-métricas montadas em tripés bem fixados. A utilização da câmara métrica neste caso, visa uma maior rigidez nas coordenadas de câmara, além de contar com seus parâmetros já definidos em um certificado de calibração. Entretanto, dado o fato que, em quase todos os casos, os levantamentos terrestres são realizados a partir de estações estáticas (em relação à Terra), os efeitos danosos do deslocamento da plataforma onde se instala a câmara são completamente eliminados. Assim, a utilização de câmaras não-métricas passou a ganhar grande importância, uma vez que estas são muito mais baratas e práticas. Inúmeras pesquisas foram estabelecidas nesta área, levando a procedimentos seguros de calibração. Este procedimento é realizado, em geral, fotografando-se um determinado alvo. Maiores detalhes sobre o assunto são fornecidas por (Ferreira, 2001). Para a restituição e geração de produtos fotogramétricos, o objeto 2.43
44 deve ser imageado a partir de, pelo menos, dois pontos de vista diferentes obtendo-se, assim, um par estereoscópico da cena. Outros pontos de vista colaboram como injunções a mais nos cálculos. Esse método encontra especial importância na restituição de monumentos e acidentes naturais de difícil acesso. O referencial utilizado é local e, em geral, definido para cada projeto em separado. Os pontos de controle podem ser pré-sinalizados (marcados no objeto) ou determinados posteriormente, embora a primeira opção seja a mais utilizada neste caso. A Figura 2.32 mostra um caso de levantamento terrestre, desde sua obtenção até os produtos finais gerados. Figura 2.32 Tomada de um par estereoscópico de um monumento (Solar da Imperatriz) e produto final restituição digital sobre ortoimagem (Prado et al 1999) 2.44
45 Os modelos matemáticos que se aplicam em um levantamento fotogramétrico terrestre de curta distância são razoavelmente genéricos e aplicáveis em todos os casos, desde que guardadas as analogias quanto ao sistema de coordenadas global e aos pontos de controle. O método aéreo foi, de longe, o mais empregado para obtenção de dados cartográficos do terreno. Portanto, foi o que mais gozou dos benefícios de uma organização padronizada de métodos e procedimentos. Como resultado, foi possível, desde o início do século passado a criação de aparelhos capazes de executar operações fotogramétricas a partir de imagens aéreas tomadas sob determinadas condições e que, até hoje, já na era digital, são mantidas. São elas: Distância focal e abertura da câmara Como já dito, obedecem a três padrões: normal, grande angular e supergrande angular; Recobrimento lateral e longitudinal as imagens adjacentes devem ter um recobrimento (área de superposição) nominal de 60%. Duas faixas de vôo devem possuir recobrimento de 30%. Isso garante maior operacionalidade às imagens obtidas, em detrimento do maior número necessário sobre determinada região. Esta condição é apresentada na figura Figura 2.33 Recobrimentos lateral e longitudinal em uma imagem fotogramétrica Escala de vôo Para imagens aéreas, a câmara encontra-se focalizada para o infinito, devido à grande distância ao terreno. Isso possibilita que relações simples de razão e proporção sejam estabelecidas, a fim de que sejam determinadas variáveis dependentes da escala em um vôo 2.45
46 fotogramétrico. parâmetros. Assim, seja a Figura 2.34, que exibe melhor estes Figura 2.34 Parâmetros de um vôo fotogramétrico A escala da foto é definida pela relação entre uma distância na imagem e sua homóloga no terreno: E = d / D (2.23) ser descritas: Tomando como base a figura 2.34, outras relações também podem E = f / H (2.24) E = f / (h m h) (2.25) onde h é a altitude da câmara e h m é a altitude média do terreno A escala da equação 2.25 é aproximada, e constante para toda a 2.46
47 foto. Os métodos orbitais são mais recentes, já que a fraca resolução espacial dos primeiros satélites impedia seu uso para a elaboração de documentos cartográficos de precisão. Somente a partir do satélite SPOT (Système Pour l'observation de la Terre), majoritariamente francês, a possibilidade de aplicação em restituição fotogramétrica tornou-se viável (a própria França alega ter realizado diversas folhas de seu mapeamento sistemático na escala 1:50000 utilizando tal satélite). Este sistema introduziu a possibilidade de estereoscopia, pois a câmara poderia ser rotacionada, permitindo o imageamento da mesma região em outra órbita (Figura 2.35). Esse sistema também é utilizado pelos satélites CBERS I e II (Satélite Sino-Brasileiro de Recursos Terrestres) e IKONOS II (que, por ter resolução espacial de 1m, é considerado o primeiro satélite de sensoriamento remoto realmente voltado para a cartografia precisa). Não é um sistema ideal, pois entre uma órbita e outra, o terreno pode mudar drasticamente, dificultando a estereoscopia e o reconhecimento automático de pontos homólogos por correlação (Capítulo 4). Figura 2.35 Estereoscopia a partir do satélite CBERS China Brazil Earth Resources Satellite (cortesia Projeto CBERS) O satélite japonês ALOS-2 (Figura 2.36) possui um de seus 2.47
48 sistemas sensores equipado com três câmaras do mesmo tipo posicionadas em inclinações diferentes, de modo a adquirir imagens com recobrimento em um mesmo instante. A resolução desse sistema é de 2,5 m/pixel. Figura 2.36 Sensor estereoscópico PRISM (Panchromatic Remote sensing Instrument for Stereo Mapping) do satélite japonês ALOS II (Advanced Land-Observing Satellite) (cortesia NASDA National Agency for Space Development of Japan) As imagens de satélites fotogramétricos, devido às estruturas diferentes de cada câmara e de cada sistema, exigem análise diferenciada e criação de modelos matemáticos adequados a cada satélite, o que acaba dificultando sua popularização. Nesse sentido, passam a ser necessários módulos adicionais para permitir seu processamento fotogramétrico), estimulando a subutilização das mesmas apenas em georreferenciamentos (2.6.2). Espera-se que, para o futuro, esta total falta de padronização possa ser contornada. 2.6 MÉTODOS FOTOGRAMÉTRICOS DE RESTITUIÇÃO APROXIMADA Neste tópico, são enfatizados alguns métodos de obtenção de informação espacial a partir de imagens (o que os caracteriza como fotogramétricos), embora sem grande rigor métrico. Tais métodos são de grande valia nas fases de planejamento de levantamentos fotogramétricos e ainda hoje são utilizados nas instituições produtoras de dados 2.48
49 cartográficos AQUISIÇÃO MONOSCÓPICA DA ALTURA DE OBJETOS Seja a figura 2.37, onde está representada uma elevação sobre o terreno (torre). Figura 2.37 Efeito do deslocamento devido ao relevo a e a' são as imagens dos pontos A e A' da torre. Nota-se que o objeto apresenta-se na imagem bidimensional com um deslocamento relativo entre a e a'. Esse fato será explorado na formulação a seguir, para determinar um relacionamento matemático que chegue a h torre. dr é a diferença entre r e r' e expressa o deslocamento devido ao relevo sofrido pelo objeto Por semelhança de triângulos, tem-se: 2.49
50 OA'P' α Oa'p f H =r'/p'a' (2.26) OAP α Oap f HBh torre =r/pa (2.27) Dividindo-se membro a membro, e considerando que PA = P'A': h=dre H r (2.28) (Andrade, 1997) enuncia que o valor calculado desta forma é aproximado, uma vez que a altura de vôo sobre o plano médio não é conhecida com grande exatidão e que estas fórmulas só valem em sua amplitude para fotografias perfeitamente verticais GEORREFERENCIAMENTO Antes de definir tal conceito, convém explicitar o conceito mais genérico de registro. Registro é uma transformação geométrica que relaciona as coordenadas planas de um determinado objeto com as coordenadas de referência. Georreferenciamento é o registro executado quando as coordenadas de referência modelam a superfície terrestre (exemplo: latitude, longitude e altitude, coordenadas UTM, etc.). Pode-se georreferenciar vários tipos de objetos. Um exemplo é uma carta que foi digitalizada matricialmente e apresenta-se em um sistema de coordenadas plano definido pela linha e coluna dos pixels. Outro caso é o de dados obtidos via mesa digitalizadora, que encontramse em determinado sistema de coordenadas da própria mesa. Neste caso, interessa compreender o georreferenciamento de uma imagem digital, que compreende determinada região do terreno. O tema georreferenciamento está inserido no capítulo 7 Retificação e Normalização de Imagens, porém, como é de uso corrente em aplicações 2.50
51 de geociências, alguns pontos devem ser esclarecidos previamente, de modo a condicioná-lo como método de restituição aproximada. O georreferenciamento, como toda transformação, cria parâmetros que permitem, a partir da leitura das coordenadas pixel da imagem, obter as correspondentes coordenadas de terreno para aquele ponto. Vários modelos podem ser utilizados, sendo a transformação afim com seis parâmetros a mais comum (maiores informações sobre essa transformação serão fornecidas no capítulo 3 Orientação Interior). Obviamente, as dificuldades naturais de se obter coordenadas tridimensionais a partir de um sistema bidimensional são marcantes nesse processo (no caso de um registro entre coordenadas planas com outro tipo de coordenadas planas, como, por exemplo, entre mesa e carta, estes problemas são menos visíveis). No mínimo três pontos de controle (isto é, que têm coordenadas planas e espaciais conhecidas) devem ser estabelecidos, porém, para que sejam obtidos parâmetros de precisão adequados, recomenda-se a adoção de mais deles. Freqüentemente, o georreferenciamento é associado a uma reamostragem (maiores informações também no capítulo 7). Nesse ponto, basta realizar uma analogia de reamostragem com um algoritmo que estica ou encolhe determinadas partes da imagem, a fim de tentar representá-la no mesmo sistema de projeção da base cartográfica. Terrenos movimentados tendem a apresentar resultados muito ruins no georreferenciamento/reamostragem, o que sugere parcimônia na utilização de tais rotinas, aumentando o uso de pontos de controle e/ou separando a imagem por áreas homogêneas. Finalmente, após o que foi exposto, deve-se dizer que georreferenciamento não passa de uma adequação entre sistemas de coordenadas, e, nem de longe chega aos níveis de precisão dos métodos fotogramétricos que trabalham com a reconstrução dos feixes perspectivos na tomada de cada uma das imagens. Nem por isso deixa de ter sua utilidade, pois pode ser aplicado em imagens que não possuem considerável deslocamento devido ao relevo, bem como para sistemas de características de câmara desconhecidas. Além disso, é útil caso se deseje maior rapidez no processo, em detrimento da precisão final. Suas 2.51
52 principais aplicações são na atualização cartográfica e em elaboração de mapas temáticos PARALAXE ESTEREOSCÓPICA APROXIMADA O termo paralaxe refere-se à mudança aparente das posições relativas de imagens de objetos estacionários causada por uma mudança do ponto de vista. Um exemplo simples é a observação de diferentes objetos através da janela de um veículo. Aqueles que estão distantes, como montanhas aparentam mover-se muito pouco em relação ao referencial (janela). Objetos mais próximos da janela aparentam mover-se em distâncias muito maiores. Tomando agora como referencial o avião utilizado para levantamentos fotogramétricos, percebe-se que tal fenômeno ocorre de maneira semelhante, e que o mesmo pode ser utilizado em proveito do usuário de fotogrametria. Assim, para elevações mais altas, o movimento em relação à aeronave aparentará ser mais intenso que para elevações mais baixas. Um exemplo interessante deste princípio está na Figura Figura Efeito da paralaxe em fotografias aéreas A figura mostra duas tomadas de um mesmo monumento (obelisco) em Washington D.C., EUA. Como tal obra é consideravelmente mais 2.52
53 elevada que o restante do terreno englobado pelas imagens, observa-se uma distância bem menor entre os topos que entre as bases. Porém, não é de grande interesse ao fotogrametrista estabelecer coordenadas e alturas apenas de monumentos. Assim, tal fenômeno deve ser estudado também para as feições naturais do relevo, tais como depressões e elevações. A figura 2.39 descreve, para dois pontos de uma elevação no terreno, o efeito posicional em duas fotos diferentes. Figura Deslocamentos devido à paralaxe em fotografias verticais (extraído de Lillesand, Kiefer, 2000) Uma reconstrução geométrica mostra o porquê da natureza da paralaxe e sua conseqüente mudança de posição dos pontos observados 2.53
54 em relação ao referencial (neste caso a estação de exposição). Medindo as coordenadas dos pontos a e b nas duas imagens, paralelamente à linha de vôo, pode-se estabelecer uma relação, definida pela primeira equação da paralaxe: p a = x a - x a (2.29) Uma primeira importante conclusão que pode ser tirada é que os deslocamentos devidos à paralaxe ocorrem apenas paralelamente à linha de vôo (no caso, eixo x). Neste momento, uma consideração se faz necessária: para que haja tal coordenada, deve haver um sistema de coordenadas pré- -estabelecido. Naturalmente, surge à mente a idéia de utilizar o sistema das marcas fiduciais, que, em condições ideais, tem seu eixo x coincidente com a linha de vôo. Contudo, a linha de vôo, na prática, não é exatamente reta, devido às constantes mudanças de orientação do avião. A verdadeira linha de vôo pode ser achada localizando-se os pontos principais e seus conjugados (aqueles que correspondem aos pontos principais das outras imagens), unindo-se estes pontos, obtém-se uma linha de vôo mais aproximada da realidade, e que é usada como referência para medições de paralaxe. Unindo-se todas as fotos de uma faixa, a figura resultante da linha de vôo é uma polilinha, ou um conjunto de linhas. Para um par estereoscópico, a figura será uma linha, materializada por quatro vértices (dois pontos principais e dois conjugados). A figura 2.40 mostra este efeito graficamente. A formulação expressa a seguir foi extraída de (Lillesand, Kiefer, 2000), e resume os princípios básicos da medição de paralaxe. A figura 2.41 mostra a utilidade da paralaxe para a determinação da altitude em um ponto. Sabendo-se a altitude de vôo, ou a altitude da estação H, a base aérea, ou B, que é a distância entre as estações no sentido da linha de vôo, a distância focal da câmara utilizada e a paralaxe do ponto a, pode-se facilmente calcular a altitude de A, h A. A figura 2.41.b é resultante da superposição de dos triângulos L e L de modo a mostrar graficamente a paralaxe p a. 2.54
55 Figura Linhas de vôo verdadeiras e aproximadas (ao ligar-se os pontos principais aos seus homólogos) Figura Relacionamento entre as paralaxes de um ponto A, no terreno (extraído de Lillesand, Kiefer, 2000) Por semelhança de triângulos: p a f = B H-h A (2.30) 2.55
56 H-h A = Bf p a (2.31) E, consequentemente: h A = H Bf p a (2.32) Também por semelhança de triângulos: X A H h A = x a f (2.33) X A = x a H h A f (2.34) Substituindo-se de (2.31) a (2.34), tem-se: X A = B x a p a (2.35) Analogamente, Y A = B y a p a (2.36) As equações acima citadas são comumente conhecidas como as equações da paralaxe. Sabendo-se suas incógnitas, pode-se levantar coordenadas de toda a região de superposição do par estereoscópico. Em algumas aplicações, entretanto, deseja-se apenas saber a diferença de altura entre dois pontos. Para este caso, utiliza-se a fórmula: h = ph 2 /p a (2.37) onde h é a diferença em elevação entre dois pontos cuja diferença de paralaxe é p, H é a altura de vôo sobre o ponto de menor altitude e p a é a paralaxe do ponto mais alto. 2.56
57 Até agora, não se discutiu sobre o modo pelo qual as paralaxes são medidas. Inicialmente, assumiu-se que os valores de x e x fossem medidos diretamente nas fotos esquerda e direita, respectivamente. As paralaxes seriam, então, calculadas a partir das diferenças algébricas de x e x. É notável que tal processo torna-se extremamente enfadonho quando muitos pontos são analisados. A figura 2.42 demonstra um método de medição que requer apenas uma simples medição para cada ponto de interesse. Se as duas fotografias que constituem um estereopar tiverem seus pontos principais e respectivos homólogos alinhados (reconstituindo assim, aproximadamente, a linha de vôo), a distância D permanece constante para o conjunto e a paralaxe pode ser obtida a partir da medida d, ou seja: Figura Estereopar alinhado para medição de paralaxe (extraído de Lillesand, Kiefer, 2000) p = x - x = D - d (2.38) A distância d pode ser medida com uma simples régua, desde que a e a sejam identificáveis. Em áreas uniformes, tal procedimento torna-se muito difícil e outra abordagem faz-se necessária. Pode-se utilizar o princípio descrito na figura 3.3.1, e para o mesmo, numerosos instrumentos foram desenvolvidos. Estes utilizam o princípio 2.57
58 da marca flutuante, descrito a seguir. Ao observar-se através de um estereoscópio, o analista utiliza um aparelho que posiciona pequeninas marcas de referência sobre os pontos desejados. Tais marcas podem ser cruzes, pontos ou x s. A marca esquerda é vista apenas pelo olho esquerdo, e a direita, apenas pelo olho direito. Modificando a posição relativa entre as duas marcas na direção de vôo, pode-se vê-las fundir, formando uma marca única que parece flutuar em um nível específico sobre o modelo. A aparente elevação da marca flutuante varia com o espaçamento entre as marcas esquerda e direita. Para visualizar estereoscopicamente, uma série de estereoscópios foram desenvolvidos. O mais simples de todos é o estereoscópio de bolso. Este tipo de estereoscópio consiste de um par de lentes convergentes, de distância focal igual ao comprimento de seu suporte. Assim, os raios de luz emergenges dessas lentes e oriundas de um mesmo ponto no plano focal onde são colocadas as fotos, serão paralelos, como se o ponto estivesse situado sobre o infinito. Com isso, há a focalização dos cristalinos para o infinito e conseqüentemente, o paralelismo entre os eixos ópticos dos olhos, permitindo que na retina de cada um seja projetada a imagem que lhe corresponde. Entre as desvantagens deste processo, a principal é o fato de que para visualizar estereoscopicamente, as fotos devem ser colocadas uma por cima da outra, limitando a área útil e obrigando o operador a constantemente ficar reposicionando as mesmas. Conseqüentemente, foi desenvolvido um estereoscópio que supera tais limitações; trata-se do estereoscópio de espelhos, que permite uma completa visualização de todo o modelo, sem necessidade de superposição de fotos. O estereoscópio de espelhos nada mais é do que um estereoscópio de lentes que, com auxílio de espelhos, permite um afastamento maior das imagens. Lembra-se que as imagens independem do nível em que foram colhidas para fim de visão estereoscópica. A distância focal das lentes do estereoscópio de espelho é igual ao 2.58
59 caminho óptico da luz desde cada fotografia até o centro de cada lente. Os espelhos podem ser substituídos por prismas. Um dos aparatos mais comuns que empregam o princípio da marca flutuante para medir a paralaxe com estereoscópios de espelhos é a barra de paralaxe, que consiste de duas placas de vidro providas de marcas. Tais placas estão unidas por uma barra graduada provida de um parafuso micrométrico de alta precisão, de modo a medir com grande exatidão as distâncias (leituras da ordem de 0,01 mm). Mantém-se a marca esquerda fixa em sua posição enquanto a direita é movida ao acionar-se o parafuso micrométrico. Os aparatos descritos podem ser vistos na Figura Figura 2.43 Estereoscópio de bolso (à esquerda) e estereoscópio de espelhos com barra de paralaxe montada sobre as fotos (à direita) (cortesia: Sokkia) 2.7 CONCLUSÃO Este capítulo teve como principal objetivo, fornecer ao leitor os dados auxiliares necessários para o entendimento das técnicas de fotogrametria digital que serão posteriormente estudadas. Com estes conhecimentos, estima-se que o leitor possa ter uma noção geral dos processos de obtenção de imagens fotogramétricas. A partir do próximo capítulo, os algoritmos que caracterizam a fotogrametria digital começarão a ser estudados. Para estes, a imagem será considerada já adquirida em formato digital, de acordo com os princípios descritos neste capítulo. 2.59
60 REFERÊNCIAS BIBLIOGRÁFICAS Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry Lecture Notes. Istanbul Technical University. 1a Ed. Turquia: Andrade, Dinarte Francisco Pereira Nunes de. Fotogrametria Básica. Instituto Militar de Engenharia. Rio de Janeiro, Brasil: Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia. Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto Militar de Engenharia. Rio de Janeiro, Brasil: Crósta, Álvaro Penteado. Processamento Digital de Imagens de Sensoriamento Remoto. Unicamp. Campinas, Brasil: Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: Ferreira, Jaime Mauricio Cardoso. Geração de Ortomosaico a Partir de Câmara Fotográfica Digital Não-métrica Kodak DC 265. Dissertação (Mestrado em Engenharia Cartográfica) - Instituto Militar de Engenharia. Rio de Janeiro, Brasil: Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: ISPRS Brochure. The International Society for Photogrammetry and Remote Sensing. Suíça: Jones, Nicole. Photogrammetry Lecture Notes. The University of Melbourne. Melbourne, Austrália: Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler Verlag. Bonn, Alemanha: Lillesand, Thomas M.; Kiefer, Ralph W. Remote Sensing and Image Interpretation. John Wiley & Sons. 4a Ed. Estados Unidos: Novo, Evlyn. Sensoriamento Remoto: Princípios e Aplicações. Editora Edgard Blücher. 2a Ed. São Paulo, Brasil: Prado, Walter da Silva; Gomes, Camillo José Martins; Erwes, Herbert; Koatz, Gilson Dimenstein. Solar da Imperatriz O Primeiro Projeto Fotogramétrico no Brasil Utilizando as Regras 3X3. In: XIX Congresso Brasileiro de Cartografia. Recife, Brasil: Robinson, Arthur H.; Morrison, Joel L.; Muercke, Phillip C. et al. Elements of Cartography. John Wiley & Sons. 6a Ed. Estados Unidos: Schenk, Toni. Digital Photogrammetry Volume I. TerraScience. 1a Ed. Estados Unidos:
Introdução aos Sistemas de Informação Geográfica
Introdução aos Sistemas de Informação Geográfica Mestrado Profissionalizante 2015 Karla Donato Fook [email protected] IFMA / DAI Motivação Alguns princípios físicos dão suporte ao Sensoriamento Remoto...
FOTOGRAMETRIA I Prof Felipe: Aulas 1 e 2. 2- Câmaras Fotogramétricas
FOTOGRAMETRIA I Prof Felipe: Aulas 1 e 2 2- Câmaras Fotogramétricas Generalidades (fotografia) Elementos Fotografia aérea Espectro Eletromagnético 1 Fotogrametria é a arte, ciência, e tecnologia de obtenção
REPRESENTAÇÃO DA IMAGEM DIGITAL
REPRESENTAÇÃO DA IMAGEM DIGITAL Representação da imagem Uma imagem é uma função de intensidade luminosa bidimensional f(x,y) que combina uma fonte de iluminação e a reflexão ou absorção de energia a partir
Introdução ao Sensoriamento Remoto
Introdução ao Sensoriamento Remoto Cachoeira Paulista, 24 a 28 novembro de 2008 Bernardo Rudorff Pesquisador da Divisão de Sensoriamento Remoto Instituto Nacional de Pesquisas Espaciais - INPE Sensoriamento
Aula 2 Aquisição de Imagens
Processamento Digital de Imagens Aula 2 Aquisição de Imagens Prof. Dr. Marcelo Andrade da Costa Vieira [email protected] EESC/USP Fundamentos de Imagens Digitais Ocorre a formação de uma imagem quando
Sensoriamento Remoto. Características das Imagens Orbitais
Sensoriamento Remoto Características das Imagens Orbitais 1 - RESOLUÇÃO: O termo resolução em sensoriamento remoto pode ser atribuído a quatro diferentes parâmetros: resolução espacial resolução espectral
Aula 1 Professor Waterloo Pereira Filho Docentes orientados: Daniela Barbieri Felipe Correa
Princípios Físicos do Sensoriamento Remoto Aula 1 Professor Waterloo Pereira Filho Docentes orientados: Daniela Barbieri Felipe Correa O que é Sensoriamento Remoto? Utilização conjunta de sensores, equipamentos
Informática Aplicada a Radiologia
Informática Aplicada a Radiologia Apostila: Imagem Digital parte I Prof. Rubens Freire Rosa Imagem na forma digital A representação de Imagens na forma digital nos permite capturar, armazenar e processar
O olho humano permite, com o ar limpo, perceber uma chama de vela em até 15 km e um objeto linear no mapa com dimensão de 0,2mm.
A Visão é o sentido predileto do ser humano. É tão natural que não percebemos a sua complexidade. Os olhos transmitem imagens deformadas e incompletas do mundo exterior que o córtex filtra e o cérebro
Nosso objetivo será mostrar como obter informações qualitativas sobre a refração da luz em um sistema óptico cilíndrico.
Introdução Nosso objetivo será mostrar como obter informações qualitativas sobre a refração da luz em um sistema óptico cilíndrico. A confecção do experimento permitirá também a observação da dispersão
Fotografia digital. Aspectos técnicos
Fotografia digital Aspectos técnicos Captura CCD (Charge Coupled Device) CMOS (Complementary Metal OxideSemiconductor) Conversão de luz em cargas elétricas Equilíbrio entre abertura do diafragma e velocidade
Fotografia Digital Obtenção da Imagem e Impressão
Fotografia Digital Obtenção da Imagem e Impressão 1 Diferenças entre o CCD e o Filme: O filme como já vimos, é uma película de poliéster, coberta em um dos lados por uma gelatina de origem animal com partículas
Universidade do Estado de Santa Catarina Departamento de Engenharia Civil TOPOGRAFIA II. Profa. Adriana Goulart dos Santos
Universidade do Estado de Santa Catarina Departamento de Engenharia Civil TOPOGRAFIA II Profa. Adriana Goulart dos Santos Aerofotogrametria Fotogrametria é a ciência aplicada que se propõe a registrar,
www.fisicanaveia.com.br
www.fisicanaveia.com.br Lentes Esféricas Lentes Esféricas: construção Biconvexa Lentes Esféricas: construção PLANO-CONVEXA Lentes Esféricas: construção CÔNCAVO-CONVEXA Lentes Esféricas: construção BICÔNCAVA
Coerência temporal: Uma característica importante
Coerência temporal: Uma característica importante A coerência temporal de uma fonte de luz é determinada pela sua largura de banda espectral e descreve a forma como os trens de ondas emitidas interfererem
Cor e frequência. Frequência ( ) Comprimento de onda ( )
Aula Óptica Luz visível A luz que percebemos tem como característica sua freqüência que vai da faixa de 4.10 14 Hz ( vermelho) até 8.10 14 Hz (violeta). Esta faixa é a de maior emissão do Sol, por isso
Entendendo o Astigmatismo. Introdução. Lentes especiais sem astigmatismo MAS450/854. 9 de março de 2003
Entendendo o Astigmatismo MAS450/854 Primavera 2003 9 de março de 2003 Introdução Lentes especiais sem astigmatismo Lentes cilíndricas cruzadas com astigmatismo o Foco horizontal o Foco vertical o Plano
Processamento de Imagem. Prof. Herondino
Processamento de Imagem Prof. Herondino Sensoriamento Remoto Para o Canada Centre for Remote Sensing - CCRS (2010), o sensoriamento remoto é a ciência (e em certa medida, a arte) de aquisição de informações
OBJETIVO Verificar as leis da Reflexão Verificar qualitativamente e quantitativamente a lei de Snell. Observar a dispersão da luz em um prisma.
UNIVERSIDADE CATÓLICA DE BRASÍLIA CURSO DE FÍSICA LABORATÓRIO ÓPTICA REFLEXÃO E REFRAÇÃO OBJETIVO Verificar as leis da Reflexão Verificar qualitativamente e quantitativamente a lei de Snell. Observar a
Fenómenos Ondulatórios. Reflexão, refracção, difracção
Fenómenos Ondulatórios Reflexão, refracção, difracção Natureza dualística da radiação electromagnética A radiação electromagnética é um fenómeno ondulatório envolvendo a propagação de um campo magnético
SENSORIAMENTO REMOTO APLICADO AO CADASTRO URBANO
SENSORIAMENTO REMOTO APLICADO AO CADASTRO URBANO 04/04/2013 Leonardo Scharth Loureiro Silva Sumário 1 Fundamentos básicos de Sensoriamento Remoto 2 Levantamento aerofotogramétrico para fins de cadastro
Refração da Luz Índice de refração absoluto Índice de refração relativo Leis da refração Reflexão total da luz Lentes Esféricas Vergência de uma lente
Refração da Luz Índice de refração absoluto Índice de refração relativo Leis da refração Reflexão total da luz Lentes Esféricas Vergência de uma lente Introdução Você já deve ter reparado que, quando colocamos
SENSORES REMOTOS. Daniel C. Zanotta 28/03/2015
SENSORES REMOTOS Daniel C. Zanotta 28/03/2015 ESTRUTURA DE UM SATÉLITE Exemplo: Landsat 5 COMPONENTES DE UM SATÉLITE Exemplo: Landsat 5 LANÇAMENTO FOGUETES DE LANÇAMENTO SISTEMA SENSOR TIPOS DE SENSORES
MÓDULO 9. A luz branca, que é a luz emitida pelo Sol, pode ser decomposta em sete cores principais:
A COR DE UM CORPO MÓDULO 9 A luz branca, que é a luz emitida pelo Sol, pode ser decomposta em sete cores principais: luz branca vermelho alaranjado amarelo verde azul anil violeta A cor que um corpo iluminado
Laboratório Virtual Kit Óptico
Laboratório Virtual Kit Óptico Reflexão A luz nem sempre se propaga indefinidamente em linha reta: em algumas situações eles podem se quebrar, como acontece quando um espelho é colocado em seu caminho.
REFLEXÃO DA LUZ: ESPELHOS 412EE TEORIA
1 TEORIA 1 DEFININDO ESPELHOS PLANOS Podemos definir espelhos planos como toda superfície plana e polida, portanto, regular, capaz de refletir a luz nela incidente (Figura 1). Figura 1: Reflexão regular
1 Fibra Óptica e Sistemas de transmissão ópticos
1 Fibra Óptica e Sistemas de transmissão ópticos 1.1 Introdução Consiste em um guia de onda cilíndrico, conforme ilustra a Figura 1, formado por núcleo de material dielétrico (em geral vidro de alta pureza),
1- Fonte Primária 2- Fonte Secundária. 3- Fonte Puntiforme 4- Fonte Extensa
Setor 3210 ÓPTICA GEOMÉTRICA Prof. Calil A Óptica estuda a energia denominada luz. 1- Quando nos preocupamos em estudar os defeitos da visão e como curá-los, estamos estudando a Óptica Fisiológica. Estudar
Lista de Revisão Óptica na UECE e na Unifor Professor Vasco Vasconcelos
Lista de Revisão Óptica na UECE e na Unifor Professor Vasco Vasconcelos 0. (Unifor-998. CE) Um objeto luminoso está inicialmente parado a uma distância d de um espelho plano fixo. O objeto inicia um movimento
Óptica. Estudo da luz, como sendo a onda eletromagnética pertencentes à faixa do espectro visível (comprimento de 400 nm até 700 nm).
Óptica Estudo da luz, como sendo a onda eletromagnética pertencentes à faixa do espectro visível (comprimento de 400 nm até 700 nm). Fenômenos ópticos Professor: Éder (Boto) Sobre a Luz O que emite Luz?
3B SCIENTIFIC PHYSICS
3B SCIENTIFIC PHYSICS Kit de ótica laser de demonstração U17300 e kit complementar Manual de instruções 1/05 ALF Índice de conteúdo Página Exp - N Experiência Kit de aparelhos 1 Introdução 2 Fornecimento
Forma de Captura de Imagens Digitais:
Forma de Captura de Imagens Digitais: - Câmaras Digitais. -Videografia. - Scanner Normal. - Scanner plano B/P (tons de cinza). - Scanner plano Colorido. - Scanner plano profissional. - Scanner de tambor.
Tópicos em Meio Ambiente e Ciências Atmosféricas
INPE-13139-PRE/8398 SENSORIAMENTO REMOTO Tania Sausen Tópicos em Meio Ambiente e Ciências Atmosféricas INPE São José dos Campos 2005 MEIO AMBIENTE E CIÊNCIAS ATMOSFÉRICAS 8 Sensoriamento Remoto Tania Sauzen
Compreendendo os Efeitos da Projeção nas Imagens Aéreas
Compreendendo os Efeitos da Projeção nas Imagens Aéreas Introdução Com a atual popularização dos sistemas CAD, ficou muito fácil para usuários de cartografia carregarem um arquivo vetorial, oriundo de
TIPOS DE REFLEXÃO Regular Difusa
Reflexão da luz TIPOS DE REFLEXÃO Regular Difusa LEIS DA REFLEXÃO RI = raio de luz incidente i normal r RR = raio de luz refletido i = ângulo de incidência (é formado entre RI e N) r = ângulo de reflexão
Geomática Aplicada à Engenharia Civil. 1 Fotogrametria
Geomática Aplicada à Engenharia Civil 1 Fotogrametria Conceitos 2 Segundo Wolf (1983), a Fotogrametria pode ser definida como sendo a arte, a ciência e a tecnologia de se obter informações confiáveis de
044.ASR.SRE.16 - Princípios Físicos do Sensoriamento Remoto
Texto: PRODUTOS DE SENSORIAMENTO REMOTO Autor: BERNARDO F. T. RUDORFF Divisão de Sensoriamento Remoto - Instituto Nacional de Pesquisas Espaciais São José dos Campos-SP - [email protected] Sensoriamento
ALCANCE DINÂMICO CCD CMOS
ALCANCE DINÂMICO Nos sensores de imagem CCD (charge-coupled device) ou CMOS (complementary metal oxide semiconductor), o alcance dinâmico (ou dinâmica) é especificado tipicamente como a razão entre o sinal
LENTES E ESPELHOS. O tipo e a posição da imagem de um objeto, formada por um espelho esférico de pequena abertura, é determinada pela equação
LENTES E ESPELHOS INTRODUÇÃO A luz é uma onda eletromagnética e interage com a matéria por meio de seus campos elétrico e magnético. Nessa interação, podem ocorrer alterações na velocidade, na direção
ÓPTICA. Conceito. Divisões da Óptica. Óptica Física: estuda os fenômenos ópticos que exigem uma teoria sobre a natureza das ondas eletromagnéticas.
ÓPTICA Conceito A óptica é um ramo da Física que estuda os fenomenos relacionados a luz ou, mais amplamente, a radiação eletromagnética, visível ou não. A óptica explica os fenômenos de reflexão, refração
Modos de Propagação. Tecnologia em Redes de Computadores 5º Período Disciplina: Sistemas e Redes Ópticas Prof. Maria de Fátima F.
Modos de Propagação Tecnologia em Redes de Computadores 5º Período Disciplina: Sistemas e Redes Ópticas Prof. Maria de Fátima F. Bueno Marcílio 1 Modos de Propagação Antes de iniciarmos o estudo dos tipos
Geomática e SIGDR aula teórica 23 17/05/11. Sistemas de Detecção Remota Resolução de imagens
Geomática e SIGDR aula teórica 23 17/05/11 Sistemas de Detecção Remota Resolução de imagens Manuel Campagnolo ISA Manuel Campagnolo (ISA) Geomática e SIGDR 2010-2011 17/05/11 1 / 16 Tipos de resolução
15- Representação Cartográfica - Estudos Temáticos a partir de imagens de Sensoriamento Remoto
15- Representação Cartográfica - Estudos Temáticos a partir de imagens de Sensoriamento Remoto O Sensoriamento Remoto é uma técnica que utiliza sensores, na captação e registro da energia refletida e emitida
IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 6. O trabalho feito pela força para deslocar o corpo de a para b é dado por: = =
Energia Potencial Elétrica Física I revisitada 1 Seja um corpo de massa m que se move em linha reta sob ação de uma força F que atua ao longo da linha. O trabalho feito pela força para deslocar o corpo
Visão humana. Guillermo Cámara-Chávez
Visão humana Guillermo Cámara-Chávez Cor e visão humana Como uma imagem é formada? Uma imagem é formada a partir da quantidade de luz refletida ou emitida pelo objeto observado. Cor e visão humana Cor
Classificação das fontes Todos os corpos visíveis são fontes de luz e podem classificar-se em primária ou secundária.
Luz: é uma onda eletromagnética, que tem comprimento de onda (do espectro visível) na faixa de 400 nm a 700 nm (nm = nanômetros = 10-9 m). Além da luz visível, existem outras onda eletromagnéticas om diferentes
Figura 1: Formato matricial de uma imagem retangular. Figura 2: Ampliação dos pixels de uma imagem
Universidade Federal de Santa Maria - UFSM Departamento de Eletrônica e Computação - DELC Introdução à Informática Prof. Cesar Tadeu Pozzer Julho de 2006 Imagens Uma imagem é representada por uma matriz
Construindo a câmara escura
Construindo a câmara escura Shizue Introdução Captar e registrar imagens tornou-se possível com a câmara escura de orifício. Essa câmara nada mais é do que uma lata, preta por dentro para não refletir
PROJETO DE REDES www.projetoderedes.com.br
PROJETO DE REDES www.projetoderedes.com.br Curso de Tecnologia em Redes de Computadores Disciplina: Redes I Fundamentos - 1º Período Professor: José Maurício S. Pinheiro AULA 2: Transmissão de Dados 1.
ATENÇÃO: * Arquivos com tamanho superior a 500 KB NÃO SERÃO ACEITOS * SOMENTE serão aceitos documentos do formato: PDF
TUTORIAL DE DIGITALIZAÇÃO DIRIGIDO AO USO DO PROCESSO ELETRÔNICO Adaptado do tutorial elaborado pelo colega MAICON FALCÃO, operador de computador da subseção judiciária de Rio Grande. Introdução Este tutorial
Sistemas Sensores. Introdução
Sistemas Sensores 5ª Aulas Introdução O sol foi citado como sendo uma fonte de energia ou radiação. O sol é uma fonte muito consistente de energia para o sensoriamento remoto (REM). REM interage com os
V - Correcção de perspectiva
V - Correcção de perspectiva E se o afastamento do ponto de tomada de vista e a utilização de uma altura média em relação ao elemento a fotografar reduzem a necessidade de movimentos de correcção da perspectiva,
Fotografia Digital. Aula 1
Fotografia Digital Aula 1 FOTOGRAFIA DIGITAL Tema da aula: A Fotografia 2 A FOTOGRAFIA A palavra Fotografia vem do grego φως [fós] ("luz"), e γραφις [grafis] ("estilo", "pincel") ou γραφη grafê, e significa
O Princípio da Complementaridade e o papel do observador na Mecânica Quântica
O Princípio da Complementaridade e o papel do observador na Mecânica Quântica A U L A 3 Metas da aula Descrever a experiência de interferência por uma fenda dupla com elétrons, na qual a trajetória destes
ÓPTICA GEOMÉTRICA PREGOLINI
ÓPTICA GEOMÉTRICA PREGOLINI ÓPTICA GEOMÉTRICA É a parte da Física que estuda os fenômenos relacionados com a luz e sua interação com meios materiais quando as dimensões destes meios é muito maior que o
LEI DE OHM. Professor João Luiz Cesarino Ferreira. Conceitos fundamentais
LEI DE OHM Conceitos fundamentais Ao adquirir energia cinética suficiente, um elétron se transforma em um elétron livre e se desloca até colidir com um átomo. Com a colisão, ele perde parte ou toda energia
Elementos de linguagem: A cor
Profa Ana Rezende Ago /set 2006 A todo o momento recebemos informações através dos sentidos, da visão, do olfacto,... em cada cem informações que recebemos oitenta são visuais dessas, quarenta são cromáticas,
Guia de qualidade de cores
Página 1 de 5 Guia de qualidade de cores O Guia de qualidade de cores ajuda você a entender como as operações disponíveis na impressora podem ser usadas para ajustar e personalizar a saída colorida. Menu
Oficina de fotografia e tratamento de imagem. Facilitadora: Camila Silva Aula: 05
Oficina de fotografia e tratamento de imagem Facilitadora: Camila Silva Aula: 05 Objetivas É uma lente óptica ou conjunto de lentes usada em conjunto com um corpo de câmera e um mecanismo para reproduzir
DESENVOLVIMENTO E APLICAÇÕES DE SOFTWARE PARA ANÁLISE DO ESPECTRO SOLAR
ILHA SOLTEIRA XII Congresso Nacional de Estudantes de Engenharia Mecânica - 22 a 26 de agosto de 2005 - Ilha Solteira - SP Paper CRE05-MN12 DESENVOLVIMENTO E APLICAÇÕES DE SOFTWARE PARA ANÁLISE DO ESPECTRO
Lei de Gauss Origem: Wikipédia, a enciclopédia livre.
Lei de Gauss Origem: Wikipédia, a enciclopédia livre. A lei de Gauss é a lei que estabelece a relação entre o fluxo de campo elétrico que passa através de uma superfície fechada com a carga elétrica que
15/09/2015 1 PRINCÍPIOS DA ÓPTICA O QUE É A LUZ? A luz é uma forma de energia que não necessita de um meio material para se propagar.
O QUE É A LUZ? A luz é uma forma de energia que não necessita de um meio material para se propagar. PRINCÍPIOS DA ÓPTICA A luz do Sol percorre a distância de 150 milhões de quilômetros com uma velocidade
Disciplina: Aerofotogrametria e Tratamento de imagem
Disciplina: Aerofotogrametria e Tratamento de imagem Professor: Msc. Diego Alves de Oliveira Outubro de 2013 Oliveira Características das câmaras aerofotográficas Formato de seus negativos; Distância focal
Imagens Digitais Tratamento de Imagens
Imagens Digitais Imagens de Bitmap Bitmap = Mapa de Bits ou Imagens Raster São as imagens formadas por pixels em oposição às imagens vetoriais. Imagens de Bitmap Imagem de bitmap Imagem vetorial Imagens
Dados para mapeamento
Dados para mapeamento Existem dois aspectos com relação aos dados: 1. Aquisição dos dados para gerar os mapas 2. Uso do mapa como fonte de dados Os métodos de aquisição de dados para o mapeamento divergem,
FOTOINTERPRETAÇÃO. Interpretação e medidas. Dado qualitativo: lago
FOTOINTERPRETAÇÃO a) conceito A fotointerpretação é a técnica de examinar as imagens dos objetos na fotografia e deduzir sua significação. A fotointerpretação é bastante importante à elaboração de mapas
Atividade: matrizes e imagens digitais
Atividade: matrizes e imagens digitais Aluno(a): Turma: Professor(a): Parte 01 MÓDULO: MATRIZES E IMAGENS BINÁRIAS 1 2 3 4 5 6 7 8 Indique, na tabela abaixo, as respostas dos 8 desafios do Jogo dos Índices
EXTERNATO MATER DOMUS
EXTERNATO MATER DOMUS RUA PASCAL, 1403 CAMPO BELO SP CEP 04616/004 - Fone: 5092-5825 MATÉRIA: FÍSICA PROFESSORA: RENATA LEITE QUARTIERI ALUNO: Nº Série: 3º TURMA: Única DATA: 02 /03/2015 ASSINATURA DO
2. Representação Numérica
2. Representação Numérica 2.1 Introdução A fim se realizarmos de maneira prática qualquer operação com números, nós precisamos representa-los em uma determinada base numérica. O que isso significa? Vamos
AVALIAÇÃO DIAGNÓSTICA
O trabalho se inicia com uma avaliação diagnóstica (aplicação de um questionário) a respeito dos conhecimentos que pretendemos introduzir nas aulas dos estudantes de física do ensino médio (público alvo)
Índice de Refração. c v. n =
Refração da Luz O que é Refração? É um fenômeno que ocorre quando a luz passa através da interface que separa dois meios, ocasionando uma mudança na direção de propagação. A refração é decorrente de uma
Aluno(a): Nº. Professor: Fabrízio Gentil Série: 3 o ano Disciplina: Física - Óptica
Lista de Exercícios Pré Universitário Uni-Anhanguera Aluno(a): Nº. Professor: Fabrízio Gentil Série: 3 o ano Disciplina: Física - Óptica 01 - (PUC SP) Um objeto é inicialmente posicionado entre o foco
Ivan Guilhon Mitoso Rocha. As grandezas fundamentais que serão adotadas por nós daqui em frente:
Rumo ao ITA Física Análise Dimensional Ivan Guilhon Mitoso Rocha A análise dimensional é um assunto básico que estuda as grandezas físicas em geral, com respeito a suas unidades de medida. Como as grandezas
Processamento de Imagem. Prof. MSc. André Yoshimi Kusumoto [email protected]
Processamento de Imagem Prof. MSc. André Yoshimi Kusumoto [email protected] Visão Computacional Não existe um consenso entre os autores sobre o correto escopo do processamento de imagens, a
FUNDAMENTOS DE ONDAS, Prof. Emery Lins Curso Eng. Biomédica
FUNDAMENTOS DE ONDAS, RADIAÇÕES E PARTÍCULAS Prof. Emery Lins Curso Eng. Biomédica Questões... O que é uma onda? E uma radiação? E uma partícula? Como elas se propagam no espaço e nos meios materiais?
Estes filtros devem estar na lista de prioridade de suas compras pois eles protegem sua lente contra poeira, umidade e arranhões.
Venda Locação! """ Os filtro podem ser divididos em famílias e sub famílias: Proteção Correção Filmes Coloridos Filmes P & B Efeito: Difusores Contraste Efeitos ópticos Polarizador Cor Cor/Graduados PROTEÇÃO:
ÓTICA e ONDAS. Ótica estudo da luz e dos fenômenos luminosos em geral.
1 ÓTICA e ONDAS Ótica estudo da luz e dos fenômenos luminosos em geral. Propagação Retilínea da Luz Observando os corpos que nos rodeiam, verificamos que alguns deles emitem luz, isto é, são fontes de
Professora Bruna FÍSICA B. Aula 17 Seus Óculos. Página 232
FÍSICA B Aula 17 Seus Óculos. Página 232 INTRODUÇÃO Na aula de hoje, estudaremos os defeitos da visão e os tipos de lentes indicadas para correção destes defeitos. Para isso, estudaremos primeiramente
Sensoriamento Remoto aplicado ao Monitoramento Ambiental
Disciplina: Monitoramento e Controle Ambiental Prof.: Oscar Luiz Monteiro de Farias Sensoriamento Remoto aplicado ao Monitoramento Ambiental Andrei Olak Alves 1 2 PROCESSAMENTO DE IMAGENS espectro visível
Introdução ao Sensoriamento Remoto. Sensoriamento Remoto
Introdução ao Sensoriamento Remoto Sensoriamento Remoto Definição; Breve Histórico; Princípios do SR; Espectro Eletromagnético; Interação Energia com a Terra; Sensores & Satélites; O que é Sensoriamento
ORGANIZAÇÃO DE COMPUTADORES MÓDULO 10
ORGANIZAÇÃO DE COMPUTADORES MÓDULO 10 Índice 1. A Organização do Computador - Continuação...3 1.1. Memória Primária - II... 3 1.1.1. Memória cache... 3 1.2. Memória Secundária... 3 1.2.1. Hierarquias de
CorelDRAW 11 1. UM PROGRAMA DE DESIGN
CorelDRAW 11 1. UM PROGRAMA DE DESIGN Com o Corel você vai trabalhar com um dos aplicativos mais usados no campo do design e da auto-edição, já que permite operar com dois tipos de gráficos (vetoriais
ANÁLISE QUÍMICA INSTRUMENTAL
ANÁLISE QUÍMICA INSTRUMENTAL ESPECTROFOTÔMETRO - EQUIPAMENTO 6 Ed. Cap. 13 Pg.351-380 6 Ed. Cap. 1 Pg.1-28 6 Ed. Cap. 25 Pg.703-725 09/04/2015 2 1 Componentes dos instrumentos (1) uma fonte estável de
ALUNO: Nº SÉRIE: DATA: / / PROF.: VICTOR GERMINIO EXERCÍCIOS DE REVISÃO II UNIDADE FÍSICA 3º ANO ENSINO MÉDIO
ALUNO: Nº SÉRIE: DATA: / / PROF.: VICTOR GERMINIO EXERCÍCIOS DE REVISÃO II UNIDADE FÍSICA 3º ANO ENSINO MÉDIO 1) Em uma atividade de um engenheiro civil, o mesmo precisa determinar a altura de um edifício.
Como n lente = n meioa, não há refração. Ou seja, o sistema óptico não funciona como lente.
01 Como n lente = n meioa, não há refração. Ou seja, o sistema óptico não funciona como lente. Como n lente < n meiob, a lente de bordas finas opera como lente divergente. Resposta: A 1 02 A gota de água
O que é LUZ? SENAI - Laranjeiras. Espectro Eletromagnético. Fontes de luz 14/01/2013. Luminotécnica 40h
SENAI - Laranjeiras Luminotécnica 40h O que é LUZ? A luz, como conhecemos, faz parte de um comprimento de onda sensível ao olho humano, de uma radiação eletromagnética pulsante ou num sentido mais geral,
Universidade de São Paulo Departamento de Geografia Disciplina: Climatologia I. Radiação Solar
Universidade de São Paulo Departamento de Geografia Disciplina: Climatologia I Radiação Solar Prof. Dr. Emerson Galvani Laboratório de Climatologia e Biogeografia LCB Na aula anterior verificamos que é
Óptica Geométrica Ocular Séries de Exercícios 2009/2010
Óptica Geométrica Ocular Séries de Exercícios 2009/2010 2 de Junho de 2010 Série n.1 Propagação da luz 1. A velocidade da luz amarela de sódio num determinado líquido é 1, 92 10 8 m/s. Qual o índice de
IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 3
Linhas de Força Mencionamos na aula passada que o físico inglês Michael Faraday (79-867) introduziu o conceito de linha de força para visualizar a interação elétrica entre duas cargas. Para Faraday, as
APLICAÇÕES DA DERIVADA
Notas de Aula: Aplicações das Derivadas APLICAÇÕES DA DERIVADA Vimos, na seção anterior, que a derivada de uma função pode ser interpretada como o coeficiente angular da reta tangente ao seu gráfico. Nesta,
Antena Escrito por André
Antena Escrito por André Antenas A antena é um dispositivo passivo que emite ou recebe energia eletromagnéticas irradiada. Em comunicações radioelétricas é um dispositivo fundamental. Alcance de uma Antena
No manual da webcam, ele descobriu que seu sensor de imagem tem dimensão total útil de 2
1. (Ufsc 2015) Fotografar é uma arte que se popularizou com os celulares e se intensificou com as redes sociais, pois todos querem postar, publicar os seus registros, suas selfies. Talvez alguns celulares
UNIVERSIDADE FEDERAL DO ESPÍRITO SANTO-UFES / DEPT. DE ENGENHARIA RURAL / SENSORIAMENTO REMOTO
CAPÍTULO 2 AS INTERAÇÕES ENTRE A ENERGIA E A MATÉRIA 1.0. Introdução No Capítulo 1 vimos que o sensoriamento remoto é o ramo da ciência que retrata a obtenção e análise de informações sobre materiais (naturais
UFGD FCA PROF. OMAR DANIEL BLOCO 4 PROCESSAMENTO DE IMAGENS
UFGD FCA PROF. OMAR DANIEL BLOCO 4 PROCESSAMENTO DE IMAGENS Executar as principais técnicas utilizadas em processamento de imagens, como contraste, leitura de pixels, transformação IHS, operações aritméticas
Todo o conjunto que compõe a visão humana é chamado globo ocular.
Olho humano O olho humano é um sistema óptico complexo, formado por vários meios transparentes além de um sistema fisiológico com inúmeros componentes. Olho humano Todo o conjunto que compõe a visão humana
GNE 109 AGROMETEOROLOGIA Características Espectrais da Radiação Solar
GNE 109 AGROMETEOROLOGIA Características Espectrais da Radiação Solar Prof. Dr. Luiz Gonsaga de Carvalho Núcleo Agrometeorologia e Climatologia DEG/UFLA Absorção seletiva de radiação Absorção seletiva
Primeiras Informações
Primeiras Informações Para que um trabalho escolar fique com melhor qualidade é importante registrálo, não apenas para ser apresentado aos pais, mas principalmente como arquivo. Guardar o registro de trabalhos
Comunicação da informação a curta distância. FQA Unidade 2 - FÍSICA
Comunicação da informação a curta distância FQA Unidade 2 - FÍSICA Meios de comunicação É possível imaginar como seria o nosso mundo sem os meios de comunicação de que dispomos? Os * * * * Aparelhos de
SENSORIAMENTO REMOTO. Revisão de conteúdo. Prof. Marckleuber
SENSORIAMENTO REMOTO Revisão de conteúdo Prof. Marckleuber Engenharia de Agrimensura - 2013 SENSORIAMENTO REMOTO - Conceitos De um modo geral, o Sensoriamento Remoto pode ser definido como: O conjunto
Prof. Marcelo Henrique dos Santos
POR QUE ESTUDAR COMPUTAÇÃO GRÁFICA? Quem quiser trabalhar em áreas afins: Entretenimento Jogos e filmes Visualização Simulação de fenômenos físicos Arte computadorizada Educação e treinamento Processamento
