ESTIMAÇÃO VISUAL DE DISTÂNCIAS NA NAVEGAÇÃO DE ROBÔS MÓVEIS. Luiz Chaimowicz e Mário Fernando Montenegro Campos



Documentos relacionados
UNIVERSIDADE F EDERAL DE P ERNAMBUCO ANÁLISE DE UM MÉTODO PARA DETECÇÃO DE PEDESTRES EM IMAGENS PROPOSTA DE TRABALHO DE GRADUAÇÃO

Cálculo de volume de objetos utilizando câmeras RGB-D

Processamento de Imagem. Prof. MSc. André Yoshimi Kusumoto

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior

5 Sistema Experimental

LENTES E ESPELHOS. O tipo e a posição da imagem de um objeto, formada por um espelho esférico de pequena abertura, é determinada pela equação

7.Conclusão e Trabalhos Futuros

Universidade Federal de Pernambuco

Busca Estocástica Baseada em Planejamento para Maximizar Metas em Jogos de RTS

Uma Arquitetura Distribuída de Hardware e Software para Controle de um Robô Móvel Autônomo

Os caracteres de escrita

6 Construção de Cenários

6 Conclusões e Trabalhos futuros 6.1. Conclusões

Escolha da Objectiva. Quais as principais características das objectivas que servem de base para a escolha das suas lentes?

3 Classificação Resumo do algoritmo proposto

Formatos de Imagem PNG. Universidade Federal de Minas Gerais. Bruno Xavier da Silva. Guilherme de Castro Leite. Leonel Fonseca Ivo

Detecção e Rastreamento de Objetos coloridos em vídeo utilizando o OpenCV

SEGMENTAÇÃO DE IMAGENS EM PLACAS AUTOMOTIVAS

Processos de Desenvolvimento de Software

Protocolo em Rampa Manual de Referência Rápida

PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software

Sensoriamento 55. Este capítulo apresenta a parte de sensores utilizados nas simulações e nos

VCA Treinamento em Algoritmo

PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron.

4 Segmentação Algoritmo proposto

MÓDULO 7 Modelo OSI. 7.1 Serviços Versus Protocolos

)HUUDPHQWDV &RPSXWDFLRQDLV SDUD 6LPXODomR

Dadas a base e a altura de um triangulo, determinar sua área.

Introdução. Mudanças na forma de utilizar

Tabela de Símbolos. Análise Semântica A Tabela de Símbolos. Principais Operações. Estrutura da Tabela de Símbolos. Declarações 11/6/2008

RECONHECIMENTO DE PLACAS DE AUTOMÓVEIS ATRAVÉS DE CÂMERAS IP

PLANEJAMENTO OPERACIONAL: RECURSOS HUMANOS E FINANÇAS MÓDULO 16

SISTEMA DE APONTAMENTO

Orientação a Objetos

Arquitetura de Rede de Computadores

CorelDRAW UM PROGRAMA DE DESIGN

A New Indoor Position Estimation Method of RFID Tags for Continuous Moving Navigation Systems

5 SIMULAÇÃO DE UM SISTEMA WDM DE DOIS CANAIS COM O SOFTWARE VPI

Top Guia In.Fra: Perguntas para fazer ao seu fornecedor de CFTV

Shutter: É o tempo de exposição da foto. Pode ser fixo ou automático.

4 Arquitetura básica de um analisador de elementos de redes

Funções de Posicionamento para Controle de Eixos

Universidade do Estado de Santa Catarina Departamento de Engenharia Civil TOPOGRAFIA II. Profa. Adriana Goulart dos Santos

Banco de Dados Aula 1 Introdução a Banco de Dados Introdução Sistema Gerenciador de Banco de Dados

GPS GLOBAL POSITION SYSTEM

PLANOS DE CONTINGÊNCIAS

Protocolo de comunicação para redes móveis aplicado ao trânsito

Localização de placas em imagens de veículos. Resumo

4 Avaliação Experimental

Casos de teste semânticos. Casos de teste valorados. Determinar resultados esperados. Gerar script de teste automatizado.

Java. para Dispositivos Móveis. Thienne M. Johnson. Novatec. Desenvolvendo Aplicações com J2ME

Quadro de consulta (solicitação do mestre)

UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS

PARA A CONSTRUÇÃO DOS GRÁFICOS

Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3

Fundamentos de Hardware

Contil Informática. Curso Técnico em Informática Processadores Core

Francisca Raquel de Vasconcelos Silveira Gustavo Augusto Lima de Campos Mariela Inés Cortés

Guia do Professor. Entendendo os Espelhos de Gauss

5 Extraindo listas de produtos em sites de comércio eletrônico

2. Função Produção/Operação/Valor Adicionado

Tabela de roteamento

Trabalho 2 Fundamentos de computação Gráfica

Lista 2 - Modelos determinísticos

Um Ambiente Gráfico para Desenvolvimento de Software de Controle para Robôs Móveis Utilizando Simulação 3D

1) MANUAL DO INTEGRADOR Este documento, destinado aos instaladores do sistema, com informações de configuração.

Notas possíveis para esta questão: Zero ; 3 pontos; 6 pontos ou 10 pontos. Olimpíada Brasileira de Robótica /6

GUIA DE REDAÇÃO PARA TRABALHO DE EM974

APLICAÇÃO DE MÉTODOS HEURÍSTICOS EM PROBLEMA DE ROTEIRIZAÇÃO DE VEICULOS

Vivaldo Armelin Júnior

3 Qualidade de Software

Projeto de Sistemas I

ATENÇÃO: * Arquivos com tamanho superior a 500 KB NÃO SERÃO ACEITOS * SOMENTE serão aceitos documentos do formato: PDF

Medição tridimensional

Autor: Luís Fernando Patsko Nível: Intermediário Criação: 22/02/2006 Última versão: 18/12/2006. PdP. Pesquisa e Desenvolvimento de Produtos

DESCRIÇÃO DE UMA ESTRATEGIA PARA COMPETIÇÃO DE FUTEBOL DE ROBOS

COLÉGIO NOSSA SENHORA DA PIEDADE. Programa de Recuperação Paralela. 2ª Etapa 2014

CI202 - Métodos Numéricos

ESTUDO COMPARATIVO ENTRE AS PLATAFORMAS ARDUINO E PIC

Instalações Máquinas Equipamentos Pessoal de produção

SECRETARIA DE ESTADO DA EDUCAÇÃO SUPERINTENDÊNCIA DE EDUCAÇÃO DIRETORIA DE TECNOLOGIA EDUCACIONAL PORTAL DIA A DIA EDUCAÇÃO Natel Marcos Ferreira

Conforme explicado em 2.4.3, o sinal de voz x(n) às vezes é alterado com a adição de ruído r(n), resultando num sinal corrompido y(n).

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO DEPARTAMENTO DE INFORMÁTICA PÓS GRADUAÇÃO EM INFORMÁTICA

Modelo Cascata ou Clássico

6. Geometria, Primitivas e Transformações 3D

Tutorial de Eletrônica Aplicações com 555 v

Integração avançada entre sistemas de movimento e visão

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

REFLEXÃO DA LUZ: ESPELHOS 412EE TEORIA

IW10. Rev.: 02. Especificações Técnicas

Segundo Pré-teste. Data de realização. 18 de Novembro de Local.

PROBLEMA, MUDANÇA E VISÃO

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

Aula 1: Demonstrações e atividades experimentais tradicionais e inovadoras

4 Avaliação Econômica

Normalização do sistema de bloqueio conforme a NR 10

material, porque seus 4 m de comprimento tornam-se desprezíveis se comparados aos m de percurso. Ponto Material

Transcrição:

4o. SBAI- Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999 ESTIMAÇÃO VISUAL DE DISTÂNCIAS NA NAVEGAÇÃO DE ROBÔS MÓVEIS Luiz Chaimowicz e Mário Fernando Montenegro Campos Laborat ório de Robótica Visão e Percepção Ativa Departamento de Ciência da Computação Universidade Federal de Minas Gerais Av. Antônio Carlos 6627, Pampulha, 31270-010, Belo Horizonte, MG {chaimo, mario}@dcc.ufmg.br Resumo: Este artigo apresenta um método para a estimação visual de distâncias para robôs móveis. Ele utiliza o tamanho de um landmark artificial em imagens capturadas por uma câmera sem calibração e o movimento do robô para estimar a distância Que o separa do landmark. Uma das principais vantagens -desse método é a sua velocidade,.tornando-o adequado para aplicações de navegação em tempo real. Experimentos foram realizados utilizando esse método para controlar a aproximaç ão de um robô (Nomad 200) com relação a um landmark e os resultados mostraram que ele funciona bem em diversos casos. Esse artigo também apresenta uma idéia para a utilização desse método como parte de um algoritmo de navegação mais completo. Palavras Chave: Estimação visual de distâncias, landmarks, navegação de robôs móveis. Abstract: This papel' presents a method for visual distance estimation for mobile robots. It uses the size of an artificial landmark in a sequence of frames captured by an uncalibrated camera and the robot movement to estimate the distance between them. One of lhe key advantages of this method is that it is fast, making it suitable for real time navigation. Experiments were performed using this methodology to control the approximation of a Nomad 200 mobile robot to a landmark and the obtained resu1ts have shown that it works fine in many situations. This paper also presents an idea for the utilization of this method as part of a more complete navigational algorithm. Keywords: Visual distance estimation, landmarks, mobile robot navigation. 1 INTRODUÇÃO A navegação autônoma de um robô móvel envolve a sua movimentação de um determinado ponto a outro em seu espaço de trabalho sem a intervenção de um operador externo. Para que isso seja possível é necessário que o robô seja capaz de desviar de obstáculos e identificar a sua posição absoluta ou relativa dentro do ambiente. A complexidade da navegação irá depender de uma série de fatores [7]: o tamanho do robô, sua cinemática, o seu poder de computação e os tipos de sensores envolvidos. O ambiente pode ser conhecido ou desconhecido, estático ou dinâmico, com terreno plano ou acidentado, interno ou externo. Além disso, a navegação em si pode possuir algumas restrições tais corno a escolha do menor caminho, ou a execução em um tempo limitado. Devido a essa grande variedade de parâmetros e situações, diversas abordagens para o problema da navegação autônoma podem ser encontradas. Uma questão importante é se a navegação pode ser baseada somente em um planejamento global. O planejamento global pode ser.entendido como a determinação de como agir para satisfazer os objetivos, baseando-se em previsões dos possíveis estados futuros [9]. O problema dessa abordagem é que é difícil determinar com exatidão quais serão os estados futuros. Mesmo em um ambiente completamente conhecido e estático, os movimentos executados pelo robô não são perfeitos, devido a deslizamentos das rodas, imperfeições no terreno, etc. O acúmulo desses pequenos erros traz incerteza ao processo, o que pode impedir o robô de cumprir o seu objetivo. A solução para isso é a utilização de sensores, de forma que o robô possa identificar a sua posição e detectar a presença de obstáculos permitindo o planejamento e controle mais efetivo de suas ações. A navegação autônoma pode ser considerada. instância do paradigma geral da robótica: "perceber - decidir - agir" [7]. É sabido que a percepção visual tem um papel fundamental na vida de humanos, animais e insetos [3]. Esse tipo de percepção permite que o ser humano identifique objetos, se localize, navegue, estime distâncias e realize diversasatividades que não seriam possíveis somente com a utilização de outros sensores. Portanto, apesar da complexidade que envolve o processo de visão, o uso de sensores visuais para o controle de robôs móveis tem sido bastante estudado. Uma forma de se utilizar os sensores visuais é construir uma representação tridimensional do ambiente a partir de urna de imagens obtidas de diferentes posições por urna ou mais câmeras [17]. Essa representação permite a determinação da posição relativa do robô e a definição de uma trajetória a ser seguida. O problema principal dessa abordagem que a construção do modelo tridimensional não é simples pois requer a captura e o processamento matemático intenso de uma grande quantidade de imagens. Normalmente isso requer um grande esforço computacional, o que impede a sua utilização para 482

40. SBAI -Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999 navegação em tempo real. Além disso, o problema de reconstrução tridimensional em si é intrinsecamente complexo [12], o que dificulta muito essa tarefa. Uma abordagem mais eficiente é tentar extrair das imagens somente as informações que são necessárias para a execução de uma determinada tarefa. Esse tipo de abordagem costuma ser mais simples e direta permitindo que as informações obtidas sejam utilizadas diretamente nas rotinas de controle do robô [13]. Um tipo de informação que pode ser obtida a partir de uma seqüência de imagens é o fluxo óptico, a velocidade aparente dos objetos em movimento na imagem. O seu estudo é muito importante pois a partir dele podem ser extraídas diversas informações tais como a direção do movimento, o foco de expansão (FOE) e o tempo para colisão. O fluxo óptico pode ser definido como o movimento aparente dos padrões de intensidade dos pixels observado quando a câmera está se movimentando em relação aos objetos na cena [12]. Ele é uma aproximação do "motion field'' que é o vetor de velocidade (magnitude e direção) de cada pixel da imagem. O fluxo óptico nem sempre é igual ao "motion field", Se a iluminação da cena for alterada mas os objetos não se moverem, o fluxo óptico irá ' indicar a mudança pois a intensidade dos pixels se altera, mas o "motion field" será zero pois na realidade não há movimento. A situação inversa também pode acontecer: o fluxo óptico ser zero mas o "motion field" indicar algum movimento na cena. Existem dois tipos de técnicas principais para o cálculo do fluxo óptico [11]: as técnicas diferenciais e as técnicas de correspondência. As primeiras são baseadas nas.derivadas de espaço e tempo da função de intensidade da imagem e são adequadas para movimentos pequenos na imagem. Quando o movimento é maior, as técnicas de correspondência são mais adequadas, pois elas calculam o fluxo óptico fazendo a correspondência de pontos, bordas, etc., que se movem na seqüência de imagens. O trabalho de Barron et ai. [1] faz um estudo comparativo de várias técnicas de cálculo do fluxo óptico. Ele descreve e implementa nove técnicas e as executa com várias seqüências de imagens, mostrando resultados interessantes. O cálculo do fluxo óptico é uma operação complexa dependendo do tamanho da imagem e outras características. Uma informação mais simples que pode ser obtida a partir de sensores visuais é a presença de algum landmark na imagem. Landmarks são objetos ou padrões que podem ser reconhecidos no campo visual da câmera e servem de referência ao robô, permitindo que ele identifique a sua posição, detecte obstáculos e navegue em uma determinada trajetória. Existem dois tipos de landmarks: os artificiais, que são colocados no ambiente especificamente com esse objetivo, e os naturais, que já fazem parte do ambiente como por exemplo cadeiras, mesas (em ambientes internos) e árvores, acidentes geográficos (em ambientes externos). A detecção e extração de informações de landmarks artificiais é mais simples, uma vez que eles podem ser elaborados e posicionados de forma a facilitar essas tarefas. Em compensação, é necessário um esforço maior para se construir o ambiente de navegação, e os robôs ficam restritos a esse ambiente. Um exemplo pode ser encontrado em Becker et al. [2]. Esse trabalho mostra a utilização de landmarks artificias para reduzir a incerteza da navegação com um baixo custo de engenharia do ambiente. Outro exemplo é o trabalho de Taylor e Kriegman [16], onde landmarks em forma de códigos de barra são colocados em diversos pontos desconhecidos do ambiente de forma que o robô possa fazer uma exploração autônoma do ambiente, indo de um 'landmark visível para outro. Outra abordagem interessante é o trabalho 483 de Huttenlocher et al. [14]. Eles utilizam landmarks naturais (cadeiras, mesas, sofás) e navegam o robô estimando a sua posição e orientação através ' de mudanças no tamanho e posição dos landmarks. Essas mudanças são calculadas detectando-se as bordas dos landmarks naturais na imagem e fazendo a correspondência dessas bordas. Além da aplicação em robótica móvel terrestre, métodos visuais e landmarks também podem ser utilizados na navegação e estimação de posição de veículos aéreos, tais como dirigíveis autônomos [5], [8]. - o presente trabalho apresenta um método para estimar a distância de um robô móvel para um landmark artificial utilizando uma câmera sem calibração. O método utilizá uma abordagem similar a utilizada em [14], mas de uma maneira mais simples. Ao invés de fazer a correspondência de bordas dos landmarks naturais para medir a variação do tamanho, esse método faz a segmentação de um landmark artificial e calcula o seu tamanho contando os pixels diretamente na imagem. Utilizando-se a variação do tamanho do landmark e a distância percorrida pelo robô entre duas imagens é possível estimar a distância que separa o robô do landmark. Esse método pode ser usado para controlar o robô em pequenas tarefas ou como parte de um sistema mais elaborado de navegação em tempo real. Resultados preliminares da utilização dessa metodologia podem ser encontrados em [4]. O restante deste artigo está organizado da seguinte forma: a próxima seção explica com mais detalhes o método de estimação de distâncias e o algoritmo utilizado para testá-lo. A seção 3 apresenta a plataforma utilizada na realização dos experimentos. Na seção 4 são discutidos os resultados obtidos na execução de alguns experimentos e na seção 5 é apresentada a idéia inicial de um algoritmo de navegação que pode utilizar em parte o método de estimação visual discutido. Por fim, a seção 6 apresenta a conclusão e possibilidades de trabalhos futuros. 2 ESTIMAÇÃO DA DISTÂNCIA Quando um robô equipado com uma câmera se aproxima de algum objeto, o tamanho desse objeto na 'imagem aumenta de forma inversamente proporcional à distância que os separa e diretamente proporcional à distância percorrida entre as capturas das duas imagens. Essa é a idéia central desse método: utilizar a variação do tamanho de um landmark em duas ' imagens consecutivas e distância percorrida entre as duas capturas para estimar a. distância que separa o robô do landmark. A Figura I mostra esse fato de maneira esquemática: W é a largura do landmark, e w e w' as suas projeções em duas imagens consecutivas quando o robô percorre uma distância m. A distância focal da câmera é dada porf, e d éadistância que se deseja estimar. w d f )( ) m Figura 1: geometria aplicada pelo método f w

40. SBAI- Simpósio Brasileiro de Automação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999 Utilizando a semelhança de triângulos, tem-se duas equações que representam as projeções: f w f = w' (1), (2) m +d W d W Agrupando-se as equações (1) e (2) e isolando o valor de d, obtém-se a equação desejada: w' --1 w Ou seja, a distância é diretamente proporcional ao movimento do robô e i.nversamente proporcional a razão das larguras do landmark. E importante notar que a distância focal da câmera (f) não faz parte da equação (3), indicando que a câmera não precisa ser calibrada para a estimação da distância. Uma restrição existente nesse método é que o landmark deve estar aproximadamente centralizado" na câmera e o movimento do robô deve ser feito de forma perpendicular ao plano landmark. Quando o movimento não é feito dessa forma, novos termos devem ser acrescentados às equações apresentadas. A estimação visual de distâncias foi utilizada em um algoritmo para controlar a aproximação do robô na direção do landma rk. Inicialmente, o robô captura uma imagem, move 5 polegadas para frente e captura uma nova imagem. A distância é calculada eesse processo se repete até que o robô pare quando a distância for menor que 10 polegadas. Se por algum motivo o landmark não for identificado na imagem, o robô também pára o seu movimento. Isso pode acontecer, por exemplo, se o landmark sair do campo de visão da câmera devido à presença de algum obstáculo. O processamento de imagens realizado pelo método é basicamente o seguinte: o algoritmo captura uma imagem colorida, transforma-a em tons de cinza, aplica uma operação de limiar e faz a segmentação do landmark. A operação de limiar utiliza um valor fixo, uma vez que existe um grande contraste entre o landmark e o fundo da imagem. A segmentação é utilizada para isolar o landmark, permitindo o cálculo de sua largura em pixels. Essa largura é utilizada no método de estimação de distâncias discutido acima. Mais detalhes sobre cada uma destas operações podem ser encontrados em [6]. 3 PLATAFORMA DE TESTES O robô móvel utilizado nos testes foi um Nomad 200 (Figura 2), fabricado pela Nomadic Technologies. O Nomad 200 é guiado por um mecanismo syncrho-drive, e utiliza um motor para direcionar suas 3 rodas e outro motor para executar a translação. A torre pode girar independentemente da base, o que pode ser importante na realização de certas tarefas. O robô é equipado com diversos tipos de sensores tais como um sistema visual colorido, 16 sensores de ultrasom, 16 sensores infravermelhos, uma bússola, sensores de contato (bumpers) e encoders de posição. Ele possui um processador pentium-pro 200 MHz, com 64 Mb de memória RAM, onde todo o processamento de imagens é realizado. (3) Figura 2: robô Nomad 200 O landma rk utilizado foi um quadrado preto, com dois tamanhos fixos: 5x5 e lox10 polegadas. A Figura 3 mostra a montagem do experimento com o robô se movendo na direção do landmark. A Figura 4 mostra duas imagens (320x240 pixels) após a aplicação do limiar. Elas mostram o landmark capturado a partir de 85 e 15 polegadas com larguras iguais a 17 e 90 pixels respectivamente. Figura 3: robô movendo-se na direção do landmark Figura 4: imagens do landmark após a aplicação da operação de limiar. Os resultados dos experimentos são mostrados na próxima seção. Cada execução foi repetida diversas vezes e os resultados foram comparados com leituras do sonar para verificar o correto funcionamento do método visual de estimação de distâncias. 4 RESULTADOS EXPERIMENTAIS O primeiro experimento foi realizado utilizando-se o Landmark de tamanho 5x5 polegadas. O gráfico da Figura 5 mostra os resultados obtidos. O eixo x do gráfico contém a distância medida pelo sonar e o eixo y a diferença entre essa distância e a distância estimada pelo método visual.. 484

40 30 &.10 -;;; O 0- S-lO C -30-40 40. SBAI - Simpósio Brasileiro de Automação inteligente, São Paulo, SP. 08-í Ode Setembro de 1999 Distância medida pelo sons. ( pai. ) Figura 5: diferença entre as medidas do sonar e do método visual à medida que o robô se aproxima do landmark de tamanho 5x5 polegadas Pelo gráfico, pode-se observar que o método de estimação visual funciona bem quando o robô está relativamente perto do landmark (menos de 40 polegadas para esse tamanho de landmark). Para distâncias maiores, o método não é muito preciso, e as diferenças entre a leitura do sonar eadistância estimada pelo método visual tornam-se maiores. Isso acontece porque, quando a câmera está longe do landmark, as computadas em duas imagens consecutivas são muito próximas. Quando a câmera está distante, uma diferença de 5 polegadas na distância causa uma variação de apenas um ou dois pixels na largura. Como a medida em pixels é sempre um valor discreto, o método torna-se impreciso quando a variação da largura é pequena. Por exemplo, se a largura aumentar aproximadamente 1,5 pixels, esse valor será discretizado para I ou 2, o que gera estas imprecisões. Esse fato pode ser melhor observado através do gráfico da Figura 6. Este gráfico mostra a largura do landmark (em pixels) computada pelo método visual à medida que o robô se aproxima dele. A derivada dessa curva é próxima de zero quando o robô está distante, aumentando a medida que o robô se aproxima. A derivada representa exatamente a variação da largura e valores pequenos para essa variação levam às imprecisões encontradas. Em alguns experimentos, quando a distância foi maior que 100 polegadas, não houve diferença na largura calculada em duas imagens consecutivas, causando uma divisão por zero na equação (3). 250 Ui' ã;! 200.>: 150 " <:.!! 100.g l'! " 50 E!' :l O 82 77 71 66 61 56 51 46 41 36 31 26 21 16 10 5 DistAncia medida pelo sonar ( pol. ) Figura 6: largura do landmark medida quando o robô se aproxima-dele, Esse tipo de erro pode ser em parte evitado utilizando-se um landmark de tamanho 'maior. Quando o tamanho aumenta, a diferença entre as larguras em duas imagens consecutivas também aumenta, e o método torna-se mais preciso para distâncias maiores. O gráfico da Figura 7 mostra esse fato. Os experimentos fóram realizados com o método de estimação visual utilizando-se o landmark de tamanho lox10 polegadas, e os resultados foram comparados com as medidas do sonar. O gráfico mostra que o método passa a funcionar bem para uma 485 distância maior, igual a 60 polegadas. Apesar de melhorar a precisão do método, o uso de landmarks maiores tem alguns inconvenientes: quando a distância se torna muito pequena, o landnzark encosta nas bordas da imagem, impedindo a execução do método e fazendo com que o robô pare o seu movimento. Na gráfico da Figura 7 isso ocorre quando a distância é igual a 15 polegadas. 50 40 30 ::;- 20! 10 fl, O! 10 20 30-40 50 Distância medida pelo sonar ( pol. ) Figura 7: diferença entre as medidas do sonar e do método visual à medida que o robô se aproxima do landmark de tamanho lodo polegadas Como foi dito anteriormente, uma das principais vantagens desse método é a sua simplicidade e rapidez. As operações de segmentação da imagem e cálculo da distância são relativamente simples, e podem ser executadas com um custo computacional baixo. Para verificar esse fato, os tempos de execução de cada uma das fases do processamento foram medidos. O tempo médio para o processamento de uma imagem e o cálculo da distância variou de lia 17 milisegundos, proporcionalmente à largura do landmark na imagem. A maior parte desse tempo foi gasta no algoritmo de segmentação. A captura da imagem foi um pouco mais demorada, variando entre 50 e 60 milisegundos. O tempo total (captura + processamento) ficou em torno de 70 milisegundos, o que dá uma taxa de aproximadamente 15 quadros processados por segundo. Essa taxa ainda pode ser melhorada pois a captura da imagem, que é a fase mais demorada, está sendo feita em cores e apenas uma das três bandas RGB da imagem está sendo utilizada. Portanto, a utilização de imagens em tons de cinza e algumas alterações no algoritmo de segmentação podem trazer melhorias de desempenho. 5 ALGORITMO DE NAVEGAÇÃO O prédio do Instituto de Ciências Exatas \ICEx) da. UFMG é composto de diversos corredores onde se SItuam várias salas e laboratórios. Cada sala possui ao lado da porta duas placas que identificam seu nome e número, além de um pequeno quadronegro para eventuais mensagens, como pode ser.visto na Figura 8. Um algoritmo que permitisse um robô navegar de. autônoma pelos corredores do prédio seria de grande utilidade e interesse. A idéia básica é permitir que o robô navegue pelos corredores do ICEx identificando a sua posição de acordo com as placas de cada sala. Através desse e -de posse de um conhecimento prévio das posições-relativas de cada sala (por exemplo, a sala 3020 está a direita da 3021), o robô seria capaz de executar tarefas específicas como ir de uma sala a outra, entregar correspondências, guiar visitantes, etc.

40. SBAI - Simpósio Brasileiro de Automação Inteligente, São Pauto, SP, 08-10 de Setembro de 1999 visual para determinar a sua posiç ão, a partir das placas de identificação das salas. O que se pretende agora é analisar a viabilidade de utilização das metodologias propostas para esse algoritmo e tentar implementá-ias na navegação autônoma do robô Nomad 200. Figura 8: identificação de uma das salas do prédio do Instituto de Ciências Exatas (ICEx) da UFMG Esse algoritmo para a navegação autônoma deve ser composto por dois módulos básicos: um responsável pela movimentação e desvio de obstáculos e outro responsável pela identificação da posição do robô. A idéia é que o primeiro módulo seja implementado através de sonar. Isso pode ser feito tanto utilizando-se métodos mais simples como Wall Following [15] quanto através de métodos mais complexos como por exemplo Occupancy Grids [10]. Um algoritmo inicial baseado em wallfollowing já foi desenvolvido e testado em um simulador, apresentando bons resultados. o módulo para a determinação da posição do robô, vai se basear nas placas de identificação existentes. A medida que o robô for navegando pelos corredores, a câmera irá capturar imagens que serão analisadas para determinar a presença de uma placa de identificação e o seu número, de forma que o robô possa determinar a sua posição. O algoritmo de estimação de distâncias poderá ser utilizado para fazer a aproximação do robô com relação as placas, utilizando como landmark o quadro-negro situado abaixo delas -(Figura 8). Isso pode ser necessário para realizar uma captura mais precisa da imagem da placa de identificação contendo o número da sala. A descrição apresentada acima é apenas um esboço da idéia a ser utilizada pelo algoritmo de navegação. Um -estudo mais profundo deve ser realizado para verificar se as soluções propostas são viáveis, qual a complexidade da integração dos diversos sensores para o controle do robô, etc. 6 CONCLUSÃO Esse trabalho apresentou um método simples para a estimação da distância de um robô móvel para um landmark artificial. Ele usa' a variação do tamanho do landmark em imagens capturadas por uma câmera sem calibração e a distância percorrida pelo robô para estimar a distância que o separa do landmark. Experimentos realizados utilizando-se um robô Nomad 200, mostraram que o método funciona bem quando o. robô está relativamente perto do landmark. Uma das principais vantagens deste método é que ele bem rápido, gastando aproximadamente 70 milisegundos em média para capturar e processar uma imagem. Isso fornece uma taxa de 15 quadros por segundo, o que é suficiente para. controlar um robô em tempo real. Além disso, foi apresentado o esboço de um algoritmo para controlar navegação de um robô móvel pelos corredores do Instituto de Ciências Exatas da UFMG. O algoritmo usaria sensores de ultrasom para o desvio de obstáculos e um método 7 REFERÊNCIAS [1] Barron, J. L., Fleet, D. J. and Beauchemin, S. S., "Performance of Optical Flow Techniques", International Journal ofcomputer Vision 12:1, pp. 43-77,1994. [2] Becker, c., Salas, J., Tokusei, K. and Latombe, J-c., "Rel íable Navigation Using Landrnarks", in Proceedings of the IEEE Intemational Conference on Robotics and Automation, 1995, pp. 401-406. - [3] Bruce, V., Green, P. R., Geogeson, M. A., Visual Perception - Physiology, Psychology and Ecology, Psychology Press, East Sussex, UK, 1996. [4] Campos, M. F. M. and Chaimowicz, L., "Visual Measurement Estimation for Autonomous Vehicle Navigation", in Proceedings of SPIE's is' Annual lnternational Symposium OIl Aerospace / Defense Sensing Simulation and Controls, 1999, Orlando, Florida, USA. [5] Campos, M. F. M. and Coelho, L. S., "Autonomous Dirigible Navigation Using Visual Tracking and Pose Estimation", in Proceedings of the IEEE Intemational Conference on Robotics and Automation, 1999, Detroit, Michigan, USA. [6] Castleman, K. R., Digital Image Processing; Prentice Hall, Englewwod Cliffs, New Jersey, 1996. [7] Chatila, R., "Mobile Robot Navigation Algorithms", in Algorithmic Foundations of Robotics, A. K. Peters, Wellesley, Massachusetts, 1995. [8] Coelho, L. S., Campos, M. F. M. and Kumar, V., "Computer Vision-Based Navigation for Autonomous Blimps", in Proceedings ofsibgrapi'98 - lnternational Symposium on Computer Graphics and Image Processing; Rio de Janeiro, Brazil, 1998. [9] Dean, T. L. and Wellman, M. P., Planning and Control, Morgan Kaufmann Publishers, San Mateo California, 1991. [10] Elfes, A., "Using Occupancy Grids for Mobile Robot Perception and Navigation", IEEE Computer Magazine, Special Issue on Autonomous and Intelligent Machines, June 1989. Invited Paper. [11] Fermüller, C. and Aloimonos Y., "Tracking Facilitates 3- D motion Estimation", Biological Cybernetics, n. 67, pp. 259-268, 1992. [12] Horn, B. K. P., Robot Vision, MIT Press, Cambridge, 1986. [13] Hutchinson, S., Hager, G. D. and Cork, P. 1., "A Tutorial on Visual Servo Control", IEEE Transactions on Robotics and Automation, Vol. 12, N. 5, pp. 651-670, October, 1996. [14] Huttenlocher, D. P., Leventon, M. E. and Rucklidge, William J., "Visually-Guided Navigation by Comparing Edge Images", in AIgorithmic Foundations of Robotics, A. K. Peters, Wellesley, Massachusetts, 1995. 486

40. SBAI - Simpós io Brasileiro de Auiomação Inteligente, São Paulo, SP, 08-10 de Setembro de 1999 [15] Latombe, J. C, Robot Motion Planning; Kluwer Academic Publishers, NorwelI MA., 1991. [16] Taylor, C. J. and Kriegman, D. J., "Vision-Based Motion Planning and Exploration Algorithms for Mobile Robots", IEEE Transactions on Robotics and Automation, VoI. 14, N. 3, pp. 417-426, June, 1998. [17] Zhang, Z. and Faugeras, O. D., "Building a 3D World Model with a Mobile Robot", in Proceedings of the 10th International Conference on Pattern Recognition, 1990. 487