DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS

Tamanho: px
Começar a partir da página:

Download "DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS"

Transcrição

1 Departamento de Engenharia Elétrica DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS Aluna: Daniel de Sousa Leite Orientadora: Karla Tereza Figueiredo Leite Introdução Robôs autônomos devem ser capazes de tomar ações as quais não foram especificamente programados, mas para tal é necessária que algum tipo de inteligência esteja embarcada. Algumas técnicas de inteligência, como o aprendizado por reforço, exigem um tempo de treinamento que se torna dispendioso quando aplicado na plataforma real e, portanto, é fundamental a existência de um ambiente virtual e que ele possua características mais próximas possíveis do real para que se possa ganhar agilidade nesse processo. A técnica de inteligência computacional proposta para essa iniciação é o aprendizado por reforço e o ambiente utilizado é o fornecido pelo Microssoft Robotics Developer Studio (MSRS) em interação com o MatLab. Para que esses dois programas se comuniquem, foi necessária a utilização de um terceiro, o SPL, que servirá como ponte entre as plataformas citadas. Para a aplicação em um ambiente real, propõe-se a plataforma da Lego (Lego Mindstorms NXT), cujo o MatLab já possui um pacote de ferramentas, Mindstorms NXT Toolbox for MATLAB [1], que foi desenvolvido na Universidade de Aachen, na Alemanha. Aprendizado por Reforço Segundo Sutton e Barto em [4], Aprendizagem por Reforço (AR) é um formalismo da Inteligência Artificial que permite a um indivíduo aprender a partir da sua interação com o ambiente no qual ele está inserido. Essa interação se dá por meio da percepção do agente que o localiza no ambiente, ambiente este previamente mapeado em estados, e das ações tomadas. Nesse processo de interação será avaliada o quão boa foi a ação escolhida dada a transição de estados que o agente realizou (figura 1). Figura 1 - Interação agente-ambiente O Aprendizado por Reforço é indicado para situações em que não há muita informação sobre o comportamento que o agente deva tomar para alcançar o objetivo, ou seja, a política ótima para o ambiente em que o agente está inserido. Trabalho Desenvolvido no Período de Abril a Junho de 2012.

2 Segundo Sutton e Barto [4], além do agente e do ambiente, um sistema de aprendizado por reforço pode apresentar os seguintes elementos: a política, a função de reforço, a função valor e, opcionalmente, o modelo do ambiente. Política: é o mapeamento do estado percebido em ações a serem realizadas quando o agente se encontra naquele estado. Ou seja, é a probabilidade de o agente realizar a ação quando este se encontrar no estado, sendo representada por. Reforço: define o objetivo de um problema de aprendizado por reforço, mapeando pares de estado-ação em um valor numérico que deve ser maximizado pelo agente. A função de reforço define quais são os eventos bons ou ruins para o agente de forma local. A função valor: define o que é bom ou ruim de forma global, ou seja, o valor de um estado é o valor total do reforço que agente pode esperar acumular sobre o futuro a partir daquele estado. A função valor pode considerar apenas o estado, como também, o par estado-ação. Modelo do ambiente: os modelos imitam os possíveis comportamentos a serem adotados em um ambiente, por exemplo, dado um par estado-ação, o modelo deve ser capaz de prever o próximo estado e o próximo reforço. A. Explotação vs. exploração Um dos grandes problemas do aprendizado por reforço é a definição de como o agente escolherá as ações a serem tomadas. O agente pode agir de forma a escolher a ação que fornece um maior reforço naquele estado (explotação) ou de forma a obter novas informações sobre o ambiente e que possam elevar os reforços no futuro (exploração). Nem sempre escolher a ação com maior retorno será uma boa ideia, em alguns casos, pode ser necessário que o agente execute ações que o levem a estados poucos visitados para um melhor aproveitamento do espaço de estados. Um método bastante simples (que permite um equilíbrio entre o aproveitamento e a exploração) utilizado para seleção da ação é o ε-greedy. Neste método a melhor ação é escolhida com probabilidade 1 ε (passo guloso) e uma ação é escolhida de forma randômica com probabilidade ε (passo exploratório). A principal desvantagem deste método é que ações não ideais são escolhidas de novo e de novo com a mesma probabilidade das ações mais promissoras [5]. Para tentar amenizar o problema mencionado anteriormente, pode-se utilizar o método Softmax, também conhecido como exploração de Boltzmann, onde a ação no estado é selecionada com probabilidade: O termo representa a função valor quando considerado o par estado-ação, enquanto é a temperatura de Boltzmann. B. Q-Learning O mecanismo de aprendizado Q-Learning foi apresentado por Watkins em De maneira geral, a cada interação o valor da função valor-ação ( ) é atualizado. Não com o valor da ação selecionada pelo método de exploração, mas sim, com o valor da ação mais (1)

3 valorizada no estado atual (4). Ou seja, o valor de um estado é diretamente proporcional ao da ação com maior valor que nele possa ser selecionada [6]. Reescrevendo (4), tem-se: (4) (4.1) A figura 2 mostra o algoritmo utilizado no Q-Learning, um método off-policy, onde, a política de ações utilizadas não influencia diretamente na maximização das recompensas: Figura 2 - Algoritmo utilizado no Q-Learning A popularidade desse método está relacionada ao fato de ter sido o primeiro método de AR estudado minunciosamente para fins de controle e também por ser uma técnica simples que calcula diretamente a política de ação ótima sem a necessidade de um passo intermediário para avaliação do custo da mesma e sem a utilização de um modelo [17, 18]. Além disso, Watkins [7] demonstrou em sua tese que se cada par estado-ação for experimentado um número grande de vezes e decrescer apropriadamente, as funções irão convergir com probabilidade 1 para ( ótimo). Da mesma forma, a política de ações utilizada convergirá para uma política ótima. Existem outros mecanismos de aprendizado como Diferença Temporal (DT), Monte Carlo (MC) e Programação Dinâmica (PD), contudo o processo de aprendizado utilizado nessa iniciação é o algoritmo Q_learning, pois conforme é uma técnica simples que calcula a política ótima sem que seja necessário conhecer a função valor do sistema, já que ela é obtida naturalmente através das interações do agente com o meio. A Ferramenta de Simulação 1. MatLab e a Ferramenta RWTH O MatLab é um software voltado para cálculos com matrizes que pode ser utilizado em diversas aplicações, como: análise numérica, processamento de sinal e imagem, controle, testes e medições, entre outras. Possui ferramentas adicionais de técnicas inteligentes como Redes Neurais, Lógica Fuzzy e Algoritmos Genéticos. O RWTH Mindstorms NXT Toolbox for MATLAB [1] foi desenvolvido na Universidade de Aachen, na Alemanha, a partir da necessidade de integrar o MatLab com o Lego Mindstorms NXT, para projetos dos estudantes de engenharia elétrica. Essa ferramenta possui os drivers necessários para controlar o NXT (controle dos motores, leitura dos sensores, conexão via USB e Bluetooth, etc.) que serão utilizadas quando forem

4 realizados testes na plataforma real. Na figura 3, têm-se alguns exemplos dos comandos disponíveis na biblioteca RWTH. Figura 3 - Comandos do RWTH no MatLab 2. Microsoft Robotics Developer Studo (MRDS) O MRDS [2] é um ambiente que possibilita a criação de aplicações robóticas para uma variedade de plataformas de hardware (Lego, Pioneer P3DX, irobot, Kinect Sensor, etc.) e por meio desse software foi criado o ambiente virtual onde está inserido o agente, robô Lego, com seus sensores para ele realizar seu aprendizado no ambiente virtual. 3. Simple Programming Language (SPL) O SPL (Simple Programming Language) [3], é um software livre para desenvolvimentos acadêmicos e/ou não comerciais. Sua principal característica é a utilização de um script, escrito em C#, no qual linhas de comando e expressões são utilizadas para criação das aplicações (figuras 4 e 5). Figura 4 - Script do SPL

5 Figura 5 - Simulação no MSRS via SPL Mapeamento dos estados O primeiro passo foi definir como o ambiente seria mapeado em estados e escolher o conjunto de ações que o agente poderia tomar. Até chegar a configuração final, vários modelos foram feitas como: Modelo 1 O ambiente foi mapeado em uma forma de grade na qual cada ponto está a 25% da distância em que o agente se encontra do objetivo ao iniciar a tarefa, a orientação do agente (Norte, Sul, Leste ou Oeste) e a distância que o agente se encontra do obstáculo. Para esse espaço de estado as ações que o agente podia tomar eram se mover para frente e girar o, sendo que o passo dado era do tamanho da distância entre dois pontos paralelos da grade. Com esse configuração, criou-se um mapa de valor-ação com 200 estados e 3 ações, conforme pode ser visto na figura 6, onde cada região pintada é um estado distinto. Vantagens Uma das principais vantagens dessa configuração foi o baixo número de estados, que favoreceu o rápido aprendizado. Desvantagens O agente fica limitado a navegar pelos pontos da grade, o que pode gerar um erro considerável dependendo do tamanho da região de exploração e da localização do objetivo, em diversas configurações da posição do agente em relação ao objetivo a distância percorrida por ele não é a menor distância possível, ou seja, uma reta entre os dois pontos e o agente não consegue sair de uma situação de quina na qual ele está cercado.

6 Figura 6 Exemplo do modelo de estado 1 para um valor fixo de distância ao obstáculo Modelo 2 Nessa configuração de estado, a ideia da divisão por grades foi mantida, mas em vez de apenas quatro orientações, a orientação do agente estava dividida em graus de 120 regiões de largura de 3 graus, sendo que elas vão de 0 o à o e são medidas em relação a frente o agente com a reta que liga a posição (X,Z) do agente à (X,Z) do alvo, conforme figura 7. Aliada a dois conjuntos de distâncias possíveis ao obstáculo, o sistema passou a possuir 6000 estados (120 ângulos possíveis x 2 dois conjuntos de distâncias ao obstáculo x 25 pontos da grade). Já o grupo de ações disponíveis para cada estado era girar +-3 o, +-6 o, +- 9 o e +-21 o e andar um passo padrão de 10 cm.

7 Figura 7 Exemplo da medição a orientação do agente em relação ao objetivo Vantagens O agente tinha a possibilidade de percorrer a menor distância possível entre o ele e o objetivo, além de ter maior mobilidade para poder desviar de obstáculos. Desvantagens O sistema passou a ter um elevado número de estados, o que gerou alto custo de aprendizado, e o agente conseguia chegar a pontos onde não existiam estados mapeados, já que ele podia se mover em direções em que o passo padrão não garantia que ele chegasse a outro estado conhecido. Observação: Nas duas configurações de estados mostradas anteriormente, para garantir que o agente não se posicionasse em uma região fora da grade de estados ele era penalizado toda vez que uma ação que o levasse a essa configuração fosse tomada. Modelo 3 Nessa nova configuração, o estado não foi mais dividido como grade, mas sim como círculos concêntricos cujus raios representam as distâncias ao alvo e ao obstáculo, sendo que ao todo foram utilizadas 3 regiões de distância ao alvo e 3 ao obstáculo. Além dessas distâncias foi mantida a divisão da orientação do agente em 120 estados espaçados em 3 graus o que totalizou 1080 estados (3 grupos de distâncias ao alvo x 3 grupos de distância ao obstáculo x 120 grupos de orientações).

8 Para essa nova configuração de estados, as ações tomadas eram distintas para cada motor do agente e a combinação dessas ações gerava um movimento de rotação e/ou translação, sendo que caso ocorre-se o movimento conjunto, primeiro a rotação era aplicada para então ser aplicada a translação. Ao todo foram criadas oito ações que geravam uma potência de 0% à 70%, em passos de 10%, para cada motor. Esses valores de potência foram manipuladas de tal maneira que ao atingir a 70% nos dois motores o agente se deslocava no máximo de 30 cm e quando a diferença entre as potência fosse máxima a rotação era de graus. Como as atuações dos motores eram distintas, foram utilizadas duas tabelas valoração, uma para cada motor, e elas eram atualizadas simultaneamente no processo de aprendizado, só que com valores independentes. Vantagens Uma das principais vantagens dessa configuração foi a maior generalização do espaço de estado, que permitiu que o agente fosse capaz de ligar com as mais diversas situações. Desvantagens Assim como em casos anteriores, o número de estado se mostrou um pouco alto o que penalizava o tempo de treinamento, mas a principal desvantagem é que por utilizar tabelas de valor-ação distintas para cada motor, uma ação que fosse boa para um motor poderia receber como retorno uma penalidade se os conjuntos das ações dos motores levassem a um estado ruim, prejudicando assim o aprendizado. Observação: Algumas outras configurações foram testadas entre e após as mostradas anteriormente até que chegasse à configuração final Configuração final do mapa de estados Assim como na configuração 3, o estado é subdividido em raios concêntricos que representam as fronteiras das regiões dadas por diferentes leituras de distância ao alvo e ao obstáculo, contudo nesse modelo foram incluídas duas novas regiões de avaliação, que são as distâncias a obstáculos nas laterais do agente. Todas essas distâncias passaram a ser normalizadas com a menor distância que o agente se encontra do objetivo na configuração inicial, por exemplo, no caso em que o agente inicia no ponto (0,0) e o objetivo se encontra em (0,1) a menor distância é 1 e a medição das distâncias do agente durante o processo serão em razão desse valor inicial. Ao invés de 120 graus distintos para orientação do agente, foi feita uma divisão setorizada na qual de -33 o à 33 o, em relação a frente do agente, tem-se 11 regiões espaçados de 6 graus, as regiões fora dessa marcação foram espaçadas a cada 50 gruas, o que totalizou 17 regiões de orientação para o agente (figura 8).

9 Figura 8 Divisão dos estados da a orientação e as distâncias medidas pelo agente. A combinação das possíveis orientações, distâncias ao alvo, distância ao obstáculo (frente, lateral esquerda e lateral direita) geraram um total de 612 estados distintos (3 regiões de distância ao alvo x 3 regiões de distância ao obstáculo a frente x 2 regiões de distância ao obstáculo na lateral direita x 2 regiões de distância ao obstáculo na lateral esquerda X 17 regiões de orientação do agente em relação ao objetivo). Para cada estado foram mapeados os seguintes conjuntos de ações: girar +-90 o, +-50 o, +-30 o e +-6 o, andar 2,5%, 10%, 20% ou 30%, da menor distância entre o agente e o objetivo no momento em que o processo é iniciado, e ficar parado. Com isso a configuração final do espaço de estado gerou um mapa de valor-ação de 612x13 elementos.

10 Sensores do Agente Para que o agente se localize no ambiente ao qual está inserido, foram instalados sensores do tipo Laser Range Finder, para detectar objetos que estejam a sua frente e/ou em suas laterais, dentro de um ângulo de varredura conforme mostrados figura 9. Figura 9 Exemplo da atuação dos sensores de distância do agente Para que o agente se localize em relação ao ponto objetivo, foi instalado um sensor GPS no qual é possível extrair não só as coordenadas X,Y,Z da origem o agente, mas também as velocidades lineares e angulares desses eixos. Vantagens Com as distâncias normalizadas o agente pode ser inserido em ambientes com diferentes dimensões sem que para isso seja necessária mais etapas para chegar ao objetivo. Com a inclusão dos sensores laterais, evita-se situações em que o agente fique oscilando entre regiões com e sem obstáculos, além de facilitar o aprendizado de situações em que seja necessário contornar um obstáculo muito longo, como uma parede. A maior resolução da orientação do agente apenas na região á sua frente permite que ele se alinhe com mais precisão ao objetivo e que faça contornos mais suaves, sem que seja necessário um grande número de estados. Desvantagens Como os estados envolvem configurações bem específicas, fica um pouco custosa a simulação, pois são necessárias varias interações para garantir que todas as configurações foram acessadas na quantidade ideal. Algoritmo O programa principal está escrito em SPL, pois através dele que são feitas as trocas de informação entre o MatLab e o MRDS, e possui as seguintes etapas. 1 Criar o agente, sensores e obstáculos no ambiente MRDS. 2 Inicializar variáveis do sistema e carrega os valores existentes da tabela valor-ação. 3 Leitura dos sensores.

11 4 Dados dos sensores são enviados para MatLab, onde o agente é localizado no espaço de estado. 5 Realiza chamada para a função ε-greedy [5], criada no MatLab, onde é escolhida uma ação para o agente tomar. 6 Os dados da ação selecionada são lidos do MatLab e enviados para o agente no ambiente do MRDS, que executa a ação. 7 Os dados dos sensores do agente são novamente lidos e enviados para o Matlab para sua localização no espaço de estados. 8 É realizada uma avaliação do estado ao qual a ação escolhida pelo ε-greedy levou o agente. Se o estado está próximo ao objetivo a uma distância de 10% da menor distância entre o agente e o alvo na configuração inicial do problema (dist_min_inicial), o valor da recompensa é 100, caso o agente se encontro em um estado caracterizado pela distância a um obstáculo a frente menor ou igual a 10 % de dist_min_inicial o reforço é -100, se nenhuma dessas duas condições foi atendida o reforço é 0. 9 Com o valor da recompensa determinado, é feita a chamada no MatLab para a função de aprendizado Q_learning, que irá atualizar o valor da ação escolhida no estado anterior conforme a equação abaixo, onde alpha = 0.35 (taxa de aprendizado) e gamma = 0.1 (fator de desconto). 10 A tabela valor-ação é salva. 11 Caso o agente tenha alcançado o objetivo ou tenha atingindo um obstáculo, retorna ao item 2, caso contrário item Caso após 300 ciclos o agente não alcance o objetivo ou não se depare com um obstáculo o sistema retorna para a posição 2. Resultados Para tentar alcançar o maior número de estados possíveis, diversas configurações de simulação foram realizadas, como: Agente em um ambiente livre de obstáculos Nessa configuração o agente foi iniciado na posição (0,0) com orientação (-Z) e não possui restrições de movimentos, pois não há obstáculos que impeçam seu deslocamento (figura 10) e, portanto seria à configuração na qual o agente precisaria do menor número de interações para alcançar o objetivo que se encontra na posição (-0.5,2.5). Para que o agente alcançasse o objetivo pela primeira vez, foram necessárias 528 interações, sendo que conforme o item 12 do algoritmo, por não ter alcançado o objetivo dentro de 300 interações o sistema foi reiniciado, fazendo com que do ponto inicial até o objetivo o agente realizasse 228 passos.

12 Figura 10 - Posição inicia para o agente sem obstáculos que deseja chegar no ponto em verde. Abaixo podemos observar o resultado das 300 primeiras interações do agente com o ambiente. Gráfico (1A) - Posição (X,Z) do agente X interação Gráfico (2A) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação

13 Gráfico (3A) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação Gráfico (4A) - Estados explorados pelo agente a cada etapa X interação Do gráfico 2A é possível observar que o agente se manteve boa parte do tempo desalinhado com objetivo e por isso, cada passo que ele dava o distanciava mais do alvo, como pode ser observado no gráfico 3A. No gráfico 4A nota-se que o estado mais visitado está por volta do 330 e que os longos tempos de permanência nesse estado foi devido ao pouca movimentação realizada pelo agente durante esse período. Após cerca de 3000 interações, o agente passou a alcançar o objetivo cada vez mais rápido chegando, em alguns casos, a precisar de apenas 13 passos. Abaixo segue a análise de um processo no qual o agente precisou de 18 passos para alcançar o objetivo. Nessa análise agente se inicia nos pontos (1,0) na direção (-Z) e precisa chegar ao ponto (0.5,2.5) sem importar a direção. Gráfico (1B) - Posição (X,Z) do agente x interação X interação

14 Gráfico (2B) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação Gráfico (3B) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação Gráfico (4B) - Estados explorados pelo agente a cada etapa X interação Conforme pode ser observado no gráfico 3B, cada deslocamento que o agente realiza está diminuindo sua distância ao objetivo e nos momentos em o agente não translada eles está ajustando sua orientação para ficar alinhado como objetico, conforme mostrado no gráfico 2B. Com isso, conclui-se que o agente aprendeu que em situações em que não haja

15 obstáculos, o melhor distância a ser percorrida é a reta que o liga ao objetivo e, portanto, o agente procura se alinhar ao objetio para realizar sua translação. Outra observação é em relação a distância percorrida em cada translação; é possível notar que quando o agente se encontra próximo ao objetivo ele realiza a menor translação que lhe é possível e com isso evita passar o alvo. Agente em ambiente com um obstáculo entre ele o objetivo Nessa análise agente é iniciado nos pontos (1,0) na direção (-Z) e precisa chegar ao ponto (0.5,2.5) qualquer que seja a direção, contudo ao contrário dos casos anteriores, o agente não pode mais adotar a estratégia já aprendida, alinhar com o objetivo e se deslocar, agora o agente deve aprender a desviar do obstáculo que irá encontrar e será penalizado toda vez que se aproximar demais (figura 11). Figura 11 Ambiente com obstáculo entre o agente e o objetivo : Como essa configuração envolve mais estados, foi necessário um clico maior de treinamento para que o objetivo fosse alcançado pela primeira vez. A seguir segue a análise do deslocamento do agente para o caso acima no qual ele alcançou o objetivo em 64 etapas.

16 Gráfico (1C) - Posição (X,Z) do agente X interação Gráfico (2C) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação Gráfico (3C) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação

17 Gráfico (4C) - Estados explorados pelo agente a cada etapa X interação Gráfico (5C) - Distãncia frontal, lateral direita e esquerda ao obstáculo X interação Conforme pode ser observado no gráfico 5C o agente contorna o obstáculo pela esquerda, o mantendo a maior parte do tempo próximo a essa lateral, e no instante que ele passa pelo obstáculo ele gira procurando se alinhar com o alvo. Outro ponto a observar, é que nos passos de 22 à 27, em que o agente se encontra com o obstáculo muito próximo a sua frente, o único movimento que ele realiza é o de rotação e que para sobrepor a barreira o agente chega a adotar deslocamentos que o distanciam do objetivo, conforme pode ser visto no gráfico 3C. Agente em um ambiente de corredor Assim como nas análises anteriores, o agente é iniciado nos pontos (1,0) na direção (- Z) e precisa chegar ao ponto (0.5,2.5) qualquer que seja a direção, contudo nessa configuração o agente possui seus movimentos mais restritos, já que está cercado por obstáculos(figura 12).

18 Figura 12 Ambiente com agente cercado por obstáculos A seguir segue a análise do deslocamento do agente para o caso acima no qual ele alcançou o objetivo em 58 etapas. Gráfico (1D) - Posição (X,Z) do agente x interação X interação Gráfico (2D) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação

19 Gráfico (3D) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação Gráfico (4D) - Estados explorados pelo agente a cada etapa X interação Gráfico (5D) - Distãncia frontal, lateral direita e esquerda ao obstáculo X interação Do gráfico 3D, nota-se que mais uma vez o agente procurou um melhor posicionamento antes de começar a deslocar em direção ao objetivo e ao se aproximar de um obstáculo frontal o agente realiza uma rotação para buscar um melhor posicionamento, gráficos 3D e 4D passo 27. Um momento a se observar é no gráfico 1D é o passo 52, no qual o agente ultrapassa o objetivo e conforme nota-se nos gráficos 2D e 3D nos instantes seguintes o agente gira cerca de 180 graus para se alinha novamente com o objetivo para então se deslocar à ele.

20 Conclusões Com os experimentos feitos até o momento, observa-se uma boa evolução do agente na busca de uma política ótima, contudo o processo se mostra um pouco lento, já que são foram necessárias várias interações para que o agente chegue à condição atual. Esse elevado número de interações, só confirma a necessidade da existência de um ambiente virtual na qual o processo de aprendizado possa ser feito. Numa segunda etapa dessa iniciação, o tempo de aprendizado será otimizado, pois será trabalhado com um sistema com vários agentes e com isso a experiência adquirida por um agente será compartilhada entre todos, multiplicando a velocidade de aprendizado pelo número de agentes no sistema. Outro fator que prejudicou o tempo de aprendizado, foi o tempo de comunicação entre o SPL e o MatLab, que poderia ser contornado se as funções executadas no MatLab fossem escritas no SPL. Referências 1 - RWTH Mindstorms NXT Toolbox. Disponível em: Acesso em: 15/04/ Microsoft Robotics Developer Studio. Disponível em: microsoft.com/robotics/#learn. Acesso em: 02/05/ STEM Education: SPL Toolkit. Disponível em: Acesso em: 13/05/ SUTTON, R. S. & BARTO, A. G. Reinforcement Learning An Introduction. MIT Press, Cambridge, Massachusetts, BLYNEL, J. Reinforcement Learning in Real Robots. Master s Thesis Department of Computer Science. University of Aarhus, Denmark, PESSOA, J. M. D. Análise Funcional Comparativa de Algoritmos de Aprendizagem por Reforço. Dissertação de Mestrado, Departamento de Engenharia Elétrica e Telecomunicações e de Computadores Instituto Superior de Engenharia de Lisboa, Lisboa, WATKINS, C. J. C. H. Learning from Delayed Rewards. Ph.D. thesis University of Cambridge, England, Disponível em: < Acesso em 14/03/ CAMPONOGARA, E. & SERRA, M. R. G. Aprendizagem por Reforço: Uma Primeira Introdução. Departamento de Automação e Sistemas. Universidade Federal de Santa Catarina, Florianópolis SC, RIBEIRO, C. Reinforcement Learning Agents. Instituto Tecnológico de Aeronáutica (ITA). Artificial Intelligence Review 17: , the Netherlands, PIERI, E. R. Curso de Robótica Móvel. Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal de Santa Catarina, 2002.

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid 1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método

Leia mais

5 Testes e Resultados

5 Testes e Resultados 5 Testes e Resultados Neste capítulo serão apresentados experimentos que ilustram as implementações desenvolvidas e propostas no capítulo anterior. São mostrados experimentos que investigam o algoritmo

Leia mais

COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT

COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT Brenda Kieling Balbinotti 1, Nicole Dalmolin Kochan 2. Marcelo Massocco Cendron 3 Instituto Federal Catariense

Leia mais

APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1

APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1 APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1 Darlinton Prauchner 2, Rogério Martins 3, Edson Padoin 4. 1 Trabalho de conclusão de curso realiazado no curso de Ciência da

Leia mais

DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS

DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS Departamento de Engenharia Elétrica DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS Aluna: Deise Regina Ceregatti Momm Orientadora: Karla Tereza Figueiredo Leite Introdução

Leia mais

COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT

COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT Brenda Kieling Balbinotti 1 ; Marcelo Massoco Cendron 2 ; Nicole Dalmolin Kochan 3 INTRODUÇÃO A programação

Leia mais

4 Desenvolvimento de Algoritmos de controle

4 Desenvolvimento de Algoritmos de controle 4 Desenvolvimento de Algoritmos de controle 4.1 Introdução Os estudos das características sensoriais e equações de movimento realizados com o robô ER1, junto com as ferramentas de simulação, permitem o

Leia mais

Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente

Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente Discente: Marcelo Roberto Petry Orientador: Professor Doutor Luís Paulo Reis Co-orientador: Mestre Rodrigo

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 24 Aprendizado Por Reforço Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

ROBÓTICA PLANEJAMENTO DE TRAJETÓRIAS. Prof a. Dra. GIOVANA TRIPOLONI TANGERINO Tecnologia em Automação Industrial

ROBÓTICA PLANEJAMENTO DE TRAJETÓRIAS. Prof a. Dra. GIOVANA TRIPOLONI TANGERINO Tecnologia em Automação Industrial SP CAMPUS PIRACICABA ROBÓTICA Prof a. Dra. GIOVANA TRIPOLONI TANGERINO Tecnologia em Automação Industrial PLANEJAMENTO DE TRAJETÓRIAS https://giovanatangerino.wordpress.com giovanatangerino@ifsp.edu.br

Leia mais

CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO

CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS - 2016.2 2º PERÍODO DISCIPLINA: CÁLCULO I DISCIPLINA: FÍSICA I Estudo do centro de Massa e Momento Linear. Estudo da Rotação. Estudo de Rolamento, Torque

Leia mais

APLICAÇÃO DE TESTES UTILIZANDO LÓGICA CLÁSSICA NA PROGRAMAÇÃO DE PLATAFORMA ROBÓTICA MÓVEL

APLICAÇÃO DE TESTES UTILIZANDO LÓGICA CLÁSSICA NA PROGRAMAÇÃO DE PLATAFORMA ROBÓTICA MÓVEL APLICAÇÃO DE TESTES UTILIZANDO LÓGICA CLÁSSICA NA PROGRAMAÇÃO DE PLATAFORMA ROBÓTICA MÓVEL Thomas Massaru Okuyama[PIBIC] 1, Márcio Mendonça[Orientador] 2, Keriton Lopes [Colaborador] 3 1 Programa Institucional

Leia mais

UTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA

UTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 16 a19 2006 UTILIZAÇÃO DE APRENDIZADO

Leia mais

CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO

CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS - 2016.1 1º PERÍODO DISCIPLINA: INTRODUÇÃO AO CÁLCULO DISCIPLINA: FUNDAMENTOS DE FÍSICA DISCIPLINA: REPRESENTAÇÃO GRÁFICA DISCIPLINA: INTRODUÇÃO À ENGENHARIA

Leia mais

CONSTRUÇÃO DE UM ROBÔ MÓVEL COMO RECURSO DIDÁTICO NOS CURSOS DE ENGENHARIA

CONSTRUÇÃO DE UM ROBÔ MÓVEL COMO RECURSO DIDÁTICO NOS CURSOS DE ENGENHARIA CONSTRUÇÃO DE UM ROBÔ MÓVEL COMO RECURSO DIDÁTICO NOS CURSOS DE ENGENHARIA 1. INTRODUÇÃO A robótica é uma ciência que se dedica a desenvolver dispositivos capazes de realizar tarefas automaticamente empregando

Leia mais

RESUMO EXPANDIDO DESENVOLVIMENTO DA ESTRUTURAÇÃO E PROGRAMAÇÃO DE UM ROBÔ AUTÔNOMO PARA FINS SOCIAIS, TECNOLÓGICOS E COMPETITIVOS

RESUMO EXPANDIDO DESENVOLVIMENTO DA ESTRUTURAÇÃO E PROGRAMAÇÃO DE UM ROBÔ AUTÔNOMO PARA FINS SOCIAIS, TECNOLÓGICOS E COMPETITIVOS RESUMO EXPANDIDO DESENVOLVIMENTO DA ESTRUTURAÇÃO E PROGRAMAÇÃO DE UM ROBÔ AUTÔNOMO PARA FINS SOCIAIS, TECNOLÓGICOS E COMPETITIVOS Autores : Lucas Eduardo Koch ERNZEN, Jessé de PELEGRIN Identificação autores:

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 18 Aprendizado Por Reforço Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

2 Descrição do Sistema

2 Descrição do Sistema 31 2 Descrição do Sistema O giroscópio mecânico foi largamente utilizado como um instrumento de navegação em navios e aviões [34]. A tecnologia mecânica vem aos poucos sendo substituída por dispositivos

Leia mais

Workshop - A Robótica em Contexto Educativo

Workshop - A Robótica em Contexto Educativo Pastas do robô: Pastas do Robô a. Try Me b. View c. Bluetooth d. My Files Software files NXT files Sound Files e. NXT program f. Settings Pastas do robô: a. Try Me b. View c. Bluetooth d. My Files Software

Leia mais

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Explícito do Aprendiz Marcus Vinícius Carvalho Guelpeli Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica São José

Leia mais

Congresso de Inovação, Ciência e Tecnologia do IFSP

Congresso de Inovação, Ciência e Tecnologia do IFSP Congresso de Inovação, Ciência e Tecnologia do IFSP - 2016 CONTROLADOR PID APLICADO A PROGRAMAÇÃO DE ROBÔ MÓVEL THAIS JULIA BORGES RIBEIRO 1, MASAMORI KASHIWAGI 2 1 Técnico em Automação Industrial, Bolsista

Leia mais

Sistemas de Informação e Decisão. Douglas Farias Cordeiro

Sistemas de Informação e Decisão. Douglas Farias Cordeiro Sistemas de Informação e Decisão Douglas Farias Cordeiro Decisão Tomamos decisões a todo momento! O que é uma decisão? Uma decisão consiste na escolha de um modo de agir, entre diversas alternativas possíveis,

Leia mais

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 06 Algoritmos Genéticos Sumário Introdução Inteligência Artificial (IA) Algoritmos Genéticos Aplicações de

Leia mais

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS 1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá

Leia mais

6 Estudos de Casos Porta Lógica OU de 4 Entradas

6 Estudos de Casos Porta Lógica OU de 4 Entradas 6 Estudos de Casos Com o objetivo de avaliar a síntese automática de circuitos de QCA usando técnicas de Hardware Evolucionário (EHW), alguns circuitos foram sintetizados e serão apresentados a seguir.

Leia mais

INTRODUÇÃO À ROBÓTICA MÓVEL

INTRODUÇÃO À ROBÓTICA MÓVEL INTRODUÇÃO À ROBÓTICA MÓVEL Aula 20 Edson Prestes Departamento de Informática Teórica http://www.inf.ufrgs.br/~prestes prestes@inf.ufrgs.br Exploração baseada em Fronteiras Método desenvolvido por Brian

Leia mais

Prof. Daniel Hasse. Robótica Industrial

Prof. Daniel Hasse. Robótica Industrial Prof. Daniel Hasse Robótica Industrial Robótica Industrial Aula 5 - Componentes III Sensores Controlador / Eletrônica de Controle Software / Programação IHM Eletrônica de Potência Classificação dos Sensores

Leia mais

ESTUDO DA TRANSFERÊNCIA AUTOMÁTICA DE DADOS PARA UM ROBÔ MÓVEL NA PLATAFORMA LEGO MINDSTORMS

ESTUDO DA TRANSFERÊNCIA AUTOMÁTICA DE DADOS PARA UM ROBÔ MÓVEL NA PLATAFORMA LEGO MINDSTORMS CAMPUS DISTRITO ESTUDO DA TRANSFERÊNCIA AUTOMÁTICA DE DADOS PARA UM ROBÔ MÓVEL NA PLATAFORMA LEGO MINDSTORMS OBJETIVOS Objetivo Geral Luan Leonardo Vieira de Moraes 1 Prof. Dr. José Pinheiro de Queiroz

Leia mais

TÍTULO: TESTE DE CONTROLADOR PARA UM ROBÔ DE EQUILÍBRIO DINÂMICO CATEGORIA: CONCLUÍDO ÁREA: CIÊNCIAS EXATAS E DA TERRA. SUBÁREA: Engenharias

TÍTULO: TESTE DE CONTROLADOR PARA UM ROBÔ DE EQUILÍBRIO DINÂMICO CATEGORIA: CONCLUÍDO ÁREA: CIÊNCIAS EXATAS E DA TERRA. SUBÁREA: Engenharias TÍTULO: TESTE DE CONTROLADOR PARA UM ROBÔ DE EQUILÍBRIO DINÂMICO CATEGORIA: CONCLUÍDO ÁREA: CIÊNCIAS EXATAS E DA TERRA SUBÁREA: Engenharias INSTITUIÇÃO(ÕES): CENTRO UNIVERSITÁRIO DO NORTE PAULISTA - UNORP

Leia mais

Temas Principais: Tipos de Robôs Sensores e Atuadores Modelos Sensoriais Modelos Cinemáticos Controle Robótico: Controle Reativo Controle

Temas Principais: Tipos de Robôs Sensores e Atuadores Modelos Sensoriais Modelos Cinemáticos Controle Robótico: Controle Reativo Controle 4 e Veículos Autônomos Temas Principais: Tipos de Robôs Sensores e Atuadores Modelos Sensoriais Modelos Cinemáticos Controle Robótico: Controle Reativo Controle Deliberativo Controle Hierárquico Localização

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão

Leia mais

CNC Comando Numérico Computadorizado

CNC Comando Numérico Computadorizado CNC Comando Numérico Computadorizado 1 - Histórico Busca de melhoria ao produto, aliado ao desenvolvimento dos computadores. Principal fator: 2ª Guerra Mundial produção em massa (a guerra consumia tudo,

Leia mais

Desenvolvido por: Prof. Dr. Fernando Osório* Farlei Heinen* (Mestrando em Computação Aplicada - PIP/CA)

Desenvolvido por: Prof. Dr. Fernando Osório* Farlei Heinen* (Mestrando em Computação Aplicada - PIP/CA) Seminário de Pesquisa - Mestrado em Computação Aplicada Robótica Autônoma: Projeto de Sistemas Inteligentes usando Aprendizado de Máquinas Desenvolvido por: Prof. Dr. Fernando Osório* Farlei Heinen* (Mestrando

Leia mais

PROPOSTA DE INTERFACE GRÁFICA PARA CONTROLAR REMOTAMENTE A PLATAFORMA DE TESTE DE BATERIAS 1

PROPOSTA DE INTERFACE GRÁFICA PARA CONTROLAR REMOTAMENTE A PLATAFORMA DE TESTE DE BATERIAS 1 PROPOSTA DE INTERFACE GRÁFICA PARA CONTROLAR REMOTAMENTE A PLATAFORMA DE TESTE DE BATERIAS 1 Sandy Tondolo De Miranda 2, Paulo Sérgio Sausen 3, Luis Fernando Sauthier 4, Guilherme Fabrin Franco 5. 1 Pesquisa

Leia mais

Cinemática de Robôs Móveis

Cinemática de Robôs Móveis Cinemática de Robôs Móveis A cinemática é a área da Física que estuda o movimento dos corpos. Em robótica móvel a cinemática estabelece relações entre o deslocamento (locomoção) do robô e a atuação a ele

Leia mais

SSC5887 SSC5887. Histórico. Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER. Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER

SSC5887 SSC5887. Histórico. Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER. Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER Áreas de atuação: SSC5887 Introdução aos Sistemas Robóticos Denis Fernando Wolf 1º semestre 2010 Sistemas embarcados Computação reconfigurável

Leia mais

1- INTRODUÇÃO AOS ROBÔS INDUSTRIAIS

1- INTRODUÇÃO AOS ROBÔS INDUSTRIAIS 1- INTRODUÇÃO AOS ROBÔS INDUSTRIAIS 1.1 Introdução Um robô industrial é uma máquina com características significativas de versatilidade e flexibilidade. De acordo com uma definição do Instituto de Robôs

Leia mais

Autor: Diego Gouvêa Macharete Trally

Autor: Diego Gouvêa Macharete Trally Autor: Diego Gouvêa Macharete Trally Orientador: José Gabriel R. C. Gomes 1 Introdução Motivação O Processo de Ajuste A Eletrônica do Projeto Processamento de Imagem Controle Resultados d Obtidos Conclusões

Leia mais

LEGO Mindstorm e suas aplicações

LEGO Mindstorm e suas aplicações Palestrante: Bruno César Prado Email: bu_prado@msn.com Professores: Prof. Maria das Graças Bruno Marietto Prof. Wagner Tanaka Botelho CMCC Centro de Matemática, Computação e Cognição http://www.youtube.com/watch?v=5xva2lfds18

Leia mais

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning)

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) Processo Decisório de Markov e Aprendizado por Reforço Quando falamos sobre Processo decisório de Markov e formalizamos

Leia mais

Introdução. 1.1 Motivação

Introdução. 1.1 Motivação 16 1 Introdução 1.1 Motivação Um transportador pessoal robótico auto-equilibrante (TPRE) é uma plataforma com duas rodas paralelas que funciona a partir do equilíbrio do indivíduo que o utiliza, assemelhando-se

Leia mais

Microcontroladores e Robótica

Microcontroladores e Robótica Ciência da Computação Sistemas Microcontrolados Projetos Prof. Sergio F. Ribeiro Projetos É preciso estabelecer três equipes. Cada equipe ficará com o desenvolvimento de um projeto. Os projetos são distintos.

Leia mais

5 Validação Experimental

5 Validação Experimental Validação Experimental 93 5 Validação Experimental Os experimentos realizados têm como objetivo validar o controle baseado em comportamento por meio de robôs reais, situados em uma arena definida, e utilizando

Leia mais

5 Estudo de Caso e Resultados

5 Estudo de Caso e Resultados 5 Estudo de Caso e Resultados 5.1. Introdução Finalizado o desenvolvimento da ferramenta, é indispensável testar suas funcionalidades e a eficácia da aplicação conjunta dos seus módulos de geração de experimentos

Leia mais

Introdução ao Controlo Numérico Computorizado II Referenciais e Trajectórias. João Manuel R. S. Tavares Joaquim Oliveira Fonseca

Introdução ao Controlo Numérico Computorizado II Referenciais e Trajectórias. João Manuel R. S. Tavares Joaquim Oliveira Fonseca Introdução ao Controlo Numérico Computorizado II Referenciais e Trajectórias João Manuel R. S. Tavares Joaquim Oliveira Fonseca Introdução As ferramentas de uma máquina CNC podem realizar certos movimentos

Leia mais

Calibração dos pilotos Ontrac 3/Steercommand

Calibração dos pilotos Ontrac 3/Steercommand Calibração dos pilotos Ontrac 3/Steercommand 1 Passo Criando veículo Na página inicial do display clique em configurações de GPS e direção. 1 Passo Criando veículo Depois que o display reconhecer o sistema

Leia mais

Introdução. Introdução. Introdução. Locomoção. Introdução. Introdução à Robótica Robótica Móvel Locomoção

Introdução. Introdução. Introdução. Locomoção. Introdução. Introdução à Robótica Robótica Móvel Locomoção Introdução Introdução à Robótica Robótica Móvel Prof. Douglas G. Macharet douglas.macharet@dcc.ufmg.br Um robô móvel necessita de mecanismos que o permitam navegar pelo ambiente Projetados de acordo com

Leia mais

MECATRÔNICA MANIPULADORES ROBÓTICOS

MECATRÔNICA MANIPULADORES ROBÓTICOS MANIPULADORES ROBÓTICOS O grande escritor americano de ficção científica Isaac Asimov estabeleceu quatro leis muito simples para a robótica: A robótica abrange tecnologia de mecânica, eletrônica e computação.

Leia mais

Introdução. Introdução. Introdução. Locomoção. Introdução. Introdução à Robótica Robótica Móvel Locomoção

Introdução. Introdução. Introdução. Locomoção. Introdução. Introdução à Robótica Robótica Móvel Locomoção Introdução Introdução à Robótica Robótica Móvel Prof. Douglas G. Macharet douglas.macharet@dcc.ufmg.br Um robô móvel necessita de mecanismos que o permitam navegar pelo ambiente Projetados de acordo com

Leia mais

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística INE6105-Introdução à Robótica Prof. Mauro Roisemberg Arkin. Ronald C. Behavior-Based Robotics

Leia mais

Regras Robô seguidor de linha (followline) Versão 3.0 de 02/06/2018 Este documento foi baseado nas regras da Recôncavo Robot Challenge 2017

Regras Robô seguidor de linha (followline) Versão 3.0 de 02/06/2018 Este documento foi baseado nas regras da Recôncavo Robot Challenge 2017 INSTITUTO FEDERAL DE SERGIPE ROBOBASE "O torneio de robótica da ERBASE" Regras Robô seguidor de linha (followline) Versão 3.0 de 02/06/2018 Este documento foi baseado nas regras da Recôncavo Robot Challenge

Leia mais

Primeiras Máquinas Ferramentas Manuais Movimentação através de volantes, manivelas, alavancas e correias Automação através de cames e seguidores (alto volume de produção) Controle Manual - Torno Automático

Leia mais

DESENVOLVIMENTO DE UM ROBÔ AUTÔNOMO PARA PARTICIPAÇÃO EM COMPETIÇÃO DE SUMÔ RESUMO

DESENVOLVIMENTO DE UM ROBÔ AUTÔNOMO PARA PARTICIPAÇÃO EM COMPETIÇÃO DE SUMÔ RESUMO DESENVOLVIMENTO DE UM ROBÔ AUTÔNOMO PARA PARTICIPAÇÃO EM COMPETIÇÃO DE SUMÔ Darlan Felipe Klotz 1 ; Mauro André Pagliosa 2 RESUMO Robôs autônomos estão sendo empregados em diversas tarefas onde para o

Leia mais

ROBÓTICA PROGRAMAÇÃO DE ROBÔS

ROBÓTICA PROGRAMAÇÃO DE ROBÔS ROBÓTICA PROGRAMAÇÃO DE ROBÔS Tipos de programação de robôs Programação a nível das juntas no qual as ações básicas são posições (e possivelmente movimentos) Programação a nível do robô no qual as ações

Leia mais

4 Análise de Dados. 4.1.Procedimentos

4 Análise de Dados. 4.1.Procedimentos 4 Análise de Dados 4.1.Procedimentos A idéia inicial para a comparação dos dados foi separá-los em series de 28 ensaios, com a mesma concentração, para depois combinar esses ensaios em uma única série.

Leia mais

Rastreamento de objeto e estimativa de movimento

Rastreamento de objeto e estimativa de movimento Hiroito Watanabe Rastreamento de objeto e estimativa de movimento Brasil 2015 Hiroito Watanabe Rastreamento de objeto e estimativa de movimento Relatório do trabalho 2 da disciplina de Processamento Digital

Leia mais

Inteligência Computacional para Jogos Eletrônicos

Inteligência Computacional para Jogos Eletrônicos Inteligência Computacional para Jogos Eletrônicos Papéis da IA em Jogos Adversários Aliados Personagens de apoio NPC s (Non-player Character) Comentaristas Controle de câmera Geração de fases Nivelamento

Leia mais

Informática I. Aula 21. Aula 21-07/11/06 1

Informática I. Aula 21.  Aula 21-07/11/06 1 Informática I Aula 21 http://www.ic.uff.br/~bianca/informatica1/ Aula 21-07/11/06 1 Aula de hoje Explicação sobre o trabalho 3 Jogo de prospecção de petróleo por robôs. http://www.inf.puc-rio.br/~mascarenhas/robots/

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy 1. Inteligência Computacional Redes Neurais e Sistemas Fuzzy Apresentação da disciplina Conceitos básicos A chamada Inteligência Computacional (IC) reúne uma série de abordagens e técnicas que tentam modelar

Leia mais

8 Conclusões e Trabalhos Futuros

8 Conclusões e Trabalhos Futuros 8 Conclusões e Trabalhos Futuros A presente dissertação apresentou uma proposta de algoritmo para exploração e mapeamento completa para robôs móveis na seção 6.1. Ao longo da dissertação os componentes

Leia mais

Curso Tecnólogo em Mecatrônica Industrial GUILHERME K. POGAN HELENA F. DITTERT. Gerador Eólico

Curso Tecnólogo em Mecatrônica Industrial GUILHERME K. POGAN HELENA F. DITTERT. Gerador Eólico Curso Tecnólogo em Mecatrônica Industrial GUILHERME K. POGAN HELENA F. DITTERT Gerador Eólico Joinville SC Junho de 2016 1 Introdução Este projeto tem por objetivo simular o funcionamento de um gerador

Leia mais

Estudo da localização de maternidades em Sergipe através de simulação Monte Carlo

Estudo da localização de maternidades em Sergipe através de simulação Monte Carlo Estudo da localização de maternidades em Sergipe através de simulação Monte Carlo João Batista dos Santos-Filho 1, Tatiana Santos de Araujo Batista 2, José Carlos Rodrigues Oliveira 3,Maria Letícia da

Leia mais

Prof. Dr. Paulo Eigi Miyagi, Coordenador Prof. Dr. José Reinaldo Silva Prof. Dr. Fabrício Junqueira Prof. Dr. Marcos Ribeiro Pereira Barretto

Prof. Dr. Paulo Eigi Miyagi, Coordenador Prof. Dr. José Reinaldo Silva Prof. Dr. Fabrício Junqueira Prof. Dr. Marcos Ribeiro Pereira Barretto PMR 3100 - Introdução à Engenharia Mecatrônica Prof. Dr. Paulo Eigi Miyagi, Coordenador Prof. Dr. José Reinaldo Silva Prof. Dr. Fabrício Junqueira Prof. Dr. Marcos Ribeiro Pereira Barretto Unidade IV:

Leia mais

INTRODUÇÃO À ROBÓTICA MÓVEL

INTRODUÇÃO À ROBÓTICA MÓVEL INTRODUÇÃO À ROBÓTICA MÓVEL Aula 19 Edson Prestes Departamento de Informática Teórica http://www.inf.ufrgs.br/~prestes prestes@inf.ufrgs.br Campos Potenciais Harmônicos É um metodo proposto por Connolly

Leia mais

Atuadores em Robótica

Atuadores em Robótica Atuadores em Robótica Profa. Michelle Mendes Santos michelle@cpdee.ufmg.br Atuadores Indicadores Em robótica muitas vezes é necessário sinalizar um acontecimento ou situação importante. Essa sinalização

Leia mais

Sistema Experimental. Figura 40: Robô original de onde foram aproveitadas a base da estrutura de alumínio, motores, rodas e eletrônica de potência.

Sistema Experimental. Figura 40: Robô original de onde foram aproveitadas a base da estrutura de alumínio, motores, rodas e eletrônica de potência. 73 5 Sistema Experimental O transportador robótico aproveitou a estrutura e motores de um robô móvel préexistente no Laboratório de Robótica, vide Figura 40. Foram aproveitados principalmente a estrutura

Leia mais

Data: 28/05/2010 8h as 12h. IP addresses and the port numbers of the components.

Data: 28/05/2010 8h as 12h. IP addresses and the port numbers of the components. CURSO DE PROGRAMAÇÃO DE ROBÔS MÓVEIS USP - ICMC LRM: Laboratório de Robótica Móvel Profs. Denis Wolf, Eduardo Simões, Fernando Osório Alunos PG - Alberto Hata, Gustavo Pessin, Patrick Shinzato, Maurício

Leia mais

MOVIMENTO 3D REFERENCIAL AUXILIAR EM TRANSLAÇÃO. QUESTÃO ver vídeo 1.1

MOVIMENTO 3D REFERENCIAL AUXILIAR EM TRANSLAÇÃO. QUESTÃO ver vídeo 1.1 MOVIMENTO 3D REFERENCIAL AUXILIAR EM TRANSLAÇÃO INTRODUÇÃO ESTUDO DE CASO À medida que o caminhão da figura ao lado se retira da obra, o trabalhador na plataforma no topo do braço comanda o giro do braço

Leia mais

lnteligência Artificial Introdução ao Processo Decisório de Markov

lnteligência Artificial Introdução ao Processo Decisório de Markov lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente

Leia mais

IP addresses and the port numbers of the components.

IP addresses and the port numbers of the components. CURSO DE PROGRAMAÇÃO DE ROBÔS MÓVEIS USP - ICMC LRM: Laboratório de Robótica Móvel Profs. Denis Wolf, Eduardo Simões, Fernando Osório Alunos PG - Alberto Hata, Gustavo Pessin, Patrick Shinzato, Maurício

Leia mais

Disciplina de. Programação de Robôs Móveis SSC-0712

Disciplina de. Programação de Robôs Móveis SSC-0712 USP - ICMC - SSC LRM (Lab. de Robótica Móvel) SSC 0712 (PRM) - 1o. Semestre 2014 Disciplina de SSC-0712 1 Fev. 2014 Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Estagiário

Leia mais

PROGRAMANDO O ROBO LEGO

PROGRAMANDO O ROBO LEGO PROGRAMANDO O ROBO LEGO APOITIA, CARLOS EDUARDO MOURA SALES, GLADISTONEY SANTOS GARCIA, LEONARDO ARRUDA VILELA OLIVEIRA, MÁRISON FIGUEIREDO Cuiabá (MT) np.robotica@unirondon.br 1. Introdução A Robótica

Leia mais

DISPOSITIVO DIDÁTICO MOVIMENTO HARMÔNICO SIMPLES VERSUS MOVIMENTO CIRCULAR UNIFORME

DISPOSITIVO DIDÁTICO MOVIMENTO HARMÔNICO SIMPLES VERSUS MOVIMENTO CIRCULAR UNIFORME DISPOSITIVO DIDÁTICO MOVIMENTO HARMÔNICO SIMPLES VERSUS MOVIMENTO CIRCULAR UNIFORME Sandra Maria Couto Moreira Ronaldo Luiz Neves Pinheiro Luiz Carlos de Alvarenga Depto. de Física UFV Viçosa MG I. Introdução

Leia mais

XIX Congresso Nacional de Estudantes de Engenharia Mecânica - 13 a 17/08/2012 São Carlos-SP Artigo CREEM2012

XIX Congresso Nacional de Estudantes de Engenharia Mecânica - 13 a 17/08/2012 São Carlos-SP Artigo CREEM2012 PROJETO MECATRÔNICO DE UM ROBÔ MÓVEL COM RODAS (RMR) Alex Rodrigues Fricelli, Guilherme Barboni Paschoal, Júlio Rodrigues Goulart, Lucas Godoi de Oliveira, Rafael Valério Garcia e Roberto Santos Inoue

Leia mais

Regras Robô seguidor de linha (followline) Versão 1.0 de 07/2017 Este documento foi baseado nas regras da ROBOCORE Winter Challenge XIII

Regras Robô seguidor de linha (followline) Versão 1.0 de 07/2017 Este documento foi baseado nas regras da ROBOCORE Winter Challenge XIII UNIVERSIDADE FEDERAL DO RECÔNCAVO DA BAHIA CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS Ramo estudantil IEEE UFRB Capítulo RAS "Robotics and Automation Society" RRC - Recôncavo Robot Challenge "O desafio de

Leia mais

Aula 3 Programação. LEGO NXT-G

Aula 3 Programação. LEGO NXT-G Portfolio MEEC 1 Aula 3 Programação. LEGO NXT-G Objectivo Introdução à programação do LEGO NXT-2, que será usado no lab. Portfolio MEEC 2 O que é um programa de computador? Conjunto de instruções que visam

Leia mais

Sumário Objetivos Estudo de caso

Sumário Objetivos Estudo de caso Sumário Sumário... 2 1. Objetivos... 3 1.1. Estudo de caso 1... 4 2 1. Objetivos Nesta lição iniciaremos o trabalho com o ambiente de montagem do SolidWorks. Conheceremos as ferramentas que o software

Leia mais

TÍTULO: FUZZY TAKAGI-SUGENO PARA IDENTIFICAÇÃO E CONTROLE INERCIAL DE UM ROBÔ MÓVEL

TÍTULO: FUZZY TAKAGI-SUGENO PARA IDENTIFICAÇÃO E CONTROLE INERCIAL DE UM ROBÔ MÓVEL Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: FUZZY TAKAGI-SUGENO PARA IDENTIFICAÇÃO E CONTROLE INERCIAL DE UM ROBÔ MÓVEL CATEGORIA: EM ANDAMENTO

Leia mais

MATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO. 1º Período

MATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO. 1º Período MATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO 1º Período Código Disciplina CHT 1 CHP 2 CH Total Pré-requisitos Dados I 40 40 80 - Cálculo I 80-80 - Fundamentos da Computação 40-40 - Fundamentos

Leia mais

LÓGICA E ROBÓTICA INTRODUÇÃO

LÓGICA E ROBÓTICA INTRODUÇÃO LÓGICA E ROBÓTICA José Henrique Blenke de Almeida Lucena 1 ; Angelo Augusto Frozza 2 RESUMO Este trabalho visa mostrar a robótica como uma alternativa para o ensino de Lógica de Programação, fazendo com

Leia mais

O Robô Educador Introdução

O Robô Educador Introdução O Robô Educador Introdução A LEGO Education tem o prazer de lhe trazer o Robô Educador uma seleção de atividades tutoriais que apresenta de maneira estruturada e divertida como começar com o seu LEGO MINDSTORMS

Leia mais

2 Qualquer outro participante que não se enquadre nas condições estabelecidas no item 1 deverá ser inscrito na categoria Pro;

2 Qualquer outro participante que não se enquadre nas condições estabelecidas no item 1 deverá ser inscrito na categoria Pro; Introdução Nome da Modalidade: Seguidor de Linha RW Número de Robôs por Partida: Um Duração da Partida: 3 minutos Classes Disponíveis: Pro e Junior Dimensões máximas dos Robôs: 250x250x200mm Especificações

Leia mais

Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente

Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Modalidade Artigo Completo Marcus V. C. Guelpeli 1, Carlos H. C. Ribeiro 1 e Nizam Omar 2 1 Divisão de

Leia mais

6. Controle por Aprendizado Neuro-Fuzzy

6. Controle por Aprendizado Neuro-Fuzzy 6. Controle por Aprendizado Neuro-Fuzzy 6.1. Introdução Neste capítulo é apresentado o controle por aprendizado utilizando um sistema híbrido Neuro-Fuzzy, para o cálculo e atualização dos pontos de reversão

Leia mais

MEEC. Mestrado em Eng. Electrotécnica e de Computadores. Índice. MEEC Edição 2008/09 Instituto Superior de Engenharia do Porto

MEEC. Mestrado em Eng. Electrotécnica e de Computadores. Índice. MEEC Edição 2008/09 Instituto Superior de Engenharia do Porto Mestrado em Eng. Electrotécnica e de Computadores O Mestrado em Engenharia Electrotécnica e de Computadores destina-se a complementar a formação de profissionais habilitados com o grau de Licenciado, fornecendo

Leia mais

ESTUDO DA RESPOSTA DE PROPULSORES DE VEÍCULOS SUBAQUÁTICOS NÃO-TRIPULADOS (ROV s)

ESTUDO DA RESPOSTA DE PROPULSORES DE VEÍCULOS SUBAQUÁTICOS NÃO-TRIPULADOS (ROV s) ESTUDO DA RESPOSTA DE PROPULSORES DE VEÍCULOS SUBAQUÁTICOS NÃO-TRIPULADOS (ROV s) Diogo Marujo (ICV/PRPPG-UNIOESTE), Samir de Oliveira Ferreira (ICV/PRPPG-UNIOESTE), Carlos Henrique dos Santos Farias (Orientador),

Leia mais

Robótica Móvel Inteligente: Aplicações da Inteligência Artificial nas Pesquisas em Robótica

Robótica Móvel Inteligente: Aplicações da Inteligência Artificial nas Pesquisas em Robótica ! " # $% #'&()(& Robótica Móvel Inteligente: Aplicações da Inteligência Artificial nas Pesquisas em Robótica * +, -. - / 012 34 5 1 6 7 8 7 9 : 7 ;< = >? > 8 @ A B : 8 : B 7 8 @ C 9 D 0 E. F 0,. / 0, +

Leia mais

Mapeamento robótico. Mapeamento semântico. Metodologia. Maquinas de vetores de suporte. Maquinas de vetores de suporte. Modelos ocultos de Markov

Mapeamento robótico. Mapeamento semântico. Metodologia. Maquinas de vetores de suporte. Maquinas de vetores de suporte. Modelos ocultos de Markov Mapeamento robótico Exemplos de mapas: Mapeamento semântico Mapeamento semântico consiste na criação de mapas que não representam apenas a ocupação métrica do ambiente, mas também outras propriedades.

Leia mais

4 Resultados. 4.1 Análise de desempenho

4 Resultados. 4.1 Análise de desempenho 4 Resultados Nesta seção, analisaremos o funcionamento do módulo cinegrafista proposto. Foram realizados dois testes para a avaliação do módulo cinegrafista. O primeiro corresponde a uma análise do custo

Leia mais

DESENVOLVIMENTO DE VEICULOS AUTONOMOS EM ESCALA EM AMBIENTE DE SIMULAÇÃO COMPUTACIONAL

DESENVOLVIMENTO DE VEICULOS AUTONOMOS EM ESCALA EM AMBIENTE DE SIMULAÇÃO COMPUTACIONAL DESENVOLVIMENTO DE VEICULOS AUTONOMOS EM ESCALA EM AMBIENTE DE SIMULAÇÃO COMPUTACIONAL Aluno: Renan de Lima Simões Mondego Vilela Orientador: Mauro Speranza Neto Introdução O presente projeto é continuação

Leia mais

Primeiras Máquinas Ferramentas Manuais Movimentação através de volantes, manivelas, alavancas e correias Automação através de cames e seguidores (alto volume de produção) Controle Manual - Torno Automático

Leia mais

Programa de Pós-Graduação em Engenharia de Sistemas e Automação Departamento de Engenharia - Universidade Federal de Lavras

Programa de Pós-Graduação em Engenharia de Sistemas e Automação Departamento de Engenharia - Universidade Federal de Lavras Programa de Pós-Graduação em Engenharia de Sistemas e Automação Área de Concentração: Engenharia de Sistemas e Automação (Engenharias IV) As atividades de pesquisa na área de concentração em Engenharia

Leia mais

Implementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC

Implementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC Implementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC Ederson Costa dos Santos 1, Leandro Barjonas da Cruz Rodrigues 1, André Maurício Damasceno Ferreira 2 1

Leia mais

1. Introdução. 1.1.Objetivo

1. Introdução. 1.1.Objetivo 1. Introdução 1.1.Objetivo O objetivo desta dissertação é desenvolver um sistema de controle por aprendizado acelerado e Neuro-Fuzzy baseado em técnicas de inteligência computacional para sistemas servo-hidráulicos

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Trabalho de iniciação científica CTI (Centro de tecnologia da informação Renato Archer)

Trabalho de iniciação científica CTI (Centro de tecnologia da informação Renato Archer) Trabalho de iniciação científica CTI (Centro de tecnologia da informação Renato Archer) Por Mariana Rodrigues Souza (Bolsista de iniciação científica no CTI-DRVC) Roteiro para experimento de movimento

Leia mais

Desenvolvimento de um Robô Autônomo com Arduino

Desenvolvimento de um Robô Autônomo com Arduino 4ª Jornada Científica e Tecnológica e 1º Simpósio de Pós-Graduação do IFSULDEMINAS 16, 17 e 18 de outubro de 2012, Muzambinho MG Desenvolvimento de um Robô Autônomo com Arduino Reginaldo F. Silva 1, Saymon

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 11 Aprendizado de Máquina Edirlei Soares de Lima Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais