DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS
|
|
- Lara Galvão Laranjeira
- 7 Há anos
- Visualizações:
Transcrição
1 Departamento de Engenharia Elétrica DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS Aluna: Daniel de Sousa Leite Orientadora: Karla Tereza Figueiredo Leite Introdução Robôs autônomos devem ser capazes de tomar ações as quais não foram especificamente programados, mas para tal é necessária que algum tipo de inteligência esteja embarcada. Algumas técnicas de inteligência, como o aprendizado por reforço, exigem um tempo de treinamento que se torna dispendioso quando aplicado na plataforma real e, portanto, é fundamental a existência de um ambiente virtual e que ele possua características mais próximas possíveis do real para que se possa ganhar agilidade nesse processo. A técnica de inteligência computacional proposta para essa iniciação é o aprendizado por reforço e o ambiente utilizado é o fornecido pelo Microssoft Robotics Developer Studio (MSRS) em interação com o MatLab. Para que esses dois programas se comuniquem, foi necessária a utilização de um terceiro, o SPL, que servirá como ponte entre as plataformas citadas. Para a aplicação em um ambiente real, propõe-se a plataforma da Lego (Lego Mindstorms NXT), cujo o MatLab já possui um pacote de ferramentas, Mindstorms NXT Toolbox for MATLAB [1], que foi desenvolvido na Universidade de Aachen, na Alemanha. Aprendizado por Reforço Segundo Sutton e Barto em [4], Aprendizagem por Reforço (AR) é um formalismo da Inteligência Artificial que permite a um indivíduo aprender a partir da sua interação com o ambiente no qual ele está inserido. Essa interação se dá por meio da percepção do agente que o localiza no ambiente, ambiente este previamente mapeado em estados, e das ações tomadas. Nesse processo de interação será avaliada o quão boa foi a ação escolhida dada a transição de estados que o agente realizou (figura 1). Figura 1 - Interação agente-ambiente O Aprendizado por Reforço é indicado para situações em que não há muita informação sobre o comportamento que o agente deva tomar para alcançar o objetivo, ou seja, a política ótima para o ambiente em que o agente está inserido. Trabalho Desenvolvido no Período de Abril a Junho de 2012.
2 Segundo Sutton e Barto [4], além do agente e do ambiente, um sistema de aprendizado por reforço pode apresentar os seguintes elementos: a política, a função de reforço, a função valor e, opcionalmente, o modelo do ambiente. Política: é o mapeamento do estado percebido em ações a serem realizadas quando o agente se encontra naquele estado. Ou seja, é a probabilidade de o agente realizar a ação quando este se encontrar no estado, sendo representada por. Reforço: define o objetivo de um problema de aprendizado por reforço, mapeando pares de estado-ação em um valor numérico que deve ser maximizado pelo agente. A função de reforço define quais são os eventos bons ou ruins para o agente de forma local. A função valor: define o que é bom ou ruim de forma global, ou seja, o valor de um estado é o valor total do reforço que agente pode esperar acumular sobre o futuro a partir daquele estado. A função valor pode considerar apenas o estado, como também, o par estado-ação. Modelo do ambiente: os modelos imitam os possíveis comportamentos a serem adotados em um ambiente, por exemplo, dado um par estado-ação, o modelo deve ser capaz de prever o próximo estado e o próximo reforço. A. Explotação vs. exploração Um dos grandes problemas do aprendizado por reforço é a definição de como o agente escolherá as ações a serem tomadas. O agente pode agir de forma a escolher a ação que fornece um maior reforço naquele estado (explotação) ou de forma a obter novas informações sobre o ambiente e que possam elevar os reforços no futuro (exploração). Nem sempre escolher a ação com maior retorno será uma boa ideia, em alguns casos, pode ser necessário que o agente execute ações que o levem a estados poucos visitados para um melhor aproveitamento do espaço de estados. Um método bastante simples (que permite um equilíbrio entre o aproveitamento e a exploração) utilizado para seleção da ação é o ε-greedy. Neste método a melhor ação é escolhida com probabilidade 1 ε (passo guloso) e uma ação é escolhida de forma randômica com probabilidade ε (passo exploratório). A principal desvantagem deste método é que ações não ideais são escolhidas de novo e de novo com a mesma probabilidade das ações mais promissoras [5]. Para tentar amenizar o problema mencionado anteriormente, pode-se utilizar o método Softmax, também conhecido como exploração de Boltzmann, onde a ação no estado é selecionada com probabilidade: O termo representa a função valor quando considerado o par estado-ação, enquanto é a temperatura de Boltzmann. B. Q-Learning O mecanismo de aprendizado Q-Learning foi apresentado por Watkins em De maneira geral, a cada interação o valor da função valor-ação ( ) é atualizado. Não com o valor da ação selecionada pelo método de exploração, mas sim, com o valor da ação mais (1)
3 valorizada no estado atual (4). Ou seja, o valor de um estado é diretamente proporcional ao da ação com maior valor que nele possa ser selecionada [6]. Reescrevendo (4), tem-se: (4) (4.1) A figura 2 mostra o algoritmo utilizado no Q-Learning, um método off-policy, onde, a política de ações utilizadas não influencia diretamente na maximização das recompensas: Figura 2 - Algoritmo utilizado no Q-Learning A popularidade desse método está relacionada ao fato de ter sido o primeiro método de AR estudado minunciosamente para fins de controle e também por ser uma técnica simples que calcula diretamente a política de ação ótima sem a necessidade de um passo intermediário para avaliação do custo da mesma e sem a utilização de um modelo [17, 18]. Além disso, Watkins [7] demonstrou em sua tese que se cada par estado-ação for experimentado um número grande de vezes e decrescer apropriadamente, as funções irão convergir com probabilidade 1 para ( ótimo). Da mesma forma, a política de ações utilizada convergirá para uma política ótima. Existem outros mecanismos de aprendizado como Diferença Temporal (DT), Monte Carlo (MC) e Programação Dinâmica (PD), contudo o processo de aprendizado utilizado nessa iniciação é o algoritmo Q_learning, pois conforme é uma técnica simples que calcula a política ótima sem que seja necessário conhecer a função valor do sistema, já que ela é obtida naturalmente através das interações do agente com o meio. A Ferramenta de Simulação 1. MatLab e a Ferramenta RWTH O MatLab é um software voltado para cálculos com matrizes que pode ser utilizado em diversas aplicações, como: análise numérica, processamento de sinal e imagem, controle, testes e medições, entre outras. Possui ferramentas adicionais de técnicas inteligentes como Redes Neurais, Lógica Fuzzy e Algoritmos Genéticos. O RWTH Mindstorms NXT Toolbox for MATLAB [1] foi desenvolvido na Universidade de Aachen, na Alemanha, a partir da necessidade de integrar o MatLab com o Lego Mindstorms NXT, para projetos dos estudantes de engenharia elétrica. Essa ferramenta possui os drivers necessários para controlar o NXT (controle dos motores, leitura dos sensores, conexão via USB e Bluetooth, etc.) que serão utilizadas quando forem
4 realizados testes na plataforma real. Na figura 3, têm-se alguns exemplos dos comandos disponíveis na biblioteca RWTH. Figura 3 - Comandos do RWTH no MatLab 2. Microsoft Robotics Developer Studo (MRDS) O MRDS [2] é um ambiente que possibilita a criação de aplicações robóticas para uma variedade de plataformas de hardware (Lego, Pioneer P3DX, irobot, Kinect Sensor, etc.) e por meio desse software foi criado o ambiente virtual onde está inserido o agente, robô Lego, com seus sensores para ele realizar seu aprendizado no ambiente virtual. 3. Simple Programming Language (SPL) O SPL (Simple Programming Language) [3], é um software livre para desenvolvimentos acadêmicos e/ou não comerciais. Sua principal característica é a utilização de um script, escrito em C#, no qual linhas de comando e expressões são utilizadas para criação das aplicações (figuras 4 e 5). Figura 4 - Script do SPL
5 Figura 5 - Simulação no MSRS via SPL Mapeamento dos estados O primeiro passo foi definir como o ambiente seria mapeado em estados e escolher o conjunto de ações que o agente poderia tomar. Até chegar a configuração final, vários modelos foram feitas como: Modelo 1 O ambiente foi mapeado em uma forma de grade na qual cada ponto está a 25% da distância em que o agente se encontra do objetivo ao iniciar a tarefa, a orientação do agente (Norte, Sul, Leste ou Oeste) e a distância que o agente se encontra do obstáculo. Para esse espaço de estado as ações que o agente podia tomar eram se mover para frente e girar o, sendo que o passo dado era do tamanho da distância entre dois pontos paralelos da grade. Com esse configuração, criou-se um mapa de valor-ação com 200 estados e 3 ações, conforme pode ser visto na figura 6, onde cada região pintada é um estado distinto. Vantagens Uma das principais vantagens dessa configuração foi o baixo número de estados, que favoreceu o rápido aprendizado. Desvantagens O agente fica limitado a navegar pelos pontos da grade, o que pode gerar um erro considerável dependendo do tamanho da região de exploração e da localização do objetivo, em diversas configurações da posição do agente em relação ao objetivo a distância percorrida por ele não é a menor distância possível, ou seja, uma reta entre os dois pontos e o agente não consegue sair de uma situação de quina na qual ele está cercado.
6 Figura 6 Exemplo do modelo de estado 1 para um valor fixo de distância ao obstáculo Modelo 2 Nessa configuração de estado, a ideia da divisão por grades foi mantida, mas em vez de apenas quatro orientações, a orientação do agente estava dividida em graus de 120 regiões de largura de 3 graus, sendo que elas vão de 0 o à o e são medidas em relação a frente o agente com a reta que liga a posição (X,Z) do agente à (X,Z) do alvo, conforme figura 7. Aliada a dois conjuntos de distâncias possíveis ao obstáculo, o sistema passou a possuir 6000 estados (120 ângulos possíveis x 2 dois conjuntos de distâncias ao obstáculo x 25 pontos da grade). Já o grupo de ações disponíveis para cada estado era girar +-3 o, +-6 o, +- 9 o e +-21 o e andar um passo padrão de 10 cm.
7 Figura 7 Exemplo da medição a orientação do agente em relação ao objetivo Vantagens O agente tinha a possibilidade de percorrer a menor distância possível entre o ele e o objetivo, além de ter maior mobilidade para poder desviar de obstáculos. Desvantagens O sistema passou a ter um elevado número de estados, o que gerou alto custo de aprendizado, e o agente conseguia chegar a pontos onde não existiam estados mapeados, já que ele podia se mover em direções em que o passo padrão não garantia que ele chegasse a outro estado conhecido. Observação: Nas duas configurações de estados mostradas anteriormente, para garantir que o agente não se posicionasse em uma região fora da grade de estados ele era penalizado toda vez que uma ação que o levasse a essa configuração fosse tomada. Modelo 3 Nessa nova configuração, o estado não foi mais dividido como grade, mas sim como círculos concêntricos cujus raios representam as distâncias ao alvo e ao obstáculo, sendo que ao todo foram utilizadas 3 regiões de distância ao alvo e 3 ao obstáculo. Além dessas distâncias foi mantida a divisão da orientação do agente em 120 estados espaçados em 3 graus o que totalizou 1080 estados (3 grupos de distâncias ao alvo x 3 grupos de distância ao obstáculo x 120 grupos de orientações).
8 Para essa nova configuração de estados, as ações tomadas eram distintas para cada motor do agente e a combinação dessas ações gerava um movimento de rotação e/ou translação, sendo que caso ocorre-se o movimento conjunto, primeiro a rotação era aplicada para então ser aplicada a translação. Ao todo foram criadas oito ações que geravam uma potência de 0% à 70%, em passos de 10%, para cada motor. Esses valores de potência foram manipuladas de tal maneira que ao atingir a 70% nos dois motores o agente se deslocava no máximo de 30 cm e quando a diferença entre as potência fosse máxima a rotação era de graus. Como as atuações dos motores eram distintas, foram utilizadas duas tabelas valoração, uma para cada motor, e elas eram atualizadas simultaneamente no processo de aprendizado, só que com valores independentes. Vantagens Uma das principais vantagens dessa configuração foi a maior generalização do espaço de estado, que permitiu que o agente fosse capaz de ligar com as mais diversas situações. Desvantagens Assim como em casos anteriores, o número de estado se mostrou um pouco alto o que penalizava o tempo de treinamento, mas a principal desvantagem é que por utilizar tabelas de valor-ação distintas para cada motor, uma ação que fosse boa para um motor poderia receber como retorno uma penalidade se os conjuntos das ações dos motores levassem a um estado ruim, prejudicando assim o aprendizado. Observação: Algumas outras configurações foram testadas entre e após as mostradas anteriormente até que chegasse à configuração final Configuração final do mapa de estados Assim como na configuração 3, o estado é subdividido em raios concêntricos que representam as fronteiras das regiões dadas por diferentes leituras de distância ao alvo e ao obstáculo, contudo nesse modelo foram incluídas duas novas regiões de avaliação, que são as distâncias a obstáculos nas laterais do agente. Todas essas distâncias passaram a ser normalizadas com a menor distância que o agente se encontra do objetivo na configuração inicial, por exemplo, no caso em que o agente inicia no ponto (0,0) e o objetivo se encontra em (0,1) a menor distância é 1 e a medição das distâncias do agente durante o processo serão em razão desse valor inicial. Ao invés de 120 graus distintos para orientação do agente, foi feita uma divisão setorizada na qual de -33 o à 33 o, em relação a frente do agente, tem-se 11 regiões espaçados de 6 graus, as regiões fora dessa marcação foram espaçadas a cada 50 gruas, o que totalizou 17 regiões de orientação para o agente (figura 8).
9 Figura 8 Divisão dos estados da a orientação e as distâncias medidas pelo agente. A combinação das possíveis orientações, distâncias ao alvo, distância ao obstáculo (frente, lateral esquerda e lateral direita) geraram um total de 612 estados distintos (3 regiões de distância ao alvo x 3 regiões de distância ao obstáculo a frente x 2 regiões de distância ao obstáculo na lateral direita x 2 regiões de distância ao obstáculo na lateral esquerda X 17 regiões de orientação do agente em relação ao objetivo). Para cada estado foram mapeados os seguintes conjuntos de ações: girar +-90 o, +-50 o, +-30 o e +-6 o, andar 2,5%, 10%, 20% ou 30%, da menor distância entre o agente e o objetivo no momento em que o processo é iniciado, e ficar parado. Com isso a configuração final do espaço de estado gerou um mapa de valor-ação de 612x13 elementos.
10 Sensores do Agente Para que o agente se localize no ambiente ao qual está inserido, foram instalados sensores do tipo Laser Range Finder, para detectar objetos que estejam a sua frente e/ou em suas laterais, dentro de um ângulo de varredura conforme mostrados figura 9. Figura 9 Exemplo da atuação dos sensores de distância do agente Para que o agente se localize em relação ao ponto objetivo, foi instalado um sensor GPS no qual é possível extrair não só as coordenadas X,Y,Z da origem o agente, mas também as velocidades lineares e angulares desses eixos. Vantagens Com as distâncias normalizadas o agente pode ser inserido em ambientes com diferentes dimensões sem que para isso seja necessária mais etapas para chegar ao objetivo. Com a inclusão dos sensores laterais, evita-se situações em que o agente fique oscilando entre regiões com e sem obstáculos, além de facilitar o aprendizado de situações em que seja necessário contornar um obstáculo muito longo, como uma parede. A maior resolução da orientação do agente apenas na região á sua frente permite que ele se alinhe com mais precisão ao objetivo e que faça contornos mais suaves, sem que seja necessário um grande número de estados. Desvantagens Como os estados envolvem configurações bem específicas, fica um pouco custosa a simulação, pois são necessárias varias interações para garantir que todas as configurações foram acessadas na quantidade ideal. Algoritmo O programa principal está escrito em SPL, pois através dele que são feitas as trocas de informação entre o MatLab e o MRDS, e possui as seguintes etapas. 1 Criar o agente, sensores e obstáculos no ambiente MRDS. 2 Inicializar variáveis do sistema e carrega os valores existentes da tabela valor-ação. 3 Leitura dos sensores.
11 4 Dados dos sensores são enviados para MatLab, onde o agente é localizado no espaço de estado. 5 Realiza chamada para a função ε-greedy [5], criada no MatLab, onde é escolhida uma ação para o agente tomar. 6 Os dados da ação selecionada são lidos do MatLab e enviados para o agente no ambiente do MRDS, que executa a ação. 7 Os dados dos sensores do agente são novamente lidos e enviados para o Matlab para sua localização no espaço de estados. 8 É realizada uma avaliação do estado ao qual a ação escolhida pelo ε-greedy levou o agente. Se o estado está próximo ao objetivo a uma distância de 10% da menor distância entre o agente e o alvo na configuração inicial do problema (dist_min_inicial), o valor da recompensa é 100, caso o agente se encontro em um estado caracterizado pela distância a um obstáculo a frente menor ou igual a 10 % de dist_min_inicial o reforço é -100, se nenhuma dessas duas condições foi atendida o reforço é 0. 9 Com o valor da recompensa determinado, é feita a chamada no MatLab para a função de aprendizado Q_learning, que irá atualizar o valor da ação escolhida no estado anterior conforme a equação abaixo, onde alpha = 0.35 (taxa de aprendizado) e gamma = 0.1 (fator de desconto). 10 A tabela valor-ação é salva. 11 Caso o agente tenha alcançado o objetivo ou tenha atingindo um obstáculo, retorna ao item 2, caso contrário item Caso após 300 ciclos o agente não alcance o objetivo ou não se depare com um obstáculo o sistema retorna para a posição 2. Resultados Para tentar alcançar o maior número de estados possíveis, diversas configurações de simulação foram realizadas, como: Agente em um ambiente livre de obstáculos Nessa configuração o agente foi iniciado na posição (0,0) com orientação (-Z) e não possui restrições de movimentos, pois não há obstáculos que impeçam seu deslocamento (figura 10) e, portanto seria à configuração na qual o agente precisaria do menor número de interações para alcançar o objetivo que se encontra na posição (-0.5,2.5). Para que o agente alcançasse o objetivo pela primeira vez, foram necessárias 528 interações, sendo que conforme o item 12 do algoritmo, por não ter alcançado o objetivo dentro de 300 interações o sistema foi reiniciado, fazendo com que do ponto inicial até o objetivo o agente realizasse 228 passos.
12 Figura 10 - Posição inicia para o agente sem obstáculos que deseja chegar no ponto em verde. Abaixo podemos observar o resultado das 300 primeiras interações do agente com o ambiente. Gráfico (1A) - Posição (X,Z) do agente X interação Gráfico (2A) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação
13 Gráfico (3A) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação Gráfico (4A) - Estados explorados pelo agente a cada etapa X interação Do gráfico 2A é possível observar que o agente se manteve boa parte do tempo desalinhado com objetivo e por isso, cada passo que ele dava o distanciava mais do alvo, como pode ser observado no gráfico 3A. No gráfico 4A nota-se que o estado mais visitado está por volta do 330 e que os longos tempos de permanência nesse estado foi devido ao pouca movimentação realizada pelo agente durante esse período. Após cerca de 3000 interações, o agente passou a alcançar o objetivo cada vez mais rápido chegando, em alguns casos, a precisar de apenas 13 passos. Abaixo segue a análise de um processo no qual o agente precisou de 18 passos para alcançar o objetivo. Nessa análise agente se inicia nos pontos (1,0) na direção (-Z) e precisa chegar ao ponto (0.5,2.5) sem importar a direção. Gráfico (1B) - Posição (X,Z) do agente x interação X interação
14 Gráfico (2B) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação Gráfico (3B) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação Gráfico (4B) - Estados explorados pelo agente a cada etapa X interação Conforme pode ser observado no gráfico 3B, cada deslocamento que o agente realiza está diminuindo sua distância ao objetivo e nos momentos em o agente não translada eles está ajustando sua orientação para ficar alinhado como objetico, conforme mostrado no gráfico 2B. Com isso, conclui-se que o agente aprendeu que em situações em que não haja
15 obstáculos, o melhor distância a ser percorrida é a reta que o liga ao objetivo e, portanto, o agente procura se alinhar ao objetio para realizar sua translação. Outra observação é em relação a distância percorrida em cada translação; é possível notar que quando o agente se encontra próximo ao objetivo ele realiza a menor translação que lhe é possível e com isso evita passar o alvo. Agente em ambiente com um obstáculo entre ele o objetivo Nessa análise agente é iniciado nos pontos (1,0) na direção (-Z) e precisa chegar ao ponto (0.5,2.5) qualquer que seja a direção, contudo ao contrário dos casos anteriores, o agente não pode mais adotar a estratégia já aprendida, alinhar com o objetivo e se deslocar, agora o agente deve aprender a desviar do obstáculo que irá encontrar e será penalizado toda vez que se aproximar demais (figura 11). Figura 11 Ambiente com obstáculo entre o agente e o objetivo : Como essa configuração envolve mais estados, foi necessário um clico maior de treinamento para que o objetivo fosse alcançado pela primeira vez. A seguir segue a análise do deslocamento do agente para o caso acima no qual ele alcançou o objetivo em 64 etapas.
16 Gráfico (1C) - Posição (X,Z) do agente X interação Gráfico (2C) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação Gráfico (3C) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação
17 Gráfico (4C) - Estados explorados pelo agente a cada etapa X interação Gráfico (5C) - Distãncia frontal, lateral direita e esquerda ao obstáculo X interação Conforme pode ser observado no gráfico 5C o agente contorna o obstáculo pela esquerda, o mantendo a maior parte do tempo próximo a essa lateral, e no instante que ele passa pelo obstáculo ele gira procurando se alinhar com o alvo. Outro ponto a observar, é que nos passos de 22 à 27, em que o agente se encontra com o obstáculo muito próximo a sua frente, o único movimento que ele realiza é o de rotação e que para sobrepor a barreira o agente chega a adotar deslocamentos que o distanciam do objetivo, conforme pode ser visto no gráfico 3C. Agente em um ambiente de corredor Assim como nas análises anteriores, o agente é iniciado nos pontos (1,0) na direção (- Z) e precisa chegar ao ponto (0.5,2.5) qualquer que seja a direção, contudo nessa configuração o agente possui seus movimentos mais restritos, já que está cercado por obstáculos(figura 12).
18 Figura 12 Ambiente com agente cercado por obstáculos A seguir segue a análise do deslocamento do agente para o caso acima no qual ele alcançou o objetivo em 58 etapas. Gráfico (1D) - Posição (X,Z) do agente x interação X interação Gráfico (2D) - Giro realizado pelo agente e orientação em relaçao ao objetivo X interação
19 Gráfico (3D) - Deslocamento realizado pelo agente e distância do agente ao objetivo X interação Gráfico (4D) - Estados explorados pelo agente a cada etapa X interação Gráfico (5D) - Distãncia frontal, lateral direita e esquerda ao obstáculo X interação Do gráfico 3D, nota-se que mais uma vez o agente procurou um melhor posicionamento antes de começar a deslocar em direção ao objetivo e ao se aproximar de um obstáculo frontal o agente realiza uma rotação para buscar um melhor posicionamento, gráficos 3D e 4D passo 27. Um momento a se observar é no gráfico 1D é o passo 52, no qual o agente ultrapassa o objetivo e conforme nota-se nos gráficos 2D e 3D nos instantes seguintes o agente gira cerca de 180 graus para se alinha novamente com o objetivo para então se deslocar à ele.
20 Conclusões Com os experimentos feitos até o momento, observa-se uma boa evolução do agente na busca de uma política ótima, contudo o processo se mostra um pouco lento, já que são foram necessárias várias interações para que o agente chegue à condição atual. Esse elevado número de interações, só confirma a necessidade da existência de um ambiente virtual na qual o processo de aprendizado possa ser feito. Numa segunda etapa dessa iniciação, o tempo de aprendizado será otimizado, pois será trabalhado com um sistema com vários agentes e com isso a experiência adquirida por um agente será compartilhada entre todos, multiplicando a velocidade de aprendizado pelo número de agentes no sistema. Outro fator que prejudicou o tempo de aprendizado, foi o tempo de comunicação entre o SPL e o MatLab, que poderia ser contornado se as funções executadas no MatLab fossem escritas no SPL. Referências 1 - RWTH Mindstorms NXT Toolbox. Disponível em: Acesso em: 15/04/ Microsoft Robotics Developer Studio. Disponível em: microsoft.com/robotics/#learn. Acesso em: 02/05/ STEM Education: SPL Toolkit. Disponível em: Acesso em: 13/05/ SUTTON, R. S. & BARTO, A. G. Reinforcement Learning An Introduction. MIT Press, Cambridge, Massachusetts, BLYNEL, J. Reinforcement Learning in Real Robots. Master s Thesis Department of Computer Science. University of Aarhus, Denmark, PESSOA, J. M. D. Análise Funcional Comparativa de Algoritmos de Aprendizagem por Reforço. Dissertação de Mestrado, Departamento de Engenharia Elétrica e Telecomunicações e de Computadores Instituto Superior de Engenharia de Lisboa, Lisboa, WATKINS, C. J. C. H. Learning from Delayed Rewards. Ph.D. thesis University of Cambridge, England, Disponível em: < Acesso em 14/03/ CAMPONOGARA, E. & SERRA, M. R. G. Aprendizagem por Reforço: Uma Primeira Introdução. Departamento de Automação e Sistemas. Universidade Federal de Santa Catarina, Florianópolis SC, RIBEIRO, C. Reinforcement Learning Agents. Instituto Tecnológico de Aeronáutica (ITA). Artificial Intelligence Review 17: , the Netherlands, PIERI, E. R. Curso de Robótica Móvel. Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal de Santa Catarina, 2002.
Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid
1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método
Leia mais5 Testes e Resultados
5 Testes e Resultados Neste capítulo serão apresentados experimentos que ilustram as implementações desenvolvidas e propostas no capítulo anterior. São mostrados experimentos que investigam o algoritmo
Leia maisCOMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT
COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT Brenda Kieling Balbinotti 1, Nicole Dalmolin Kochan 2. Marcelo Massocco Cendron 3 Instituto Federal Catariense
Leia maisAPLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1
APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1 Darlinton Prauchner 2, Rogério Martins 3, Edson Padoin 4. 1 Trabalho de conclusão de curso realiazado no curso de Ciência da
Leia maisDESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS
Departamento de Engenharia Elétrica DESENVOLVIMENTO DE ROBÓTICA INTELIGENTE EM AMBIENTE VIRTUAL PARA MÚLTIPLOS ROBÔS Aluna: Deise Regina Ceregatti Momm Orientadora: Karla Tereza Figueiredo Leite Introdução
Leia maisCOMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT
COMPARATIVOS DE AMBIENTES DE PROGRAMAÇÃO GRÁFICOS PARA O KIT DE ROBÓTICA LEGO MINDSTORMS NXT Brenda Kieling Balbinotti 1 ; Marcelo Massoco Cendron 2 ; Nicole Dalmolin Kochan 3 INTRODUÇÃO A programação
Leia mais4 Desenvolvimento de Algoritmos de controle
4 Desenvolvimento de Algoritmos de controle 4.1 Introdução Os estudos das características sensoriais e equações de movimento realizados com o robô ER1, junto com as ferramentas de simulação, permitem o
Leia maisDesenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente
Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente Discente: Marcelo Roberto Petry Orientador: Professor Doutor Luís Paulo Reis Co-orientador: Mestre Rodrigo
Leia mais3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 24 Aprendizado Por Reforço Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).
Leia maisROBÓTICA PLANEJAMENTO DE TRAJETÓRIAS. Prof a. Dra. GIOVANA TRIPOLONI TANGERINO Tecnologia em Automação Industrial
SP CAMPUS PIRACICABA ROBÓTICA Prof a. Dra. GIOVANA TRIPOLONI TANGERINO Tecnologia em Automação Industrial PLANEJAMENTO DE TRAJETÓRIAS https://giovanatangerino.wordpress.com giovanatangerino@ifsp.edu.br
Leia maisCURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO
CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS - 2016.2 2º PERÍODO DISCIPLINA: CÁLCULO I DISCIPLINA: FÍSICA I Estudo do centro de Massa e Momento Linear. Estudo da Rotação. Estudo de Rolamento, Torque
Leia maisAPLICAÇÃO DE TESTES UTILIZANDO LÓGICA CLÁSSICA NA PROGRAMAÇÃO DE PLATAFORMA ROBÓTICA MÓVEL
APLICAÇÃO DE TESTES UTILIZANDO LÓGICA CLÁSSICA NA PROGRAMAÇÃO DE PLATAFORMA ROBÓTICA MÓVEL Thomas Massaru Okuyama[PIBIC] 1, Márcio Mendonça[Orientador] 2, Keriton Lopes [Colaborador] 3 1 Programa Institucional
Leia maisUTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA
Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 16 a19 2006 UTILIZAÇÃO DE APRENDIZADO
Leia maisCURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO
CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS - 2016.1 1º PERÍODO DISCIPLINA: INTRODUÇÃO AO CÁLCULO DISCIPLINA: FUNDAMENTOS DE FÍSICA DISCIPLINA: REPRESENTAÇÃO GRÁFICA DISCIPLINA: INTRODUÇÃO À ENGENHARIA
Leia maisCONSTRUÇÃO DE UM ROBÔ MÓVEL COMO RECURSO DIDÁTICO NOS CURSOS DE ENGENHARIA
CONSTRUÇÃO DE UM ROBÔ MÓVEL COMO RECURSO DIDÁTICO NOS CURSOS DE ENGENHARIA 1. INTRODUÇÃO A robótica é uma ciência que se dedica a desenvolver dispositivos capazes de realizar tarefas automaticamente empregando
Leia maisRESUMO EXPANDIDO DESENVOLVIMENTO DA ESTRUTURAÇÃO E PROGRAMAÇÃO DE UM ROBÔ AUTÔNOMO PARA FINS SOCIAIS, TECNOLÓGICOS E COMPETITIVOS
RESUMO EXPANDIDO DESENVOLVIMENTO DA ESTRUTURAÇÃO E PROGRAMAÇÃO DE UM ROBÔ AUTÔNOMO PARA FINS SOCIAIS, TECNOLÓGICOS E COMPETITIVOS Autores : Lucas Eduardo Koch ERNZEN, Jessé de PELEGRIN Identificação autores:
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 18 Aprendizado Por Reforço Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).
Leia mais2 Descrição do Sistema
31 2 Descrição do Sistema O giroscópio mecânico foi largamente utilizado como um instrumento de navegação em navios e aviões [34]. A tecnologia mecânica vem aos poucos sendo substituída por dispositivos
Leia maisWorkshop - A Robótica em Contexto Educativo
Pastas do robô: Pastas do Robô a. Try Me b. View c. Bluetooth d. My Files Software files NXT files Sound Files e. NXT program f. Settings Pastas do robô: a. Try Me b. View c. Bluetooth d. My Files Software
Leia maisAprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo
Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Explícito do Aprendiz Marcus Vinícius Carvalho Guelpeli Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica São José
Leia maisCongresso de Inovação, Ciência e Tecnologia do IFSP
Congresso de Inovação, Ciência e Tecnologia do IFSP - 2016 CONTROLADOR PID APLICADO A PROGRAMAÇÃO DE ROBÔ MÓVEL THAIS JULIA BORGES RIBEIRO 1, MASAMORI KASHIWAGI 2 1 Técnico em Automação Industrial, Bolsista
Leia maisSistemas de Informação e Decisão. Douglas Farias Cordeiro
Sistemas de Informação e Decisão Douglas Farias Cordeiro Decisão Tomamos decisões a todo momento! O que é uma decisão? Uma decisão consiste na escolha de um modo de agir, entre diversas alternativas possíveis,
Leia maisPós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO
Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 06 Algoritmos Genéticos Sumário Introdução Inteligência Artificial (IA) Algoritmos Genéticos Aplicações de
Leia maisRECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS
1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá
Leia mais6 Estudos de Casos Porta Lógica OU de 4 Entradas
6 Estudos de Casos Com o objetivo de avaliar a síntese automática de circuitos de QCA usando técnicas de Hardware Evolucionário (EHW), alguns circuitos foram sintetizados e serão apresentados a seguir.
Leia maisINTRODUÇÃO À ROBÓTICA MÓVEL
INTRODUÇÃO À ROBÓTICA MÓVEL Aula 20 Edson Prestes Departamento de Informática Teórica http://www.inf.ufrgs.br/~prestes prestes@inf.ufrgs.br Exploração baseada em Fronteiras Método desenvolvido por Brian
Leia maisProf. Daniel Hasse. Robótica Industrial
Prof. Daniel Hasse Robótica Industrial Robótica Industrial Aula 5 - Componentes III Sensores Controlador / Eletrônica de Controle Software / Programação IHM Eletrônica de Potência Classificação dos Sensores
Leia maisESTUDO DA TRANSFERÊNCIA AUTOMÁTICA DE DADOS PARA UM ROBÔ MÓVEL NA PLATAFORMA LEGO MINDSTORMS
CAMPUS DISTRITO ESTUDO DA TRANSFERÊNCIA AUTOMÁTICA DE DADOS PARA UM ROBÔ MÓVEL NA PLATAFORMA LEGO MINDSTORMS OBJETIVOS Objetivo Geral Luan Leonardo Vieira de Moraes 1 Prof. Dr. José Pinheiro de Queiroz
Leia maisTÍTULO: TESTE DE CONTROLADOR PARA UM ROBÔ DE EQUILÍBRIO DINÂMICO CATEGORIA: CONCLUÍDO ÁREA: CIÊNCIAS EXATAS E DA TERRA. SUBÁREA: Engenharias
TÍTULO: TESTE DE CONTROLADOR PARA UM ROBÔ DE EQUILÍBRIO DINÂMICO CATEGORIA: CONCLUÍDO ÁREA: CIÊNCIAS EXATAS E DA TERRA SUBÁREA: Engenharias INSTITUIÇÃO(ÕES): CENTRO UNIVERSITÁRIO DO NORTE PAULISTA - UNORP
Leia maisTemas Principais: Tipos de Robôs Sensores e Atuadores Modelos Sensoriais Modelos Cinemáticos Controle Robótico: Controle Reativo Controle
4 e Veículos Autônomos Temas Principais: Tipos de Robôs Sensores e Atuadores Modelos Sensoriais Modelos Cinemáticos Controle Robótico: Controle Reativo Controle Deliberativo Controle Hierárquico Localização
Leia maisAprendizado por Reforço
Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão
Leia maisCNC Comando Numérico Computadorizado
CNC Comando Numérico Computadorizado 1 - Histórico Busca de melhoria ao produto, aliado ao desenvolvimento dos computadores. Principal fator: 2ª Guerra Mundial produção em massa (a guerra consumia tudo,
Leia maisDesenvolvido por: Prof. Dr. Fernando Osório* Farlei Heinen* (Mestrando em Computação Aplicada - PIP/CA)
Seminário de Pesquisa - Mestrado em Computação Aplicada Robótica Autônoma: Projeto de Sistemas Inteligentes usando Aprendizado de Máquinas Desenvolvido por: Prof. Dr. Fernando Osório* Farlei Heinen* (Mestrando
Leia maisPROPOSTA DE INTERFACE GRÁFICA PARA CONTROLAR REMOTAMENTE A PLATAFORMA DE TESTE DE BATERIAS 1
PROPOSTA DE INTERFACE GRÁFICA PARA CONTROLAR REMOTAMENTE A PLATAFORMA DE TESTE DE BATERIAS 1 Sandy Tondolo De Miranda 2, Paulo Sérgio Sausen 3, Luis Fernando Sauthier 4, Guilherme Fabrin Franco 5. 1 Pesquisa
Leia maisCinemática de Robôs Móveis
Cinemática de Robôs Móveis A cinemática é a área da Física que estuda o movimento dos corpos. Em robótica móvel a cinemática estabelece relações entre o deslocamento (locomoção) do robô e a atuação a ele
Leia maisSSC5887 SSC5887. Histórico. Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER. Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER
Grupo de Sistemas Embarcados Evolutivos e Robóticos - SEER Áreas de atuação: SSC5887 Introdução aos Sistemas Robóticos Denis Fernando Wolf 1º semestre 2010 Sistemas embarcados Computação reconfigurável
Leia mais1- INTRODUÇÃO AOS ROBÔS INDUSTRIAIS
1- INTRODUÇÃO AOS ROBÔS INDUSTRIAIS 1.1 Introdução Um robô industrial é uma máquina com características significativas de versatilidade e flexibilidade. De acordo com uma definição do Instituto de Robôs
Leia maisAutor: Diego Gouvêa Macharete Trally
Autor: Diego Gouvêa Macharete Trally Orientador: José Gabriel R. C. Gomes 1 Introdução Motivação O Processo de Ajuste A Eletrônica do Projeto Processamento de Imagem Controle Resultados d Obtidos Conclusões
Leia maisLEGO Mindstorm e suas aplicações
Palestrante: Bruno César Prado Email: bu_prado@msn.com Professores: Prof. Maria das Graças Bruno Marietto Prof. Wagner Tanaka Botelho CMCC Centro de Matemática, Computação e Cognição http://www.youtube.com/watch?v=5xva2lfds18
Leia maislnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning)
lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) Processo Decisório de Markov e Aprendizado por Reforço Quando falamos sobre Processo decisório de Markov e formalizamos
Leia maisIntrodução. 1.1 Motivação
16 1 Introdução 1.1 Motivação Um transportador pessoal robótico auto-equilibrante (TPRE) é uma plataforma com duas rodas paralelas que funciona a partir do equilíbrio do indivíduo que o utiliza, assemelhando-se
Leia maisMicrocontroladores e Robótica
Ciência da Computação Sistemas Microcontrolados Projetos Prof. Sergio F. Ribeiro Projetos É preciso estabelecer três equipes. Cada equipe ficará com o desenvolvimento de um projeto. Os projetos são distintos.
Leia mais5 Validação Experimental
Validação Experimental 93 5 Validação Experimental Os experimentos realizados têm como objetivo validar o controle baseado em comportamento por meio de robôs reais, situados em uma arena definida, e utilizando
Leia mais5 Estudo de Caso e Resultados
5 Estudo de Caso e Resultados 5.1. Introdução Finalizado o desenvolvimento da ferramenta, é indispensável testar suas funcionalidades e a eficácia da aplicação conjunta dos seus módulos de geração de experimentos
Leia maisIntrodução ao Controlo Numérico Computorizado II Referenciais e Trajectórias. João Manuel R. S. Tavares Joaquim Oliveira Fonseca
Introdução ao Controlo Numérico Computorizado II Referenciais e Trajectórias João Manuel R. S. Tavares Joaquim Oliveira Fonseca Introdução As ferramentas de uma máquina CNC podem realizar certos movimentos
Leia maisCalibração dos pilotos Ontrac 3/Steercommand
Calibração dos pilotos Ontrac 3/Steercommand 1 Passo Criando veículo Na página inicial do display clique em configurações de GPS e direção. 1 Passo Criando veículo Depois que o display reconhecer o sistema
Leia maisIntrodução. Introdução. Introdução. Locomoção. Introdução. Introdução à Robótica Robótica Móvel Locomoção
Introdução Introdução à Robótica Robótica Móvel Prof. Douglas G. Macharet douglas.macharet@dcc.ufmg.br Um robô móvel necessita de mecanismos que o permitam navegar pelo ambiente Projetados de acordo com
Leia maisMECATRÔNICA MANIPULADORES ROBÓTICOS
MANIPULADORES ROBÓTICOS O grande escritor americano de ficção científica Isaac Asimov estabeleceu quatro leis muito simples para a robótica: A robótica abrange tecnologia de mecânica, eletrônica e computação.
Leia maisIntrodução. Introdução. Introdução. Locomoção. Introdução. Introdução à Robótica Robótica Móvel Locomoção
Introdução Introdução à Robótica Robótica Móvel Prof. Douglas G. Macharet douglas.macharet@dcc.ufmg.br Um robô móvel necessita de mecanismos que o permitam navegar pelo ambiente Projetados de acordo com
Leia maisUFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística
UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística INE6105-Introdução à Robótica Prof. Mauro Roisemberg Arkin. Ronald C. Behavior-Based Robotics
Leia maisRegras Robô seguidor de linha (followline) Versão 3.0 de 02/06/2018 Este documento foi baseado nas regras da Recôncavo Robot Challenge 2017
INSTITUTO FEDERAL DE SERGIPE ROBOBASE "O torneio de robótica da ERBASE" Regras Robô seguidor de linha (followline) Versão 3.0 de 02/06/2018 Este documento foi baseado nas regras da Recôncavo Robot Challenge
Leia maisPrimeiras Máquinas Ferramentas Manuais Movimentação através de volantes, manivelas, alavancas e correias Automação através de cames e seguidores (alto volume de produção) Controle Manual - Torno Automático
Leia maisDESENVOLVIMENTO DE UM ROBÔ AUTÔNOMO PARA PARTICIPAÇÃO EM COMPETIÇÃO DE SUMÔ RESUMO
DESENVOLVIMENTO DE UM ROBÔ AUTÔNOMO PARA PARTICIPAÇÃO EM COMPETIÇÃO DE SUMÔ Darlan Felipe Klotz 1 ; Mauro André Pagliosa 2 RESUMO Robôs autônomos estão sendo empregados em diversas tarefas onde para o
Leia maisROBÓTICA PROGRAMAÇÃO DE ROBÔS
ROBÓTICA PROGRAMAÇÃO DE ROBÔS Tipos de programação de robôs Programação a nível das juntas no qual as ações básicas são posições (e possivelmente movimentos) Programação a nível do robô no qual as ações
Leia mais4 Análise de Dados. 4.1.Procedimentos
4 Análise de Dados 4.1.Procedimentos A idéia inicial para a comparação dos dados foi separá-los em series de 28 ensaios, com a mesma concentração, para depois combinar esses ensaios em uma única série.
Leia maisRastreamento de objeto e estimativa de movimento
Hiroito Watanabe Rastreamento de objeto e estimativa de movimento Brasil 2015 Hiroito Watanabe Rastreamento de objeto e estimativa de movimento Relatório do trabalho 2 da disciplina de Processamento Digital
Leia maisInteligência Computacional para Jogos Eletrônicos
Inteligência Computacional para Jogos Eletrônicos Papéis da IA em Jogos Adversários Aliados Personagens de apoio NPC s (Non-player Character) Comentaristas Controle de câmera Geração de fases Nivelamento
Leia maisInformática I. Aula 21. Aula 21-07/11/06 1
Informática I Aula 21 http://www.ic.uff.br/~bianca/informatica1/ Aula 21-07/11/06 1 Aula de hoje Explicação sobre o trabalho 3 Jogo de prospecção de petróleo por robôs. http://www.inf.puc-rio.br/~mascarenhas/robots/
Leia maisRedes Neurais e Sistemas Fuzzy
1. Inteligência Computacional Redes Neurais e Sistemas Fuzzy Apresentação da disciplina Conceitos básicos A chamada Inteligência Computacional (IC) reúne uma série de abordagens e técnicas que tentam modelar
Leia mais8 Conclusões e Trabalhos Futuros
8 Conclusões e Trabalhos Futuros A presente dissertação apresentou uma proposta de algoritmo para exploração e mapeamento completa para robôs móveis na seção 6.1. Ao longo da dissertação os componentes
Leia maisCurso Tecnólogo em Mecatrônica Industrial GUILHERME K. POGAN HELENA F. DITTERT. Gerador Eólico
Curso Tecnólogo em Mecatrônica Industrial GUILHERME K. POGAN HELENA F. DITTERT Gerador Eólico Joinville SC Junho de 2016 1 Introdução Este projeto tem por objetivo simular o funcionamento de um gerador
Leia maisEstudo da localização de maternidades em Sergipe através de simulação Monte Carlo
Estudo da localização de maternidades em Sergipe através de simulação Monte Carlo João Batista dos Santos-Filho 1, Tatiana Santos de Araujo Batista 2, José Carlos Rodrigues Oliveira 3,Maria Letícia da
Leia maisProf. Dr. Paulo Eigi Miyagi, Coordenador Prof. Dr. José Reinaldo Silva Prof. Dr. Fabrício Junqueira Prof. Dr. Marcos Ribeiro Pereira Barretto
PMR 3100 - Introdução à Engenharia Mecatrônica Prof. Dr. Paulo Eigi Miyagi, Coordenador Prof. Dr. José Reinaldo Silva Prof. Dr. Fabrício Junqueira Prof. Dr. Marcos Ribeiro Pereira Barretto Unidade IV:
Leia maisINTRODUÇÃO À ROBÓTICA MÓVEL
INTRODUÇÃO À ROBÓTICA MÓVEL Aula 19 Edson Prestes Departamento de Informática Teórica http://www.inf.ufrgs.br/~prestes prestes@inf.ufrgs.br Campos Potenciais Harmônicos É um metodo proposto por Connolly
Leia maisAtuadores em Robótica
Atuadores em Robótica Profa. Michelle Mendes Santos michelle@cpdee.ufmg.br Atuadores Indicadores Em robótica muitas vezes é necessário sinalizar um acontecimento ou situação importante. Essa sinalização
Leia maisSistema Experimental. Figura 40: Robô original de onde foram aproveitadas a base da estrutura de alumínio, motores, rodas e eletrônica de potência.
73 5 Sistema Experimental O transportador robótico aproveitou a estrutura e motores de um robô móvel préexistente no Laboratório de Robótica, vide Figura 40. Foram aproveitados principalmente a estrutura
Leia maisData: 28/05/2010 8h as 12h. IP addresses and the port numbers of the components.
CURSO DE PROGRAMAÇÃO DE ROBÔS MÓVEIS USP - ICMC LRM: Laboratório de Robótica Móvel Profs. Denis Wolf, Eduardo Simões, Fernando Osório Alunos PG - Alberto Hata, Gustavo Pessin, Patrick Shinzato, Maurício
Leia maisMOVIMENTO 3D REFERENCIAL AUXILIAR EM TRANSLAÇÃO. QUESTÃO ver vídeo 1.1
MOVIMENTO 3D REFERENCIAL AUXILIAR EM TRANSLAÇÃO INTRODUÇÃO ESTUDO DE CASO À medida que o caminhão da figura ao lado se retira da obra, o trabalhador na plataforma no topo do braço comanda o giro do braço
Leia maislnteligência Artificial Introdução ao Processo Decisório de Markov
lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente
Leia maisIP addresses and the port numbers of the components.
CURSO DE PROGRAMAÇÃO DE ROBÔS MÓVEIS USP - ICMC LRM: Laboratório de Robótica Móvel Profs. Denis Wolf, Eduardo Simões, Fernando Osório Alunos PG - Alberto Hata, Gustavo Pessin, Patrick Shinzato, Maurício
Leia maisDisciplina de. Programação de Robôs Móveis SSC-0712
USP - ICMC - SSC LRM (Lab. de Robótica Móvel) SSC 0712 (PRM) - 1o. Semestre 2014 Disciplina de SSC-0712 1 Fev. 2014 Prof. Fernando Santos Osório Email: fosorio [at] { icmc. usp. br, gmail. com } Estagiário
Leia maisPROGRAMANDO O ROBO LEGO
PROGRAMANDO O ROBO LEGO APOITIA, CARLOS EDUARDO MOURA SALES, GLADISTONEY SANTOS GARCIA, LEONARDO ARRUDA VILELA OLIVEIRA, MÁRISON FIGUEIREDO Cuiabá (MT) np.robotica@unirondon.br 1. Introdução A Robótica
Leia maisDISPOSITIVO DIDÁTICO MOVIMENTO HARMÔNICO SIMPLES VERSUS MOVIMENTO CIRCULAR UNIFORME
DISPOSITIVO DIDÁTICO MOVIMENTO HARMÔNICO SIMPLES VERSUS MOVIMENTO CIRCULAR UNIFORME Sandra Maria Couto Moreira Ronaldo Luiz Neves Pinheiro Luiz Carlos de Alvarenga Depto. de Física UFV Viçosa MG I. Introdução
Leia maisXIX Congresso Nacional de Estudantes de Engenharia Mecânica - 13 a 17/08/2012 São Carlos-SP Artigo CREEM2012
PROJETO MECATRÔNICO DE UM ROBÔ MÓVEL COM RODAS (RMR) Alex Rodrigues Fricelli, Guilherme Barboni Paschoal, Júlio Rodrigues Goulart, Lucas Godoi de Oliveira, Rafael Valério Garcia e Roberto Santos Inoue
Leia maisRegras Robô seguidor de linha (followline) Versão 1.0 de 07/2017 Este documento foi baseado nas regras da ROBOCORE Winter Challenge XIII
UNIVERSIDADE FEDERAL DO RECÔNCAVO DA BAHIA CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS Ramo estudantil IEEE UFRB Capítulo RAS "Robotics and Automation Society" RRC - Recôncavo Robot Challenge "O desafio de
Leia maisAula 3 Programação. LEGO NXT-G
Portfolio MEEC 1 Aula 3 Programação. LEGO NXT-G Objectivo Introdução à programação do LEGO NXT-2, que será usado no lab. Portfolio MEEC 2 O que é um programa de computador? Conjunto de instruções que visam
Leia maisSumário Objetivos Estudo de caso
Sumário Sumário... 2 1. Objetivos... 3 1.1. Estudo de caso 1... 4 2 1. Objetivos Nesta lição iniciaremos o trabalho com o ambiente de montagem do SolidWorks. Conheceremos as ferramentas que o software
Leia maisTÍTULO: FUZZY TAKAGI-SUGENO PARA IDENTIFICAÇÃO E CONTROLE INERCIAL DE UM ROBÔ MÓVEL
Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: FUZZY TAKAGI-SUGENO PARA IDENTIFICAÇÃO E CONTROLE INERCIAL DE UM ROBÔ MÓVEL CATEGORIA: EM ANDAMENTO
Leia maisMATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO. 1º Período
MATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO 1º Período Código Disciplina CHT 1 CHP 2 CH Total Pré-requisitos Dados I 40 40 80 - Cálculo I 80-80 - Fundamentos da Computação 40-40 - Fundamentos
Leia maisLÓGICA E ROBÓTICA INTRODUÇÃO
LÓGICA E ROBÓTICA José Henrique Blenke de Almeida Lucena 1 ; Angelo Augusto Frozza 2 RESUMO Este trabalho visa mostrar a robótica como uma alternativa para o ensino de Lógica de Programação, fazendo com
Leia maisO Robô Educador Introdução
O Robô Educador Introdução A LEGO Education tem o prazer de lhe trazer o Robô Educador uma seleção de atividades tutoriais que apresenta de maneira estruturada e divertida como começar com o seu LEGO MINDSTORMS
Leia mais2 Qualquer outro participante que não se enquadre nas condições estabelecidas no item 1 deverá ser inscrito na categoria Pro;
Introdução Nome da Modalidade: Seguidor de Linha RW Número de Robôs por Partida: Um Duração da Partida: 3 minutos Classes Disponíveis: Pro e Junior Dimensões máximas dos Robôs: 250x250x200mm Especificações
Leia maisUtilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente
Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Modalidade Artigo Completo Marcus V. C. Guelpeli 1, Carlos H. C. Ribeiro 1 e Nizam Omar 2 1 Divisão de
Leia mais6. Controle por Aprendizado Neuro-Fuzzy
6. Controle por Aprendizado Neuro-Fuzzy 6.1. Introdução Neste capítulo é apresentado o controle por aprendizado utilizando um sistema híbrido Neuro-Fuzzy, para o cálculo e atualização dos pontos de reversão
Leia maisMEEC. Mestrado em Eng. Electrotécnica e de Computadores. Índice. MEEC Edição 2008/09 Instituto Superior de Engenharia do Porto
Mestrado em Eng. Electrotécnica e de Computadores O Mestrado em Engenharia Electrotécnica e de Computadores destina-se a complementar a formação de profissionais habilitados com o grau de Licenciado, fornecendo
Leia maisESTUDO DA RESPOSTA DE PROPULSORES DE VEÍCULOS SUBAQUÁTICOS NÃO-TRIPULADOS (ROV s)
ESTUDO DA RESPOSTA DE PROPULSORES DE VEÍCULOS SUBAQUÁTICOS NÃO-TRIPULADOS (ROV s) Diogo Marujo (ICV/PRPPG-UNIOESTE), Samir de Oliveira Ferreira (ICV/PRPPG-UNIOESTE), Carlos Henrique dos Santos Farias (Orientador),
Leia maisRobótica Móvel Inteligente: Aplicações da Inteligência Artificial nas Pesquisas em Robótica
! " # $% #'&()(& Robótica Móvel Inteligente: Aplicações da Inteligência Artificial nas Pesquisas em Robótica * +, -. - / 012 34 5 1 6 7 8 7 9 : 7 ;< = >? > 8 @ A B : 8 : B 7 8 @ C 9 D 0 E. F 0,. / 0, +
Leia maisMapeamento robótico. Mapeamento semântico. Metodologia. Maquinas de vetores de suporte. Maquinas de vetores de suporte. Modelos ocultos de Markov
Mapeamento robótico Exemplos de mapas: Mapeamento semântico Mapeamento semântico consiste na criação de mapas que não representam apenas a ocupação métrica do ambiente, mas também outras propriedades.
Leia mais4 Resultados. 4.1 Análise de desempenho
4 Resultados Nesta seção, analisaremos o funcionamento do módulo cinegrafista proposto. Foram realizados dois testes para a avaliação do módulo cinegrafista. O primeiro corresponde a uma análise do custo
Leia maisDESENVOLVIMENTO DE VEICULOS AUTONOMOS EM ESCALA EM AMBIENTE DE SIMULAÇÃO COMPUTACIONAL
DESENVOLVIMENTO DE VEICULOS AUTONOMOS EM ESCALA EM AMBIENTE DE SIMULAÇÃO COMPUTACIONAL Aluno: Renan de Lima Simões Mondego Vilela Orientador: Mauro Speranza Neto Introdução O presente projeto é continuação
Leia maisPrimeiras Máquinas Ferramentas Manuais Movimentação através de volantes, manivelas, alavancas e correias Automação através de cames e seguidores (alto volume de produção) Controle Manual - Torno Automático
Leia maisPrograma de Pós-Graduação em Engenharia de Sistemas e Automação Departamento de Engenharia - Universidade Federal de Lavras
Programa de Pós-Graduação em Engenharia de Sistemas e Automação Área de Concentração: Engenharia de Sistemas e Automação (Engenharias IV) As atividades de pesquisa na área de concentração em Engenharia
Leia maisImplementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC
Implementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC Ederson Costa dos Santos 1, Leandro Barjonas da Cruz Rodrigues 1, André Maurício Damasceno Ferreira 2 1
Leia mais1. Introdução. 1.1.Objetivo
1. Introdução 1.1.Objetivo O objetivo desta dissertação é desenvolver um sistema de controle por aprendizado acelerado e Neuro-Fuzzy baseado em técnicas de inteligência computacional para sistemas servo-hidráulicos
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisTrabalho de iniciação científica CTI (Centro de tecnologia da informação Renato Archer)
Trabalho de iniciação científica CTI (Centro de tecnologia da informação Renato Archer) Por Mariana Rodrigues Souza (Bolsista de iniciação científica no CTI-DRVC) Roteiro para experimento de movimento
Leia maisDesenvolvimento de um Robô Autônomo com Arduino
4ª Jornada Científica e Tecnológica e 1º Simpósio de Pós-Graduação do IFSULDEMINAS 16, 17 e 18 de outubro de 2012, Muzambinho MG Desenvolvimento de um Robô Autônomo com Arduino Reginaldo F. Silva 1, Saymon
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 11 Aprendizado de Máquina Edirlei Soares de Lima Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local
Leia mais