UTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA
|
|
- Luiz Guilherme Canela Pacheco
- 7 Há anos
- Visualizações:
Transcrição
1 Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 16 a UTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA Marcelo Corrêa Horewicz Instituto Tecnológico de Aeronáutica ITA.Programa de Pós-Graduação em Aplicações Operacionais (PPGAO). H9B apt 203 Campus do CTA - São José dos Campos SP Brasil horewicz@ita.br Cairo Lúcio Nascimento Jr. Instituto Tecnológico de Aeronáutica ITA. Divisão de Engenharia Eletrônica. São José dos Campos SP Brasil cairo@ele.ita.br Resumo. Neste artigo são apresentados os resultados alcançados com o aprendizado por reforço do inglês Reinforcement Learning (RL) de jogadores artificiais de jogo da velha em um tabuleiro com 3X3 casas. O aprendizado por reforço é uma técnica de aprendizagem onde os agentes recebem recompensas e punições a partir da realização de uma determinada ação. No caso em estudo primeiramente um jogador artificial de jogo da velha aprendeu por reforço boas estratégias de jogo após ter sido treinado por um outro jogador artificial que já possuía boas estratégias do jogo da velhaeste jogador fora implementado com o algoritmo conhecido como Min-Max. Numa segunda situação dois jogadores artificiais se confrontaram aprendendo por reforço conjuntamente as estratégias do jogo. As simulações realizadas em MATLAB comprovaram a eficiência da técnica e os jogadores artificiais aprendizes ao final dos treinamentos ficaram capacitados a jogar o jogo da velha contra qualquer adversário seja este uma outra máquina seja este um ser humano. Palavras chave:inteligência Artificial algoritmo min-max aprendizado por reforço. 1. Introdução O aprendizado é a aquisição de conceitos e de conhecimentos estruturados. O estudo do aprendizado pela máquina é uma área fundamental da inteligência artificial (IA). O aprendizado pode ocorrer com ou sem a presença de um tutor ou seja de um professor. O aprendizado supervisionado caracteriza-se pela orientação de um tutor na aquisição dos conceitos e de conhecimentos estruturados enquanto que o aprendizado não-supervisionado ocorre apenas em função dos estímulos primitivos não existindo a figura do tutor na aprendizagem. Um dos mecanismos empregados no processo de aprendizagem é o de punição e recompensa onde as tentativas e os erros são disciplinados por um supervisor que fornece ao aprendiz um sinal de retorno na forma de punição ou recompensa dependendo das ações certas ou erradas executadas pelo supervisionado. A aprendizagem por reforço é um típico problema de aprendizagem baseado em punição e recompensa ou comportamental e é realizada através da interação entre o sistema de aprendizagem e o seu ambiente dentro do qual o sistema procura alcançar um objetivo específico apesar da presença de incertezas. O fato de que esta interação é realizada sem um professor torna a aprendizagem por reforço atrativa para situações dinâmicas em que é custoso ou difícil reunir um conjunto satisfatório de exemplos de entradas e saídas. A aprendizagem por reforço pode ser aplicada ao clássico jogo da velha do inglês Tic-Tac-Toe. Neste caso pretende-se que a máquina possua a capacidade de jogar o jogo da velha com boas estratégias de jogo adquiridas após um treinamento utilizando o aprendizado por reforço. A máquina uma vez aprendido estratégias do jogo da velha terá condições de jogar contra seres humanos ou computadores. Para que a máquina possa aprender a jogar o jogo da velha ela necessita de jogar contra um oponente que conheça as regras e de preferência que possua boas estratégias de jogo. Para um primeiro treinamento foi utilizado como adversário um programa que já possuía o conhecimento de estratégias do jogo da velha desenvolvido segundo a técnica conhecida como Min-Max. Num segundo treinamento foram utilizados dois jogadores aprendizes que se confrontaram e com isto aprenderam conjuntamente e por reforço as estratégias do jogo da velha. Vale a pena ressaltar que neste caso nenhum dos dois jogadores conheciam algum tipo de estratégia de jogo antes do treinamento. Para efeitos de padronização e facilidade de entendimento a partir deste momento a máquina que utilizou a técnica de aprendizagem por reforço será denominada simplesmente de AR e a máquina que foi desenvolvida segundo a técnica Min-Max será chamada simplesmente de Min-Max. No segundo caso de treinamento os jogadores artificiais serão nomeados como AR1 e AR2. Neste artigo são mostrados os resultados obtidos pelo treinamento de um AR jogando contra um Min-Max e pelo treinamento de um AR1 jogando contra um AR2.
2 2. Aprendizagem por Reforço Segundo (Sutton e Barto 1998) aprendizagem por reforço (AR) é um formalismo da Inteligência Artificial que permite a um indivíduo aprender a partir da sua interação com o ambiente no qual ele está inserido. A aprendizagem se dá através do conhecimento sobre o estado decorrente das ações que são elementos essenciais na área de aprendizado de máquina. Desta forma a aprendizagem por reforço é uma técnica de aprendizagem de máquina que consiste no aprendizado do mapeamento de estados em ações de modo que um valor numérico de retorno seja maximizado. O agente não precisa inicialmente saber as ações que deve tomar mas deve descobrir quais ações o levam a obter maiores valores de retorno. Segundo (Haykin 2001) na aprendizagem por reforço o aprendizado de um mapeamento de entrada e saída é realizado através da interação contínua com o ambiente visando a minimizar um índice escalar de desempenho. A Figura 1 mostra o diagrama de blocos de uma forma de sistema de aprendizagem por reforço construído em torno de um crítico que converte um sinal de reforço primário recebido do ambiente em um sinal de reforço heurístico. O sistema é projetado para aprender por reforço atrasado o que significa que o sistema observa uma seqüência temporal de estímulos também recebidos do ambiente que ocasionalmente resultam na geração do sinal de reforço heurístico. O objetivo da aprendizagem é minimizar uma função de custo para avançar definida como a expectativa do custo cumulativo de ações tomadas ao longo de uma seqüência de passos em vez simplesmente do custo imediato. Pode acontecer que certas ações tomadas anteriormente naquela seqüência de passos de tempo sejam de fato os melhores determinantes do comportamento global do sistema. O sistema de aprendizagem tem como função descobrir estas ações e realimentá-las para o ambiente (Haykin 2001). Reforço Primário Ambiente ENTRADA Crítico Ações Reforço Heurístico Sistema de Aprendizagem Figura 1. Diagramas em bloco do Aprendizado por Reforço. A aprendizagem por reforço diferencia-se de outros tipos de aprendizagem por ser um aprendizado por interação ou seja o agente por aprendizagem por reforço age no ambiente e recebe um valor de reforço que o ambiente retorna em resposta perante a ação tomada assimilando através do aprendizado o valor de reforço obtido para tomar decisões posteriores. 3. Algoritmo Min-Max O algoritmo conhecido como Min-Max é bastante utilizado em teoria de jogos e habilita computadores a possuir boas estratégias em jogos. O algoritmo tem como premissa maximizar uma função de utilidade assumindo que o adversário jogará perfeitamente para minimizá-la (Russell 1995). Segundo (Nascimento 2000) o algoritmo Min-Max é fundamentado numa expansão de nós de uma árvore e para que se possa selecionar a melhor opção de jogada há a necessidade de uma heurística que permita fornecer a cada jogada um valor que indique a vantagem posicional alcançada pelo movimento conhecido. No caso do jogo da velha especificamente uma heurística bastante utilizada é a da diferença entre o número de alinhamentos possíveis para cada jogador ou seja a diferença entre todos os alinhamentos possíveis naquele momento para o adversário ganhar e todos os alinhamentos possíveis naquele momento para o computador ganhar. É baseada nesta heurística que o computador
3 realiza sua estratégia de jogo maximiza a sua jogada levando-se em conta que o adversário fará o melhor possível para minimizá-la. Daí vem o nome do algoritmo: Min-Max. Como dito o algoritmo Min-Max fundamenta-se em uma árvore como mostrado na Figura 2 porém o cálculo da heurística é realizado das folhas para a raiz que é a primeira jogada realizada. Se o algoritmo realiza os cálculos apenas para uma jogada sua e do adversário a frente ele possui a profundidade de uma jogada no entanto se o algoritmo realiza os cálculos visualizando duas jogadas a frente ele possui uma profundidade de duas jogadas e assim por diante. Pode-se perceber que quanto maior o nível de profundidade de busca do computador maior o seu poder computacional e sua habilidade no jogo. Foram utilizados no treinamento do AR programas com o Min-Max com profundidade de uma jogada e com profundidade de duas jogadas. Figura 2. Construção da árvore aplicado ao jogo da velha. 4. Aprendizagem por Reforço no Jogo da Velha A utilização de aprendizagem por reforço no jogo da velha tem como objetivo produzir um jogador com inteligência artificial capaz de após um treinamento baseado em recompensas e punições jogar contra um oponente seja este um ser humano ou uma outra máquina. O primeiro passo do algoritmo de aprendizado por reforço é a geração de uma lista permanente com os estados que são aprendidos com o decorrer do treinamento a alocação dos estados é dinâmica e depende da quantidade de jogos e da habilidade do adversário treinador. Além desta lista permanente é criada uma lista temporária para cada jogo completo realizado esta lista guarda a seqüência de jogadas daquele jogo específico. Tanto na lista permanente quanto na lista temporária são armazenadas as matrizes de jogo composta de 9 campos (num tabuleiro 3X3) marcando um valor 1 para a jogada do adversário na casa correspondente um valor -1 para a jogada do computador na casa correspondente e um valor zero para a casa que ainda não foi jogada. Além disto também é armazenada uma lista de probabilidades associada para cada casa em cada estado. Esta lista é iniciada com cada campo contendo um valor de 0.5 ou seja é suposto que inicialmente existem 50% de chance do computador ganhar o jogo jogando em qualquer casa vaga para cada estado de jogo apresentado. Para cada jogada do computador é sorteado um valor que define em qual casa vaga o computador deverá jogar de forma que inicialmente a jogada é realizada de uma forma totalmente aleatória. Conforme o AR vai sendo treinado os valores das probabilidades vão se alterando sendo diminuídos ao receber um reforço negativo ou aumentado ao receber um reforço positivo. Para atualizar os valores das probabilidades é utilizado o método da aprendizagem por diferença temporal. O valor corrente do estado é ajustado de forma a ter seu valor mais alterado do que os estados iniciais isto porque nos estados finais é que se sabe se houve ou não uma vitória. A Equação (1) descreve a regra de atualização das probabilidades de se ganhar o jogo conforme (Sutton e Barto 1998): V(s) V(s) + α[v(s ) V(s)] (1) Sendo: α é a taxa de aprendizagem V(s) é o valor da probabilidade atualizada a cada fim de partida
4 V(s ) tem o valor inicial de 1 no reforço positivo ou seja quando há uma vitória e 0 no reforço negativo ou seja quando há uma derrota do computador. Ao final de cada partida todos os estados contidos na lista temporária têm suas listas de probabilidades atualizadas proporcionalmente conforme a equação acima. Ao fim do treinamento o AR possui uma lista permanente que especifica as melhores jogadas a serem executadas a cada estado aprendido. 5. Resultados Nesta seção serão apresentados alguns resultados interessantes do treinamento de um AR contra um Min-Max e de dois AR aprendendo por reforço conjuntamente. Na primeira situação o AR treina contra um Min-Max com 1 e com 2 níveis de profundidade de busca a frente. Numa segunda situação um AR1 treina contra um AR2 sendo que ambos jogadores somente sabem as regras do jogo não tendo nenhum tipo de estratégia inicial de jogo. Primeiramente somente o AR1 inicia o jogo numa seguinte simulação os jogadores iniciam intercalados ou seja o AR1 inicia o jogo nas partidas ímpares e o AR2 inicia o jogo nas partidas pares. 5.1 AR x Min-Max: Jogador Min-Max inicia o jogo Quando o jogador implementado com a técnica Min-Max inicia o jogo tanto com a profundidade de 1 jogada quanto na profundidade de 2 jogadas a frente não é possível vencê-lo no máximo o que ocorre é o empate. No caso do jogo da velha a técnica do Min-Max possui um desempenho excelente quando este inicia o jogo. Numa primeira simulação de treinamento manteve-se fixa a taxa de aprendizagem α em 0.95 e alterou a quantidade de partidas jogadas com o Min-max possuindo profundidade de 1 jogada. A Figura 3 mostra os resultados obtidos para a quantidade de jogadas de e respectivamente. Em vermelho têm-se os valores percentuais de derrotas do AR em verde têm-se os valores percentuais de empates e em azul os de vitória que neste caso mesmo com o aumento significante do número de partidas foi completamente zerada ou seja mostrando que quando o Min-Max inicia o jogo ele é imbatível. Pode-se notar que mesmo alterando a quantidade de partidas o número de empates se estabilizou ao final do treinamento em 70%. Figura 3. Min-Max inicia Taxa de Aprendizagem α: 0.95 Quantidade de partidas: e Mesmo aumentando o número de partidas jogadas o máximo que o AR conseguiu foi empatar com o Min-Max. Para que o AR em seu treinamento por reforço vença um oponente que inicie o jogo é necessário que este jogador não seja invencível isto poderia ser realizado talvez com um ser humano não muito hábil. Numa segunda simulação de treinamento manteve-se fixa a taxa de aprendizagem α em 0.95 e a quantidade de partidas jogadas em também com o Min-Max possuindo profundidade de 1 jogada. Porém agora foi alterada a estratégia do aprendizado as primeiras 300 partidas foram jogadas por sorteio ou seja com probabilidade a partir daí a escolha da jogada do AR foi selecionada pelo valor máximo da lista de probabilidade daquele estado específico. Com isto como pode ser visto na Figura 4 o AR aprendeu rapidamente a empatar o jogo o que ocasionou a elevação do índice de empates a quase 100% após o término do treinamento. Nesta simulação o AR obteve um índice de 9773% de empates no final do treinamento.
5 Figura 4. Alteração da estratégia de Aprendizagem: Min-Max inicia Taxa de Aprendizagem α: 0.95 Quantidade de partidas: AR x Min-Max: Jogador AR inicia o jogo Quando o AR inicia o jogo é possível vencer o Min-Max tanto na modalidade com a profundidade de 1 jogada quanto na da profundidade de 2 jogadas a frente. No caso do jogo da velha quando o Min-Max é o segundo jogador a jogar a técnica do Min-Max possui um fraco desempenho na profundidade de 1 jogada de busca e um desempenho razoável na profundidade de busca de 2 jogadas a frente. Numa primeira simulação o treinamento consistiu em partidas jogadas entre o AR e o Min-Max mas agora tendo profundidade de 2 jogadas de busca onde apenas a taxa de aprendizagem do AR foi alterada. A Figura 5 mostra os resultados obtidos para as taxas de aprendizagem de e 0.8 respectivamente. Em vermelho têm-se os valores percentuais de derrotas do AR em verde têm-se os valores percentuais de empates e em azul os de vitória do AR. Figura 5. AR inicia Quantidade de partidas: partidas Taxa de Aprendizagem: e 0.8 Profundidade 2 Inicialmente o AR possui uma quantidade excessiva de derrotas porém com o decorrer do tempo ele vai aprendendo a empatar até que ele finalmente aprende as melhores seqüências de jogadas para vencer o adversário não perdendo mais a partir daí. O Min-Max de profundidade 2 somente perde se o adversário jogar em um dos cantos do tabuleiro e o AR demora um certo tempo para perceber isto pois ele aprende aos poucos através das recompensas e punições recebidas durante a execução das partidas. No entanto a partir do momento que o AR identifica a limitação do adversário ele ganha sempre a partir de então chegando a um índice próximo de 100% de vitórias. A Figura 6 mostra este resultado quando é alterado o treinamento para partidas sendo a taxa de aprendizagem de 0.95 e a profundidade do Min-Max de 2 jogadas de busca. Nesta simulação o AR obteve um índice de 9484% de vitórias no final do treinamento.
6 Figura 6. AR inicia Quantidade de partidas: partidas Taxa de Aprendizagem:0.95 Profundidade AR1 x AR2: Jogador AR1 inicia o jogo Na simulação o treinamento consistiu em partidas jogadas entre dois AR sendo que apenas um deles sempre iniciava o jogo no caso o AR1. As taxas de aprendizagem dos ARs foram sempre iguais porém sendo alterados em cada simulação. A Figura 7 mostra os resultados obtidos para as taxas de aprendizagem de e 0.8 respectivamente. Em vermelho têm-se os valores percentuais de derrotas do AR1 em verde têm-se os valores percentuais de empates e em azul os de vitória do AR1. Figura 7. AR1 inicia Quantidade de partidas: partidas - Taxa de Aprendizagem: e 0.8 Pode-se notar que mesmo alterando a taxa de aprendizagem dos ARs o número de vitórias do AR1 se estabilizou ao final do treinamento em 60% e do AR2 em 30%. Uma explicação possível para este fato é que o AR que inicia o jogo aprende com mais rapidez a ganhar e por isto possui um maior desempenho de vitórias do que o AR que só joga na segunda vez. Outro fato interessante é que a partir do momento em que o AR2 começa a vencer as partidas o AR1 começa a receber um reforço negativo para as suas jogadas no qual estava acostumado a vencer desta forma existe um efeito de desaprendizagem do AR AR1 x AR2: Início Intercalado Nesta simulação os jogadores iniciaram intercalados ou seja o AR1 iniciava o jogo nas partidas ímpares e o AR2 iniciava o jogo nas partidas pares. Numa primeira simulação o treinamento consistiu em partidas jogadas entre os dois AR sendo que as taxas de aprendizagem dos ARs foram sempre iguais e sendo alterados a cada simulação. A Figura 8 mostra os resultados obtidos para as taxas de aprendizagem de e 0.8 respectivamente. Em vermelho têm-se os valores percentuais de derrotas do AR1 em verde têm-se os valores percentuais de empates e em azul os de vitória do AR1.
7 Figura 8. Início intercalado Quantidade de partidas: Taxa de Aprendizagem: e 0.8 Pode-se notar que houve praticamente uma igualdade na quantidade de vitórias dos ARs desde as primeiras partidas o que caracteriza que o jogador que inicia o jogo provavelmente é o vencedor ou seja os ARs praticamente aprenderam apenas a vencer e não a empatar. Nesta simulação o empate foi considerado como um reforço negativo para ambos jogadores. Uma segunda simulação de treinamento para este caso foi realizada para tentar fazer com que os ARs aprendessem a empatar e não somente a ganhar quando era a sua vez de iniciar o jogo. Manteve-se fixa a quantidade de partidas jogadas em e a taxa de aprendizagem dos ARs igualmente em Além disto foi alterada a estratégia do aprendizado as primeiras 500 partidas de ambos ARs foram jogadas com o sorteio a partir daí a escolha da jogada a ser realizada pelos ARs foi selecionada pelo valor máximo da lista de probabilidade daquele estado específico. O empate agora foi considerado como sendo um reforço positivo para ambos jogadores. Nestas condições como pode ser observado na Figura 9 houve o aprendizado por ambos ARs em empatar o jogo independentemente de quem iniciava o jogo. Houve um índice de 9564 % de empates. Figura 9. Início intercalado Quantidade de partidas: Taxa de Aprendizagem: Conclusões Este trabalho teve como finalidade mostrar os resultados obtidos na aprendizagem por reforço de um jogador artificial do jogo da velha com tabuleiro 3X3. Para o seu treinamento primeiramente foi utilizado um outro jogador artificial que fora implementado com o algoritmo conhecido como Min-Max utilizando profundidades de busca de 1 ou 2 jogadas a frente. Em seguida foi realizado um treinamento com dois jogadores artificiais aprendizes utilizando a técnica de reforço por aprendizagem sendo que ambos somente conheciam no início as regras do jogo não tendo nenhuma estratégia de jogo. Diversas simulações foram realizadas e os resultados mostraram que é bastante satisfatório o aprendizado de um jogador artificial utilizando a técnica de aprendizagem por reforço. As simulações mostraram que quando o Min-Max começa jogando ele é imbatível o AR no máximo conseguiu empatar tendo um índice de 70% de empates ao final do treinamento. Alterando a estratégia do aprendizado este índice chegou próximo aos 100% de empate.
8 Já nos casos em que o AR iniciava o jogo o computador aprendiz conseguia aprender os pontos fracos do Min Max e a partir deste momento a vencer todas as partidas chegando a um índice próximo de 100% de vitórias no final do treinamento. Neste caso não houve a necessidade de se alterar a estratégia de aprendizagem. Quando o treinamento é realizado com dois jogadores aprendizes tendo a mesma taxa de aprendizagem o jogador que inicia o jogo teve uma grande vantagem no número de vitórias possivelmente por ter aprendido mais rápido a vencer. Interessante foi o fato de verificar que com o decorrer do treinamento o primeiro jogador acabava desaprendendo o que tinha aprendido até então. Quando os jogadores iniciaram intercalados ou seja o primeiro jogador iniciava nas partidas ímpares e o segundo jogador iniciava nas partidas pares a quantidade de vitórias de ambos jogadores foram igualados. Notou-se que a quantidade de empates entre os jogadores era muito pequeno em torno de 10%. Uma explicação possível para isto é que o empate estava sendo considerado como um reforço negativo. Considerando o empate um reforço positivo igualando a taxa de aprendizagem em 095 e alterando a estratégia de escolha da jogada para ambos jogadores fez com que os jogadores aprendessem a empatar independentemente do jogador que iniciava o jogo. 7. Agradecimentos Gostaríamos de agradecer ao Conselho Nacional de Desenvolvimento Científico e Tecnológico - CNPq pela oportunidade da realização deste trabalho. 8. Referências Haykin Simon; Redes Neurais Princípios e Práticas 2ª Ed. Editora Bookman Nascimento Júnior Cairo Lúcio; Yoneyama Takashi; Inteligência Artificial em Controle e Automação Editora Wdgard Blücher Ltda Russell Stuart; Norvig Peter; Artificial Intelligence A Modern Approach Prentice Hall Sutton R. S. ; Barto A. G.; Reinforcment Learning: An Introduction. MIT Press Cambridge Massachusetts 1998.
Figura: Capa do Livro Hamburger, H., Richards, D. Logic and Language Models for Computer Science, Prentice Hall.
Figura: Capa do Livro Hamburger, H., Richards, D. Logic and Language Models for Computer Science, Prentice Hall. Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL 1 o Semestre Assunto Aula 7 Algoritmos de Busca Competitiva 2 de 20 Sumário Introdução Busca Competitiva
Leia maisInteligência Artificial. Resolução de problemas por meio de algoritmos de busca. Aula VI Busca Competitiva
Universidade Estadual do Oeste do Paraná Curso de Bacharelado em Ciência da Computação http://www.inf.unioeste.br/~claudia/ia2017.html Inteligência Artificial Resolução de problemas por meio de algoritmos
Leia maisÁrvore de Jogos Minimax e Poda Alfa-Beta
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Árvore de Jogos Minimax e Poda Alfa-Beta Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia mais3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 24 Aprendizado Por Reforço Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).
Leia maisInteligência Artificial. 3º Quadrimestre de 2018
Inteligência Artificial Prof. Fabrício Olivetti de França Prof. Denis Fantinato 3º Quadrimestre de 2018 1 Busca Competitiva 2 Busca Competitiva Quando falamos sobre agentes mencionamos alguns cenários
Leia maisBusca Competitiva. Inteligência Artificial. Até aqui... Jogos vs. busca. Decisões ótimas em jogos 9/22/2010
Inteligência Artificial Busca Competitiva Aula 5 Profª Bianca Zadrozny http://www.ic.uff.br/~bianca/ia-pos Capítulo 6 Russell & Norvig Seção 6.1 a 6.5 2 Até aqui... Problemas sem interação com outro agente.
Leia maisImplementação e Avaliação do Algoritmo MCTS-UCT para o jogo Chinese Checkers. Jhonny Moreira
Implementação e Avaliação do Algoritmo MCTS-UCT para o jogo Chinese Checkers Jhonny Moreira Introdução Introdução Na área da inteligência artificial (IA), a motivação é conseguir colocar os computadores
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 18 Aprendizado Por Reforço Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).
Leia maisInteligência Computacional
Inteligência Computacional CP78D Apresentação do Plano de Ensino Aula 1 Prof. Daniel Cavalcanti Jeronymo Universidade Tecnológica Federal do Paraná (UTFPR) Engenharia Eletrônica 9º Período 1/14 Professor
Leia maisJogos com Oponentes. March 7, 2018
Jogos com Oponentes March 7, 2018 Jogos com Oponentes ˆ Problemas de busca: não assumem a presença de um oponente ˆ Jogos: oponente INCERTEZA! ˆ Incerteza porque não se conhece as jogadas exatas do oponente
Leia maisBusca competitiva. Inteligência Artificial. Profª. Solange O. Rezende
Profª. Solange O. Rezende 1 O que vimos até agora... Busca não informada Baseada somente na organização de estados e a sucessão entre eles Busca informada Utiliza, também, informações a respeito do domínio
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 11 Aprendizado de Máquina Edirlei Soares de Lima Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local
Leia maisJogos. Geralmente o oponente tentará, na medida do possível, fazer o movimento menos benéfico para o adversário.
Jogos Os jogos tem atraído a atenção da humanidade, às vezes de modo alarmante, desde a antiguidade. O que o torna atraente para a IA é que é uma abstração da competição (guerra), onde se idealizam mundos
Leia maisInteligência Artificial
Inteligência Artificial Apresentação da Disciplina Tiago Alves de Oliveira 1 O que é Inteligência Artificial? Tiago Alves de Oliveira 2 O que é Inteligência Artificial? Área de pesquisa que tem como objetivo
Leia maisRedes Neurais Artificiais Aplicadas ao Jogo da Velha 3D em Pinos
Redes Neurais Artificiais Aplicadas ao Jogo da Velha 3D em Pinos TCC - Jan/09 Daniel Tré - ISTCCP Redes Neurais Artificiais Aplicadas ao Jogo da Velha 3D em Pinos p. 1/2 O que são Redes Neurais Artificiais
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL Apresentação da Disciplina Tiago Alves de Oliveira 1 O QUE É INTELIGÊNCIA ARTIFICIAL? Tiago Alves de Oliveira 2 O QUE É INTELIGÊNCIA ARTIFICIAL? Área de pesquisa que tem como objetivo
Leia maisUm Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid
1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método
Leia maisJogo de Damas. Alunos: Sávio Mendes de Figueiredo Sômulo Nogueira Mafra
Jogo de Damas Alunos: Sávio Mendes de Figueiredo (savio@cos.ufrj.br) Sômulo Nogueira Mafra (somulo@cos.ufrj.br) Prof.: Inês dutra Inteligência artificial Coppe sistemas - UFRJ 1. Algumas Frases 2. Origens
Leia maisAprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisAlgoritmos de retrocesso
Algoritmos de retrocesso Algoritmos em que se geram escolhas que vão sendo testadas e eventualmente refeitas Problemas para os quais não existem algoritmos eficientes: retrocesso é melhor que pesquisa
Leia maisAlgoritmos de retrocesso
Algoritmos de retrocesso Algoritmos em que se geram escolhas que vão sendo testadas e eventualmente refeitas Problemas para os quais não existem algoritmos eficientes: retrocesso é melhor que pesquisa
Leia maisAprendizagem de Máquinas
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Aprendizagem de Máquinas DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Aprendizagem de Máquinas
Leia maisAprendizado por Reforço
Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão
Leia maisAprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR
Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível
Leia maisControle Ótimo - Aula 6 Exemplos e Exercícios
Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Apresentação da Disciplina Edirlei Soares de Lima O que é Inteligência Artificial? O que é Inteligência Artificial? Área de pesquisa que tem como
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisIntrodução à Inteligência Artificial. Procura em contextos competitivos jogos (cont.)
Introdução à Inteligência Artificial Procura em contextos competitivos jogos (cont.) Sumário n Vimos Jogos de 2 jogadores n Determinísticos, soma nula, informação perfeita Estratégia óptima minimax Algoritmos
Leia maisUFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística
UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística INE6105-Introdução à Robótica Prof. Mauro Roisemberg Arkin. Ronald C. Behavior-Based Robotics
Leia maisPMR Computação para Mecatrônica
PMR3201 - Computação para Mecatrônica Prof. Thiago de Castro Martins Prof. Newton Maruyama Prof. Marcos de S.G. Tsuzuki Monitor: Pietro Teruya Domingues Exercício Programa 2 - Versão 2017 Resolvendo o
Leia maisFabrício Jailson Barth BandTec
Introdução à Inteligência Artificial Fabrício Jailson Barth fabricio.barth@bandtec.com.br BandTec 1 o semestre de 2012 Objetivos e Sumário O que é Inteligência Artificial (IA)? Objetivos da IA. Influência
Leia maisEx. 1) Considere que a árvore seguinte corresponde a uma parte do espaço de estados de um jogo de dois agentes: f=7 f=7 f=1 f=2
LERCI/LEIC Tagus 2005/06 Inteligência Artificial Exercícios sobre Minimax: Ex. 1) Considere que a árvore seguinte corresponde a uma parte do espaço de estados de um jogo de dois agentes: Max Min f=4 f=7
Leia maisOTIMIZAÇÃO DE PORTFÓLIO PARA UMA CARTEIRA DE CRIPTOMOEDAS: UMA ABORDAGEM EM REINFORCEMENT LEARNING
OTIMIZAÇÃO DE PORTFÓLIO PARA UMA CARTEIRA DE CRIPTOMOEDAS: UMA ABORDAGEM EM REINFORCEMENT LEARNING Daniel Barra Ciências Econômicas Centro Sócio Econômico Tópicos Introdução ao trabalho Uma breve introdução
Leia maisPROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS
PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS LEIA ATENTAMENTE AS INSTRUÇÕES ABAIXO 1. Você recebeu do fiscal o seguinte material: (a) Este caderno, com o enunciado das 20 (vinte) questões
Leia maisa) Defina em Prolog iguais/1, um predicado que recebe um estado do jogo e que verifica que todas as pilhas têm o mesmo número de peças.
Introdução à Inteligência Artificial 2ª Época 29 Janeiro 2015 Nº Aluno: Nome Completo: Exame com consulta. Responda às perguntas nesta própria folha, nos espaços indicados. (I) O jogo do Nim (também chamado
Leia maislnteligência Artificial Introdução a Lógica Nebulosa (Fuzzy)
lnteligência Artificial Introdução a Lógica Nebulosa (Fuzzy) Sumário Introdução Fundamentos Operações básicas Representação do Conhecimento Modelo de Inferência Passos de Projeto de um Sistema Nebuloso
Leia maislnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning)
lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) Processo Decisório de Markov e Aprendizado por Reforço Quando falamos sobre Processo decisório de Markov e formalizamos
Leia maisJogos com Oponentes. espaço de busca muito grande tempo para cada jogada
Jogos com Oponentes Jogos com Oponentes ˆ Problemas de busca: não assumem a presença de um oponente ˆ Jogos: oponente INCERTEZA! ˆ Incerteza porque não se conhece as jogadas exatas do oponente e não por
Leia maisMODELAGEM E IMPLEMENTAÇÃO DE JOGOS APLICADOS A APRENDIZAGEM DE MÁQUINA 1
MODELAGEM E IMPLEMENTAÇÃO DE JOGOS APLICADOS A APRENDIZAGEM DE MÁQUINA 1 Jean Rafael Reus Da Silva 2, Rafael Zancan Frantz 3, Sandro Sawicki 4. 1 Projeto de Iniciação Científica. 2 Aluno do Curso de Graduação
Leia maisRedes Neurais (Inteligência Artificial)
Redes Neurais (Inteligência Artificial) Apresentação da Disciplina Edirlei Soares de Lima O que é Inteligência Artificial? O que é Inteligência Artificial? Área de pesquisa que tem
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL 1 o Semestre Assunto Aula 5 Algoritmos de Busca 2 de 27 Sumário Introdução Gerar e Testar Busca
Leia maisCTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro
CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...
Leia maisClassificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Leia maisDESENVOLVIMENTO DE TÉCNICA DE INTELIGENCIA ARTIFICIAL BASEADA EM REDE NEURAL FUZZY-CMAC PARA APLICAÇÃO EM CONTROLE DE MÁQUINAS DE PRODUÇÃO
DESENVOLVIMENTO DE TÉCNICA DE INTELIGENCIA ARTIFICIAL BASEADA EM REDE NEURAL FUZZY-CMAC PARA APLICAÇÃO EM CONTROLE DE MÁQUINAS DE PRODUÇÃO Thiago Coutinho Bueno, thiago_gnr95@hotmail.com João Sinohara
Leia mais3. Resolução de problemas por meio de busca
Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por
Leia maisAprendizagem por Reforço
Aprendizagem por Reforço Motivação! Como um agente aprende a escolher ações apenas interagindo com o ambiente? n n Muitas vezes, é impraticável o uso de aprendizagem supervisionada w Como obter exemplos
Leia maisInteligência Artificial
Repescagem Segundo Teste 31 de Janeiro de 2014 10:30-12:00 1.º Enunciado Esta prova é constituída por 5 enunciados separados. Preencha cuidadosamente o nome e número na primeira página de cada um dos enunciados.
Leia maisImplementação De Um Jogo Com Inteligência Artificial e Aprendizado Probabilístico
MAC 499 Trabalho de Formatura Supervisionado IME USP Implementação De Um Jogo Com Inteligência Artificial e Aprendizado Probabilístico Aluno: Rogério Cazelato Papetti Orientador: Marcelo Finger Co Orientador:
Leia maisRECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS
RECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS Eduarda Gonçalves Dias 1 ; Wanderson Rigo 2 ; Manassés Ribeiro 3 INTRODUÇÃO Os sistemas de visão artificial vêm auxiliando o
Leia maisAprendizado de Máquina Aplicado à Jogos
Aprendizado de Máquina Aplicado à Jogos Leandro Soriano Marcolino 14 de novembro de 2006 Inteligência Artificial para Jogos Introdução Por que utilizar técnicas de aprendizado? IA é um diferencial Capacidade
Leia maisSimulação do Jogo Tic-Tac-Toe com o uso de Técnicas de Inteligência Artificial
STIN Simpósio de Tecnologia da Informação da Região Noroeste do RS 163 Simulação do Jogo Tic-Tac-Toe com o uso de Técnicas de Inteligência Artificial Aluísio de Ávila, Angélica Caetane Pelizza, Bruno Barbosa
Leia maisResolução de Problemas. Hugo Barros
Resolução de Problemas Hugo Barros Resolução de Problemas Tópicos Conceitos Básicos Espaço de Estados Resolução de Problemas Dedica-se ao estudo e elaboração de algoritmos, capazes de resolver, por exemplo,
Leia maisAPLICAÇÃO DE REDES NEURAIS RECORRENTES EM AMBIENTES PARCIALMENTE OBSERVÁVEIS 1
APLICAÇÃO DE REDES NEURAIS RECORRENTES EM AMBIENTES PARCIALMENTE OBSERVÁVEIS 1 Eldair Fabrício Dornelles 2, Henrique Augusto Richter 3, Márcia Da Silva 4, Rogério Samuel De Moura Martins 5, Sandro Sawicki
Leia maisJaraguá Clube Campestre VI Campeonato Interno de Futsal -2015
Jaraguá Clube Campestre VI Campeonato Interno de Futsal -2015 INFANTIL REGULAMENTO: A Sub-diretoria de Futsal Infantil de Esportes do Jaraguá Clube Campestre realizará, no período de 30/08 a 14/11/2015.
Leia maisSOLUÇÕES HEURÍSTICAS PARA O JOGO DE DAMAS
Universidade Federal do Tocantins SOLUÇÕES HEURÍSTICAS PARA O JOGO DE DAMAS Diogo Rigo de Brito Guimarães Alexandre Tadeu Rossini da Silva Objetivo Implementar soluções heurísticas para o Jogo de Damas
Leia maisCEFET/RJ Disciplina: Inteligência Artificial Professor: Eduardo Bezerra Lista de exercícios 02
. CEFET/RJ Disciplina: Inteligência Artificial Professor: Eduardo Bezerra Lista de exercícios 02 Créditos: alguns itens desta lista são adaptados do material da disciplina CS188 - Artificial Intelligence
Leia maisUniversidade Federal do ABC Rua Santa Adélia, Bairro Bangu - Santo André - SP - Brasil CEP Telefone/Fax:
Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA MC3311 - Inteligência Artificial
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 1 Fundamentos de Inteligência Artificial 2 de 18 Sumário Introdução
Leia maisUSO DE JOGOS LÓGICOS APLICADOS A APRENDIZAGEM DE MÁQUINA. 1
USO DE JOGOS LÓGICOS APLICADOS A APRENDIZAGEM DE MÁQUINA. 1 Jean Rafael Reus Da Silva 2, Rogerio Samuel De Moura Martins 3, Renato Perez Ribas 4, Rafael Zancan Frantz 5, Sandro Sawicki 6. 1 Projeto de
Leia maisSemáforo Autor: Alan Parr. Avanço Autor: Dan Troyka, Material Um tabuleiro quadrado 7 por peças brancas e 14 peças negras.
Avanço Autor: Dan Troyka, 2000 Material Um tabuleiro quadrado 7 por 7. 14 peças brancas e 14 peças negras. Objectivo posição inicial Um jogador ganha se chegar com uma das suas peças à primeira linha do
Leia maisDepartamento de Ciência de Computadores - FCUP Primeiro Teste de Inteligência Artificial / Sistemas Inteligentes (Duração: 2 horas)
Departamento de Ciência de Computadores - FCUP Primeiro Teste de Inteligência Artificial / Sistemas Inteligentes (Duração: horas) Nome: Data: 7 de Abril de 016 1) Considere a aplicação da busca em profundidade
Leia maisJogos com Oponentes. Problemas de busca: não assumem a presença de um oponente
Sistemas Inteligentes, 13-14 1 Jogos com ponentes Problemas de busca: não assumem a presença de um oponente Jogos: oponente INCERTEZA! Incerteza porque não se conhece as jogadas exatas do oponente e não
Leia maisCEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra Lista de exercícios 03
. CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 03 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados
Leia maisTécnicas para Implementação de Jogos
Técnicas para Implementação de Jogos Solange O. Rezende Thiago A. S. Pardo Considerações gerais Aplicações atrativas para métodos de IA Formulação simples do problema (ações bem definidas) Ambiente acessível
Leia mais6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA
Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA MC5004 - APRENDIZADO DE MÁQUINA
Leia maisINTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 04 Prof. Vitor Hugo Ferreira
Universidade Federal Fluminense Escola de Engenharia Departamento de Engenharia Elétrica INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL Aula 04 Prof. Vitor Hugo Ferreira Busca em espaço de estados Estratégias
Leia maisUMA INTRODUÇÃO AOS ALGORITMOS GENETICOS
UMA INTRODUÇÃO AOS ALGORITMOS GENETICOS Uma visão geral dos GAs Um algoritmo genético é uma classe de algoritmo de busca. O algoritmo procura uma solução dentro de um espaço para um problema de otimização.
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL INTRODUÇÃO Prof. Thiago A. S. Pardo PRIMÓRDIOS DA IA Alan Turing Computer Machinery and Intelligence LISP Primeiro Projeto Japonês Segundo Projeto Japonês Surge o termo Artificial
Leia maisManual do Kiriki. Albert Astals Cid Eugene Trounev Tradução: Luiz Fernando Ranghetti
Albert Astals Cid Eugene Trounev Tradução: Luiz Fernando Ranghetti 2 Conteúdo 1 Introdução 5 2 Como jogar 6 3 Regras do jogo, estratégias e dicas 8 3.1 Regras do jogo........................................
Leia maisObjetivo: Vence o jogo o time que conseguir revelar primeiro todas as 3 Cartas de Identidade de 2 infiltrados pertencentes ao time adversário.
Autores: Zero Cheung & Dark Chan Agradecimentos Especiais a: Pedro Pereira & Hims Chu ASSUNTOS INTERNOS (2 a 8 Jogadores, Idade 14+, 20 min.) Um grupo de mafiosos infiltrou-se na força policial. No entanto,
Leia maisAnatomia do motor de um programa de xadrez. Hugo Vinicius M. D. Santana Orientador: José Coelho de Pina
Anatomia do motor de um programa de xadrez Hugo Vinicius M. D. Santana Orientador: José Coelho de Pina Conteúdo Objetivo O que é um motor de xadrez? Arquitetura Entrada e saída Representação do tabuleiro
Leia maisAgentes Inteligentes. Inteligência Artificial
Agentes Inteligentes (Capítulo 2 - Russell) Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Ambiente de Tarefas 3. Exemplos de ambiente de Tarefas 4. Propriedades
Leia mais1/ 36. Computação 1 - Python Aula 1 - Teórica: Introdução
1/ 36 Computação 1 - Python Aula 1 - Teórica: Introdução Conhecendo a turma Experiência com programação e uso do computador Quantos já programaram antes? Quais linguagens? Quantos tem computador em casa
Leia maisTópicos Especiais em Informática Fatec Indaiatuba
Prof. Dilermando Piva Jr. Fatec Indaiatuba Principais diferenças de um SBC e os convencionais Organização dos dados SBCs: métodos que fazem busca em um espaço de possíveis soluções e fazem uso intensivo
Leia maisTAPETE DAS LIGAÇÕES: UMA ABORDAGEM LÚDICA SOBRE AS LIGAÇÕES QUÍMICAS E SEUS CONCEITOS
TAPETE DAS LIGAÇÕES: UMA ABORDAGEM LÚDICA SOBRE AS LIGAÇÕES QUÍMICAS E SEUS CONCEITOS Patricia da Conceição Novaes(1); Eleneide Rodrigues de Moraes(1); Elionara Carolina Freire Cândido Barbosa (2); Cíntia
Leia maisCEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04
. CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 04 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados na disciplina
Leia maisInteligência Computacional para Jogos Eletrônicos
Inteligência Computacional para Jogos Eletrônicos Papéis da IA em Jogos Adversários Aliados Personagens de apoio NPC s (Non-player Character) Comentaristas Controle de câmera Geração de fases Nivelamento
Leia maisJogos com Oponentes. Problemas de busca: não assumem a presença de um oponente
istemas Inteligentes, 10-11 1 Jogos com ponentes Problemas de busca: não assumem a presença de um oponente Jogos: oponente INCERTEZA! Incerteza porque não se conhece as jogadas exatas do oponente e não
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Apresentação da Disciplina Edirlei Soares de Lima O que é Inteligência Artificial? Área de pesquisa que tem como objetivo buscar métodos ou dispositivos
Leia maisManual do KSquares. Matt Williams Revisor: Eugene Trounev Tradução: Luiz Fernando Ranghetti Tradução: André Marcelo Alvarenga
Matt Williams Revisor: Eugene Trounev Tradução: Luiz Fernando Ranghetti Tradução: André Marcelo Alvarenga 2 Conteúdo 1 Introdução 5 2 Como jogar 6 3 Regras do jogo, estratégias e dicas 7 3.1 Regras do
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL Primeiro Teste 29 de Outubro de 2011 17:00-18:30 Este teste é composto por 9 páginas contendo 11 perguntas. Para perguntas com resposta de escolha múltipla, respostas erradas com
Leia maisESTIMULAR O ENSINO-APRENDIZAGEM NA MATEMÁTICA ATRAVÉS DE JOGO LÚDICO
ESTIMULAR O ENSINO-APRENDIZAGEM NA MATEMÁTICA ATRAVÉS DE JOGO LÚDICO SAMPAIO, Raicléia¹; FERREIRA, André ² Luiz Instituto Federal de Educação, Ciência e Tecnologia do Amapá RESUMO: Este trabalho estimular
Leia maisAPLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1
APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1 Darlinton Prauchner 2, Rogério Martins 3, Edson Padoin 4. 1 Trabalho de conclusão de curso realiazado no curso de Ciência da
Leia maisSoluções da Lista de Exercícios Unidade 20
Soluções da Lista de Exercícios Unidade 0. As peças do dominó são formadas por dois, não necessariamente distintos, dos números 0,,, 3, 4, 5 e 6. Há CR 7 C 8 8 peças e há C 8 modos de selecionar duas peças
Leia maisREGRAS DOS JOGOS do CNJM15
REGRAS DOS JOGOS do CNJM15 Semáforo Autor: Alan Parr 8 peças verdes, 8 amarelas e 8 vermelhas partilhadas pelos jogadores. Ser o primeiro a conseguir uma linha de três peças da mesma cor na horizontal,
Leia maisSumário. Decisões óptimas em jogos (minimax) Cortes α-β Decisões imperfeitas em tempo real
Jogos Capítulo 6 Sumário Decisões óptimas em jogos (minimax) Cortes α-β Decisões imperfeitas em tempo real Jogos vs. Problemas de Procura Adversário imprevisível" necessidade de tomar em consideração todas
Leia maisUNIVERSIDADE LUSÍADA DE LISBOA. Programa da Unidade Curricular INTELIGÊNCIA ARTIFICIAL Ano Lectivo 2018/2019
Programa da Unidade Curricular INTELIGÊNCIA ARTIFICIAL Ano Lectivo 2018/2019 1. Unidade Orgânica Instituto de Engenharia e Tecnologias (1º Ciclo) 2. Curso Engenharia Informática 3. Ciclo de Estudos 1º
Leia maisInteligência Artificial (SI 214) Aula 6 Busca com Adversário. Prof. Josenildo Silva
Inteligência Artificial (SI 214) Aula 6 Busca com Adversário Prof. Josenildo Silva jcsilva@ifma.edu.br 2015 2012-2015 Josenildo Silva (jcsilva@ifma.edu.br) Este material é derivado dos slides de Hwee Tou
Leia maisGatos & Cães Simon Norton, 1970s
Gatos & Cães Simon Norton, 1970s Um tabuleiro quadrado 8 por 8. 28 peças gato e 28 peças cão (representadas respectivamente por peças negras e brancas). Ganha o jogador que realizar a última jogada. zona
Leia maisFundamentos de Teoria dos jogos
Fundamentos de Teoria dos jogos A Teoria dos Jogos é um ramo da matemática aplicada que estuda situações estratégicas em que jogadores escolhem diferentes ações na tentativa de melhorar seu retorno. Na
Leia maisTrabalho Prático 2 Mundo dos Blocos Alocação Dinâmica / Listas Encadeadas
Disciplina: Algoritmos e Estrutura de Dados I CIC / 9 Trabalho Prático Mundo dos Blocos Alocação Dinâmica / Listas Encadeadas Valor:,5 pontos (5% da nota total) Documentação não-latex: -, pontos Impressão
Leia maisProbabilidade Condicional
18 Probabilidade Condicional Sumário 18.1 Introdução....................... 2 18.2 Probabilidade Condicional............... 2 1 Unidade 18 Introdução 18.1 Introdução Nessa unidade, é apresentada mais uma
Leia maisImplementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC
Implementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC Ederson Costa dos Santos 1, Leandro Barjonas da Cruz Rodrigues 1, André Maurício Damasceno Ferreira 2 1
Leia mais