CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov

Tamanho: px
Começar a partir da página:

Download "CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov"

Transcrição

1 CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov Prof. Paulo André Castro pauloac@ita.br Sala 110, IEC-ITA

2 Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente pelo EE e a ação efetivamente escolhida pelo agente. Pares (corretos) de entrada/saída podem ser observados (ou demonstrados por um supervisor). Aprendizado por reforço O crítico comunica apenas uma indicação de desempenho (indicação de quão bom ou ruim é o estado resultante), por vezes de modo intermitente e apenas quando situações dramáticas são atingidas (feedback indireto, com retardo). Aprendizado não-supervisionado O crítico não envia nenhum tipo de informação ao EA, não há pistas sobre as saídas corretas (geralmente utiliza-se regularidades, propriedades estatísticas dos dados sensoriais) Busca-se encontrar padrões ou estruturas / agrupamentos nos dados. Inclui por exemplo técnicas de clusterização 2/80

3 Decisões Sequenciais em Ambientes Estocásticos O resultado imediato (próximo estado) não depende apenas do estado atual e da ação do agente, outros fatores influenciam de modo não plenamente conhecido (estocástico) O estado atual e a ação tomada definem um conjunto de possíveis estados sucessores com as respectivas probabilidades O agente tem como objetivo maximizar seu retorno acumulado a longo prazo Decidir por um caminho ruim agora é plenamente aceitável se no futuro houver recompensa significativa 3/80

4 Problema de Decisão Sequencial O problema de decisão sequencial ocorre quando a cada passo o agente deve: 1. Observa o estado do sistema; 2. Escolhe e realiza uma ação; (Sistema evolui para um novo estado) 3. Observa um reforço imediato 4. Repetir os passos 1 3 Assume-se tempo discreto 4/80

5 Example 5/80

6 Exemplo - 2 6/80

7 Processo Decisório de Markov (Markov Decision Process) Método de decisão para problema de decisão sequencial pode ser modelado como um modelo de transição Markoviano e reforços aditivos O qualificador Markov significa que as transições dependem de um subconjunto dos últimos estados e da ação selecionada. 7/80

8 Formal Definition of a MDP 8/80

9 Formal definition of a MDP - 2 9/80

10 Formal definition of a MDP /80

11 Exemplo 1: Controle de Inventário Problema: comprar uma quantidade de um certo produto a intervalos regulares (em um total de N intervalos) de modo a satisfazer uma certa demanda Estado: s k = estoque no começo do período k Ação: a k = compra feita no começo do período k Uma perturbação aleatória w k = demanda no período k, respeitando uma certa distribuição de probabilidade Reforço r k = r(s k ) + ca k, onde r(s k ) é o custo de estocar s k unidades do produto no período k e c é o custo unitário do produto comprado /80

12 Exemplo 1: Controle de Inventário Evolução do estado: s k+1 = s k + a k - w k Função de custo a ser minimizada: N 1 ( ) E r( s ) + ( r( s ) + ca ) V s o = N k= 0 k k 12/80

13 Exemplo 2: Pêndulo Invertido Problema: controlar um pêndulo invertido exercendo forças +F ou -F sobre a base do carrinho (controle bang-bang). Controlar significa não permitir que a barra caia +F -F 13/80

14 Exemplo 2: Pêndulo Invertido Estado: quádrupla Ação a k : +F ou -F xt, x t, θt, θ t Reforço: -1 em caso de falha, senão 0. ( ) Evolução do estado: s k+1 = f(s k, a k ) (?) Possível função recompensa a ser maximizada: V = k s o E γ r t=0 ( ) desconto temporal γ < 1: POR QUÊ? t 14/80

15 O que é uma solução para um Problema de Markov? Uma sequencia de ações (plano) pode resolver um ambiente Estocástico? Políticas (ou Estratégia) versus Planos Formalização 15/80

16 O que é uma solução para um Problema de Markov? Exemplo: Controle de Movimentação de robô modelado como um PDM No início, robô está em l1 (estado s 1 ) Objetivo é levar o robô até l4 (estado s 4 ) Robô pode deslizar ao tentar se mover de uma posição para outra 16/80

17 Exemplo MDP 17/80

18 MDP Robot /80

19 MDP Robot /80

20 MDP Robot /80

21 Seqüencia não funciona É necessário uma função que mapeie estados a ações. Esta função é chamada de estratégia ou politica(policy) 21/80

22 Policies for the Grid World 22/80

23 Exemplos de Políticas Problema 2 23/80

24 Initial state It is possible to define a probability distribution over states for the first, but for simplicity. Let s define s 0 24/80

25 History: sequence of states 25/80

26 History: sequence of states /80

27 History: sequence of states /80

28 History: sequence of states -4 28/80

29 Qualidade de Políticas Em um PDM com transicões não deterministicas, Uma política pode garantir alcançar sempre o estado objetivo em um determinado número de passos ou custo? Como definir quando uma política é melhor que outra? Chegar ao estado objetivo é o bastante? É necessário uma forma de medir a qualidade de uma dada política. Como? 29/80

30 Qualidade de Políticas - 2 Qual o valor de uma política? Valores são na verdade associados a históricos Mas como vimos, políticas induzem uma distribuição de probabilidades sobre históricos. Assim Essa qualidade (ou utilidade) pode ser medida através do valor esperado da adoção de uma política. 30/80

31 Política Ótima Pode-se definir política ótima (π*) como a política com o maior valor esperado. Pergunta: Pode-se afirmar que ao adotar um política ótima um agente A sempre obterá maior valor que outro agente B com uma política não ótima em um dado período de tempo? 31/80

32 Reinforcements can be negative (cost) or positive (reward) 32/80

33 Algum problema com recompensa infinita? 33/80

34 Discounted Reinforcements Time should influence the value of a reinforcement?. A 100 dollars reward now or 100 dollars reward six months from now are the same? Problems with infinitive time require discounted reinforcements! Why? 34/80

35 Value with discounted reinforcement 35/80

36 Otimalidade de Políticas e Horizonte A maximização do valor esperado é o critério mais utilizado para determinar otimização de políticas. Entretanto, isso é dependente do número de passos (decisões) que o agente dispõe para agir. Isto é comumente chamado de horizonte de tomada de decisão. O horizonte pode ser finito ou infinito 36/80

37 MDP de Horizonte Finito e Políticas Estacionárias 37/80

38 Stationary policies and Infinite Horizons 38/80

39 Policy Value with Infinite Horizon 39/80

40 Política Ótima Já vimos que uma política ótima (π * ) é aquele com maior valor esperado, então podemos definir: Como encontrar uma politica ótima dado um MDP? 40/80

41 An algorithm to calculate the optimal policy 41/80

42 Value Iteration Algorithm 42/80

43 Value Iteration Algorithm - 2 or 43/80

44 Exemplo Deterministico Função de Valor 44/80

45 Exemplo /80

46 Calculando V(s) Considerando r(s,a) e fator de desconto igual a 1 46/80

47 Outro Exemplo Gridworld 47/80

48 Discussão da Iteração de Valor Algoritmo de Iteração de valor computa um novo valor a cada iteração e escolhe a política baseado nesses valores Este algoritmo converge em número de iterações em tempo polinomial do número de estados O número de estados pode ser muito grande em problemas reais e É necessário examinar o espaço inteiro em cada iteração. Por tal razão, o algoritmo demanda significativa quantidade de tempo e espaço para problemas com grande número de de estados Há algoritmos alternativos como iteração de política Além disso, a função de transição propabilística p e os retornos devem ser conhecidos, mas muitas vezes não é este o caso! 48/80

49 Processo Decisório de Markov e Aprendizado por reforço

50 Markov Decision Process and Reinforcement Learning 50/80

51 Two options: Learn a model (p,r) or solve directly 51/80

52 Parameter Estimation 52/80

53 Problems in Parameter estimation 53/80

54 Estimate value function directly 54/80

55 Exploitation (Explotação) vs Exploration (Exploração) 55/80

56 Armed bandit (Caça-níqueis) 57/80

57 Opções. Agir aleatoriamente? Mudar de máquina a cada vez que perder? Melhor que aleatório, mas não é ótimo Estimar o retorno de cada máquina através de contagem e depois permanece na melhor?. Como estimar? 58/80

58 Estimation: Frequentism Average Reward: if I choose an action a, K a times and receive the rewards r 1, r 2, r k then I can estimate the reward It is possible to prove that as k grows it converges to the expected value of reward. How to define the actions? 59/80

59 Como selecionar ações? 60/80

60 Strategies 61/80

61 Alguns Resultados com E-greedy 62/80

62 Q Function: value of the pair state-action Let s take an action a and then continue optimally 64/80

63 Q Function: value of the pair state-action We will see an algorithm to estimate Q* 65/80

64 Exemplo 66/80

65 Um algoritmo para o aprendizado da Função Q (Q-Learning) O algoritmo Q-Learning (Watkins, 1989) baseia-se em simulações de Monte Carlo e no algoritmo Robbins-Monro Simulações Monte-Carlo baseiam-se na amostragem de estados para estimar seus valores (abordagem força bruta) Algoritmo Robbins-Monro permite aprender uma função onde um de seus parâmetros é uma variável aleatória com distribuição de probabilidade conhecida, utilizando uma taxa de aprendizagem α que se altera ao longo do tempo segundo certas condições. Maiores informações sobre a dedução do Q-Learning, Monte Carlo e Robbins-Monro podem ser obtidas em: Reinforcement Learning: An Introduction, Sutton,R. and Barko,A. MIT Press /80

66 Q-Learning 68/80

67 Learning rate and convergence 69/80

68 Guaranteed to converge to Q* if 70/80

69 Um exemplo bastante simples 72/80

70 Exemplos de aplicações 73/80

71 Problemas com Q-Learning 74/80

72 Problemas com Q-Learning /80

73 Conclusões sobre Aprendizado por Reforço Aprendizado por reforço permite que se aprenda a política ótima, mesmo sem saber previamente a função de probabilidade de transição (p) ou a função de recompensa imediata (r) Aprendizado por reforço tem dificuldades em lidar com grande número de estados ou grandezas contínuas, vários algoritmos alternativos (sarsa, por exemplo) tentam obter treinamento mais rápido Aproximações da função Q (redes neurais) ou mais recentemente Deep Reinforcement Learning (DQN) tem sido pesquisados com resultados promissores... Mais referências: Rorcementeinf Learning: An Introduction, Sutton,R. and Barko,A. MIT Press Bertsekas,D. and Tsitsiklis, J.N. Neurodynamic programming. Athena Scientifc. Belmont. Massachusetts /80

74 Exercício: Modele o problema abaixo como um problema de aprendizado por reforço Cada célula representa uma possível localização para um robô. O robô inicia em uma posição qualquer do tabuleiro, escolhida aleatoriamente com distribuição uniforme entre as células. As células (2,3) e (6,2) tem ouro, o que significa um retorno imediato de +100 utils e reinício do jogo. Ao entrar em uma célula habitada pelo monstro (Wumpus) há um retorno imediato de -100 e também reinício do jogo. Ao entrar em uma célula com poço (pit) o reforço imediato é de -50 mas não há reinício do jogo. Há um custo de movimento de -1 a cada movimento. 79/80

75 Uma possível Modelagem Estados = [[(1,1)..(1,4)], [(2,1)..(2,4)] [(8,1)..(8,4)]], 32 estados Ações= [Up,Left,Right,Down] p: Para cada ação, 0,6 no sentido comandado e 0,4 para a direita. Exceto para as células (2,3), (6,2) e (1,3) cuja transição é ir para qualquer outro estado com probabilidade 1/32 R: (2,3) e (6,2) tem retorno +100, (1,3) tem retorno de e os demais retorno /80

CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov

CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov CES -161 - Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov Prof. Paulo André Castro www.comp.ita.br/~pauloac pauloac@ita.br Sala 110, IEC-ITA Aprendizado - paradigmas Aprendizado

Leia mais

lnteligência Artificial Introdução ao Processo Decisório de Markov

lnteligência Artificial Introdução ao Processo Decisório de Markov lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente

Leia mais

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning)

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) Processo Decisório de Markov e Aprendizado por Reforço Quando falamos sobre Processo decisório de Markov e formalizamos

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço SCC5865-Robótica Roseli A F Romero Introdução O modelo padrão de aprendizado por reforço Aprendizado por Reforço Formalmente, o modelo consiste de: Um conjunto discreto de estados

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão

Leia mais

Aprendizagem por Reforço

Aprendizagem por Reforço Aprendizagem por Reforço Motivação! Como um agente aprende a escolher ações apenas interagindo com o ambiente? n n Muitas vezes, é impraticável o uso de aprendizagem supervisionada w Como obter exemplos

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 24 Aprendizado Por Reforço Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra Lista de exercícios 03

CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra Lista de exercícios 03 . CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 03 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 18 Aprendizado Por Reforço Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

IA - Planejamento II

IA - Planejamento II PO IA - Planejamento II Professor Paulo Gurgel Pinheiro MC906A - Inteligência Articial Instituto de Computação Universidade Estadual de Campinas - UNICAMP 16 de Novembro de 2010 1 / 48 PO http://www.ic.unicamp.br/

Leia mais

Inteligência Artificial

Inteligência Artificial Aprendizagem por que? lnteligência Artificial Aprendizagem em IA Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado permite lidar com

Leia mais

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Aprendizado em IA Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Tópicos Agentes baseados em aprendizado Aprendizado indutivo Árvores de decisão Método ID3 Aprendizado em redes neurais

Leia mais

lnteligência Artificial Aprendizagem em IA

lnteligência Artificial Aprendizagem em IA lnteligência Artificial Aprendizagem em IA 1 Aprendizagem por que? Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado permite lidar com

Leia mais

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Explícito do Aprendiz Marcus Vinícius Carvalho Guelpeli Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica São José

Leia mais

Reinforcement Learning

Reinforcement Learning Reinforcement Learning (Aprendizado por Reforço) Karla Figueiredo DEE/PUC-Rio 1 Sumário Introdução Motivação Histórico Conceitos básicos Fundamentos Teóricos Processos de Decisão de Markov Propriedade

Leia mais

Aprendizado por reforço em lote para o problema de tomada de decisão em processos de venda

Aprendizado por reforço em lote para o problema de tomada de decisão em processos de venda Aprendizado por reforço em lote para o problema de tomada de decisão em processos de venda Denis Antonio Lacerda e Leliane Nunes de Barros Departamento de Ciência da Computação, IME/USP denis@ime.usp.br,

Leia mais

Inteligência Artificial: 2. Agentes Inteligentes. Capítulo 2 Russell e Norvig

Inteligência Artificial: 2. Agentes Inteligentes. Capítulo 2 Russell e Norvig Inteligência Artificial: 2. Agentes Inteligentes Capítulo 2 Russell e Norvig Agentes Um agente é algo capaz de perceber seu ambiente por meio de sensores e de agir sobre esse ambiente por meio de atuadores.

Leia mais

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid 1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método

Leia mais

Aprendizado por Reforço usando Aproximação

Aprendizado por Reforço usando Aproximação Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade

Leia mais

SEMÁFORO INTELIGENTE UMA APLICAÇÃO DE APRENDIZAGEM POR REFORÇO

SEMÁFORO INTELIGENTE UMA APLICAÇÃO DE APRENDIZAGEM POR REFORÇO Anais do XIX Congresso Brasileiro de Automática, CBA 2012. SEMÁFORO INTELIGENTE UMA APLICAÇÃO DE APRENDIZAGEM POR REFORÇO GABRIEL M. COSTA, GUILHERME S. BASTOS Centro de Referência em Tecnologias da Informação,

Leia mais

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Avaliando Hipóteses George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Pontos importantes Erro da Amostra e Erro Real Como Calcular Intervalo de Confiança Erros de hipóteses Estimadores Comparando

Leia mais

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Cadeias de Markov Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71 Cadeias de Markov Seja X 0, X 1,...

Leia mais

CTC-17 Inteligência Artificial Problema de Satisfação de Restrições. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Problema de Satisfação de Restrições. Prof. Paulo André Castro CTC-17 Inteligência Artificial Problema de Satisfação de Restrições Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Conceituação Aplicando busca genérica a PSRs

Leia mais

5 Decisão Sob Incerteza

5 Decisão Sob Incerteza 5 Decisão Sob Incerteza Os problemas de decisão sob incerteza são caracterizados pela necessidade de se definir valores de variáveis de decisão sem o conhecimento prévio da realização de parâmetros que,

Leia mais

Programa: Ciência da Computação Orientadora: Prof ạ Dr ạ Leliane Nunes de Barros

Programa: Ciência da Computação Orientadora: Prof ạ Dr ạ Leliane Nunes de Barros Aprendizado por reforço em lote: um estudo de caso para o problema de tomada de decisão em processos de venda Denis Antonio Lacerda Dissertação apresentada ao Instituto de Matemática e Estatística da Universidade

Leia mais

Algoritmos Genéticos e Evolucionários

Algoritmos Genéticos e Evolucionários Algoritmos Genéticos e Evolucionários Djalma M. Falcão COPPE/UFRJ PEE e NACAD falcao@nacad.ufrj.br http://www.nacad.ufrj.br/~falcao/ http://www.nacad.ufrj.br/~falcao/ag/ag.htm Resumo do Curso Introdução

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neurais (Inteligência Artificial) Aula 02 Agentes Inteligentes Edirlei Soares de Lima Agentes Inteligentes Um agente é algo capaz de perceber seu ambiente por meio de sensores

Leia mais

Uso de Heurísticas para a Aceleração do Aprendizado por

Uso de Heurísticas para a Aceleração do Aprendizado por Uso de Heurísticas para a Aceleração do Aprendizado por Reforço Reinaldo A. C. Bianchi 1,2, Anna H. R. Costa 1 1 Laboratório de Técnicas Inteligentes Escola Politécnica da Universidade de São Paulo Av.

Leia mais

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 11 Aprendizado de Máquina Edirlei Soares de Lima Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais

Inteligência Artificial Agentes Inteligentes

Inteligência Artificial Agentes Inteligentes Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04 . CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 04 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados na disciplina

Leia mais

2 Aprendizado de Máquina

2 Aprendizado de Máquina 2 Aprendizado de Máquina Desde que os computadores foram inventados, sempre nos perguntamos se eles poderiam ser feitos para aprender. Se pudéssemos compreender como programá-los para aprender e melhorar

Leia mais

lnteligência Artificial Introdução a Aprendizado de Máquina

lnteligência Artificial Introdução a Aprendizado de Máquina lnteligência Artificial Introdução a Aprendizado de Máquina 1 Aprendizado por que? Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado

Leia mais

Tópicos Especiais em Qualidade

Tópicos Especiais em Qualidade Tópicos Especiais em Qualidade Processos estocásticos, Distribuições de probabilidade e Ajustamento de dados Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando

Leia mais

Algoritmos Probabilísticos

Algoritmos Probabilísticos Algoritmos Probabilísticos Gilson Evandro Fortunato Dias Orientador: José Coelho de Pina Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC0499 p.

Leia mais

Uso de Heurísticas para a Aceleração do Aprendizado por Reforço

Uso de Heurísticas para a Aceleração do Aprendizado por Reforço Proceedings of the International Joint Conference IBERAMIA/SBIA/SBRN 2006-5th Best MSc dissertation/phd thesis contest (CTDIA 2006), Ribeirão Preto, Brazil, October 23 28, 2006. CD-ROM. ISBN 85-87837-11-7

Leia mais

Avaliação de Desempenho

Avaliação de Desempenho Avaliação de Desempenho Aula passada Métricas, Técnicas, Erros Aula de hoje Conceitos importantes de probabilidade Como fazer a análise de desempenho? Modelos Matemáticos Modelos de Simulação Como fazer

Leia mais

MODELO MARKOVIANO DE DECISÃO COM INFORMAÇÃO PARCIAL PARA OTIMIZAÇÃO DE UM SISTEMA DE FILAS MMPP/PH/c/N

MODELO MARKOVIANO DE DECISÃO COM INFORMAÇÃO PARCIAL PARA OTIMIZAÇÃO DE UM SISTEMA DE FILAS MMPP/PH/c/N MODELO MARKOVIANO DE DECISÃO COM INFORMAÇÃO PARCIAL PARA OTIMIZAÇÃO DE UM SISTEMA DE FILAS MMPP/PH/c/N Solon Venâncio de Carvalho Rita de Cássia Meneses Rodrigues Laboratório Associado de Computação e

Leia mais

APRENDIZADO POR REFORÇO MULTIAGENTE MULTIOBJETIVO ACELERADO POR HEURÍSTICAS APLICADO AO PROBLEMA DA PRESA E PREDADOR Leonardo A. Ferreira, Carlos H. C. Ribeiro, Reinaldo A. C. Bianchi Centro Universitário

Leia mais

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Introdução Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 19 Introdução

Leia mais

USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO

USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO DANILO H. PERICO, REINALDO A. C. BIANCHI Centro Universitário da FEI, Av. Humberto de Alencar Castelo Branco,

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 14 Aprendizado de Máquina Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais

21/02/17. Aprendendo pelas observações. PCS 5869 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa

21/02/17. Aprendendo pelas observações. PCS 5869 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa PCS 5869 lnteligência Ar9ficial Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa Aprendizagem Indu9va Aprendendo pelas observações Idéia: percepção deve ser usada não somente para a atuação

Leia mais

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS ROTEIRO DA APRESENTAÇÃO MODELOS ESTOCÁSTICOS APLICADOS À INDÚSTRIA Prof. Lupércio França Bessegato Departamento de Estatística Universidade Federal de Juiz de Fora lupercio.bessegato@ufjf.edu.br www.ufjf.br/lupercio_bessegato

Leia mais

Problema do Caminho Mínimo

Problema do Caminho Mínimo Departamento de Engenharia de Produção UFPR 63 Problema do Caminho Mínimo O problema do caminho mínimo ou caminho mais curto, shortest path problem, consiste em encontrar o melhor caminho entre dois nós.

Leia mais

Aprendizado por Reforço Multiagente: Uma Avaliação de Diferentes Mecanismos de Recompensa para o Problema de Aprendizado de Rotas

Aprendizado por Reforço Multiagente: Uma Avaliação de Diferentes Mecanismos de Recompensa para o Problema de Aprendizado de Rotas UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA PROGRAMA DE PÓS-GRADUAÇÃO EM COMPUTAÇÃO RICARDO GRUNITZKI Aprendizado por Reforço Multiagente: Uma Avaliação de Diferentes Mecanismos

Leia mais

Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente

Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Modalidade Artigo Completo Marcus V. C. Guelpeli 1, Carlos H. C. Ribeiro 1 e Nizam Omar 2 1 Divisão de

Leia mais

Treinamento Condicionado Através de Esquemas de Transição

Treinamento Condicionado Através de Esquemas de Transição Proceedings of the IV Brazilian Conference on Neural Networks - IV Congresso Brasileiro de Redes Neurais pp. 361-366, July 20-22, 1999 - ITA, São José dos Campos - SP - Brazil Treinamento Condicionado

Leia mais

PROCESSOS ESTOCÁSTICOS

PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos

Leia mais

APRENDIZAGEM POR REFORÇO PARA TIMES DE ROBÔS. Carlos Henrique Costa Ribeiro PQ Lucas Heitzmann Gabrielli IC

APRENDIZAGEM POR REFORÇO PARA TIMES DE ROBÔS. Carlos Henrique Costa Ribeiro PQ Lucas Heitzmann Gabrielli IC PRENDIZGEM POR REFORÇO PR TIMES DE ROÔS arlos Henrique osta Ribeiro PQ Lucas Heitzmann Gabrielli I Resumo: Times de robôs autônomos podem propiciar uma forma mais eficiente de solução de tarefas complexas

Leia mais

PCC104 - Projeto e Análise de Algoritmos

PCC104 - Projeto e Análise de Algoritmos PCC104 - Projeto e Análise de Algoritmos Marco Antonio M. Carvalho Departamento de Computação Instituto de Ciências Exatas e Biológicas Universidade Federal de Ouro Preto 1 de novembro de 2018 Marco Antonio

Leia mais

decisão em comparação com a curva para árvores de decisão.

decisão em comparação com a curva para árvores de decisão. function Decision-Learning(examplos) returns a decision list or failure if examples is empty then return the trivial decision list t a test that matches a nonempty subset examples t of examples such that

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Análise da dados através de gráficos Introdução a Simulação Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Análise da dados através de gráficos Introdução a Simulação Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes

Leia mais

Redes Complexas Aula 3

Redes Complexas Aula 3 Redes Complexas Aula 3 Aula passada Caracterizando redes grandes Grau Distâncias Clusterização Aula de hoje Características de redes reais Centralidade de vértices Betweeness, Closeness Três Importantes

Leia mais

24/11/13. Aprendendo pelas observações. PCS 2428 / PCS 2059 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa

24/11/13. Aprendendo pelas observações. PCS 2428 / PCS 2059 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa PCS 2428 / PCS 2059 lnteligência Ar9ficial Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa Aprendizagem Indu9va Aprendendo pelas observações Idéia: percepção deve ser usada não somente

Leia mais

CENTRO UNIVERSITÁRIO DA FEI DANILO HERNANI PERICO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO

CENTRO UNIVERSITÁRIO DA FEI DANILO HERNANI PERICO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO CENTRO UNIVERSITÁRIO DA FEI DANILO HERNANI PERICO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO São Bernardo do Campo 2012 DANILO HERNANI PERICO Uso de

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Somas aleatórias Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes Números Simulação de Sistemas Discretos É

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Fabrício Olivetti de França 07 de Junho de 2018 1 Heurísticas e Meta-Heurísticas 2 Heurística Heurística, derivada do grego encontrar ou descobrir, são técnicas para encontrar a

Leia mais

3. Otimização sob Incerteza

3. Otimização sob Incerteza 3. Otimização sob Incerteza Os problemas de otimização tentam resolver, de forma eficiente, situações do mundo real por meio de modelos matemáticos que utilizam parâmetros incertos. Pode-se encontrar na

Leia mais

CLASSIFICAÇÃO DE PROBLEMAS SEQÜENCIAIS DE MÚLTIPLOS ESTÁGIOS

CLASSIFICAÇÃO DE PROBLEMAS SEQÜENCIAIS DE MÚLTIPLOS ESTÁGIOS Encontro Internacional de Produção Científica Cesumar 23 a 26 de outubro de 2007 CLASSIFICAÇÃO DE PROBLEMAS SEQÜENCIAIS DE MÚLTIPLOS ESTÁGIOS João Candido Bracarense 1, Juliano Rodrigo Lamb 2 RESUMO: A

Leia mais

Modelo de previsão de partida de ônibus utilizando cadeias de Markov de alcance variável

Modelo de previsão de partida de ônibus utilizando cadeias de Markov de alcance variável Modelo de previsão de partida de ônibus utilizando cadeias de Markov de alcance variável Maria das Vitórias Alexandre Serafim 1 Manuel Rivelino Gomes de Oliveira 2 Divanilda Maia Esteves 3 Paulo José Duarte-Neto

Leia mais

15 29, , , , , , , , , ,55

15 29, , , , , , , , , ,55 2 Conceitos Básicos Neste capítulo, introduzimos alguns conceitos relevantes para o nosso trabalho. Inicialmente, na seção 2.1, detalhamos o funcionamento do mercado financeiro, definindo alguns termos

Leia mais

Resolução de Problemas através de Busca. Prof. Júlio Cesar Nievola PPGIA - PUC-PR

Resolução de Problemas através de Busca. Prof. Júlio Cesar Nievola PPGIA - PUC-PR Resolução de Problemas através de Busca Prof. Júlio Cesar Nievola PPGIA - PUC-PR Solução de Problemas Sistemas inteligentes devem agir de maneira a fazer com que o ambiente passe por uma seqüência de estados

Leia mais

UAISOCCER2D - TEAM DESCRIPTION PAPER CBR 2013

UAISOCCER2D - TEAM DESCRIPTION PAPER CBR 2013 UAISOCCER2D - TEAM DESCRIPTION PAPER CBR 2013 André Luiz Carvalho Ottoni, Erivelton Geraldo Nepomuceno, Marcos Santos de Oliveira, Rubisson Duarte Lamperti, Eduardo Bento Pereira, Emerson Santos Silva,

Leia mais

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada.

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada. Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada [alessandro@psr-inc.com] Conteúdo Introdução Estimação não paramétrica (Kernel density) Transformação

Leia mais

TE802 Processos Estocásticos em Engenharia

TE802 Processos Estocásticos em Engenharia TE802 Processos Estocásticos em Engenharia Cadeias de Markov 20/11/2017 Andrei Markov Em 1907, Andrei Markov iniciou um estudo sobre processos onde o resultado de um experimento depende do resultado de

Leia mais

Inteligência Artificial - IA. Resolução de problemas por meio de busca

Inteligência Artificial - IA. Resolução de problemas por meio de busca Resolução de problemas por meio de busca 1 Agente reativo - definido por ação reação Agente de resolução de problemas (ou baseado em objetivos) encontra sequencias de ações que leva ao estado desejável.

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística INE6105-Introdução à Robótica Prof. Mauro Roisemberg Arkin. Ronald C. Behavior-Based Robotics

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

Avaliação Quantitativa de Sistemas

Avaliação Quantitativa de Sistemas Avaliação Quantitativa de Sistemas Contexto A Avaliação Quantitativa de Sistemas permite a avaliação de sistemas antes mesmo da sua implementação física. Dessa forma, é possível avaliar um sistema projetado

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 02 Agentes Inteligentes Edirlei Soares de Lima Agentes Inteligentes Um agente é algo capaz de perceber seu ambiente por meio de sensores e de

Leia mais

Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio

Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Modelação e Simulação 2011/12 Trabalho de Laboratório nº4 Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Objectivo Após realizar este trabalho, o aluno deverá ser capaz de Construir um

Leia mais

Uma Introdução à Busca Tabu André Gomes

Uma Introdução à Busca Tabu André Gomes Uma Introdução à Busca Tabu André Gomes Departamento de Ciência da Computação, Instituto de Matemática e Estatística, Universidade de São Paulo, SP, Brasil Novembro de 2009 INTRODUÇÃO Método de Busca Local

Leia mais

3 Planejamento da Operação de Médio Prazo

3 Planejamento da Operação de Médio Prazo 3 Planejamento da Operação de Médio Prazo 3.1. Considerações Iniciais Diversos métodos têm sido propostos para a solução do problema de planejamento energético de médio prazo de sistemas hidrotérmicos

Leia mais

Modelagem de Sistemas Complexos para Políticas Públicas. Patrícia A. Morita Sakowski 29/09/2017

Modelagem de Sistemas Complexos para Políticas Públicas. Patrícia A. Morita Sakowski 29/09/2017 Modelagem de Sistemas Complexos para Políticas Públicas Patrícia A. Morita Sakowski 29/09/2017 Motivador Apresentar o que são modelos baseados em sistemas complexos e discutirmos se é possível utilizá-los

Leia mais

Inteligência Artificial. Agentes computacionais. Aula IV Cap.2 Russell e Norvig (continuação)

Inteligência Artificial. Agentes computacionais. Aula IV Cap.2 Russell e Norvig (continuação) Universidade Estadual do Oeste do Paraná Curso de Bacharelado em Ciência da Computação Inteligência Artificial Agentes computacionais Aula IV Cap.2 Russell e Norvig (continuação) Roteiro: Russell e Norvig,

Leia mais

Processo de Decisão Markoviano com Transição Valorada por Conjunto modelado como um Jogo Alternado de Soma Zero

Processo de Decisão Markoviano com Transição Valorada por Conjunto modelado como um Jogo Alternado de Soma Zero Processo de Decisão Markoviano com Transição Valorada por Conjunto modelado como um Jogo Alternado de Soma Zero Leliane Nunes de Barros 1, Fábio de Oliveira Franco 1 e Karina Valdivia Delgado 2 1 Instituto

Leia mais

Modelagem e Avaliação de Desempenho

Modelagem e Avaliação de Desempenho Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead

Leia mais

Tópicos Especiais em Informática

Tópicos Especiais em Informática Dilermando Piva Jr Fatec Indaiatuba Russell & Norvig (2003) atuadores Agentes Inteligentes 2 Incluem seres humanos, robôs, termostatos etc. A função do agente mapeia qualquer seqüência de percepções específica

Leia mais

EEL891 Aprendizado de Máquina Prof. Heraldo L. S. Almeida. Introdução

EEL891 Aprendizado de Máquina Prof. Heraldo L. S. Almeida. Introdução 1 Introdução 1. Introdução 1.1. O que é Aprendizado de Máquina? 1.2. Por que Machine Learning é o Futuro? 1.3. Algumas Aplicações 1.4. Tipos de Aprendizado 1. Introdução 17 1. Introdução 1.1. O que é Aprendizado

Leia mais

Capítulo 4 Secção 1. Livro

Capítulo 4 Secção 1. Livro Procura Local Capítulo 4 Secção 1 Livro Procura local Algorítmos de procura local Hill-climbing Simulated annealing Local beam Genetic algorithms Resumo Procura Sistemática No capítulo 3, analisamos estratégias

Leia mais

Agentes Inteligentes

Agentes Inteligentes Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Agentes Inteligentes Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Processos de Decisão de Markov

Processos de Decisão de Markov Universidade Federal do ABC Bacharelado em Ciência e Tecnologia Disciplina de Inteligência Artificial - Prof. Jerônimo Pellegrini André Filipe de Moraes Batista DIURNO 2008.2 Processos de Decisão de Markov

Leia mais

Cap. 2. Introdução a Teoria de Utilidade e Teoria de Jogos

Cap. 2. Introdução a Teoria de Utilidade e Teoria de Jogos Cap. 2. Introdução a Teoria de Utilidade e Teoria de Jogos Teoria de Utilidade Como as pessoas escolhem e como formalizar o processo? Preferências Racionais Utilidade Utilidade x Dinheiro Utilidades multiatributos

Leia mais

Finanças Corporativas. Análise de Sensibilidade. Métodos de Avaliação de Risco. Motochoque Ltda. Análise de Risco

Finanças Corporativas. Análise de Sensibilidade. Métodos de Avaliação de Risco. Motochoque Ltda. Análise de Risco Finanças Corporativas Análise de Risco Prof. Luiz Brandão brandao@iag.puc-rio.br IAG PUC-Rio Métodos de Avaliação de Risco Análise de Cenário Esta metodologia amplia os horizontes do FCD obrigando o analista

Leia mais

Controle Preditivo com Aprendizado por Reforço para Produção de Óleo em Poços Inteligentes

Controle Preditivo com Aprendizado por Reforço para Produção de Óleo em Poços Inteligentes Alvaro Gustavo Talavera Lopez Controle Preditivo com Aprendizado por Reforço para Produção de Óleo em Poços Inteligentes Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção

Leia mais

FUNDAÇÃO GETULIO VARGAS ESCOLA DE ECONOMIA DE SÃO PAULO DERIVAÇÃO DE MODELOS DE TRADING DE ALTA FREQUÊNCIA EM JUROS UTILIZANDO APRENDIZADO POR REFORÇO

FUNDAÇÃO GETULIO VARGAS ESCOLA DE ECONOMIA DE SÃO PAULO DERIVAÇÃO DE MODELOS DE TRADING DE ALTA FREQUÊNCIA EM JUROS UTILIZANDO APRENDIZADO POR REFORÇO FUNDAÇÃO GETULIO VARGAS ESCOLA DE ECONOMIA DE SÃO PAULO UIRÁ CAIADO DE CASTRO DERIVAÇÃO DE MODELOS DE TRADING DE ALTA FREQUÊNCIA EM JUROS UTILIZANDO APRENDIZADO POR REFORÇO SÃO PAULO 2017 UIRÁ CAIADO DE

Leia mais

Teoria da Complexidade Computacional

Teoria da Complexidade Computacional Teoria da Complexidade Computacional Letícia Rodrigues Bueno UFABC Motivação Motivação I can t find an efficient algorithm, I guess I m just too dumb. Fonte: GAREY, M. R. e JOHNSON, D. S. Computers and

Leia mais

Busca em Espaço de Estados a

Busca em Espaço de Estados a Busca em Espaço de Estados a Fabrício Jailson Barth BandTec Agosto de 2012 a Slides baseados no material do Prof. Jomi F. Hübner (UFSC) Introdução 2 Agente orientado a meta O projetista não determina um

Leia mais

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar

Leia mais