CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov

Tamanho: px
Começar a partir da página:

Download "CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov"

Transcrição

1 CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov Prof. Paulo André Castro pauloac@ita.br Sala 110, IEC-ITA

2 Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente pelo EE e a ação efetivamente escolhida pelo agente. Pares (corretos) de entrada/saída podem ser observados (ou demonstrados por um supervisor). Aprendizado por reforço O crítico comunica apenas uma indicação de desempenho (indicação de quão bom ou ruim é o estado resultante), por vezes de modo intermitente e apenas quando situações dramáticas são atingidas (feedback indireto, com retardo). Aprendizado não-supervisionado O crítico não envia nenhum tipo de informação ao EA, não há pistas sobre as saídas corretas (geralmente utiliza-se regularidades, propriedades estatísticas dos dados sensoriais) Busca-se encontrar padrões ou estruturas / agrupamentos nos dados. Inclui por exemplo técnicas de clusterização 2/80

3 Sequential Decision Problem A sequential decision problem presents the following steps: 1. Observe environment state 2. Pick and execute action (Environment evolves to new state) 3. Receive immediate reinforcement 4. Go back to step 1 Here, We assume discrete time! 3/80

4 Sequential Decision Problem in Stochastic Environments The next state is not defined by the current state and agent s action, other factors take place in an unknown way (stochastic) Current state and action define a set possible successors states with the respective probabilities (probability distribution function over states) The goal of the agent is to maximize that accumulated reinforcements in the long run Taking a path with bad reinforcement in the beginning is acceptable since the future reward pays off well enough!!! 4/80

5 Example 5/80

6 Example - 2 6/80

7 Markov Decision Process (Processo Decisório de Markov) MDP can be used to address sequential decision problems Markov assumption, the state depends on bounded subset of past states (and possible actions) 7/80

8 Formal Definition of a MDP 8/80

9 Formal definition of a MDP - 2 9/80

10 Formal definition of a MDP /80

11 Exemplo 1: Controle de Inventário Problema: comprar uma quantidade de um certo produto a intervalos regulares (em um total de N intervalos) de modo a satisfazer uma certa demanda Estado: s k = estoque no começo do período k Ação: a k = compra feita no começo do período k Uma perturbação aleatória w k = demanda no período k, respeitando uma certa distribuição de probabilidade Reforço r k = r(s k ) + ca k, onde r(s k ) é o custo de estocar s k unidades do produto no período k e c é o custo unitário do produto comprado /80

12 Exemplo 1: Controle de Inventário Evolução do estado: s k+1 = s k + a k - w k Função de custo a ser minimizada: N 1 ( ) E r( s ) + ( r( s ) + ca ) V s o = N k= 0 k k 12/80

13 Exemplo 2: Pêndulo Invertido Problema: controlar um pêndulo invertido exercendo forças +F ou -F sobre a base do carrinho (controle bang-bang). Controlar significa não permitir que a barra caia +F -F 13/80

14 Exemplo 2: Pêndulo Invertido Estado: quádrupla Ação a k : +F ou -F xt, x t, θt, θ t Reforço: -1 em caso de falha, senão 0. ( ) Evolução do estado: s k+1 = f(s k, a k ) (?) Possível função recompensa a ser maximizada: V = k s o E γ r t=0 ( ) desconto temporal γ < 1: POR QUÊ? t 14/80

15 O que é uma solução para um Problema de Markov? Uma sequencia de ações (plano) pode resolver um ambiente Estocástico? Políticas (ou Estratégia) versus Planos Formalização 15/80

16 O que é uma solução para um Problema de Markov? Exemplo: Controle de Movimentação de robô modelado como um PDM No início, robô está em l1 (estado s 1 ) Objetivo é levar o robô até l4 (estado s 4 ) Robô pode deslizar ao tentar se mover de uma posição para outra 16/80

17 Exemplo MDP 17/80

18 MDP Robot /80

19 MDP Robot /80

20 MDP Robot /80

21 Seqüencia não funciona É necessário uma função que mapeie estados a ações. Esta função é chamada de estratégia ou politica(policy) 21/80

22 Policies for the Grid World 22/80

23 Exemplos de Políticas Problema 2 23/80

24 Initial state It is possible to define a probability distribution over states for the first, but for simplicity. Let s define s 0 24/80

25 History: sequence of states 25/80

26 History: sequence of states /80

27 History: sequence of states /80

28 History: sequence of states -4 28/80

29 Qualidade de Políticas Em um PDM com transicões não deterministicas, Uma política pode garantir alcançar sempre o estado objetivo em um determinado número de passos ou custo? Como definir quando uma política é melhor que outra? Chegar ao estado objetivo é o bastante? É necessário uma forma de medir a qualidade de uma dada política. Como? 29/80

30 Qualidade de Políticas - 2 Qual o valor de uma política? Valores são na verdade associados a históricos Mas como vimos, políticas induzem uma distribuição de probabilidades sobre históricos. Assim Essa qualidade (ou utilidade) pode ser medida através do valor esperado da adoção de uma política. 30/80

31 Política Ótima Pode-se definir política ótima (π*) como a política com o maior valor esperado. Pergunta: Pode-se afirmar que ao adotar um política ótima um agente A sempre obterá maior valor que outro agente B com uma política não ótima em um dado período de tempo? 31/80

32 Reinforcements can be negative (cost) or positive (reward) 32/80

33 Algum problema com recompensa infinita? 33/80

34 Discounted Reinforcements Time should influence the value of a reinforcement?. A 100 dollars reward now or 100 dollars reward six months from now are the same? Problems with infinitive time require discounted reinforcements! Why? 34/80

35 Value with discounted reinforcement 35/80

36 Otimalidade de Políticas e Horizonte A maximização do valor esperado é o critério mais utilizado para determinar otimização de políticas. Entretanto, isso é dependente do número de passos (decisões) que o agente dispõe para agir. Isto é comumente chamado de horizonte de tomada de decisão. O horizonte pode ser finito ou infinito 36/80

37 MDP de Horizonte Finito e Políticas Estacionárias 37/80

38 Stationary policies and Infinite Horizons 38/80

39 Policy Value with Infinite Horizon 39/80

40 Política Ótima Já vimos que uma política ótima (π * ) é aquele com maior valor esperado, então podemos definir: Como encontrar uma politica ótima dado um MDP? 40/80

41 An algorithm to calculate the optimal policy 41/80

42 Value Iteration Algorithm 42/80

43 Value Iteration Algorithm - 2 or 43/80

44 Exemplo Deterministico Função de Valor 44/80

45 Exemplo /80

46 Calculando V(s) Considerando r(s,a) e fator de desconto igual a 1 46/80

47 Outro Exemplo Gridworld 47/80

48 Discussão da Iteração de Valor Algoritmo de Iteração de valor computa um novo valor a cada iteração e escolhe a política baseado nesses valores Este algoritmo converge em número de iterações em tempo polinomial do número de estados O número de estados pode ser muito grande em problemas reais e É necessário examinar o espaço inteiro em cada iteração. Por tal razão, o algoritmo demanda significativa quantidade de tempo e espaço para problemas com grande número de de estados Há algoritmos alternativos como iteração de política Além disso, a função de transição propabilística p e os retornos devem ser conhecidos, mas muitas vezes não é este o caso! 48/80

49 Processo Decisório de Markov e Aprendizado por reforço

50 Markov Decision Process and Reinforcement Learning 50/80

51 Two options: Learn a model (p,r) or solve directly 51/80

52 Parameter Estimation 52/80

53 Problems in Parameter estimation 53/80

54 Estimate value function directly 54/80

55 Exploitation (Explotação) vs Exploration (Exploração) 55/80

56 Armed bandit (Caça-níqueis) 57/80

57 Opções. Agir aleatoriamente? Mudar de máquina a cada vez que perder? Melhor que aleatório, mas não é ótimo Estimar o retorno de cada máquina através de contagem e depois permanece na melhor?. Como estimar? 58/80

58 Estimation: Frequentism Average Reward: if I choose an action a, K a times and receive the rewards r 1, r 2, r k then I can estimate the reward It is possible to prove that as k grows it converges to the expected value of reward. How to define the actions? 59/80

59 Como selecionar ações? 60/80

60 Strategies 61/80

61 Alguns Resultados com E-greedy 62/80

62 Q Function: value of the pair state-action Let s take an action a and then continue optimally 64/80

63 Q Function: value of the pair state-action We will see an algorithm to estimate Q* 65/80

64 Exemplo 66/80

65 Um algoritmo para o aprendizado da Função Q (Q-Learning) O algoritmo Q-Learning (Watkins, 1989) baseia-se em simulações de Monte Carlo e no algoritmo Robbins-Monro Simulações Monte-Carlo baseiam-se na amostragem de estados para estimar seus valores (abordagem força bruta) Algoritmo Robbins-Monro permite aprender uma função onde um de seus parâmetros é uma variável aleatória com distribuição de probabilidade conhecida, utilizando uma taxa de aprendizagem α que se altera ao longo do tempo segundo certas condições. Maiores informações sobre a dedução do Q-Learning, Monte Carlo e Robbins-Monro podem ser obtidas em: Reinforcement Learning: An Introduction, Sutton,R. and Barko,A. MIT Press /80

66 Q-Learning 68/80

67 Learning rate and convergence 69/80

68 Guaranteed to converge to Q* if 70/80

69 Um exemplo bastante simples 72/80

70 Exemplos de aplicações 73/80

71 Problemas com Q-Learning 74/80

72 Problemas com Q-Learning /80

73 Conclusões sobre Aprendizado por Reforço Aprendizado por reforço permite que se aprenda a política ótima, mesmo sem saber previamente a função de probabilidade de transição (p) ou a função de recompensa imediata (r) Aprendizado por reforço tem dificuldades em lidar com grande número de estados ou grandezas contínuas, vários algoritmos alternativos (sarsa, por exemplo) tentam obter treinamento mais rápido Aproximações da função Q (redes neurais) ou mais recentemente Deep Reinforcement Learning (DQN) tem sido pesquisados com resultados promissores... Mais referências: Rorcementeinf Learning: An Introduction, Sutton,R. and Barko,A. MIT Press Bertsekas,D. and Tsitsiklis, J.N. Neurodynamic programming. Athena Scientifc. Belmont. Massachusetts /80

74 Exercício: Modele o problema abaixo como um problema de aprendizado por reforço Cada célula representa uma possível localização para um robô. O robô inicia em uma posição qualquer do tabuleiro, escolhida aleatoriamente com distribuição uniforme entre as células. As células (2,3) e (6,2) tem ouro, o que significa um retorno imediato de +100 utils e reinício do jogo. Ao entrar em uma célula habitada pelo monstro (Wumpus) há um retorno imediato de -100 e também reinício do jogo. Ao entrar em uma célula com poço (pit) o reforço imediato é de -50 mas não há reinício do jogo. Há um custo de movimento de -1 a cada movimento. 79/80

75 Uma possível Modelagem Estados = [[(1,1)..(1,4)], [(2,1)..(2,4)] [(8,1)..(8,4)]], 32 estados Ações= [Up,Left,Right,Down] p: Para cada ação, 0,6 no sentido comandado e 0,4 para a direita. Exceto para as células (2,3), (6,2) e (1,3) cuja transição é ir para qualquer outro estado com probabilidade 1/32 R: (2,3) e (6,2) tem retorno +100, (1,3) tem retorno de e os demais retorno /80

CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov

CES Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov CES -161 - Modelos Probabilísticos em Grafos Introdução a Modelo Decisório de Markov Prof. Paulo André Castro www.comp.ita.br/~pauloac pauloac@ita.br Sala 110, IEC-ITA Aprendizado - paradigmas Aprendizado

Leia mais

lnteligência Artificial Introdução ao Processo Decisório de Markov

lnteligência Artificial Introdução ao Processo Decisório de Markov lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente

Leia mais

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning)

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) Processo Decisório de Markov e Aprendizado por Reforço Quando falamos sobre Processo decisório de Markov e formalizamos

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço SCC5865-Robótica Roseli A F Romero Introdução O modelo padrão de aprendizado por reforço Aprendizado por Reforço Formalmente, o modelo consiste de: Um conjunto discreto de estados

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão

Leia mais

Aprendizagem por Reforço

Aprendizagem por Reforço Aprendizagem por Reforço Motivação! Como um agente aprende a escolher ações apenas interagindo com o ambiente? n n Muitas vezes, é impraticável o uso de aprendizagem supervisionada w Como obter exemplos

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 24 Aprendizado Por Reforço Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 18 Aprendizado Por Reforço Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra Lista de exercícios 03

CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra Lista de exercícios 03 . CEFET/RJ Inteligência Artificial (2017.2) Professor: Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 03 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados

Leia mais

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Explícito do Aprendiz Marcus Vinícius Carvalho Guelpeli Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica São José

Leia mais

Inteligência Artificial: 2. Agentes Inteligentes. Capítulo 2 Russell e Norvig

Inteligência Artificial: 2. Agentes Inteligentes. Capítulo 2 Russell e Norvig Inteligência Artificial: 2. Agentes Inteligentes Capítulo 2 Russell e Norvig Agentes Um agente é algo capaz de perceber seu ambiente por meio de sensores e de agir sobre esse ambiente por meio de atuadores.

Leia mais

Inteligência Artificial

Inteligência Artificial Aprendizagem por que? lnteligência Artificial Aprendizagem em IA Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado permite lidar com

Leia mais

IA - Planejamento II

IA - Planejamento II PO IA - Planejamento II Professor Paulo Gurgel Pinheiro MC906A - Inteligência Articial Instituto de Computação Universidade Estadual de Campinas - UNICAMP 16 de Novembro de 2010 1 / 48 PO http://www.ic.unicamp.br/

Leia mais

lnteligência Artificial Aprendizagem em IA

lnteligência Artificial Aprendizagem em IA lnteligência Artificial Aprendizagem em IA 1 Aprendizagem por que? Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado permite lidar com

Leia mais

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Aprendizado em IA Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Tópicos Agentes baseados em aprendizado Aprendizado indutivo Árvores de decisão Método ID3 Aprendizado em redes neurais

Leia mais

Reinforcement Learning

Reinforcement Learning Reinforcement Learning (Aprendizado por Reforço) Karla Figueiredo DEE/PUC-Rio 1 Sumário Introdução Motivação Histórico Conceitos básicos Fundamentos Teóricos Processos de Decisão de Markov Propriedade

Leia mais

Aprendizado por Reforço usando Aproximação

Aprendizado por Reforço usando Aproximação Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade

Leia mais

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04 . CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 04 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados na disciplina

Leia mais

Inteligência Artificial Agentes Inteligentes

Inteligência Artificial Agentes Inteligentes Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

SEMÁFORO INTELIGENTE UMA APLICAÇÃO DE APRENDIZAGEM POR REFORÇO

SEMÁFORO INTELIGENTE UMA APLICAÇÃO DE APRENDIZAGEM POR REFORÇO Anais do XIX Congresso Brasileiro de Automática, CBA 2012. SEMÁFORO INTELIGENTE UMA APLICAÇÃO DE APRENDIZAGEM POR REFORÇO GABRIEL M. COSTA, GUILHERME S. BASTOS Centro de Referência em Tecnologias da Informação,

Leia mais

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid 1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método

Leia mais

2 Aprendizado de Máquina

2 Aprendizado de Máquina 2 Aprendizado de Máquina Desde que os computadores foram inventados, sempre nos perguntamos se eles poderiam ser feitos para aprender. Se pudéssemos compreender como programá-los para aprender e melhorar

Leia mais

Programa: Ciência da Computação Orientadora: Prof ạ Dr ạ Leliane Nunes de Barros

Programa: Ciência da Computação Orientadora: Prof ạ Dr ạ Leliane Nunes de Barros Aprendizado por reforço em lote: um estudo de caso para o problema de tomada de decisão em processos de venda Denis Antonio Lacerda Dissertação apresentada ao Instituto de Matemática e Estatística da Universidade

Leia mais

Aprendizado por reforço em lote para o problema de tomada de decisão em processos de venda

Aprendizado por reforço em lote para o problema de tomada de decisão em processos de venda Aprendizado por reforço em lote para o problema de tomada de decisão em processos de venda Denis Antonio Lacerda e Leliane Nunes de Barros Departamento de Ciência da Computação, IME/USP denis@ime.usp.br,

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neurais (Inteligência Artificial) Aula 02 Agentes Inteligentes Edirlei Soares de Lima Agentes Inteligentes Um agente é algo capaz de perceber seu ambiente por meio de sensores

Leia mais

Algoritmos Genéticos e Evolucionários

Algoritmos Genéticos e Evolucionários Algoritmos Genéticos e Evolucionários Djalma M. Falcão COPPE/UFRJ PEE e NACAD falcao@nacad.ufrj.br http://www.nacad.ufrj.br/~falcao/ http://www.nacad.ufrj.br/~falcao/ag/ag.htm Resumo do Curso Introdução

Leia mais

CTC-17 Inteligência Artificial Problema de Satisfação de Restrições. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Problema de Satisfação de Restrições. Prof. Paulo André Castro CTC-17 Inteligência Artificial Problema de Satisfação de Restrições Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Conceituação Aplicando busca genérica a PSRs

Leia mais

USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO

USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO DANILO H. PERICO, REINALDO A. C. BIANCHI Centro Universitário da FEI, Av. Humberto de Alencar Castelo Branco,

Leia mais

MODELO MARKOVIANO DE DECISÃO COM INFORMAÇÃO PARCIAL PARA OTIMIZAÇÃO DE UM SISTEMA DE FILAS MMPP/PH/c/N

MODELO MARKOVIANO DE DECISÃO COM INFORMAÇÃO PARCIAL PARA OTIMIZAÇÃO DE UM SISTEMA DE FILAS MMPP/PH/c/N MODELO MARKOVIANO DE DECISÃO COM INFORMAÇÃO PARCIAL PARA OTIMIZAÇÃO DE UM SISTEMA DE FILAS MMPP/PH/c/N Solon Venâncio de Carvalho Rita de Cássia Meneses Rodrigues Laboratório Associado de Computação e

Leia mais

Algoritmos Probabilísticos

Algoritmos Probabilísticos Algoritmos Probabilísticos Gilson Evandro Fortunato Dias Orientador: José Coelho de Pina Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC0499 p.

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 11 Aprendizado de Máquina Edirlei Soares de Lima Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais

Uso de Heurísticas para a Aceleração do Aprendizado por

Uso de Heurísticas para a Aceleração do Aprendizado por Uso de Heurísticas para a Aceleração do Aprendizado por Reforço Reinaldo A. C. Bianchi 1,2, Anna H. R. Costa 1 1 Laboratório de Técnicas Inteligentes Escola Politécnica da Universidade de São Paulo Av.

Leia mais

decisão em comparação com a curva para árvores de decisão.

decisão em comparação com a curva para árvores de decisão. function Decision-Learning(examplos) returns a decision list or failure if examples is empty then return the trivial decision list t a test that matches a nonempty subset examples t of examples such that

Leia mais

Capítulo 4 Secção 1. Livro

Capítulo 4 Secção 1. Livro Procura Local Capítulo 4 Secção 1 Livro Procura local Algorítmos de procura local Hill-climbing Simulated annealing Local beam Genetic algorithms Resumo Procura Sistemática No capítulo 3, analisamos estratégias

Leia mais

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Cadeias de Markov Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71 Cadeias de Markov Seja X 0, X 1,...

Leia mais

Redes Complexas Aula 3

Redes Complexas Aula 3 Redes Complexas Aula 3 Aula passada Caracterizando redes grandes Grau Distâncias Clusterização Aula de hoje Características de redes reais Centralidade de vértices Betweeness, Closeness Três Importantes

Leia mais

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...

Leia mais

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...

Leia mais

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Avaliando Hipóteses George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Pontos importantes Erro da Amostra e Erro Real Como Calcular Intervalo de Confiança Erros de hipóteses Estimadores Comparando

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Introdução Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 19 Introdução

Leia mais

APRENDIZADO POR REFORÇO MULTIAGENTE MULTIOBJETIVO ACELERADO POR HEURÍSTICAS APLICADO AO PROBLEMA DA PRESA E PREDADOR Leonardo A. Ferreira, Carlos H. C. Ribeiro, Reinaldo A. C. Bianchi Centro Universitário

Leia mais

Uso de Heurísticas para a Aceleração do Aprendizado por Reforço

Uso de Heurísticas para a Aceleração do Aprendizado por Reforço Proceedings of the International Joint Conference IBERAMIA/SBIA/SBRN 2006-5th Best MSc dissertation/phd thesis contest (CTDIA 2006), Ribeirão Preto, Brazil, October 23 28, 2006. CD-ROM. ISBN 85-87837-11-7

Leia mais

Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente

Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Utilização de Aprendizagem por Reforço para Modelagem Autônoma do Aprendiz em um Tutor Inteligente Modalidade Artigo Completo Marcus V. C. Guelpeli 1, Carlos H. C. Ribeiro 1 e Nizam Omar 2 1 Divisão de

Leia mais

APRENDIZAGEM POR REFORÇO PARA TIMES DE ROBÔS. Carlos Henrique Costa Ribeiro PQ Lucas Heitzmann Gabrielli IC

APRENDIZAGEM POR REFORÇO PARA TIMES DE ROBÔS. Carlos Henrique Costa Ribeiro PQ Lucas Heitzmann Gabrielli IC PRENDIZGEM POR REFORÇO PR TIMES DE ROÔS arlos Henrique osta Ribeiro PQ Lucas Heitzmann Gabrielli I Resumo: Times de robôs autônomos podem propiciar uma forma mais eficiente de solução de tarefas complexas

Leia mais

Exercício do livro Decision Analysis for the Professional (Peter McNamee e John Celona) Capítulo 04 Exercício Gerador

Exercício do livro Decision Analysis for the Professional (Peter McNamee e John Celona) Capítulo 04 Exercício Gerador Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo Departamento de Administração EAD5853 Análise das Decisões na Incerteza Aplicada à Administração Exercício do livro Decision

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 14 Aprendizado de Máquina Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais

Processo de Decisão Markoviano com Transição Valorada por Conjunto modelado como um Jogo Alternado de Soma Zero

Processo de Decisão Markoviano com Transição Valorada por Conjunto modelado como um Jogo Alternado de Soma Zero Processo de Decisão Markoviano com Transição Valorada por Conjunto modelado como um Jogo Alternado de Soma Zero Leliane Nunes de Barros 1, Fábio de Oliveira Franco 1 e Karina Valdivia Delgado 2 1 Instituto

Leia mais

Treinamento Condicionado Através de Esquemas de Transição

Treinamento Condicionado Através de Esquemas de Transição Proceedings of the IV Brazilian Conference on Neural Networks - IV Congresso Brasileiro de Redes Neurais pp. 361-366, July 20-22, 1999 - ITA, São José dos Campos - SP - Brazil Treinamento Condicionado

Leia mais

lnteligência Artificial Introdução a Aprendizado de Máquina

lnteligência Artificial Introdução a Aprendizado de Máquina lnteligência Artificial Introdução a Aprendizado de Máquina 1 Aprendizado por que? Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado

Leia mais

Cap. 2. Introdução a Teoria de Utilidade e Teoria de Jogos

Cap. 2. Introdução a Teoria de Utilidade e Teoria de Jogos Cap. 2. Introdução a Teoria de Utilidade e Teoria de Jogos Teoria de Utilidade Como as pessoas escolhem e como formalizar o processo? Preferências Racionais Utilidade Utilidade x Dinheiro Utilidades multiatributos

Leia mais

Tópicos Especiais em Qualidade

Tópicos Especiais em Qualidade Tópicos Especiais em Qualidade Processos estocásticos, Distribuições de probabilidade e Ajustamento de dados Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

Uma introdução à indecilibidade a forma máxima de complexidade!

Uma introdução à indecilibidade a forma máxima de complexidade! Uma introdução à indecilibidade a forma máxima de complexidade! Como qualquer outra ferramenta, computadores tem capacidades e limitações que devem ser entendidas para seu bom uso. 1 Um problema indecidível:

Leia mais

PROCESSOS ESTOCÁSTICOS

PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos

Leia mais

Modelagem de Sistemas Complexos para Políticas Públicas. Patrícia A. Morita Sakowski 29/09/2017

Modelagem de Sistemas Complexos para Políticas Públicas. Patrícia A. Morita Sakowski 29/09/2017 Modelagem de Sistemas Complexos para Políticas Públicas Patrícia A. Morita Sakowski 29/09/2017 Motivador Apresentar o que são modelos baseados em sistemas complexos e discutirmos se é possível utilizá-los

Leia mais

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS ROTEIRO DA APRESENTAÇÃO MODELOS ESTOCÁSTICOS APLICADOS À INDÚSTRIA Prof. Lupércio França Bessegato Departamento de Estatística Universidade Federal de Juiz de Fora lupercio.bessegato@ufjf.edu.br www.ufjf.br/lupercio_bessegato

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Fabrício Olivetti de França 07 de Junho de 2018 1 Heurísticas e Meta-Heurísticas 2 Heurística Heurística, derivada do grego encontrar ou descobrir, são técnicas para encontrar a

Leia mais

Study of Systems with Variable Length using Processes Without Collisions C. S. Sousa, A. D. Ramos and A. Toom

Study of Systems with Variable Length using Processes Without Collisions C. S. Sousa, A. D. Ramos and A. Toom 12th Brazilian School of Probability, Minas Gerais, 08/2008 1 Introduction We consider a class of particle processes with a finite number of types of particles, which we call Processes Without Collisions

Leia mais

CENTRO UNIVERSITÁRIO DA FEI DANILO HERNANI PERICO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO

CENTRO UNIVERSITÁRIO DA FEI DANILO HERNANI PERICO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO CENTRO UNIVERSITÁRIO DA FEI DANILO HERNANI PERICO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO São Bernardo do Campo 2012 DANILO HERNANI PERICO Uso de

Leia mais

Population Viability Analysis. Módulo 14

Population Viability Analysis. Módulo 14 Population Viability Analysis Módulo 14 Population Viability Analysis (PVA) Lato sensu: Conjunto de métodos que utilizam modelos estocásticos (= probabilísticos) para projectar o futuro da população e,...

Leia mais

UAISOCCER2D - TEAM DESCRIPTION PAPER CBR 2013

UAISOCCER2D - TEAM DESCRIPTION PAPER CBR 2013 UAISOCCER2D - TEAM DESCRIPTION PAPER CBR 2013 André Luiz Carvalho Ottoni, Erivelton Geraldo Nepomuceno, Marcos Santos de Oliveira, Rubisson Duarte Lamperti, Eduardo Bento Pereira, Emerson Santos Silva,

Leia mais

PROVA DE EXATAS QUESTÕES EM PORTUGUÊS:

PROVA DE EXATAS QUESTÕES EM PORTUGUÊS: PROVA DE EXATAS QUESTÕES EM PORTUGUÊS: 1) Crie um programa (em alguma linguagem de programação que você conheça) que, dado N > 0 e uma seqüência de N números inteiros positivos, verifique se a seqüência

Leia mais

Alexandre Roberto Rentería ESTIMAÇÃO DE PROBABILIDADE FUZZY A PARTIR DE DADOS IMPRECISOS. Tese de Doutorado

Alexandre Roberto Rentería ESTIMAÇÃO DE PROBABILIDADE FUZZY A PARTIR DE DADOS IMPRECISOS. Tese de Doutorado 1 Alexandre Roberto Rentería ESTIMAÇÃO DE PROBABILIDADE FUZZY A PARTIR DE DADOS IMPRECISOS Tese de Doutorado Tese apresentada ao Programa de Pós-graduação em Engenharia Elétrica da PUC-Rio como requisito

Leia mais

Avaliação de Desempenho

Avaliação de Desempenho Avaliação de Desempenho Aula passada Métricas, Técnicas, Erros Aula de hoje Conceitos importantes de probabilidade Como fazer a análise de desempenho? Modelos Matemáticos Modelos de Simulação Como fazer

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Inteligência Artificial 04. Busca Sem Informação (Cega) Capítulo 3 Russell & Norvig; Seções 3.4 e 3.5

Inteligência Artificial 04. Busca Sem Informação (Cega) Capítulo 3 Russell & Norvig; Seções 3.4 e 3.5 Inteligência Artificial 04. Busca Sem Informação (Cega) Capítulo 3 Russell & Norvig; Seções 3.4 e 3.5 Formulação dos problemas Um problema é definido por quatro itens: 1. Estado inicial ex., em Arad" 2.

Leia mais

PCC104 - Projeto e Análise de Algoritmos

PCC104 - Projeto e Análise de Algoritmos PCC104 - Projeto e Análise de Algoritmos Marco Antonio M. Carvalho Departamento de Computação Instituto de Ciências Exatas e Biológicas Universidade Federal de Ouro Preto 1 de novembro de 2018 Marco Antonio

Leia mais

Inflation Expectations and Behavior: Do Survey Respondents Act on their Beliefs? O. Armantier, W. Bruine de Bruin, G. Topa W. VanderKlaauw, B.

Inflation Expectations and Behavior: Do Survey Respondents Act on their Beliefs? O. Armantier, W. Bruine de Bruin, G. Topa W. VanderKlaauw, B. Inflation Expectations and Behavior: Do Survey Respondents Act on their Beliefs? O. Armantier, W. Bruine de Bruin, G. Topa W. VanderKlaauw, B. Zafar November 18, 2010 Introduction Inflation expectations

Leia mais

Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio

Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Modelação e Simulação 2011/12 Trabalho de Laboratório nº4 Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Objectivo Após realizar este trabalho, o aluno deverá ser capaz de Construir um

Leia mais

DIAGNÓSTICO DE MATEMÁTICA

DIAGNÓSTICO DE MATEMÁTICA Não esqueça de se cadastrar no site. Não utilize nenhum rascunho, deixe todas as suas anotações registradas e informe o tempo utilizado na resolução. NOME: TEL: TEMPO UTILIZADO NA RESOLUÇÃO: 1. Macey is

Leia mais

Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani

Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Introdução Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani O que é Machine Learning? Estatística Machine Learning

Leia mais

Otimização com Algoritmos Evolutivos

Otimização com Algoritmos Evolutivos Otimização com Algoritmos Evolutivos Francisco Pereira (xico@dei.uc.pt) ELBCE 2016 (Setembro 2016) Resumo Problem Optimization Method Solution } Algoritmos Evolutivos } Propriedades e funcionamento } Exemplos

Leia mais

Influência do Tamanho Amostral no Planejamento Econômico para Controle On-Line de Processo por Atributo com Erros de.

Influência do Tamanho Amostral no Planejamento Econômico para Controle On-Line de Processo por Atributo com Erros de. Influência do Tamanho Amostral no Planejamento Econômico para Controle On-Line de Processo por Atributo com Erros de 1. Introdução: Classificação Lupércio França Bessegato 1 Roberto da Costa Quinino 2

Leia mais

Aprendizado por Reforço Multiagente: Uma Avaliação de Diferentes Mecanismos de Recompensa para o Problema de Aprendizado de Rotas

Aprendizado por Reforço Multiagente: Uma Avaliação de Diferentes Mecanismos de Recompensa para o Problema de Aprendizado de Rotas UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA PROGRAMA DE PÓS-GRADUAÇÃO EM COMPUTAÇÃO RICARDO GRUNITZKI Aprendizado por Reforço Multiagente: Uma Avaliação de Diferentes Mecanismos

Leia mais

PROBABILIDADES E ESTATÍSTICA E PROCESSOS ESTOCÁSTICOS

PROBABILIDADES E ESTATÍSTICA E PROCESSOS ESTOCÁSTICOS English version at the end of this document Ano Letivo 2017-18 Unidade Curricular PROBABILIDADES E ESTATÍSTICA E PROCESSOS ESTOCÁSTICOS Cursos ENGENHARIA INFORMÁTICA (1.º ciclo) Unidade Orgânica Faculdade

Leia mais

5 Decisão Sob Incerteza

5 Decisão Sob Incerteza 5 Decisão Sob Incerteza Os problemas de decisão sob incerteza são caracterizados pela necessidade de se definir valores de variáveis de decisão sem o conhecimento prévio da realização de parâmetros que,

Leia mais

Inteligência Artificial: 3. Resolução de problemas por meio de busca. Capítulo 3 Russell e Norvig; Seções 3.1, 3.2 e 3.3

Inteligência Artificial: 3. Resolução de problemas por meio de busca. Capítulo 3 Russell e Norvig; Seções 3.1, 3.2 e 3.3 Inteligência Artificial: 3. Resolução de problemas por meio de busca Capítulo 3 Russell e Norvig; Seções 3.1, 3.2 e 3.3 Agentes de resolução de problemas Agentes reativos não funcionam em ambientes para

Leia mais

MARCELO LI KOGA. Relational Transfer across Reinforcement Learning Tasks via Abstract Policies

MARCELO LI KOGA. Relational Transfer across Reinforcement Learning Tasks via Abstract Policies MARCELO LI KOGA Relational Transfer across Reinforcement Learning Tasks via Abstract Policies São Paulo 2014 MARCELO LI KOGA Relational Transfer across Reinforcement Learning Tasks via Abstract Policies

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Variância amostral Método de Replicações Independentes Aula de hoje Para que serve a inferência estatística? Método dos Momentos Maximum Likehood

Leia mais

Uma introdução à indecilibidade a forma máxima de complexidade!

Uma introdução à indecilibidade a forma máxima de complexidade! Uma introdução à indecilibidade a forma máxima de complexidade! Como qualquer outra ferramenta, computadores tem capacidades e limitações que devem ser entendidas para seu bom uso. 1 Introdução Objetivos:

Leia mais

Jogos Markovianos Alternados com Probabilidades Imprecisas dadas por Conjuntos Credais

Jogos Markovianos Alternados com Probabilidades Imprecisas dadas por Conjuntos Credais Jogos Markovianos Alternados com Probabilidades Imprecisas dadas por Conjuntos Credais Fábio de O. Franco 1, Leliane N. de Barros 1, Karina V. Delgado 2, Fábio G. Cozman 3 1 Instituto de Matemática e Estatística

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Algoritmos Distribuídos. AD Algoritmos Básicos 1

Algoritmos Distribuídos. AD Algoritmos Básicos 1 Algoritmos Distribuídos Algoritmos Básicos Antonio Alfredo Ferreira Loureiro loureiro@dcc.ufmg.br http://www.dcc.ufmg.br/~loureiro Este material está baseado no capítulo 4 do livro An Introduction to Distributed

Leia mais

Algoritmo CGM para o Problema de. Baseado em artigos de Einar Saukas e Siang Song

Algoritmo CGM para o Problema de. Baseado em artigos de Einar Saukas e Siang Song Algoritmo CGM para o Problema de Seleção Baseado em artigos de Einar Saukas e Siang Song O Problema da Seleção Considere um conjunto de n elementos. Dado um inteiro k (1 k n) deseja-se selecionar o k-ésimo

Leia mais

15 29, , , , , , , , , ,55

15 29, , , , , , , , , ,55 2 Conceitos Básicos Neste capítulo, introduzimos alguns conceitos relevantes para o nosso trabalho. Inicialmente, na seção 2.1, detalhamos o funcionamento do mercado financeiro, definindo alguns termos

Leia mais

PROCESSOS ESTOCÁSTICOS

PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas e Sinais CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos

Leia mais

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada.

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada. Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada [alessandro@psr-inc.com] Conteúdo Introdução Estimação não paramétrica (Kernel density) Transformação

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Finanças Corporativas. Análise de Sensibilidade. Métodos de Avaliação de Risco. Motochoque Ltda. Análise de Risco

Finanças Corporativas. Análise de Sensibilidade. Métodos de Avaliação de Risco. Motochoque Ltda. Análise de Risco Finanças Corporativas Análise de Risco Prof. Luiz Brandão brandao@iag.puc-rio.br IAG PUC-Rio Métodos de Avaliação de Risco Análise de Cenário Esta metodologia amplia os horizontes do FCD obrigando o analista

Leia mais

INTRODUÇÃO À TEORIA DAS FILAS

INTRODUÇÃO À TEORIA DAS FILAS INTRODUÇÃO À TEORIA DAS FILAS Uma fila é caracterizada por: Processo de chegada dos fregueses à fila Tempo de serviço dedicado pelo servidor a cada freguês Número de servidores Espaço disponível para espera

Leia mais

3. Otimização sob Incerteza

3. Otimização sob Incerteza 3. Otimização sob Incerteza Os problemas de otimização tentam resolver, de forma eficiente, situações do mundo real por meio de modelos matemáticos que utilizam parâmetros incertos. Pode-se encontrar na

Leia mais

Busca em Espaço de Estados a

Busca em Espaço de Estados a Busca em Espaço de Estados a Fabrício Jailson Barth BandTec Agosto de 2012 a Slides baseados no material do Prof. Jomi F. Hübner (UFSC) Introdução 2 Agente orientado a meta O projetista não determina um

Leia mais

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística INE6105-Introdução à Robótica Prof. Mauro Roisemberg Arkin. Ronald C. Behavior-Based Robotics

Leia mais

Markov random field - MRF. Renato Assunção DCC-UFMG A partir de material de J. Chang

Markov random field - MRF. Renato Assunção DCC-UFMG A partir de material de J. Chang Markov random field - MRF Renato Assunção DCC-UFMG A partir de material de J. Chang Processo e campo estocástico Processo estocástico: E uma coleção de v.a. s {X t : t T} T reta real, por e, um intervalo

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 02 Agentes Inteligentes Edirlei Soares de Lima Agentes Inteligentes Um agente é algo capaz de perceber seu ambiente por meio de sensores e de

Leia mais

IGOR OLIVEIRA BORGES. Estratégias para otimização do algoritmo de Iteração de Valor Sensível a Risco

IGOR OLIVEIRA BORGES. Estratégias para otimização do algoritmo de Iteração de Valor Sensível a Risco UNIVERSIDADE DE SÃO PAULO ESCOLA DE ARTES, CIÊNCIAS E HUMANIDADES PROGRAMA DE PÓS-GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO IGOR OLIVEIRA BORGES Estratégias para otimização do algoritmo de Iteração de Valor

Leia mais

21/02/17. Aprendendo pelas observações. PCS 5869 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa

21/02/17. Aprendendo pelas observações. PCS 5869 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa PCS 5869 lnteligência Ar9ficial Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa Aprendizagem Indu9va Aprendendo pelas observações Idéia: percepção deve ser usada não somente para a atuação

Leia mais