Aprendizagem de Máquina. Ivan Medeiros Monteiro



Documentos relacionados
INF 1771 Inteligência Artificial

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas

Aprendizagem de Máquina

Classificação de Imagens

Aprendizagem de Máquina

Hierarquia de modelos e Aprendizagem de Máquina

INF 1771 Inteligência Artificial

Data Mining. Origem do Data Mining 24/05/2012. Data Mining. Prof Luiz Antonio do Nascimento

Sistema Tutor Inteligente baseado em Agentes. Pedagógicas da Universidade Aberta do Piauí. Prof. Dr. Vinicius Ponte Machado

1. Conceitos de sistemas. Conceitos da Teoria de Sistemas. Conceitos de sistemas extraídos do dicionário Aurélio:

Web Data mining com R: aprendizagem de máquina

Fases para um Projeto de Data Warehouse. Fases para um Projeto de Data Warehouse. Fases para um Projeto de Data Warehouse

UNIVERSIDADE FEDERAL DO PARANÁ UFPR Bacharelado em Ciência da Computação

Tecnologia em Gestão Pública Desenvolvimento de Projetos - Aula 9 Prof. Rafael Roesler

Aula 1 Entender o conhecimento de cada aluno, suas experiências, visões do curso e desejos.

ADM041 / EPR806 Sistemas de Informação

A coleta de requisitos se refere ao processo de determinar, documentar e gerenciar as necessidades e requisitos das partes interessadas;

MLP (Multi Layer Perceptron)

Aprendizagem de Máquina

2 Diagrama de Caso de Uso

Módulo 4. Construindo uma solução OLAP

A interpretação gráfica e o ensino de funções

Inteligência Artificial

Fundamentos em Teste de Software. Vinicius V. Pessoni

Unidade III GESTÃO EMPRESARIAL. Prof. Roberto Almeida

SUMÁRIO LISTA DE FIGURAS LISTA DE TABELAS...17 LISTA DE SÍMBOLOS Introdução Revisão Bibliográfica...

)HUUDPHQWDV &RPSXWDFLRQDLV SDUD 6LPXODomR

Introdução. Capítulo 1

O olhar do professor das séries iniciais sobre o trabalho com situações problemas em sala de aula

ENTENDENDO OS CONCEITOS DE RISCO E RETORNO - (Parte III)

UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS

Reconhecimento de Padrões

Lista de verificação (Check list) para planejamento e execução de Projetos

3 Metodologia de Previsão de Padrões de Falha

Análise de Sistemas. Visão Geral: Orientação a Objetos. Prof. José Honorato Ferreira Nunes honorato.nunes@bonfim.ifbaiano.edu.br

CULTURA ORGANIZACIONAL. Prof. Gilberto Shinyashiki FEA-RP USP

Imóvel Mix SGI. 1. Acesso ao Sistema 2. Aspectos Gerais 3. Configuração da Empresa 4. Cadastro de Usuários

IA: Busca Competitiva. Ricardo Britto DIE-UFPI

Engenharia de Software I

Engenharia de Software II

Aprendizagem de Máquina

Análise de custo projetado da plataforma SAP HANA

Diagrama de transição de Estados (DTE)

CICLO DE VIDA DE SISTEMAS DE GESTÃO DE CONHECIMENTO

Qual carreira profissional você quer trilhar?

Orientação à Objetos. Aécio Costa

Elaboração do programa das disciplinas

Desenvolvimento de Sistemas Orientados a Objetos com UML UP/RUP: Projeto

Felipe Denis M. de Oliveira. Fonte: Alice e Carlos Rodrigo (Internet)

TCC04040 Inteligência Artificial. Inteligência Artificial

Testes de Software. Testes de Software. Teste de Validação. Teste de Defeito. Modelo de Entrada e Saída. Modelo de Entrada e Saída

PDCA FERRAMENTA GERENCIAL AMBIENTAL

DISTRIBUIÇÃO DE WEIBULL CONCEITOS BÁSICOS APLICAÇÕES

Avaliação de Processos Produtivos - APP

Simulação Transiente

REDUZINDO AS QUEBRAS ATRAVÉS DA MANUTENÇÃO PROFISSIONAL

Disciplina: Unidade III: Prof.: Período:

Modelo de Planejamento de Projeto orientado pelo Escopo

Extração de Árvores de Decisão com a Ferramenta de Data Mining Weka

DESIGN DE INTERFACES E USABILIDADE (AULA 1)

MATERIAL DIDÁTICO: APLICAÇÕES EMPRESARIAIS SISTEMA DE APOIO À DECISÃO (SAD)

Projeto de Redes Neurais e MATLAB

SERVIÇO DE ANÁLISE DE REDES DE TELECOMUNICAÇÕES APLICABILIDADE PARA CALL-CENTERS VISÃO DA EMPRESA

DESIGN DE INTERAÇÃO. José Alexandre Ducatti

AGENTES INTELIGENTES. Isac Aguiar isacaguiar.com.br

Profissionais de Alta Performance

Aula 2 Modelagem de Sistemas. Introdução Modelo de Base Lógica de 1ª Ordem. Concorrentes

PLANEJAMENTO E CONTROLE DE VENDAS

Guia de Especificação de Caso de Uso Metodologia CELEPAR

Agrupamento de dados

CONCURSO PÚBLICO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI ANALISTA DE GESTÃO RESPOSTAS ESPERADAS PRELIMINARES

Balanced Scorecard. Da estratégia às ações do dia-a-dia

Se observarmos nos diferentes livros. Planejamento de Testes a partir de Casos de Uso

Plano de Trabalho Docente Ensino Médio

Complemento II Noções Introdutória em Redes Neurais

Aprendizagem Motora. Prof. Dr. Guanis de Barros Vilela Junior

Sistemas de Gerenciamento do Relacionamento com o Cliente (Customer Relationship Management CRM)

4º Passo: Treinamento, integração e desenvolvimento

6 Construção de Cenários

Programação Estruturada e Orientada a Objetos. Fundamentos Orientação a Objetos

Gerenciamento de Recursos Humanos do Projeto. Equipe do Projeto. 9. Gerenciamento de recursos humanos do projeto

COMISSÃO DE VALORES MOBILIÁRIOS - SECRETARIA EXECUTIVA

ARCO - Associação Recreativa dos Correios. Sistema para Gerenciamento de Associações Recreativas Plano de Desenvolvimento de Software Versão <1.

NBC TG 46: Mensuração a Valor Justo

NOSSO OLHAR QUEM SOMOS NOSSA ATUAÇÃO RESULTADOS OBTIDOS NOSSA ABORDAGEM APRESENTAÇÃO CLIENTES E PARCEIROS

EXERCÍCIOS SOBRE ORIENTAÇÃO A OBJETOS

LEVANTAMENTO DE REQUISITOS. Lílian Simão Oliveira

Mineração de Opinião / Análise de Sentimentos

Resultados Experimentais

Interface Homem- Computador

Técnicas de Caixa Preta de Teste de Software

Andragogia. Soluções para o aprendizado de adultos. Maristela Alves

1.6. Tratamento de Exceções

Avaliando o que foi Aprendido

5 Estudo de caso: utilizando o sistema para requisição de material

KDD. Fases limpeza etc. Datamining OBJETIVOS PRIMÁRIOS. Conceitos o que é?

CAPÍTULO 7 NÍVEL DE LINGUAGEM DE MONTAGEM

Transcrição:

Aprendizagem de Máquina Ivan Medeiros Monteiro

Definindo aprendizagem Dizemos que um sistema aprende se o mesmo é capaz de melhorar o seu desempenho a partir de suas experiências anteriores. O aprendizado envolve a generalização a partir da experiência O desempenho deve melhorar não apenas na repetição da mesma tarefa, mas também nas tarefas similares do domínio

O desafio do aprendizagem Na maioria dos problemas de aprendizagem, os dados disponíveis não são suficientes para garantir a generalização ótima Por isso, os algoritmos de aprendizagem de máquinas são heurísticas que variam nos seus objetivos, na disponibilidade de dados de treinamento, nas estratégias de aprendizagem e na representação do conhecimento.

Problemas de aprendizagem Reconhecimento de assinaturas Classificar mensagens Identificação perfil Sugestão de compra Interação em ambientes desconhecidos Agrupar itens com características semelhantes Decidir corretamente em situação desconhecida.

Tipos de aprendizagem Supervisionado O sistema tem feedback sobre suas experiências Com instrutor O sistema é informado sobre seus erros e quais os resultados esperados. Com crítico O sistema apenas recebe crítica de bom ou ruim. Não supervisionado O sistema precisa identificar relações existentes no seu conjunto de experiências

Aprendizagem de Modelos Modelos preditos Reconhecimento de assinaturas Classificar mensagens Identificação perfil Modelos associativos Sugestão de compra Modelos descritivos Agrupar itens com características semelhantes Modelos interativos Decidir corretamente em situação desconhecida. Interação em ambientes desconhecidos

Modelos Descritivos Em geral, a tarefa de geração de um modelo descritivo consiste em analisar os dados do domínio e sugerir uma partição deste domínio, de acordo com similaridades observadas nos dados Descoberta de particionamentos Modelo de agrupamento dos dados

Modelos Descritivos: Agrupamento Agrupar plantas em três grupos distintos com base nas medidas de suas pétalas e sépalas.

Modelos Associativos Um modelo associativo é um caso especial de um modelo descritivo A tarefa de geração de um modelo associativo consiste em analisar os dados do domínio e encontrar co-ocorrências de valores de atributos. Um modelo associativo é normalmente representado por um conjunto de regras de associação.

Modelos Associativos: Cesta de Compras Consiste em analisar transações de compras de clientes e determinar quais são os itens que frequentemente são comprados juntos.

Modelos Preditivos A tarefa de geração de um modelo preditivo consiste em aprender um mapeamento de entrada para a saída. Neste caso, os dados contêm os valores de saída desejados, correspondente para cada amostra Classificação: saídas discretas representam rótulos de classe. Regressão: saídas contínuas representam valores de variáveis dependentes.

Modelos Preditivos: Classificação Dado um conjunto de treinamento, com exemplos rotulados das plantas, aprender a classificá-las corretamente com base em suas medidas.

Modelos Preditivos: Classificação Reconhecimento de assinaturas A partir de um conjunto de assinaturas de uma pessoa, utilizadas para o treinamento do modelo, identificar se uma nova assinatura pertence a esta pessoa. Classificação de mensagens A partir de um conjunto de mensagens definidas pelo usuário como SPAM, identificar se a nova mensagem é SPAM ou não.

Aprendizagem por Reforço Técnica que possibilita a aprendizagem a partir da interação com o ambiente. A interação com o ambiente permite inferir relações de causa e efeito sobre as conseqüências de nossas ações e sobre o que fazer para atingir nossos objetivos. Aprender por reforço significa aprender o que fazer - como realizar o mapeamento de situações em ações (comportamento) - de modo a maximizar um sinal numérico de recompensa.

Aprendizagem por Reforço Não se dispõe da informação sobre quais ações devem ser tomadas, mas o ambiente permite uma avaliação crítica das ações realizadas. O sistema de aprendizagem deve descobrir quais ações têm mais chances de produzir recompensa, e realizá-las. Nos casos mais interessantes e difíceis as ações podem afetar não apenas a recompensa imediata mas também a próxima situação e através dela todas as recompensas subseqüentes.

Aprendizagem interativa através de agentes Um agente pode ser visto como uma modelagem conceitual que utiliza a forma de interação, através de percepções e ações, na tentativa de alcançar uma solução para o problema. O objeto com o qual o agente interage é chamado de ambiente A interação se dá com o agente selecionando ações e o ambiente respondendo a estas ações apresentando novas situações para o agente.

Política de Ações Definição do problema π(s,a) : (S x A ) (S x R) cada instante de tempo t: O agente está no estado s t. Executa um ação a t Que o levar para o estado s t+1 Com isso agente recebe uma recompensa r(s t,a t ) Objetivo: Encontrar a política de ações que maximize o total de recompensas recebidas pelo agente.

Função de Utilidade U(s) : S R, sendo: S o conjunto dos estados R o conjunto dos reais, representando o valor da utilidade Normalmente representado como uma tabela que mapeia cada estado em sua utilidade Constrói um modelo de transição de estados

Método de Valor das Ações Qπ(s,a) : (S x A) R, onde: S é o conjunto dos estados possíveis. A é o conjunto das ações possíveis R é o conjunto real que representa os valores de recompensa recebidos pelo agente. Pode ser representada como uma tabela com o valor de cada par (estado X ação) Método utilizado pelo algoritmo Q-Learning

Algoritmo Q-Learning Inicializar Q(s,a), arbitrário Repetir ( para cada episódio ): Inicializar s Repetir ( para cada passo até o objetivo ): Escolher a ação a com base numa política derivada de Q Realizar a ação a Observar o recompensa r e o novo estado s' V = r + γ max a' Q(s', a') Q(s,a) += α[v Q(s,a)] s s', a a'

Desviando de obstáculo (Início) Definição do problema Encontrar a flor com o menor desgaste possível. Estados S = {s1, s2, s3, s4, s5, s6} Ações possíveis A = {Frente, Cima, Baixo} Inicialização Q(s,a) = 0, s, a Ações Recompensa γ = 0.5 α = 0.5

Desviando de obstáculo (Época 1) s s4 Ações Escolher ação baseado em Q Q(s4,frente)=0 Q(s4,cima)=0 Ação: frente r = -100 s' s5 V = r + γ max a' Q(s', a') V = -100 + 0.5* max a' Q(s5, a') V= -100 Recompensa Q(s,a) += α[v Q(s,a)] Q(s4,frente) += 0.5*[-100 0] Q(s4,frente) = - 50

Desviando de obstáculo (Época 1) s s5 Ações Escolher ação baseado em Q Q(s5,frente)=0 Q(s5,cima)=0 Ação: frente r = 1 s' s6 V = r + γ max a' Q(s', a') V = 1 + 0.5* max a' Q(s6, a') V= 1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s5,frente) += 0.5*[1 0] Q(s5,frente) = 0.5

Desviando de obstáculo (Época 2) s s4 Ações Escolher ação baseado em Q Q(s4,frente)=-50 Q(s4,cima)=0 Ação: cima r = -1 s' s1 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s1, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s4,cima) += 0.5*[-1 0] Q(s4,cima) = - 0.5

Desviando de obstáculo (Época 2) s s1 Ações Escolher ação baseado em Q Q(s1,frente)=0 Q(s1,baixo)=0 Ação: frente r = -1 s' s2 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s2, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s1,frente) += 0.5*[-1 0] Q(s1,frente) = - 0.5

Desviando de obstáculo (Época 2) s s2 Ações Escolher ação baseado em Q Q(s2,frente)=0 Q(s2,baixo)=0 Ação: frente r = -1 s' s3 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s3, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s2,frente) += 0.5*[-1 0] Q(s2,frente) = - 0.5

Desviando de obstáculo (Época 2) s s3 Escolher ação baseado em Q Q(s3,baixo)=0 Ação: baixo r = 1 s' s6 V = r + γ max a' Q(s', a') V = 1 + 0.5* max a' Q(s6, a') V= 1 Q(s,a) += α[v Q(s,a)] Q(s3,baixo) += 0.5*[1 0] Q(s3,baixo) = 0.5 Ações Recompensa

Desviando de obstáculo (Época 3) s s4 Ações Escolher ação baseado em Q Q(s4,frente)=-50 Q(s4,cima)=-0.5 Ação: cima r = -1 s' s1 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s1, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s4,cima) += 0.5*[-1 + 0.5] Q(s4,cima) = - 0.75

Desviando de obstáculo (Época 3) s s1 Ações Escolher ação baseado em Q Q(s1,frente)=-0.5 Q(s1,baixo)=0 Ação: baixo r = -1 s' s4 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s4, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s1,baixo) += 0.5*[-1 0] Q(s1, baixo) = - 0.5

Desviando de obstáculo (Época 3) s s4 Ações Escolher ação baseado em Q Q(s4,frente)=-50 Q(s4,cima)=-0.75 Ação: cima r = -1 s' s1 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s1, a') V= -1-0.5 Recompensa Q(s,a) += α[v Q(s,a)] Q(s4,cima) += 0.5*[-1.5 + 0.75] Q(s4,cima) = - 1.125

Desviando de obstáculo (Época 3) s s1 Ações Escolher ação baseado em Q Q(s1,frente)=-0.5 Q(s1,baixo)=-0.5 Ação: frente r = -1 s' s2 V = r + γ max a' Q(s', a') V = -1 + 0.5* max a' Q(s2, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s1, frente) += 0.5*[-1 + 0.5] Q(s1, frente) = - 0.75

Desviando de obstáculo (Época 3) s s2 Ações Escolher ação baseado em Q Q(s2,frente)=-0.5 Q(s2,baixo)= 0 Ação: baixo r = -100 s' s5 V = r + γ max a' Q(s', a') V = -100 + 0.5* max a' Q(s5, a') V= -1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s2, baixo) += 0.5*[-100 + 0] Q(s2, baixo) = - 50

Desviando de obstáculo (Época 3) s s5 Ações Escolher ação baseado em Q Q(s5,frente)=0.5 Q(s5,cima)= 0 Ação: frente r = 1 s' s6 V = r + γ max a' Q(s', a') V = 1 + 0.5* max a' Q(s6, a') V= 1 Recompensa Q(s,a) += α[v Q(s,a)] Q(s5, frente) += 0.5*[1-0.5] Q(s5, frente) = 0.75

Desviando de obstáculo (Época 4) Q(s1, frente) = -0.75 Ações Q(s1, baixo) = - 0.5 Q(s2, frente) = -0.5 Q(s2, baixo) = - 50 Q(s3,baixo) = 0.5 Q(s4, frente) = - 50 Q(s4, cima) = -1.125 Recompensa Q(s5, frente) = 0.75 Q(s5,cima)= 0.0

Dilema: Aproveitar x Explorar Quando gulosamento aproveitar da estimação atual da função de valor e escolher ação que a maximiza? Quando curiosamente explorar outra ação que pode levar a melhorar estimação atual da função valor? Taxa de exploração = proporção de escolhas curiosas Geralmente se começa com uma taxa de exploração alta que vai decrescendo com o tempo.

Maldição da Dimensionalidade O número de estados possíveis cresce exponencialmente com quantidade de características representadas Conseqüentemente o tempo de treinamento e número de exemplos necessários também Q-Learning só pode ser aplicado a problemas relativamente pequenos