Aprendizagem de Máquina

Documentos relacionados
Aprendizagem de Máquina

Aprendizagem de Máquina

Aprendizagem de Máquina

Aprendizado de Máquina

Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Árvores de Decisão. David Menotti.

Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná

Algoritmos Indutores de Árvores de. Fabrício J. Barth

Árvore de Decisão. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

SISTEMAS INTELIGENTES

Árvores de Decisão. Sistemas Inteligentes

Aprendizagem de Máquina

Aprendizado de Máquina

Extracção de Conhecimento

Árvores de Decisão. Sistemas Inteligentes

Aprendizagem de Máquina

Árvores de decisão. Marcelo K. Albertini. 17 de Agosto de 2015

Aprendizagem indutiva

INF 1771 Inteligência Artificial

Aprendizagem de Máquina

Árvore de Decisão. Capítulo 18 Russell & Norvig Seções 18.1 a 18.3

lnteligência Artificial Aprendizagem em IA

Árvores de Decisão. Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação

Aprendizagem a partir de observações

Aprendizagem de Máquina

Aprendizagem de Máquina

Inteligência Artificial

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação

Seleção de Atributos 1

Inteligência Artificial

Aprendizagem de Máquina

Aprendizagem de Máquina

Arvores de decisão. O que é uma árvore de decisão? Victor Lobo

Aprendizagem de Máquina

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Arvores de decisão. Outras árvores. Outra maneira de ver árvores. Extracção de regras (a partir de árvores) Vantagens das árvores (1)

Saída: Representação de conhecimento

Aprendizado de Máquinas

Aprendizagem de Máquina

Aprendizagem de Máquina

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Introdução. Classificação III: Árvores de Decisão

Aprendizado de Máquina

Seleção de Atributos FSS. Relevância de Atributos. Relevância de Atributos. Seleção de Atributos - FSS. FSS como Busca no Espaço de Estados

SCC Capítulo 9 Indução de Árvores de Decisão

Algoritmos Indutores de Árvores de

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka

Aprendizagem de máquina

Aula 3 Representação do Conhecimento

Aprendizagem de Máquina

Aprendizado de Máquina (Machine Learning)

Métodos para Classificação: - Naïve Bayes.

Aprendizagem a partir de observações. Capítulo 18 (Secções 1-3)

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR

Arvores de decisão. O que é uma árvore de decisão? Cap.6 Árvores de Decisão V 3.0, V.Lobo, EN/ISEGI, Victor Lobo

Aprendizado de Máquina

Aprendizagem de Máquina

Aprendizagem de Máquina

Redes Neuronais e Aprendizagem Automática 1

Fundamentos de Inteligência Artificial [5COP099]

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas

Árvores de Decisão. Sarajane M. Peres. março de 2015

1R: aprende uma regra por atributo

Aprendizagem de Máquina

Aprendizagem de Máquina

Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]

Aprendizado por Árvores de Decisão

Otimização Combinatória - Parte 4

Inteligência Artificial

Aprendizagem de Máquina

INF 1771 Inteligência Artificial

Aprendizagem de Máquina

Aprendizagem de Máquina

Inteligência Computacional [2COP229]

APRENDIZAGEM DE MÁQUINA

Inteligência Artificial

Aprendizagem de Máquina

Aprendizado de Máquina. Combinando Classificadores

Sistemas Inteligentes Inteligência Artificial Segundo Trabalho

Buscas Informadas ou Heurísticas - Parte II

Aprendizagem a partir de Observações

Árvores de Decisão. Sumario. João Gama Árvores de decisão. Motivação Construção de uma árvore de decisão. Podar a árvore.

Resolução de Problemas: Busca Heurística

1ª Lista de Exercícios

Aprendizagem de Máquina

ÁRVORES DE DECISÃO PROFA. MARIANA KLEINA

Extracção de Conhecimento

SCC0173 Mineração de Dados Biológicos

Aprendizagem de Máquina

Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os métodos baseados em instâncias guardam os

θ depende de um parâmetro desconhecido θ.

Aprendizado de Máquina

Aprendizagem de Máquina

Classificação Automática de Gêneros Musicais

Árvores. Thiago Martins, Fabio Gagliardi Cozman. PMR2300 / PMR3201 Escola Politécnica da Universidade de São Paulo

Método para Classificação: - Naïve Bayes.

Transcrição:

Plano de Aula Aprendizagem de Máquina Aprendizagem de Árvores de Decisão Aula 3 Alessandro L. Koerich Introdução Representação de Árvores de Decisão Algoritmo de Aprendizagem ID3 Entropia e Ganho de Informação Exemplos Aspectos na Aprendizagem de Árvores de Decisão Resumo Mestrado em Informática Aplicada Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado em Informática Aplicada Aprendizagem de Máquina Referências Árvore Duda R., Hart P., Stork D. Pattern Classification ed. Willey Interscience, 00. Capítulo 8. Mitchell T. Machine Learning. WCB McGraw Hill, 1997. Capítulo 3. Mestrado em Informática Aplicada Aprendizagem de Máquina 3 Mestrado em Informática Aplicada Aprendizagem de Máquina 4

Introdução Introdução Aprendizagem de árvores de decisão é um dos métodos de aprendizagem mais práticos e mais utilizados para a aprendizagem indutiva. É um método para a aproximação de funções de valor discreto É um método robusto a ruídos nos dados Utiliza um bias indutivo: preferência por árvores menores. É um método para aproximar funções alvo de valor discreto, onde a função aprendida é representada por uma árvore de decisão. Árvores de decisão também podem ser representadas como conjuntos de regras SE ENTÃO (IF THEN). É um dos métodos de aprendizagem mais conhecidos Aplicações: do diagnóstico de imagens médicas a análise de risco de crédito Mestrado em Informática Aplicada Aprendizagem de Máquina 5 Mestrado em Informática Aplicada Aprendizagem de Máquina 6 Representação de Árvores de Decisão Exemplo Árvores de decisão classificam instâncias ordenando as árvore acima (ou abaixo), a partir da raiz até alguma folha. Cada nó da árvore especifica o teste de algum atributo da instância Cada ramo partindo de um nó corresponde a um dos valores possíveis dos atributos. Mestrado em Informática Aplicada Aprendizagem de Máquina 7 Mestrado em Informática Aplicada Aprendizagem de Máquina 8

Representação de Árvores de Decisão Exemplo Uma instância é classificada inicialmente pelo nó raiz, testando o atributo especificado por este nó. Em seguida, movendo-se através do ramo correspondendo ao valor do atributo no exemplo dado. Este processo é repetido para a sub-árvore originada no novo nó (Figura) Mestrado em Informática Aplicada Aprendizagem de Máquina 9 Mestrado em Informática Aplicada Aprendizagem de Máquina 10 Exemplo Árvore de Decisão para PlayTennis Uma árvore de decisão para o conceito PlayTennis. Um exemplo é classificado ordenando o através da árvore para o nó folha apropriado Então retorna a classificação associada com esta folha (Yes ou No) Mestrado em Informática Aplicada Aprendizagem de Máquina 11 Mestrado em Informática Aplicada Aprendizagem de Máquina 1

Árvore de Decisão para PlayTennis Árvore de Decisão para PlayTennis <Outlook=Sunny, Temperature=High, Humidity=High, Wind=Strong> Mestrado em Informática Aplicada Aprendizagem de Máquina 13 Mestrado em Informática Aplicada Aprendizagem de Máquina 14 Árvore de Decisão para PlayTennis Árvore de Decisão para PlayTennis Em geral, árvores de decisão representam uma disjunção de conjunções de restrições sobre valores dos atributos das instâncias. Cada caminho entre a raiz da árvore e uma folha corresponde a uma conjunção de testes de atributos e a própria árvore corresponde a uma disjunção destas conjunções. Exemplo: (Outlook=Sunny Humidity=Normal) (Outlook=Overcast) (Outlook=Rain, Wind=Weak) Representação de árvores de decisão: Cada nó interno testa um atributo Cada ramo corresponde ao valor do atributo Cada folha atribui uma classificação Mestrado em Informática Aplicada Aprendizagem de Máquina 15 Mestrado em Informática Aplicada Aprendizagem de Máquina 16

Quando Considerar Árvores de Decisão Quando Considerar Árvores de Decisão Instâncias descritas por pares atributo valor. Instâncias são descritas por um conjunto fixo de atributos (e.g. Temperature) e seus valores (e.g. Hot) Função alvo tem valores discretos de saída. Classificação booleana (Yes ou No) para cada exemplo ou mais de duas possibilidades. Hipóteses disjuntivas podem ser necessárias. Árvores de decisão representam naturalmente expressões disjuntivas. Dados de treinamento podem conter erros e valores de atributos faltantes. Mestrado em Informática Aplicada Aprendizagem de Máquina 17 Mestrado em Informática Aplicada Aprendizagem de Máquina 18 Quando Considerar Árvores de Decisão Exemplos: Diagnóstico ou equipamentos médicos Análise de risco em crédito Modelagem de preferências em agendamento Algoritmo Básico para Aprendizagem de Árvores de Decisão Base: Algoritmo ID3 e seu sucessor C4.5 O algoritmo ID3 aprende árvores de decisão construindo as de cima para baixo (top down), começando com a questão: Qual atributo deve ser testado na raiz da árvore? Para responder esta questão, cada atributo da instância é avaliado usando um teste estatístico para determinar quão bem ele sozinho classifica os exemplos de treinamento. Mestrado em Informática Aplicada Aprendizagem de Máquina 19 Mestrado em Informática Aplicada Aprendizagem de Máquina 0

Melhor Atributo!!! Exemplo Algoritmo Básico para Aprendizagem de Árvores de Decisão O melhor atributo é selecionado e usado como teste na raiz da árvore. Um descendente do nó raiz é então criado para cada valor possível deste atributo e os exemplos de treinamento são ordenados para o nó descendente apropriado. Mestrado em Informática Aplicada Aprendizagem de Máquina 1 Mestrado em Informática Aplicada Aprendizagem de Máquina Algoritmo Básico para Aprendizagem de Árvores de Decisão Algoritmo Básico para Aprendizagem de Árvores de Decisão O processo é repetido usando exemplos de treinamento associados com cada nó descendente para selecionar o melhor atributo para testar naquele ponto da árvore. Busca gulosa (greedy) por uma árvore de decisão aceitável, na qual o algoritmo nunca recua para reconsiderar escolhas prévias. Mestrado em Informática Aplicada Aprendizagem de Máquina 3 Mestrado em Informática Aplicada Aprendizagem de Máquina 4

Algoritmo Básico para Aprendizagem de Árvores de Decisão Algoritmo Básico para Aprendizagem de Árvores de Decisão ID3( Exemplos, Atributo_Alvo, Atributos) Exemplos são os exemplos de treinamento. Atributo_Alvo é o atributo cujo valor será predito pela árvore. Atributos é uma lista de outros atributos que podem ser testados pela árvore de decisão. Retorna uma árvore de decisão que classifica corretamente os Exemplos dados. Crie um nó Raiz para a árvore Se todos Exemplos forem positivos, retorne a árvore de nó único (Raiz), com etiqueta = + Se todos Exemplos forem positivos, retorne a árvore de nó único (Raiz), com etiqueta = Se Atributos estiver vazio, retorne a árvore de nó único Raiz, com etiqueta = valor mais comum do Atributo_Alvo nos Exemplos Caso contrário, comece: o A o atributo de Atributos que melhor classifica* Exemplos o O atributo de decisão para Raiz A o Para cada valor possível, v i, de A, Adicione um novo ramo da árvore abaixo da Raiz, correspondendo ao teste A = v i Faça Exemplosv i ser o subconjunto de Exemplos que tem valor v i para A. Se Exemplosv i for vazio Então embaixo deste novo ramo, adicione uma folha com etiqueta = valor mais comum do Atributo_Alvo nos Exemplos Senão embaixo deste novo ramo adicione a subárvore ID3(Exemplos, Atributo_Alvo, Atributos {A}) Final Retorne Raiz * O melhor atributo é aquele com ganho de informação mais elevado. Escolha Central: Selecionar qual atributo testar em cada nó da árvore. Devemos selecionar: Atributo que é mais útil para classificar os exemplos. Medida Quantitativa: Ganho de Informação = mede quão bem um dado atributo separa os exemplos de treinamento de acordo com a classificação alvo. Mestrado em Informática Aplicada Aprendizagem de Máquina 5 Mestrado em Informática Aplicada Aprendizagem de Máquina 6 Indução Top Down de Árvores de Decisão Laço principal do algoritmo ID3 Indução Top Down de Árvores de Decisão Qual é o melhor atributo? 1. A o melhor atributo de decisão para o próximo nó. Atribui A como atributo de decisão para nó 3. Para cada valor de A criar um novo descendente de nó 4. Arranjar os exemplos de treinamento para os nós folhas 5. Se os exemplos de treinamento forem classificados perfeitamente, então PARE, Senão iteração sobre novos nós folhas Mestrado em Informática Aplicada Aprendizagem de Máquina 7 Mestrado em Informática Aplicada Aprendizagem de Máquina 8

Fronteiras de Decisão Entropia Com dados numéricos é possível visualizar as fronteiras de decisão. Caracteriza a (im)pureza de uma coleção arbitrária de exemplos. Dado uma coleção S contendo exemplos + e de algum conceito alvo, a entropia de S relativa a esta classificação booleana é: Entropia ( S ) p+ log p+ p log p p+ é a proporção de exemplos positivos em S p é a proporção de exemplos negativos em S Mestrado em Informática Aplicada Aprendizagem de Máquina 9 Mestrado em Informática Aplicada Aprendizagem de Máquina 30 Entropia Entropia Exemplo: Sendo S uma coleção de 14 exemplos de algum conceito booleano, incluindo 9 exemplos positivos e 5 negativos [9+, 5 ]. A entropia de S relativa a classificação booleana é: Entropia 9 9 5 ([ 9+,5 ]) = ( log log 14 14 14 = 0.940 5 14 ) A função entropia relativa a uma classificação booleana, como a proporção, p + de exemplos positivos varia entre 0 e 1. Mestrado em Informática Aplicada Aprendizagem de Máquina 31 Mestrado em Informática Aplicada Aprendizagem de Máquina 3

Entropia Entropia Entropia(S) = número de bits esperados necessários para codificar classe (+ ou ) de membros tirados aleatoriamente de S ( sob o código ótimo, de comprimento mais curto). Por que? Teoria da informação: código de tamanho ótimo atribui log p bits para mensagens tendo probabilidade p. Mestrado em Informática Aplicada Aprendizagem de Máquina 33 Mestrado em Informática Aplicada Aprendizagem de Máquina 34 Entropia Entropia p ( log + p ) + p Entropia ( S ) p log + + Então, o número esperado de bits para codificar + ou de um membro aleatório de S: ( log p + p p ) log p Generalizando para o caso de um atributo alvo aceitar c diferentes valores, a entropia de S relativa a esta classificação c classes é definida como: Entropia ( S ) c i = 1 p i log p i onde p i é a proporção de S pertencendo a classe i. Mestrado em Informática Aplicada Aprendizagem de Máquina 35 Mestrado em Informática Aplicada Aprendizagem de Máquina 36

Ganho de Informação Ganho de Informação Gain (S,A) = redução esperada na entropia devido a ordenação sobre A, ou seja, a redução esperada na entropia causada pela partição dos exemplos de acordo com este atributo A. S é uma coleção de (dias) exemplos de treinamento descritos por atributos incluindo Wind. Temos 14 exemplos. Gain ( S, A) Entropia ( S ) v Valores ( A ) S S v Entropia ( S v ) Mestrado em Informática Aplicada Aprendizagem de Máquina 37 Mestrado em Informática Aplicada Aprendizagem de Máquina 38 Superfície de Separação Exemplo Ilustrativo Atributo alvo: PlayTennis (yes, no) Mestrado em Informática Aplicada Aprendizagem de Máquina 39 Mestrado em Informática Aplicada Aprendizagem de Máquina 40

Exemplo Ilustrativo Exemplo Ilustrativo Primeiro passo: criação do nó superior da árvore de decisão. Qual atributo deve ser testado primeiro na árvore? Determinar o ganho de informação (Gain) para cada atributo candidato (i.e. Outlook, Temperature, Humidity e Wind) Selecionar aquele cujo ganho de informação é o mais alto. Mestrado em Informática Aplicada Aprendizagem de Máquina 41 Mestrado em Informática Aplicada Aprendizagem de Máquina 4 Exemplo Ilustrativo Exemplo Ilustrativo Exemplo: Gain (S, Outlook) = 0.46 Gain(S, Humidity) = 0.151 Gain (S, Wind) = 0.048 Gain (S, Temperature) = 0.09 Ou seja, o atributo Outlook fornece a melhor predição do atributo alvo, PlayTennis, sobre os exemplos de treinamento (Fig 3.4) Mestrado em Informática Aplicada Aprendizagem de Máquina 43 Mestrado em Informática Aplicada Aprendizagem de Máquina 44

Exemplo Ilustrativo Exemplo Ilustrativo O processo para selecionar um novo atributo e particionar os exemplos de treinamento é repetido para cada nó descendente não terminal São utilizados somente os exemplos de treinamento associados com este nó. Atributos que foram incorporados anteriormente a árvore são excluídos qualquer atributo deve aparecer somente uma vez ao longo de qualquer caminho na árvore. Este processo continua até que uma das seguintes condições seja atendida: 1. Todos os atributos já estejam incluídos ao longo deste caminho da árvore;. Os exemplos de treinamento associados com este nó folha tenham todos o mesmo valor de atributo alvo. A árvore final é... Mestrado em Informática Aplicada Aprendizagem de Máquina 45 Mestrado em Informática Aplicada Aprendizagem de Máquina 46 Exemplo Ilustrativo Busca no Espaço de Hipóteses por ID3 Árvore de decisão final. O método de aprendizagem ID3 pode ser caracterizado como um método de busca em um espaço de hipóteses, por uma hipótese que se ajusta aos exemplos de treinamento. O espaço de hipóteses buscado pelo ID3 é o conjunto de árvores de decisão possíveis. O ID3 realiza uma busca simples complexa, hill climbing através do espaço de hipóteses começando com uma árvore vazia e considerando progressivamente hipóteses mais elaboradas (Fig 3.5). Mestrado em Informática Aplicada Aprendizagem de Máquina 47 Mestrado em Informática Aplicada Aprendizagem de Máquina 48

Busca no Espaço de Hipóteses por ID3 Busca no Espaço de Hipóteses por ID3 Espaço de hipóteses está completo A função alvo esta presente com certeza Fornece um única hipótese (qual?) Não pode representar 0 hipóteses Sem backtracking (recuo/voltar atrás) Mínimo local Escolhas de busca com base estatística Robustez a ruído nos dados Solução com bias indutivo (prefere árvores mais curtas) Mestrado em Informática Aplicada Aprendizagem de Máquina 49 Mestrado em Informática Aplicada Aprendizagem de Máquina 50 Bias Indutivo no ID3 Bias Indutivo no ID3 Dada uma coleção de exemplos de treinamento, existem geralmente várias árvores de decisão consistentes com os exemplos. A preferência é por árvores mais curtas e por aquelas com atributos de alto ganho de informação próximos da raiz Qual árvore deve ser escolhida???? Bias: é uma preferência por algumas hipóteses aos invés de uma restrição do espaço de hipóteses H Occam s razor prefere as hipóteses mais curtas (mais simples) que se ajustam aos dados Mestrado em Informática Aplicada Aprendizagem de Máquina 51 Mestrado em Informática Aplicada Aprendizagem de Máquina 5

Occam s Razor Occam s Razor Por que a preferência por hipóteses curtas? Por que a preferência por hipóteses curtas? Argumentos a favor: Argumentos contrários: Poucas hipóteses curtas VERSUS hipóteses longas Uma hipótese curta que se ajusta aos dados improvável ser coincidente Uma hipótese longa que se ajusta aos dados pode ser coincidente Existem muitas maneiras de definir pequenos conjuntos de hipóteses E.g. todas as árvores com um número primo de nós que usa atributos Mestrado em Informática Aplicada Aprendizagem de Máquina 53 Mestrado em Informática Aplicada Aprendizagem de Máquina 54 Aspectos na Aprendizagem de Árvores de Decisão Aspectos práticos na aprendizagem de árvores de decisão: Crescimento da profundidade de árvores de decisão Manipulação de atributos contínuos Sobreajuste em Árvores de Decisão Considere a adição de ruído no exemplo de treinamento #15. < Sunny, Hot, Normal, Strong, PlayTennis = No> Qual o efeito na árvore anterior? Escolha de uma medida apropriada para a seleção de atributos Manipulação de atributos com diferentes custos Melhoria da eficiência computacional Mestrado em Informática Aplicada Aprendizagem de Máquina 55 Mestrado em Informática Aplicada Aprendizagem de Máquina 56

Sobreajuste (Overfitting) Sobreajuste no Treinamento de Árvores de Decisão Considere o erro da hipótese h sobre Dados de treinamento: erro train (h) Distribuição de dados inteira D: erro D (h) Uma hipótese h H sobreajusta os dados de treinamento se existir uma hipótese alternativa h H tal que: erro train (h) < erro train (h ) e erro D (h) > erro D (h) Mestrado em Informática Aplicada Aprendizagem de Máquina 57 Mestrado em Informática Aplicada Aprendizagem de Máquina 58 Evitando Sobreajuste Evitando Sobreajuste Como podemos evitar o sobreajuste? Parar o crescimento quando a partição de dados não for estatisticamente significante Desenvolver uma árvore completa e então fazer uma poda. Como selecionar a melhor árvore Medida de performance sobre os dados de treinamento Medida de performance sobre um conjunto de dados de validação Usar uma medida explícita de complexidade para a codificação de exemplos de treinamento e a árvore de decisão. Minimizar o comprimento da descrição mínima (MDL) size ( tree ) + size ( misclassifications ( tree ) ) Mestrado em Informática Aplicada Aprendizagem de Máquina 59 Mestrado em Informática Aplicada Aprendizagem de Máquina 60

Erro de Poda Reduzido Erro de Poda Reduzido Podar um nó de decisão consiste em remover a sub-árvore enraizada naquele nó, tornando o um nó folha. Atribuir a este nó, a classificação mais comum dos exemplos de treinamento afiliados com aquele nó. Nós são removidos somente se a árvore aparada resultante não apresenta um comportamento pior do que a original sobre o conjunto de validação Particionar os dados em conjuntos de validação e treinamento Faça até que uma redução (poda) adicional seja prejudicial 1. Avaliar o impacto sobre o conjunto de validação da poda de cada nó possível, mais aqueles abaixo dele. Remover gulosamente aquele que melhora mais a precisão sobre o conjunto de validação Mestrado em Informática Aplicada Aprendizagem de Máquina 61 Mestrado em Informática Aplicada Aprendizagem de Máquina 6 Erro de Poda Reduzido Efeito do Erro de Poda Reduzido Produz a menor versão da sub-árvore mais precisa E se os dados forem limitados? Mestrado em Informática Aplicada Aprendizagem de Máquina 63 Mestrado em Informática Aplicada Aprendizagem de Máquina 64

Pós Redução (Poda) da Regra Convertendo uma Árvore em Regras 1. Converter a árvore em um conjunto de regras equivalente. Podar cada regra independentemente das outras 3. Ordenar as regras finais em uma seqüência desejável para o uso Talvez seja o método usando com mais freqüência. (e.g. C4.5) IF (Outlook = Sunny) ^ (Humidity = High) THEN PlayTennis = No IF (Outlook = Sunny) ^ (Humidity = Normal) THEN PlayTennis = Yes Mestrado em Informática Aplicada Aprendizagem de Máquina 65 Mestrado em Informática Aplicada Aprendizagem de Máquina 66 Convertendo uma Árvore em Regras Atributos de Valor Continuo Vantagens de converter uma árvore de decisão em regras antes da poda: Permite distinguir entre os diferentes contextos onde os nós de decisão são utilizados. Remove a distinção entre atributos de testes que ocorrem próximos da raiz da árvore e aqueles que ocorrem próximos das folhas. Melhora a leitura. Regras são geralmente mais fáceis para pessoas entenderem Na definição da ID3 temos as restrições: 1. Atributo alvo deve ter valor discreto. Os atributos testados nos nós de decisão devem também ser de valor discreto. A segunda restrição pode ser removida. Definir dinamicamente novos atributos de valor discreto que particionam o valor do atributo contínuo em um conjunto discreto de intervalos. A = atributo de valor contínuo criar um novo atributo A c que é verdadeiro se A < c e falso caso contrário. Como identificar c??? Mestrado em Informática Aplicada Aprendizagem de Máquina 67 Mestrado em Informática Aplicada Aprendizagem de Máquina 68

Atributos de Valor Continuo Atributos de Valor Contínuo Exemplo: Incluir o atributo de valor contínuo Temperature na descrição dos exemplos de treinamento para a tarefa de aprendizagem anterior. Supondo que os exemplos de treinamento associados a um nó particular são Dois limiares candidatos: c 1 = (48+60)/ = 54 c = (80+90)/ = 85 Escolher um limiar c que produza o maior ganho de informações Identificar exemplos adjacentes que diferem na classificação alvo. O ganho de informação pode ser calculado para cada um destes atributos candidatos: Temperature >54 e Temperature >85 e o melhor pode ser selecionado (T >54 ) Mestrado em Informática Aplicada Aprendizagem de Máquina 69 Mestrado em Informática Aplicada Aprendizagem de Máquina 70 Atributos com Muitos Valores Atributos com Custos Problema: Se o atributo tem muitos valores Gain selecionará Imagine utilizar Date=Jun_3_1996 como atributo Uma solução: Usar GainRatio (penaliza o atributo Date) ao invés: Gain( S, A) GainRatio( S, A) SplitInformation( S, A) c Si SplitInformation( S, A) log S i= 1 S i S Considere Diagnóstico médico. BloodTest tem custo $150 Robótica. Width_from_1ft tem custo 3seg. Como aprender um árvore consistente com custo esperado baixo? Uma solução: Substituir o gain por Tan and Schlimmer (1994) Nunez (1998) Gain( S, A) 1 ( Cost( A) + 1) w Gain ( S, A) Cost( A) onde w [0,1] determina a importância do custo Mestrado em Informática Aplicada Aprendizagem de Máquina 71 Mestrado em Informática Aplicada Aprendizagem de Máquina 7

Valores de Atributos Desconhecidos Resumo E se para alguns exemplos faltam os valores de A? Use o exemplo de treinamento de qualquer jeito, ordene através da árvore Se o nó n testa A, atribua o valor mais comum de A entre outros exemplos ordenados para o nó n Atribuir o valor mais comum de A entre outros exemplos com a mesmo valor alvo Atribuir uma probabilidade p i para cada valor possível v i de A Atribuir uma fração p i do exemplo para cada descendente na árvore Classificar novos exemplos da mesma maneira Aprendizagem de árvores de decisão fornece um método prático para a aprendizagem de conceito e para a aprendizagem de outras funções de valor discreto A família de algoritmos ID3 infere árvores de decisão expandindo as a partir da raiz e descendo, selecionando o próximo melhor atributo para cada novo ramo de decisão adicionado a árvore. ID3 busca um espaço de hipóteses completo evitando assim que a função alvo possa não estar presente no espaço de hipóteses. Mestrado em Informática Aplicada Aprendizagem de Máquina 73 Mestrado em Informática Aplicada Aprendizagem de Máquina 74 Resumo O bias indutivo implícito no ID3 inclui uma preferência por árvores menores. A busca através do espaço de hipóteses expande a árvore somente o necessário para classificar os exemplo de treinamento disponíveis. Sobreajuste é um aspecto importante na aprendizagem de árvores de decisão. Métodos para poda posterior são importantes para evitar o sobreajuste. Várias extensões ao algoritmo básico ID3. Mestrado em Informática Aplicada Aprendizagem de Máquina 75