Árvores de Decisão. Sistemas Inteligentes
|
|
|
- Mario Martinho Camilo
- 7 Há anos
- Visualizações:
Transcrição
1 Árvores de Decisão Sistemas Inteligentes
2 Uma Abordagem típica em aprendizagem simbólica Árvores de decisão: inductive decision trees (ID3) Instâncias (exemplos) são representadas por pares atributo-valor Fáceis de serem implementadas e utilizadas aprendizagem não incremental estatística (admite exceções)
3 Árvores de Decisão Uma árvore de decisão utiliza uma estratégia de dividir-para-conquistar: Um problema complexo é decomposto em subproblemas mais simples. Recursivamente a mesma estratégia é aplicada a cada sub-problema. A capacidade de discriminação de uma árvore vem da: Divisão do espaço definido pelos atributos em subespaços. A cada sub-espaço é associada uma classe.
4 Aprendizagem indutiva Pode ser incremental: atualiza hipótese a cada novo exemplo mais flexível, situada... Porém a ordem de apresentação é importante (backtracking) não incremental: gerada a partir de todo conjunto de exemplos mais eficiente e prática
5 Árvores de Decisão Crescente interesse CART (Breiman, Friedman, et.al.) C4.5 (Quinlan) S plus, Statistica, SPSS, SAS
6 Árvores de Decisão X 1 <a 1 >a 1 X 2 <a 3 >a 3 <a 2 X 2 Nó >a 2 X 2 a 3 X 1 <a 4 >a 4 a 2 a 4 a 1 X 1
7 O que é uma Árvore de Decisão Regra X 2 X 1 <a 1 >a 1 <a 3 >a 3 X 1 Raíz <a 2 X 2 <a 4 >a 4 Nó >a 2 Folhas Representação por árvores de decisão: Cada nó de decisão contem um teste num atributo. Cada ramo descendente corresponde a um possível valor deste atributo. Cada Folha está associada a uma classe. Cada percurso na árvore (da raiz à folha) corresponde a uma regra de classificação.
8 Árvores de Decisão X 2 a 3 a 2 No espaço definido pelos atributos: Cada folha corresponde a uma região: Hiper-retângulo A intersecção dos hiper - retângulos é vazia A união dos hiper-retângulos é o espaço completo a 4 a 1 X 1
9 Quando usar árvores de decisão? Instâncias (exemplos) são representadas por pares atributo-valor Função objetivo assume apenas valores discretos Hipóteses disjuntivas podem ser necessárias Conjunto de treinamento possivelmente corrompido por ruído Exemplos: Diagnóstico médico, diagnóstico de equipamentos, análise de crédito
10 Construção de uma Árvore de Decisão A idéia base: 1. Escolher um atributo. 2. Estender a árvore adicionando um ramo para cada valor do atributo. 3. Passar os exemplos para as folhas (tendo em conta o valor do atributo escolhido) 4. Para cada folha 1. Se todos os exemplos são da mesma classe, associar essa classe à folha 2. Senão repetir os passos 1 a 4
11 Exemplo O conjunto de dados original
12 Exemplo Seleciona um atributo Qual o melhor atributo?
13 Critérios para Escolha do Atributo Como medir a habilidade de um dado atributo discriminar as classes? Existem muitas medidas. Todas concordam em dois pontos: Uma divisão que mantêm as proporções de classes em todas as partições é inútil. Uma divisão onde em cada partição todos os exemplos são da mesma classe tem utilidade máxima.
14 Critérios para Escolha do Atributo Qual é o melhor atributo? [29+, 35-] A1=? [29+, 35-] A2=? [21+, 5-] [8+, 30-] [18+, 33-] [11+, 2-]
15 Entropia S é uma amostra dos exemplos de treinamento p é a proporção de exemplos positivos em S p é a proporção de exemplos negativos em S Entropia mede a impureza de S: Entropia(S)=- p log 2 p - p log 2 p
16 Entropia - Exemplo I Se p é 1, o destinatário sabe que o exemplo selecionado será positivo Nenhuma mensagem precisa ser enviada Entropia é 0 (mínima) Se p é 0.5, um bit é necessário para indicar se o exemplo selecionado é ou Entropia é 1 (máxima)
17 Entropia - Gráfico
18 Entropia Entropia é uma medida da aleatoriedade (impureza) de uma variável. A entropia de uma variável nominal X que pode tomar i valores: entropia( X ) p i log2 p i = i A entropia tem máximo (log2 i) se p i = p j para qualquer i j A entropia(x) = 0 se existe um i tal que p i = 1 É assumido que 0 * log2 0 = 0
19 Entropia - Exemplo II Suponha que S é uma coleção de 14 exemplos, incluindo 9 positivos e 5 negativos Notação: [9+,5-] A entropia de S em relação a esta classificação booleana é dada por: Entropy ([ 9+,5 ]) = (9 /14) log 2 (9 /14) (5 /14) log 2 = (5 /14)
20 Ganho de Informação No contexto das árvores de decisão a entropia é usada para estimar a aleatoriedade da variável a prever (classe). Dado um conjunto de exemplos, que atributo escolher para teste? Os valores de um atributo definem partições do conjunto de exemplos. O ganho de informação mede a redução da entropia causada pela partição dos exemplos de acordo com os valores do atributo.
21 Ganho de Informação # Exsν ganho( Exs, Atri) = entropia( Exs) entropia( Exsν ) # Exs ν A construção de uma árvore de decisão é guiada pelo objetivo de diminuir a entropia ou seja a aleatoriedade - dificuldade de previsão- da variável que define as classes
22 Cálculo do Ganho de Informação de um Atributo Nominal Informação da Classe: p(sim) = 9/14 p(não) = 5/14 Ent(joga) = - 9/14 log 2 9/14 5/14 log 2 5/14 = Informação nas partições: p(sim tempo=sol) = 2/5 p(não tempo=sol) = 3/5
23 Cálculo do Ganho de Informação de um Atributo Nominal Informação nas partições: Ent(joga tempo=sol) = -2/5 log 2 2/5 3/5 log 2 3/5 = Ent(joga tempo=nublado) = 0.0 Ent(joga tempo=chuva) = Info(tempo) = 5/14* /14*0+5/14*0.971= Ganho de Informação obtida neste atributo: Ganho(tempo) = Ent(joga)-Info(tempo) Ganho(tempo) = = 0.247
24 Cálculo do Ganho para Atributos Numéricos Um teste num atributo numérico produz uma partição binária do conjunto de exemplos: Exemplos onde valor_do_atributo < ponto_referência Exemplos onde valor_do_atributo > ponto_referência Escolha do ponto de referência: Ordenar os exemplos por ordem crescente dos valores do atributo numérico. Qualquer ponto intermediário entre dois valores diferentes e consecutivos dos valores observados no conjunto de treinamento pode ser utilizado como possível ponto de referência
25 Cálculo do Ganho para Atributos Numéricos Considere o ponto de referência temperatura = 70.5 Um teste usando este ponto de referência divide os exemplos em duas classes: Exemplos onde temperatura < 70.5 Exemplos onde temperatura > 70.5 Como medir o ganho de informação desta partição?
26 Cálculo do Ganho para Atributos Numéricos É usual considerar o valor médio entre dois valores diferentes e consecutivos Fayyard e Irani (1993) mostram que de todos os possíveis pontos de referência aqueles que maximizam o ganho de informação separam dois exemplos de classes diferentes
27 Cálculo do Ganho para Atributos Numéricos Como medir o ganho de informação desta partição? Informação nas partições p(sim temperatura<70.5)=4/5 p(não temperatura<70.5)=1/5 p(sim temperatura>70.5)=5/9 p(não temperatura>70.5)=4/9
28 Cálculo do Ganho para Atributos Numéricos Info(joga temperatur<70.5) = -4/5 log 2 4/5 1/5 log 2 1/5 = Info(joga temperatura >70.5) = -5/9 log 2 5/9 4/9 log 2 4/9 = Info(temperatura) = 5/14* /14*0.991 = Ganho(temperatura) = = bits
29 Critérios de Parada Quando parar a divisão dos exemplos? Todos os exemplos pertencem a mesma classe. Todos os exemplos têm os mesmos valores dos atributos (mas diferentes classes). O número de exemplos é inferior a um certo limite. O mérito de todos os possíveis testes de partição dos exemplos é muito baixo.
30 Construção de uma Árvore de Decisão Input: Um conjunto exemplos Output: Uma árvore de decisão Função Geraarvore(Exs) Se criterio_parada(exs) = TRUE: retorna Folha Escolhe o atributo que maximiza o critério_divisão(exs) Para cada partição i dos exemplos baseada no atributo escolhido: árvorei = Geraárvore(Exsi) Retorna um nó de decisão baseado no atributo escolhido e com descendentes árvore i. Fim
31 Construção de uma Árvore de Decisão O problema de construir uma árvore de decisão: Consistente com um conjunto de exemplos Com o menor número de nós É um problema NP completo. Dois problemas: Que atributo selecionar para teste num nó? Quando parar a divisão dos exemplos?
32 Construção de uma Árvore de Decisão Os algoritmos mais populares: Utilizam heurísticas que tomam decisões olhando para a frente um passo. Não reconsideram as opções tomadas Não há backtracking Mínimo local
33 Construção de uma Árvore de Decisão Referencia :
34 Construção de uma Árvore de Decisão
35 Construção de uma Árvore de Decisão
36 Construção de uma Árvore de Decisão
37 Construção de uma Árvore de Decisão
38 Construção de uma Árvore de Decisão
39 Construção de uma Árvore de Decisão
40 Sobre-ajustamento (Overfitting) O algoritmo de partição recursiva do conjunto de dados gera estruturas que podem obter um ajuste aos exemplos de treinamento perfeito. Em domínios sem ruído o nr. de erros no conjunto de treinamento pode ser 0. Em problemas com ruído esta capacidade é problemática: A partir de uma certa profundidade as decisões tomadas são baseadas em pequenos conjuntos de exemplos. A capacidade de generalização para exemplos não utilizados no crescimento da árvore diminui.
41 Variação do erro com o no. de nós
42 Sobre-ajustamento ( overfitting ) Definição: Uma árvore de decisão d faz sobre-ajustamento aos dados se existir uma árvore d tal que: d tem menor erro que d no conjunto de treinamento mas d tem menor erro na população. Como pode acontecer: Ruído nos dados; O número de parâmetros de uma árvore de decisão cresce linearmente com o número de exemplos. Uma árvore de decisão pode obter um ajuste perfeito aos dados de treinamento.
43 Sobre-ajustamento ( overfitting ) Occam s razor: preferência pela hipótese mais simples. Existem menos hipóteses simples do que complexas. Se uma hipótese simples explica os dados é pouco provável que seja uma coincidência. Uma hipótese complexa pode explicar os dados apenas por coincidência.
44 Simplificar a árvore Duas possibilidades: Parar o crescimento da árvore mais cedo (pre-pruning). Costruir uma árvore completa e podar a árvore (pos-pruning). Growing and pruning is slower but more reliable Quinlan, 1988
45 Um algoritmo básico de pruning Percorre a árvore em profundidade Para cada nó de decisão calcula: Erro no nó Soma dos erros nos nós descendentes Se o erro no nó é menor ou igual à soma dos erros dos nós descendentes o nó é transformado em folha.
46 Um algoritmo Básico de Pruning Exemplo do nó B: Erro no nó = 2 Soma dos erros nos nós descendentes: Transforma o nó em folha Elimina os nós descendentes.
47 Critérios de como escolher a melhor árvore Obter estimativas confiáveis do erro a partir do conjunto de treinamento. Otimizar o erro num conjunto de validação independente do utilizado para construir a árvore. Minimizar: erro no treinamento + dimensão da árvore Cost Complexity pruning (Cart) dimensão da árvore + quantidade de exemplos mal classificados MDL pruning (Quinlan)
48 Convertendo uma árvore em regras
49 Convertendo uma árvore em regras IF (Outlook = Sunny) (Humidity = High) THEN PlayTennis = No IF (Outlook = Sunny) (Humidity = Normal) THEN PlayTennis = YES...
50 Porquê Regras? Permite eliminar um teste numa regra, mas pode reter o teste em outra regra. Elimina a distinção entre testes perto da raiz e testes perto das folhas. Maior grau de interpretabilidade.
51 Referências Machine Learning. Tom Mitchell. McGraw-Hill.1997.
Árvores de Decisão. Sistemas Inteligentes
Árvores de Decisão Sistemas Inteligentes Exemplos de situações do dia a dia em que a aprendizagem de máquina é importante A partir de informações sobre pacientes relativas a gravidez aprender a prever
Árvores de Decisão. Sumario. João Gama Árvores de decisão. Motivação Construção de uma árvore de decisão. Podar a árvore.
Árvores de Decisão João Gama [email protected] Sumario Árvores de decisão Motivação Construção de uma árvore de decisão Critérios para seleccionar atributos Entropia Podar a árvore Estimativas de erro Extensões
INF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 12 Árvores de Decisão Prof. Augusto Baffa Árvores de Decisão Uma das formas de algoritmo de aprendizado mais simples e de maior sucesso. Uma
Árvores de Decisão. Sumario. João Gama Árvores de decisão. Motivação Construção de uma árvore de decisão. Podar a árvore.
Árvores de Decisão João Gama [email protected] Sumario Árvores de decisão Motivação Construção de uma árvore de decisão Critérios para seleccionar atributos Entropia Podar a árvore Estimativas de erro
Árvore de Decisão. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE
Árvore de Decisão George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Tópicos Introdução Representando Árvores de Decisão O algoritmo ID3 Definições Entropia Ganho de Informação Overfitting Objetivo
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná 1 Um dos métodos práticos mais usados Induz funções discretas robustas a ruído Capaz de aprender expressões disjuntivas Se pais = Inglaterra
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Aprendizado de Máquina
Aprendizado de Máquina Sistemas de Informação Inteligente Prof. Leandro C. Fernandes Adaptação dos materiais de: Thiago A. S. Pardo, Daniel Honorato e Bianca Zadrozny APRENDIZADO SIMBÓLICO: ÁRVORES DE
Aprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Aprendizagem de Árvores de Decisão Aula 3 Alessandro L. Koerich Introdução Representação de Árvores de Decisão Algoritmo de Aprendizagem ID3 Entropia e Ganho de Informação
Aprendizagem indutiva
Aprendizagem indutiva Inferência indutiva de fatos providos por um professor ou ambiente. O estudo e modelagem desta forma de aprendizagem é um dos tópicos centrais de aprendizagem de máquina. Em aprendizagem
Fundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL 1 o Semestre Assunto Aula 10 Modelos Preditivos - Árvore de Decisão 2 de 20 Aula 10 - Árvore de
Inteligência Artificial
https://www.pinterest.com/carlymundo/decision-tree-infographics/ Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial
Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação
Aprendizado em IA Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Tópicos Agentes baseados em aprendizado Aprendizado indutivo Árvores de decisão Método ID3 Aprendizado em redes neurais
Arvores de decisão. O que é uma árvore de decisão? Victor Lobo
Arvores de decisão Victor Lobo O que é uma árvore de decisão? Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença) Nós (testes, ou conceitos)
Árvore de Decisão. Capítulo 18 Russell & Norvig Seções 18.1 a 18.3
Árvore de Decisão Capítulo 18 Russell & Norvig Seções 18.1 a 18.3 Aprendizagem Indutiva Clássica Recebe como entrada o valor correto de uma função desconhecida para entradas específicas e tenta recuperar
Arvores de decisão. Outras árvores. Outra maneira de ver árvores. Extracção de regras (a partir de árvores) Vantagens das árvores (1)
O que é a árvore de decisão? Arvores de decisão Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença) Victor Lobo Nós (testes, ou conceitos)
Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Introdução. Classificação III: Árvores de Decisão
SCC073 Mineração de Dados Biológicos Classificação III: Árvores de Decisão Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo Prof. André C. P. L. F.
Árvores de Decisão. Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação
Árvores de Decisão Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação Rodrigo Fernandes de Mello [email protected] Árvores de Decisão Método
Arvores de decisão. O que é uma árvore de decisão? Cap.6 Árvores de Decisão V 3.0, V.Lobo, EN/ISEGI, Victor Lobo
V., V.Lobo, EN/ISEGI, 5 Arvores de decisão Victor Lobo O que é uma árvore de decisão? Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença)
Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka
Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Árvores de Decisão Métodos para aproximar funções discretas, representadas por meio de uma árvore de decisão; Árvores de decisão podem ser
Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR
Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível
Métodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Aprendizagem de Máquina Área da Inteligência Artificial cujo objetivo é o desenvolvimento de técnicas computacionais sobre
Lista de Exercícios - Capítulo 8 [1] SCC Inteligência Artificial 1o. Semestre de Prof. João Luís
ICMC-USP Lista de Exercícios - Capítulo 8 [1] SCC-630 - Inteligência Artificial 1o. Semestre de 2011 - Prof. João Luís 1. Seja breve na resposta às seguintes questões: (a) o que você entende por Aprendizado
Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
Introdução Paradigmas
Introdução Paradigmas Recursividade Algoritmos tentativa e erro Divisão e conquista Programação dinâmica Algoritmos gulosos Algoritmos aproximados 1 Introdução O projeto de algoritmos requer abordagens
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos
Inteligência nos Negócios (Business Inteligente)
Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões
Entropia, Ganho de informação e Decision trees
Entropia, Ganho de informação e Decision trees O exemplo de hoje foi baseado no livro Machine learning de Tom M. Mitchell. Para esse exemplo vamos usar um conjunto de dados simples: A tabela acima consiste
SUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Aprendizado por Árvores de Decisão
Universidade Federal de Santa Maria Departamento de Eletrônica e Computação Prof. Cesar Tadeu Pozzer Disciplina de Programação de Jogos 3D E-mail: [email protected] Período: 2006/01 Aprendizado por Árvores
Fundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Saulo Martiello Mastelini Departamento de Computação - UEL 1 o Semestre Assunto Aula 11 Modelos Preditivos - Árvore de Decisão
Algoritmos Indutores de Árvores de
Algoritmos Indutores de Árvores de Decisão Fabrício J. Barth Sistemas Inteligentes Análise e Desenvolvimento de Sistemas Faculdades de Tecnologia Bandeirantes Abril de 2013 Problema: Diagnóstico para uso
SCC0173 Mineração de Dados Biológicos
SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:
Algoritmos para Classificação
Mineração de Dados Algoritmos para Classificação 1 Sumário Algoritmo 1R Naïve Bayes Árvore de Decisão Regras Modelos Lineares (Regressão) Baseados em Instância (Vizinhos mais Próximos) 2 1 Atividades 3
Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR
Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento
2 Modelos Não Lineares
Modelos Não Lineares 17 2 Modelos Não Lineares 2.1. Introdução Nos últimos anos, muitos modelos não-lineares para a análise de séries temporais têm sido propostos. Na econometria clássica, os modelos de
Aprendizagem a partir de observações. Capítulo 18
Aprendizagem a partir de observações Capítulo 18 Descrição de agentes que podem melhorar o seu comportamento a partir do estudo diligente das próprias experiências Índice Formas de aprendizagem Aprendizagem
Descoberta de Conhecimento em Bancos de Dados - KDD
Descoberta de Conhecimento em Bancos de Dados - KDD Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Fases do processo 3. Exemplo do DMC 4. Avaliação
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Metodologia Aplicada a Computação.
Metodologia Aplicada a Computação [email protected] Pré-processamento de dados Técnicas utilizadas para melhorar a qualidade dos dados; Eliminam ou minimizam os problemas como ruídos, valores incorretos,
Aprendizado de Máquinas
Aprendizado de Máquinas Objetivo A área de aprendizado de máquina preocupa-se em construir programas que automaticamente melhorem seu desempenho com a experiência. Conceito AM estuda métodos computacionais
INF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 15 Árvores de Decisão Árvores de Decisão Uma das formas de algoritmo de aprendizado mais simples e de maior sucesso.
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:
Classificação. Eduardo Raul Hruschka
Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos
Introdução ao Data Mining Instituto Nacional de Estatística de Fevereiro de 2009
Introdução ao Data Mining Instituto Nacional de Estatística 16-20 de Fevereiro de 2009 Módulo 2 -Métodos de Data Mining- -Árvores de decisão- -Regressão Linear e Árvores de regressão André Falcão ([email protected])
Resolução de Problemas: Busca Heurística
Resolução de Problemas: Busca Heurística Aula 3 - Inteligência Artificial Busca Heurística Duas variações: Busca usando heurística (não numérica). Busca usando funções de avaliação e funções de custo.
