Árvores de decisão. Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia. 25 de Maio de 2017
|
|
- Thereza Benevides
- 5 Há anos
- Visualizações:
Transcrição
1 Árvores de decisão Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia 25 de Maio de 2017
2 2/56 Árvores de Decisão Nós internos testam o valor de um atributo individual ramificam de acordo com os resultados do teste Nós folhas especificam a classe h( x) Exemplo: jogar tênis? Aparência Ensolarado Umidade Nublado Sim Chuvoso Vento Alta Normal Forte Fraco Não Sim Não Sim
3 3/56 Aprendizado de Árvores de Decisão Algoritmos de aprendizado para árvores de decisão Aprendizado Árvore é construída pela adição de nós Constrói hipótese explicitamente (aprendizado impaciente) Qualquer função booleana pode ser representada por uma árvore de decisão
4 4/56 Aprendizado: escolha de atributo Aparência x 1 Atributos são Aparência: x1 Ensolarado Nublado Chuvoso Temperatura: x 2 Umidade: x 3 Umidade x 3 Sim Vento x 4 Vento: x4 Alta Normal Forte Fraco Não Sim Não Sim x = (x 1 = Ensolarado, x 2 = Calor, x 3 = Alta, x 4 = Forte) será classificado como Não temperatura é irrelevante
5 5/56 Aprendizado: atributo contínuo Aparência Ensolarado Umidade Nublado Sim Chuvoso Vento > 75% 75% > Não Sim Não Sim Se atributos são contínuos, nós internos podem testar o valor de um atributo em relação a um limiar.
6 6/56 Formato de decisões de Árvores de Decisão Árvores dividem o espaço de atributos em retângulos paralelos aos eixos e atribuem cada a uma das classes de decisão. 4 x x 2 < 3 1 x 1 < 4 x 1 < x 2 < x 1 0 1
7 7/56 Árvores de decisão podem representar qualquer função booleana x x 1 < 0.5 x 2 < 0.5 x 2 < x 1
8 Árvores de decisão podem representar qualquer função booleana Pior caso A árvore pode exigir um número exponencial de nós em função do número de atributos. x x 1 x 1 < 0.5 x 2 < 0.5 x 2 < x 1 x 2 x 3 x 4 y Para cada valor de atributo é necessário criar uma ramificação. 8/56
9 9/56 Árvores de decisão têm espaço de hipóteses de tamanho variável Espaço de hipóteses: conjunto de combinações de elementos da linguagem de representação Conforme o número de nós (ou altura) da árvore aumenta, o espaço de hipóteses cresce Altura 1 pode representar qualquer função booleana de 1 atributo Altura 2: qualquer função com 2 atributos e algumas com 3 exemplo: (x1 x 2 ) ( x 1 x 3 )
10 10/56 Algoritmo de aprendizado para árvores de decisão O mesmo algoritmo foi proposto por várias pessoas: 1 / Entrada : S c o n j u n t o de p a r e s <x, y >, 2 sendo x a t r i b u t o s e y c l a s s e s. / 3 Node c r i a r A r v o r e ( S ) { 4 i f ( y == 0 para todo <x, y> em S ) 5 r e t u r n Folha ( 0 ) ; 6 e l s e i f ( y == 1 para todo <x, y> em S ) 7 r e t u r n Folha ( 1 ) ; 8 e l s e { 9 j = e s c o l h e r M e l h o r A t r i b u t o ( x, y ) ; 10 S0 = Conjunto{<x, y> em S com x [ j ] == 0 } ; 11 S1 = Conjunto{<x, y> em S com x [ j ] == 1 } ; A0 = c r i a r A r v o r e ( S0 ) ; 14 A1 = c r i a r A r v o r e ( S1 ) ; 15 r e t u r n Node ( x [ j ], A0, A1) ; 16 } 17 }
11 11/56 Escolha do melhor atributo: taxa de erro Uma forma é fazer uma busca um passo adiante e escolher o atributo que resulta em menor taxa de erro nos exemplos de treino. 1 e s c o l h e r A t r i b u t o ( S ) { 2 // e s c o l h e r j para m i n i m i z a r e r r o s, da s e g u i n t e forma : 3 para cada a t r i b u t o j c a l c u l a r { 4 S0 = {<x, y> em S com x [ j ] == 0 } ; 5 S1 = {<x, y> em S com x [ j ] == 1 } ; 6 7 y0 = o v a l o r mais comum de y em S0 8 y1 = o v a l o r mais comum de y em S J0 = numero de exemplos <x, y> em S0 com y!= y0 11 J1 = numero de exemplos <x, y> em S1 com y!= y1 12 // e r r o s t o t a i s s e d i v i d i r m o s no a t r i b u t o j 13 ERRO = J0 + J1 14 } 15 r e t u r n ( j com menor ERRO) 16 }
12 12/56 Exemplo: escolha do melhor atributo x 1 x 2 x 3 y Em x 1, J = Em x 2, J = Em x 3, J = 4
13 13/56 Exemplo: escolha do melhor atributo A medida de erros nem sempre detecta casos em que podemos progredir na construção de uma boa árvore x 1 J = 10 x 1 = x 2 x 1 = x 3 J = = 10 x 2 = x 2 = x 3 = x 3 = J = 0
14 14/56 Uma heurística baseada em Teoria da Informação Seja V uma variável aleatória com a seguinte distribuição de probabilidades P(V = 0) P(V = 1) A surpresa S(V = v) para cada valor v V é: S(V = v) = log 2 P(V = v)
15 15/56 Uma heurística baseada em Teoria da Informação A surpresa S(V = v) para cada valor de V é definido da forma: S(V = v) = log 2 P(V = v) A surpresa de ocorrer um evento com probabilidade 1 é 0. A surpresa de ocorrer um evento com probabilidade 0 é.
16 16/56 Entropia A entropia H(V ) do evento binário V {0, 1} é definida por H(V ) = P(V = v) log 2 P(V = v) v {0,1} que é a surpresa (incerteza) média de V. H(V ) P(V = 1)
17 17/56 Informação mútua A informação mútua entre variáveis aleatórias A e B é a quantidade de informação que aprendemos sobre B ao saber do valor de A e vice-versa. Isso é calculado com a seguinte fórmula: I (A; B) = H(B) b P(B = b) H(A B = b)
18 Informação mútua A informação mútua entre A e B: I (A; B) = H(B) b P(B = b) H(A B = b) Considere que a classe Y, os valores de atributos X sejam variáveis aleatórias. Então, a informação mútua mede a utilidade um atributo de X = x 1 na decisão sobre a classe Y x 1 H(Y ) = P(x 1 = 0) = P(x 1 = 1) = H(Y x 1 = 0) = H(Y x 1 = 1) = I (Y ; x 1 ) = /56
19 19/56 Visualizando heurísticas Figura: Entropia Figura: Erro absoluto Informação mútua funciona porque é uma medida convexa. A linha da média de entropias está sempre abaixo da linha da entropia antes da divisão.
20 20/56 Atributos não-booleanos Atributos com múltiplos valores discretos 1. Fazer uma divisão para cada valor 2. Fazer uma divisão de um contra todos 3. Agrupar valores em dois subconjuntos disjuntos Atributos contínuos Procurar um limiar para dividir os valores do atributo Usar informação mútua para escolher a melhor divisão
21 21/56 Atributos com muitos atributos Problema Se atributo tem muitos valores, Ganho (informação mútua) vai escolhê-lo Ganho(S, A) = I (S[y]; A) Imagine usar CPF como atributo para aplicação de aprovação crédito
22 22/56 Taxa de ganho Usar TaxaDeGanho: TaxaDeGanho(S, A) = InfoDaDivisao(S, A) = Ganho(S, A) InfoDaDivisao(S, A) c i=1 S i S log S i 2 S onde S i é o subconjunto de S para qual A tem valor v i Usar InfoDaDivisao para previlegiar atributos cuja divisão provê mais informação
23 23/56 Atributos com valores desconhecidos E se alguns exemplos têm atributos faltando? Usar o exemplo de treino mesmo assim, opções: Se nó n testar atributo A, atribuir o valor mais comum de A entre os outros exemplos Atribuir valor mais comum de A entre outros exemplos com mesmo valor alvo Atribuir probabilidade p i para cada possível valor v i de A Atribuir fração pi do exemplo para cada descendente na árvore Classificar novos exemplos na mesma maneira
24 24/56 Overfitting (memorização) em árvores de decisão Aparência Ensolarado Umidade Nublado Sim Chuvoso Vento Alta Normal Forte Fraco Não Sim Não Sim Qual é o efeito na árvore ao usar um exemplo problemático com ruído: Ensolarado, Calor, Normal, Forte, JogarT^enis=N~ao.
25 25/56 Overfitting: Árvore que escolhe atributo aleatório - Conjunto Íris sw 3.05 pl 4.42 pw 0.9 sl 5.44 pw =0.0 sw 3.27 sl =1.0 pl =2.0 pl 5.17 pl =0.0 sw 2.65 sl 6.0 pw 1.54 sw =2.0 pw =2.0 4=1.0 pl 1.94 sw =1.0 sl 6.17 pw 1.63 pl 4.77 sw 3.2 2=1.0 2=2.0 4=0.0 1=1.0 pw 1.5 2=1.0 2=2.0 sl 6.3 pl =1.0 2=1.0 sl 6.9 pl =1.0 1=2.0 pw 1.5 1=1.0 1=2.0 pw 1.9 2=1.0 sw 3.2 pw 1.5 1=1.0 1=2.0 pl 4.94 sw =1.0 1=2.0 1=1.0 1=2.0
26 26/56 Overfitting Considere o erro de hipótese h sobre exemplos de treino: erro treino (h) distribuição completa D dos dados: erro D (h) Overfitting (memorização) Hipótese h H memorizou exemplos de treino se existe uma hipótese alternativa h H tal que erro treino (h) < erro treino (h ) e erro D (h) > erro D (h )
27 27/56 Overfitting durante o aprendizado de árvore de decisão A acurácia no conjunto de treino aumenta com maior número de nós Com maior número de nós, a acurácia no conjunto de teste diminui
28 28/56 Evitando overfitting Como evitar overfitting Parar de crescer a árvore quando divisões não são estatisticamente significativas Construir árvore completa e depois podá-la Como selecionar melhor árvore Medir desempenho nos exemplos de treino Medir desempenho em um conjunto de dados separado para validação Usar penalidade de complexidade para a medida de desempenho
29 29/56 Podagem de redução de erros Separar exemplos em conjuntos de treino e validação Podar enquanto não for prejudicial: 1. Medir com o conjunto de validação o impacto da podagem de cada nó possível 2. Podar o nó que melhorar mais a acurácia
30 30/56 Podagem de regras após geração da árvore 1. Converter árvore em conjunto de regras Exemplo: obter uma regra para cada folha 2. Podar cada regra independentemente das outras Exemplo: remover condição se isso melhorar a acurácia no conjunto de validação 3. Ordenar regras podadas na sequência de uso Exemplo: usar regras com maior acurácia primeiro Método frequentemente utilizado (exemplo, C4.5/J.48 Weka)
31 31/56 Conversão de uma árvore em regras Aparência Ensolarado Umidade Nublado Sim Chuvoso Vento Alta Normal Forte Fraco Não Sim Não Sim
32 32/56 Algoritmos Iterative Dichotomiser 3 (ID3) de R. Quinlan Entropia Atributos discretos C4.5 (Weka J48) sucessor de ID3 de R. Quinlan Ganho de informação normalizado Atributos contínuos/numéricos Poda C5.0 de R. Quinlan Melhor corte de fatores ordenados e outros tipos de dados Paralelismo = + rápido Boosting Logistic Model Trees Mistura de atributos para decisão
33 33/56 Árvores na prática: R Sucessora C4.5: C50 Fast and Frugal Decision Trees: FFTrees Random Forest: randomforest A Fast Implementation of Random Forests: ranger Distributed randomforest for Big Data: randomforest.ddr
34 Árvores C50 require(c50) data(iris) train.idx <- sample(1:nrow(iris), 100) iris.train <- iris[train.idx, ] iris.test <- iris[-train.idx, ] arvore <- C5.0(Species ~., iris.train) arvore ## ## Call: ## C5.0.formula(formula = Species ~., data = iris.train) ## ## Classification Tree ## Number of samples: 100 ## Number of predictors: 4 ## ## Tree size: 4 34/56
35 35/56 Árvores C50: visualização plot(arvore) 1 Petal.Length 1.9 > Petal.Width 4 Petal.Length 1.7 > > Node 2 (n = 35) setosa virginica Node 5 (n = 29) setosa virginica Node 6 (n = 4) setosa virginica Node 7 (n = 32) setosa virginica
36 Árvores C50: desempenho res <- predict(arvore, iris.train) table(res, iris.train$species) ## ## res setosa versicolor virginica ## setosa ## versicolor ## virginica res <- predict(arvore, newdata=iris.test) table(res, iris.test$species) ## ## res setosa versicolor virginica ## setosa ## versicolor ## virginica /56
37 37/56 Árvores C50: extração de regras regras <- C5.0(Species ~., iris.train, rules=true) regras ## ## Call: ## C5.0.formula(formula = Species ~., data = ## iris.train, rules = TRUE) ## ## Rule-Based Model ## Number of samples: 100 ## Number of predictors: 4 ## ## Number of Rules: 4 ## ## Non-standard options: attempt to group attributes
38 38/56 Árvores C50: desempenho de regras table(predict(regras, iris.train), iris.train$species) ## ## setosa versicolor virginica ## setosa ## versicolor ## virginica table(predict(regras, iris.test), iris.test$species) ## ## setosa versicolor virginica ## setosa ## versicolor ## virginica
39 39/56 Árvores C50: controle cfg <-C5.0Control( subset = TRUE,#usar preditores discretos em splits? bands = 0, # agrupar regras em bands caso rules=t winnow = FALSE,# usar winnowing? noglobalpruning = FALSE, # poda no final? CF = 0.5, # fator de confianca mincases = 15, # minimo exemplos em folhas fuzzythreshold = FALSE, sample = 0, # proporcao amostra de treino seed = 0, # aleatoriedade em empates earlystopping = TRUE, # parar boosting label = "outcome") arvore <- C5.0(Species ~., iris, control = cfg)
40 40/56 plot(arvore) 1 Petal.Length 1.9 > Petal.Width 1.7 > 1.7 Node 2 (n = 50) Node 4 (n = 54) Node 5 (n = 46) setosa versicolor virginica 0 setosa versicolor virginica 0 setosa versicolor virginica
41 41/56 Árvores FFTrees Fácil uso: poucos atributos para decisão BINÁRIA require(fftrees) # Fast and Frugal Trees irisbin <- iris irisbin[,5] <- irisbin$species == "virginica" iris.fft <- FFTrees(Species ~., irisbin) iris.fft ## [1] "FFT #4 uses 2 cues {Petal.Length,Petal.Width} with the follo ## [1] "6 FFTs using up to 4 of 4 cues" ## train ## n ## pci 0.67 ## mcu 1.66 ## acc 0.97 ## bacc 0.98 ## sens 1.00 ## spec 0.95
42 42/56 # cue == característica == atributo== descritor # HR: hit rate, FAR: false alarm rate iris.fft$cue.accuracies ## $train ## cue class threshold direction n hi mi ## 1 Sepal.Length numeric 5.7 > ## 2 Sepal.Width numeric 3.4 < ## 3 Petal.Length numeric 4.8 > ## 4 Petal.Width numeric 1.6 > ## fa cr sens spec far acc bacc dprime ## ## ## ## ## ## $test ## NULL
43 43/56 showcues(iris.fft, main = "virginica") virginica Sensitivity rank cue + thresh sens spec bacc 1 Petal.Length > Petal.Width > Sepal.Length > Sepal.Width < Specificity
44 plot(iris.fft, # spec == specificity == True Neg Rate data = "train", description = "Iris FFT", decision.names = c("n~ao virg.", "virginica")) 67% p(não virg.) Decide não virg. True não virg. Data N = True virginica 50 Tree #4 (of 6) p(virginica) 33% Decide virginica Correct Rejection Miss Petal.Length False Alarm Hit > 4.8 Petal.Width v 'virginica' 4 47 <= 1.6 > 'não virg.' n v 'virginica' 1 3 Performance (Fitting) Decision virginica não virg. virginica 50 Hit 0 Miss Truth não virg. 5 False Al 95 Cor Rej pci sens spec acc bacc AUC 100% 95% 97% 98% 99% 67% mcu BL 1.66 Sensitivity (HR) ROC 1 RL S4 5 6 C # 2 3 FFT 1 C CART 0.5 L LR R RF S SVM Specificity (FAR) 1 44/56
45 plot(iris.fft, # spec == specificity == True Neg Rate data = "train", tree=2, description = "Iris FFT", decision.names = c("n~ao virg.", "virginica")) 67% p(não virg.) Decide não virg. True não virg. Data N = True virginica 50 Tree #2 (of 6) p(virginica) 33% Decide virginica Correct Rejection Miss Petal.Length False Alarm Hit <= 'não virg.' n Petal.Width <= 'não virg.' n Sepal.Length <= 5.7 > n v 'não virg.' 'virginica' 1 41 Performance (Fitting) Decision virginica não virg. virginica 41 Hit 9 Miss Truth não virg. 1 False Al 99 Cor Rej pci sens spec acc bacc AUC 99% 93% 82% 90% 99% 67% mcu BL 1.63 Sensitivity (HR) ROC 1 RL S4 5 6 C # 3 FFT 2 1 C CART 0.5 L LR R RF S SVM Specificity (FAR) 1 45/56
46 46/56 Florestas aleatórias: pacote randomforest Objetivo: evitar overfitting Aprendizado por ensemble/bagging com muitas árvores Selecionar atributos aleatoriamente Votação de decisões de diferentes árvores require(randomforest) iris.rfor <- randomforest(species ~., iris.train) importance(iris.rfor) ## MeanDecreaseGini ## Sepal.Length ## Sepal.Width ## Petal.Length ## Petal.Width
47 47/56 Florestas aleatórias: pacote randomforest iris.rfor ## ## Call: ## randomforest(formula = Species ~., data = iris.train) ## Type of random forest: classification ## Number of trees: 500 ## No. of variables tried at each split: 2 ## ## OOB estimate of error rate: 4% ## Confusion matrix: ## setosa versicolor virginica class.error ## setosa ## versicolor ## virginica
48 48/56 Florestas aleatórias: pacote randomforest table(predict(iris.rfor, iris.test),iris.test$species) ## ## setosa versicolor virginica ## setosa ## versicolor ## virginica
49 Florestas aleatórias: pacote randomforest gettree(iris.rfor,143, labelvar=true) ## left daughter right daughter split var ## Petal.Length ## <NA> ## Petal.Length ## <NA> ## Petal.Width ## Petal.Length ## <NA> ## <NA> ## <NA> ## split point status prediction ## <NA> ## setosa ## <NA> ## versicolor 49/56
50 50/56 Florestas aleatórias: pacote ranger A Fast Implementation of Random Forests: ranger require(ranger) iris.rgr = ranger(species ~.,iris.train) res = predict(iris.rgr, iris.test,type="response") table(res$predictions, iris.test$species) ## ## setosa versicolor virginica ## setosa ## versicolor ## virginica
51 51/56 Florestas aleatórias paralelas e distribuídas Distributed randomforest for Big Data: randomforest.ddr require(randomforest.ddr) iris.drf <- drandomforest(species ~., iris.train, nexecutor table(predict(iris.drf, newdata= iris.test), iris.test$species) ## ## setosa versicolor virginica ## setosa ## versicolor ## virginica
52 52/56 Exercício Aplicar árvores no dataset Ocorrências Aeronáuticas na Aviação Civil Brasileira Objetivo: prever o tipo de classificação da ocorrência article/1451/ocorrencia.csv Maiores informações em [link]
53 53/56 Outros pacotes interessantes rpart: árvores CART com vários tipos de splits tree: pacote de uso simples e direto (CART) evtree: busca global para montar árvores partykit: infraestrutura unificada para árvores, visualização, critério de parada estatístico CORElearn: várias técnicas/algoritmos, paralelismo varselrf: seleção de atributos com random Forests maptree: visualização, poda de árvores REEMtree: regression trees with random effects Cubist: regras de descisão com boosting
Árvores de decisão. Marcelo K. Albertini. 17 de Agosto de 2015
Árvores de decisão Marcelo K. Albertini 17 de Agosto de 2015 2/31 Árvores de Decisão Nós internos testam o valor de um atributo individual ramificam de acordo com os resultados do teste Nós folhas especificam
Aprendizagem de Máquina
Aprendizagem de Máquina Árvores de Decisão Poda e extensões Prof. Paulo Martins Engel UFRGS 2 Questões sobre Árvores de Decisão Questões práticas do aprendizado de AD incluem: Determinar até quando se
Aprendizado de Máquina
Aprendizado de Máquina Sistemas de Informação Inteligente Prof. Leandro C. Fernandes Adaptação dos materiais de: Thiago A. S. Pardo, Daniel Honorato e Bianca Zadrozny APRENDIZADO SIMBÓLICO: ÁRVORES DE
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná 1 Um dos métodos práticos mais usados Induz funções discretas robustas a ruído Capaz de aprender expressões disjuntivas Se pais = Inglaterra
Algoritmos Indutores de Árvores de. Fabrício J. Barth
Algoritmos Indutores de Árvores de Decisão Fabrício J. Barth Maio de 2018 Problema: Diagnóstico para uso de lentes de contato 2 Diagnóstico para o uso de lentes de contato O setor de oftalmologia de um
Árvores de Decisão. Sumario. João Gama Árvores de decisão. Motivação Construção de uma árvore de decisão. Podar a árvore.
Árvores de Decisão João Gama Jgama@ncc.up.pt Sumario Árvores de decisão Motivação Construção de uma árvore de decisão Critérios para seleccionar atributos Entropia Podar a árvore Estimativas de erro Extensões
Inteligência Computacional [2COP229]
Inteligência Computacional [2COP229] Mestrado em Ciência da Computação Sylvio Barbon Jr barbon@uel.br (2/41) Tema Aula Árvores de Decisão Aula- Árvore de Decisão (3/41) Sumário Introdução Indução de Árvores
Árvores de Decisão. Sistemas Inteligentes
Árvores de Decisão Sistemas Inteligentes Uma Abordagem típica em aprendizagem simbólica Árvores de decisão: inductive decision trees (ID3) Instâncias (exemplos) são representadas por pares atributo-valor
SISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES Profa. Roseli Ap. Francelin Romero Representação de Árvores de Decisão Algoritmo ID3 Conceito de e Ganho de Informação Overfitting Sistemas Inteligentes 1 Sistemas Inteligentes 2
Árvores de Decisão. Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação
Árvores de Decisão Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação Rodrigo Fernandes de Mello mello@icmc.usp.br Árvores de Decisão Método
Fundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL 1 o Semestre Assunto Aula 10 Modelos Preditivos - Árvore de Decisão 2 de 20 Aula 10 - Árvore de
ÁRVORES DE DECISÃO PROFA. MARIANA KLEINA
ÁRVORES DE DECISÃO PROFA. MARIANA KLEINA DEFINIÇÃO Uma árvore de decisão é uma ferramenta de suporte à tomada de decisão que usa um gráfico no formato de árvore e demonstra visualmente as condições e as
Máquinas de Vetores de Suporte
Máquinas de Vetores de Suporte Prof. Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia 19 de Junho de 2017 2/27 Máquinas de Vetores de Suporte Support Vector Machines (SVM)
Inteligência nos Negócios (Business Inteligente)
Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões
Árvores de Decisão. Sumario. João Gama Árvores de decisão. Motivação Construção de uma árvore de decisão. Podar a árvore.
Árvores de Decisão João Gama Jgama@liacc.up.pt Sumario Árvores de decisão Motivação Construção de uma árvore de decisão Critérios para seleccionar atributos Entropia Podar a árvore Estimativas de erro
Thiago Marzagão 1. 1 Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21
MINERAÇÃO DE DADOS Thiago Marzagão 1 1 marzagao.1@osu.edu ÁRVORE DE DECISÃO & VALIDAÇÃO Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21 árvore de decisão Aulas passadas: queríamos
Aprendizagem a partir de observações
Aprendizagem a partir de observações Aprendizagem é essencial para ambientes desconhecidos, i.e., quando o projetista não prevê tudo Útil como um método de construção de sistemas i.e., expor o agente à
Aprendizado de Máquina
Tópicos Aprendizado de Máquina Aula 3 http://www.ic.uff.br/~bianca/aa/. Introdução Cap. (6/03). Classificação Indutiva Cap. (3/03) 3. Cap. 3 (30/03) 4. Ensembles - Artigo (06/04) 5. Avaliação Experimental
Árvore de Decisão. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE
Árvore de Decisão George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Tópicos Introdução Representando Árvores de Decisão O algoritmo ID3 Definições Entropia Ganho de Informação Overfitting Objetivo
Weka. Universidade de Waikato - Nova Zelândia. Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining
Weka Universidade de Waikato - Nova Zelândia Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining implementado em Java open source software http://www.cs.waikato.ac.nz/ml/weka/
APRENDIZAGEM DE MÁQUINA
APRENDIZAGEM DE MÁQUINA (usando Python) Thiago Marzagão ÁRVORE DE DECISÃO & VALIDAÇÃO Thiago Marzagão APRENDIZAGEM DE MÁQUINA 1 / 20 árvore de decisão Aulas passadas: queríamos prever variáveis quantitativas.
21/02/17. Aprendendo pelas observações. PCS 5869 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa
PCS 5869 lnteligência Ar9ficial Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa Aprendizagem Indu9va Aprendendo pelas observações Idéia: percepção deve ser usada não somente para a atuação
24/11/13. Aprendendo pelas observações. PCS 2428 / PCS 2059 lnteligência Ar9ficial. Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa
PCS 2428 / PCS 2059 lnteligência Ar9ficial Prof. Dr. Jaime Simão Sichman Prof. Dra. Anna Helena Reali Costa Aprendizagem Indu9va Aprendendo pelas observações Idéia: percepção deve ser usada não somente
Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação
Aprendizado em IA Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Tópicos Agentes baseados em aprendizado Aprendizado indutivo Árvores de decisão Método ID3 Aprendizado em redes neurais
lnteligência Artificial Aprendizagem em IA
lnteligência Artificial Aprendizagem em IA 1 Aprendizagem por que? Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado permite lidar com
Inteligência Artificial
Aprendizagem por que? lnteligência Artificial Aprendizagem em IA Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado permite lidar com
Árvores de Decisão. Sistemas Inteligentes
Árvores de Decisão Sistemas Inteligentes Exemplos de situações do dia a dia em que a aprendizagem de máquina é importante A partir de informações sobre pacientes relativas a gravidez aprender a prever
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich/Alceu S. Britto Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos
SCC Capítulo 9 Indução de Árvores de Decisão
Indução de Árvores de Decisão SCC-630 - Capítulo 9 Indução de Árvores de Decisão João Luís Garcia Rosa 1 1 Departamento de Ciências de Computação Instituto de Ciências Matemáticas e de Computação Universidade
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Inteligência Artificial
https://www.pinterest.com/carlymundo/decision-tree-infographics/ Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial
K-Nearest Neighbours & RSTUDIO
K-Nearest Neighbours & RSTUDIO Rodrigo Augusto Igawa Universidade Estadual de Londrina igawa@uel.br 17 de novembro de 2015 Rodrigo Augusto Igawa (UEL) KNN PARTE 2 17 de novembro de 2015 1 / 16 Sumário
Função discriminante linear de Fisher
Função discriminante linear de Fisher ## Biblioteca com a função discriminante linear de Fisher library(mass) ## Dados (?iris apresenta informações sobre o conjunto de dados) dados
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo k-nearest Neighbors (knn) Como os filmes são categorizados em gêneros? O que
M08. Introdução a Técnicas de Data Mining DM
M08. Introdução a Técnicas de Data Mining DM 3 - CLASSIFICAÇÃO E PREDIÇÃO LNCC/MCT - 15/01/2008 Custódio Gouvêa Lopes da Motta custodio.motta@ufjf.edu.br www.dcc.ufjf.br Agradecimentos: CNPq, LNCC, UFJF,
Árvores de Decisão. Sarajane M. Peres. março de 2015
Árvores de Decisão Sarajane M. Peres março de 2015 Material baseado em: HAN, J. & KAMBER, M. Data Mining: Concepts and Techniques. 2nd. 2006 ROKACH, L. & MAIMON, O. Data Mining with Decision Trees: Theory
Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Introdução. Classificação III: Árvores de Decisão
SCC073 Mineração de Dados Biológicos Classificação III: Árvores de Decisão Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo Prof. André C. P. L. F.
Aprendizagem de Máquina
Aprendizagem de Máquina écnicas de Classificação Árvores de Decisão Prof. Paulo Martins Engel UFRGS Árvores de Decisão As árvores de decisão (AD) são ferramentas poderosas para classificação cuja maior
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Árvores de Decisão. David Menotti.
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Árvores de Decisão David Menotti www.inf.ufpr.br/menotti/ci171-182 Árvores de Decisão Agenda Introdução Representação Quando Usar
Aprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Aprendizagem de Árvores de Decisão Aula 3 Alessandro L. Koerich Introdução Representação de Árvores de Decisão Algoritmo de Aprendizagem ID3 Entropia e Ganho de Informação
Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Aprendizado de Máquina
Aprendizado de Máquina Árvores de Decisão Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 28
BANCO DE DADOS DISTRIBUÍDOS e DATAWAREHOUSING Asterio K. Tanaka
BANCO DE DADOS DISTRIBUÍDOS e DATAWAREHOUSING Asterio K. Tanaka http://www.uniriotec.br/~tanaka/tin0036 tanaka@uniriotec.br Introdução a Data Mining Árvores de Decisão Categorização de Dados Parte II Rogério
Aula 3: Random Forests
Aula 3: Random Forests Paulo C. Marques F. Aula ministrada no Insper 26 de Fevereiro de 2016 Insper Random Forests 26 de Fevereiro de 2016 1 / 18 Árvores de classificação Estamos no mesmo contexto de aprendizagem
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
lnteligência Artificial Introdução a Aprendizado de Máquina
lnteligência Artificial Introdução a Aprendizado de Máquina 1 Aprendizado por que? Capacidade de aprender é parte fundamental do conceito de inteligência. Um agente aprendiz é mais flexível aprendizado
Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR
Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível
Teoria do aprendizado
Teoria do aprendizado Marcelo K. Albertini 7 de Agosto de 2014 2/37 Teoria do aprendizado Teoremas não existe almoço grátis Viés e variância Aprendizado PAC Dimensão VC Máquinas de vetores suporte 3/37
Aprendizado Bayesiano Anteriormente...
Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas
INF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 12 Árvores de Decisão Prof. Augusto Baffa Árvores de Decisão Uma das formas de algoritmo de aprendizado mais simples e de maior sucesso. Uma
Aprendizado. O que é Aprendizado? Capítulo 5
Aprendizado Capítulo 5 309 O que é Aprendizado?...mudanças que tornam sistemas capazes de adaptar-se e realizar tarefas semelhantes de maneira mais eficiente [Simon] 310 1 Tipos de Aprendizado Refinamento
Redes Neuronais e Aprendizagem Automática 1
Redes Neuronais e Aprendizagem Automática 2005/2006 18 a aula Fernando.Silva@ist.utl.pt Instituto Superior Técnico Redes Neuronais e Aprendizagem Automática 1 Sumário Árvores de decisão (continuação) Redes
MLaaS com Azure: Que tipo de flor de íris é essa?
MLaaS com Azure: Que tipo de flor de íris é essa? Douglas Lima Dantas Bacharel em Engenharia de Computação pela UEA (2013-2017) Trainee Samsung Ocean (2015-2017) Mestrando em Engenharia Elétrica pela Poli-USP
Introdução à Mineração de Dados com Aplicações em Ciências Espaciais
Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 2: 1 /59 Programa Dia 1: Apresentação
Extracção de Conhecimento
Programa Doutoral em Engenharia Informática Mestrado em Engenharia Informática Licenciatura em Engenharia Informática e Computação LIACC/FEUP Universidade do Porto www.fe.up.pt/ ec rcamacho@fe.up.pt Outubro
Aprendizagem a partir de observações. Capítulo 18 (Secções 1-3)
Aprendizagem a partir de observações Capítulo 18 (Secções 1-3) Sumário Agentes aprendizes Aprendizagem indutiva Aprendizagem com árvores de decisão Aprendizagem Aprendizagem é essencial em ambientes desconhecidos
Métodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Fundamentos de Algoritmos
Fundamentos de Algoritmos CIC/UFRGS 2006/1 Mais em definições auto-referenciáveis: roteiro Estruturas em estruturas: exemplo das árvores de hereditariedade Árvores binárias de pesquisa Listas de listas
UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ (UTFPR) 2016/ PPGCA PPGCA/UTFPR -- CAIA003
UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ (UTFPR) Mineração de Dados 2016/3 Professores Celso e Heitor Jean Avila Rangel 1801317 - PPGCA PPGCA/UTFPR câmpus Curitiba -- CAIA003 - Mineração de Dados --
Inteligência Artificial
UFRGS 2 Inteligência Artificial Técnicas de Mineração de Dados Árvores de Decisão Regras de Associação Árvores de Decisão As árvores de decisão (AD) são ferramentas poderosas para classificação cuja maior
Mineração de Dados em Biologia Molecular
Mineração de Dados em Biologia Molecular André C.. L. F. de Carvalho Monitor: Valéria Carvalho lanejamento e Análise de Experimentos rincipais tópicos Estimativa do erro artição dos dados Reamostragem
Boas Maneiras em Aprendizado de Máquinas
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Boas Maneiras em Aprendizado de Máquinas David Menotti www.inf.ufpr.br/menotti/ci171-182 Boas Maneiras Agenda Introdução Métricas
Aprendizagem indutiva
Aprendizagem indutiva Inferência indutiva de fatos providos por um professor ou ambiente. O estudo e modelagem desta forma de aprendizagem é um dos tópicos centrais de aprendizagem de máquina. Em aprendizagem
Aprendizado indutivo. Marcelo K. Albertini. 17 de Abril de 2014
Aprendizado indutivo Marcelo K. Albertini 17 de Abril de 2014 2/22 Aprendizado indutivo O que é? Porque é difícil? Como podemos resolver problemas de indução? 3/22 Aprendizado supervisionado Temos: exemplos
Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Aprendizagem de Máquina Área da Inteligência Artificial cujo objetivo é o desenvolvimento de técnicas computacionais sobre
Aula 8: Árvores. Rafael Izbicki 1 / 33
Mineração de Dados Aula 8: Árvores Rafael Izbicki 1 / 33 Revisão Vimos que a função de risco é dada por R(g) := E[I(Y g(x))] = P (Y g(x)), Nem sempre tal função nos traz toda informação sobre g. É comum
Entropia, Ganho de informação e Decision trees
Entropia, Ganho de informação e Decision trees O exemplo de hoje foi baseado no livro Machine learning de Tom M. Mitchell. Para esse exemplo vamos usar um conjunto de dados simples: A tabela acima consiste
Árvores de Decisão. Fabrício Olivetti de França. Universidade Federal do ABC
Árvores de Decisão Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Árvores de Decisão 1 Árvores de Decisão Base de Dados Relembrando nossa base de dados utilizada na aula passada: Pele
Saída: Representação de conhecimento
Saída: Representação de conhecimento Kate Revoredo katerevoredo@uniriotec.br 1 Saída: Representando padrões estruturais Existem muitas maneiras diferentes de representar padrões: Árvores de decisão, regras,
Redes Neurais no WEKA
Redes Neurais WEKA http://www.cs.waikato.ac.nz/ml/weka/ Redes Neurais no WEKA Introdução ao WEKA Base Benchmark Estudo de Casos Análise de Crédito Bancário 1 Redes Neurais no Weka WEKA (Waikaito Environment
Mineração de Dados - II
Tópicos Especiais: INTELIGÊNCIA DE NEGÓCIOS II Mineração de Dados - II Sylvio Barbon Junior barbon@uel.br 10 de julho de 2015 DC-UEL Sylvio Barbon Jr 1 Sumário Etapa II Algoritmos Básicos Weka: Framework
Algoritmos de Agrupamento - Aprendizado Não Supervisionado
Algoritmos de Agrupamento - Aprendizado Não Supervisionado Fabrício Jailson Barth fabricio.barth@gmail.com Agosto de 2016 Sumário Introdução e Definições Aplicações Algoritmos de Agrupamento Agrupamento
Múltiplos Classificadores
Universidade Federal do Paraná (UFPR) Bacharelado em Informátia Biomédica Múltiplos Classificadores David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Múltiplos classificadores Combinação de classificadores
Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014
Mistura de modelos Marcelo K. Albertini 31 de Julho de 2014 2/11 Mistura de modelos Ideia básica Em vez de aprender somente um modelo, aprender vários e combiná-los Isso melhora acurácia Muitos métodos
Aprendizagem a partir de Observações
Aprendizagem a partir de Observações Descrição de agentes que podem melhorar o seu comportamento a partir do estudo diligente das próprias experiências Índice Formas de aprendizagem Aprendizagem indutiva
Aula 9. Prof. Adilson Gonzaga
Aula 9 Prof. Adilson Gonzaga Mapeamento Atribuir uma Instância a uma classe. Cada Instância é mapeada para um elemento do conjunto de Rótulos de Classe {p,n} p positivo n negativo Atribui uma Instância
Aprendizagem a partir de observações. Inteligência Artificial. Aprendizagem Indutiva Clássica. Aprendizagem Indutiva. Aprendizagem indutiva
Inteligência Artificial Aula 19 Profª Bianca Zadrozny http://www.ic.uff.br/~bianca/ia Aprendizagem a partir de observações Capítulo 18 Russell & Norvig Seções 18.1 a 18.3 Aprendizagem Indutiva Clássica
Arvores de decisão. O que é uma árvore de decisão? Cap.6 Árvores de Decisão V 3.0, V.Lobo, EN/ISEGI, Victor Lobo
V., V.Lobo, EN/ISEGI, 5 Arvores de decisão Victor Lobo O que é uma árvore de decisão? Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença)
Data Science. Data Stream Mining: trabalhando com dados massivos. André Luís Nunes Porto Alegre, Globalcode Open4education
Data Science Data Stream Mining: trabalhando com dados massivos André Luís Nunes Porto Alegre, 2018 Globalcode Open4education Data Stream Mining trabalhando com dados massivos 2018 agenda andré luís nunes
Extracção de Conhecimento
Programa Doutoral em Engenharia Informática Mestrado Integrado em Engenharia Informática LIACC/FEUP Universidade do Porto www.fe.up.pt/ ec rcamacho@fe.up.pt Outubro 2007 conceitos básicos Conteúdo Definições
SCC0173 Mineração de Dados Biológicos
SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:
Projeto e Análise de Algoritmos Aula 4: Dividir para Conquistar ou Divisão e Conquista ( )
Projeto e Análise de Algoritmos Aula 4: Dividir para Conquistar ou Divisão e Conquista (2.1-2.2) DECOM/UFOP 2013/1 5º. Período Anderson Almeida Ferreira Adaptado do material desenvolvido por Andréa Iabrudi
Arvores de decisão. Outras árvores. Outra maneira de ver árvores. Extracção de regras (a partir de árvores) Vantagens das árvores (1)
O que é a árvore de decisão? Arvores de decisão Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença) Victor Lobo Nós (testes, ou conceitos)
Aprendizagem a partir de observações. Capítulo 18
Aprendizagem a partir de observações Capítulo 18 Descrição de agentes que podem melhorar o seu comportamento a partir do estudo diligente das próprias experiências Índice Formas de aprendizagem Aprendizagem
Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR
Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento
Técnicas Multivariadas em Saúde. Representação de Dados Multivariados. Métodos Multivariados em Saúde Roteiro. Análise Exploratória de Dados
Roteiro Técnicas Multivariadas em Saúde Lupércio França Bessegato Dep. Estatística/UFJF 1. Introdução 2. Distribuições de Probabilidade Multivariadas 3. Representação de Dados Multivariados 4. Testes de
Aprendizado de Máquina. Combinando Classificadores
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores
Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Arvores de decisão. O que é uma árvore de decisão? Victor Lobo
Arvores de decisão Victor Lobo O que é uma árvore de decisão? Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença) Nós (testes, ou conceitos)
TACG GWAS utilizando Random Forest: estudo de caso em bovinos de corte
TACG GWAS utilizando Random Forest: estudo de caso em bovinos de corte Roberto H. Higa Juiz de Fora, 2 a 6 de setembro de 2013 Sumário» Introdução» Random Forest» Estudo com dados simulados» Estudo de
Considerações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem