Aprendizagem Bayesiana e baseada em protótipos V 3.2, V.Lobo, EN/ISEGI, 2009

Tamanho: px
Começar a partir da página:

Download "Aprendizagem Bayesiana e baseada em protótipos V 3.2, V.Lobo, EN/ISEGI, 2009"

Transcrição

1 V 3., V.Lobo, E/ISEGI, 009 Classificação Bayesiana (revisões...) Victor Lobo Contexto Existem um conjunto de dados conhecidos Conjunto de treino Queremos prever o que vai ocorrer noutros casos Exemplo Empresa de seguros de saúde quer estimar custos com um novo cliente Conjunto de treino (dados históricos) E o Manel? Altura Peso Sexo Idade Ordenado Usa Encargos para ginásio seguradora M M F M F S S S S Altura=.73 Peso=5 Idade=3 Ordenado=00 Ginásio= Terá encargos para a seguradora? Tema central: Existe alguma maneira ÓPTIMA de fazer a classificação de um padrão de dados? O nosso exemplo... Dados completos Sim: classificação Bayesiana (óptima segundo um dado critério...) Conseguimos usar sempre esse método? ão: geralmente é impossível obter o classificador de Bayes É útil conhecê-lo? Sim: Dá um limite e um termo de comparação C/ variáveis largo estreito pequeno grande pomba pequeno Medição de características falcão águia grande Comprimento oção de Classificação Bayesiana Escolhe a classe mais provável, dado um padrão de dados max P(C i x) É sempre a escolha óptima! Problema: Estimar P(C i x) Solução: dado um dado, eu posso não saber à priori a classe, mas dado uma classe, eu talvez saiba à priori como são dos dados dessa classe... Teorema de Bayes Formulação do teorema de Bayes P(C,x ) = P(C x)p(x) = P(x C)P(C) logo.. P(C x) = P(x C)P(C) / P(x) Dado um x, P(x) é constante, o classificador Bayesiano escolhe a classe que maximiza P(x C)P(C) Classificador que maximiza P(C x) é conhecido como classificador MAP (maximum a posterioi)

2 V 3., V.Lobo, E/ISEGI, 009 Custos variáveis A escolha óptima da classe tem que ter em conta os custos de cometer erros Exemplos: detectar aviões num radar, detectar fraudes ou defeitos em peças Custo: ct(c i,c j ) = custo de escolher c j dado que a classe é de facto c j Matriz de custos Matriz com todos os custos de classificação Determinação dos custos... Classificador de Bayes Custo de uma decisão: ct j (x) = Σ ct(c i, c j ) P(c i,x) Custo de escolher A é a soma dos custos de escolher as OUTRAS classes vezes a probabilidade de ocorrerem as OUTRAS classes Classificador de Bayes Escolhe a classe que minimiza o custo de classificação c=c : = arg min ct j (x) Classificador de máxima verosimilhança Maximum Lielihood (ML) Muitas vezes podemos admitir que, à partida, todas as classes são equiprováveis esse caso, o classificador MAP simplifica para: P(C x) = P(x C)P(C) / P(x) P(x C) Ou seja a classe mais provável é a que com maior probabilidade gera esse dado! a prática, um bom critério! Problemas em estimar P(x,C) Desconhece-se geralmente a forma analítica de P(x,C) Estimação de P(x,C) a partir dos dados Problema central em classificação!!! Estimação paramétrica Assumir que P(x,C) tem uma distribuição conhecida (gausseana, uniforme, etc), e estimar os parâmetros dessa distribuição Estimação não paramétrica Calcular P(x,C) directamente a partir dos dados Exemplo de classificação Bayesiana : Jogar ténis ou não? Outloo Rainy Rainy Rainy Rainy Temperature Hot Hot Hot Cool Cool Cool Cool Hot Humidity ormal ormal ormal ormal ormal ormal ormal Windy Play o o o o o Caso : sabendo só o outloo Queremos saber P(jogo outloo), em concreto, se outloo = sunny Classificador MAP: P(jogo outloo) P(outloo jogo)p(jogo) P(jogo=sim)=9/4=0.4 P(jogo=não)=5/4=0.3 P(outloo= sunny jogo=sim)=/9=0. P(outloo= sunny jogo=não)=3/5=0.33 P(jogo=sim outloo= sunny ) 0. x 0.4 = 0.4 P(jogo=não outloo= sunny ) 0.33 x 0.3 = 0. SIM! Joga!

3 V 3., V.Lobo, E/ISEGI, 009 Caso : sabendo só o outloo Classificador ML: P(jogo outloo) P(outloo jogo) P(outloo= sunny jogo=sim)=/9=0. P(outloo= sunny jogo=não)=3/5=0.33 ão! ão joga! Problema quando x tem dimensão grande Se a dimensão de x é muito grande, devido à praga da dimensionalidade, é difícil calcular P(x,C) Solução: Assumir independência entre atributos Exemplo: Classificação de texto Classificador naive de Bayes Assume independência dos atributos: P(x,C) = Π P(x m,c) a prática tem bons resultados Evitar que P(x m,c) seja 0: Estimativa m: P=( n c + m x p) / (n + m) n c = exemplos de c n= total de exemplos m= ponderação (+/-prioi) p= estimativa à priori (equiprovável?) Algumas considerações... Aprendizagem incremental Um classificador Bayesiano pode ir actualizando as suas estimativas Separababilide P(x,c i )>0 P(x,c j )=0 x j i Erro de Bayes = 0 ão separabilidade Inconsistência (com os atributos conhecidos): Um mesmo x, tanto pode pertencer a c i como c j Erro de Bayes > 0 Classificadores bayesianos: Classificador de Bayes, com custos Entra em linha de conta com custos MAP ML Assume custos iguais Assume classes equiprováveis aive de Bayes Assume independência entre atributos Erro de Bayes Erro do classificador bayesiano (geralmente MAP) Aprendizagem baseada em instâncias Victor Lobo 3

4 V 3., V.Lobo, E/ISEGI, 009 Tema central Sistemas de aprendizagem que guardam exemplos dos dados Ex: Guardar a pomba típica ou som característico A classificação (ou decisão) é feita comparando a nova instância com os exemplos guardados Exemplos protótipos instâncias neurónios Muitos nomes para a mesma coisa Estatística Kernel-based density estimation (Duda & Hart ) Locally-weighted regression (Hardle 90) Machine Learning Memory-based classification (Stanfill & Waltz ) Exemplar-based nowlegde acquisition (Bareiss 9) Instance-based classification (Aha 9) Case-based reasoning (Shan ) Lazy Learning ( Alpaydin 97) Redes euronais Prototype-based networs (Kohonen 95) RBF (Lowe ), LVQ, etc, etc... E muito, MUITO mais... (-means, -nn,etc,etc...) Fundamentos: Classificador óptimo escolhe classe mais provável: P(C x) = P(x C)P(C) / P(x) o caso de um classificador MAP, basta saber P(x C) Estimação de P(x C) quando os atributos de x têm valores contínuos: P(x C)=0, mas podemos calcular p(x C) (densidade) o limite temos n p( x C) = / V Fundamentos Para que n p( x C) = / V É necessário que n, e V = um dado volume em torno da nova instância n= nº total de exemplos nesse volume =nº de exemplos que pertencem à classe C lim V = 0 n lim = n Duas grandes famílias n=c te -vizinhos, vizinho mais próximo, etc V=c te Janelas de Parzen K-vizinhos -vizinhos e vizinho mais próximo (=) Todos os exemplos são memorizados e usados na fase de aprendizagem. A classificação de um exemplo X consiste em encontrar os elementos do conjunto de treino mais próximos e decidir por um critério de maioria. Gasta muita memória!!! 4

5 V 3., V.Lobo, E/ISEGI, 009 Algoritmo - vizinhos mais próximos Algoritmo de treino Para cada exemplo de treino (x, c(x)) adicionar à lista de exemplos de treino. Retorna lista de exemplos de treino. ão há dúvida éo mais simples!!! Classificação por -vizinhos -earesteighbor(x, Exemplos de treino) Sejam y,, y, pertencentes à lista de exemplos de treino, os vizinhos mais próximos de x. Retorna cˆ ( x) arg max δ( v, c( yi )) v V em que V é o conjunto de classes e δ ( x, y) 0 = se x se x y = y Regressão por -vizinhos Algoritmo de regressão -earesteighbor(x, exemplos de treino) Sejam y,, y, pertencentes à lista de exemplos de treino, os vizinhos mais próximos de x. Retorna cˆ ( x) c( y i ) Fronteiras definidas pelo -nn grande Fronteiras suaves, ponderadas Estimador razoável da densidade de probabilidade pequeno Fronteiras mais rugosas, sensíveis a outrliers Mau estimador de densidade de probabilidade Margens de segurança Pode-se exigir uma diferença mínima para tomar uma decisão Regressão linear - Vizinho mais próximo 5

6 V 3., V.Lobo, E/ISEGI, Vizinhos mais próximos Exemplos de medidas de semelhança Distâncias Euclidiana Hamming Minowsi DM ( X, Y, λ) Mahalanobis K λ λ = xi yi Correlação ão normalizada C ( X, Y ) = X. Y = K x i y i Máxima correlação Cm K xi yi j j ( X, Y ) = max DMa ( ) T ( X, Y, ϕ) = ( X Y ) Ψ[ ]( X Y ) KK Classificação por -vizinhos ponderados Algoritmo de classificação -earesteighbor(x, Exemplos de treino) Sejam y,, y, pertencentes à lista de exemplos de treino, os vizinhos mais próximos de x. Retorna cˆ ( x) arg max ϖiδ( v, c( yi )) v V em que ϖi = D ( x, y) Regressão pelos -vizinhos ponderados Algoritmo de classificação -earesteighbor(x, Exemplos de treino) Sejam y,, y, pertencentes à lista de exemplos de treino, os vizinhos mais próximos de x. Retorna ϖic( y i ) cˆ ( x) ϖi Vizinho mais próximo (=) É simples e eficaz Está muito bem estudado Erro assimptótico (quando n ) Zero, se as classes forem separáveis x erro de Bayes, se não o forem (Cover 7; Ripley 9; Krishna 00) Erro do vizinho mais próximo Com n finito,e c classes E bayes E nneighbour E bayes c E c bayes + sup x X cebayes ( x)( ) c δ(x) é a função de semelhança (Draopoulos 95), que pode ser estimada, e tem geralmente um valor baixo mx

7 V 3., V.Lobo, E/ISEGI, 009 Fronteiras do vizinho mais próximo Problemas com -nn Partição de Voronoi do conjunto de treino Exigem MUITA memória para guardar o conjunto de treino Exigem MUITO tempo na fase de classificação São muito sensíveis a outliers São muito sensíveis à função de distância escolhida Só de pode resolver com conhecimento à priori... Edited earest eighbors Variantes sobre - vizinhos Remover os outliers, e os exemplos demasiado próximos da fronteira Usar a regra de classificação (-nn) sobre o próprio conjunto de treino, e eliminar os exemplos mal classificados K=3 já produz bons resultados Minimização do nº de protótipos Reduzir o nº de protótipos resolve os primeiros problemas! Deixa de ser possível estimar p(x) Enquadramento formal Q-Sets Heurísticas Condensed earest eighbors ( = IB, RIBL, etc) Condensed earest eighbors [Hart ] Let 3 Train Training Set 4 #train umber of patterns in the training set 5 C Condensed earest eighbor set 7 Do 9 C = {Train } 0 Repeat Additions =FALSE For i = to #train 3 Classify Train i with C 4 If Train i is incorrectly classified 5 C = C {Train i} Additions =TRUE 7 End_if End_for 9 Until Additions = FLASE 7

8 Aprendizagem Bayesiana e baseada em protótipos V 3., V.Lobo, E/ISEGI, 009 Reduced earest eighbors [Gates 7] Let 3 Train Training Set 4 #train umber of patterns in the training set 5 #cnn umber of patterns in the C set C Condensed earest eighbor set 7 R Reduced earest eighbor Set 9 Do 0 R = C For i = to #cnn 3 Let Candidate_R = R { Ri} 4 Classify all Train with Candidate_R 5 If all patterns in Train are correctly classified R = Candidate_R 7 End_if End_for Toy problem para testes Double F ou Harts Problem Simples visualisação, fronteira complexa Distribuição uniforme nas áreas indicadas Usada por muitos autores como ref Harts problem com 400 padrões Avaliação experimental dos métodos - Gerar pontos para conjunto de treino - Aplicar o método para obter um classificador 3 - Gerar M pontos para conjunto de validação 4 - Calcular o erro E no conjunto de validação 5 - Repetir os passos -4 várias vezes, e calcular os valores médios e desvios padrões para: Erro, º de protótipos, Tempo de treino e classificação Cálculo do erro Qual o tamanho do conjunto de validação para estimar o erro? Para cada padrão de validação Erro médio ( y) = E( x ) = p E i ˆ ( erro) x = 0( certo) y = x i p p pˆ( pˆ ) = ˆ σ ( p ( p) > 5) y C/ p % e =0e σ = 0.0% 0 Rotinas Matlab (do Toolbox dos Magos ) Class_plot(x,y,class) Fronteiras típicas [vx,vy]=voronoi_boundary(x,y,class) [ c,cp ] = nn( t_data, t_label, x, ) [ c ] = nn_mat( t_data, t_label, x ) [cnn,cnn_label]=cnn(train, train_label ) [rnn,rnn_label]=rnn(train,train_label,cnn,cnn_label) outclass=selfclassify( dataset,inclass ) [data]=remove_col(data,index)

Classificação Bayesiana

Classificação Bayesiana Classificação Bayesiana Victor Lobo Contexto Existem um conjunto de dados conhecidos Conjunto de treino Queremos prever o que vai ocorrer noutros casos Exemplo Empresa de seguros de saúde quer estimar

Leia mais

Cap.2 Aprendizagem Bayesiana e baseada em protótipos V 3.0, V.Lobo, EN/ISEGI, 2005

Cap.2 Aprendizagem Bayesiana e baseada em protótipos V 3.0, V.Lobo, EN/ISEGI, 2005 V 3.0, V.Lobo, E/ISEGI, 005 Classificação Bayesiana (revisões...) Victor Lobo Contexto Existem um conjunto de dados conhecidos Conjunto de treino Queremos prever o que vai ocorrer noutros casos Exemplo

Leia mais

CLASSIFICADORES BAEYSIANOS

CLASSIFICADORES BAEYSIANOS CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um

Leia mais

Métodos para Classificação: - Naïve Bayes.

Métodos para Classificação: - Naïve Bayes. Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo

Leia mais

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de

Leia mais

Método para Classificação: - Naïve Bayes.

Método para Classificação: - Naïve Bayes. Método para Classificação: - Naïve Bayes. Modelagem statística (Bayesiana): Contrariamente ao 1R, usa todos os atributos; Duas premissas: Atributos igualmente importantes; Atributos estatisticamente independentes

Leia mais

Classificação. Eduardo Raul Hruschka

Classificação. Eduardo Raul Hruschka Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos

Leia mais

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN Naïve Bayesian Learning Marcílo Souto DIMAp/UFRN 1 Teorema de Bayes Probabilidade de um evento H dada evidência E: Pr[ H E] Pr[ E H ]Pr[ H ] Pr[ E] Probabilidade a priori de H: Probabilidade do evento

Leia mais

Aprendizagem Bayesiana

Aprendizagem Bayesiana Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti www.inf.ufpr.br/menotti/ci171-182 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço

Leia mais

θ depende de um parâmetro desconhecido θ.

θ depende de um parâmetro desconhecido θ. 73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática

Leia mais

Aprendizado por Instâncias Janelas de Parzen & Knn

Aprendizado por Instâncias Janelas de Parzen & Knn Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Métodos Não Paramétricos

Métodos Não Paramétricos Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso Sumário:

Leia mais

SCC0173 Mineração de Dados Biológicos

SCC0173 Mineração de Dados Biológicos SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

1ª Lista de Exercícios

1ª Lista de Exercícios Universidade Federal de Campina Grande Disciplina: Mineração de Dados Período: 2008.3 Data: 21/10/08 Aluno: Halley F. S. de Freitas 1ª Lista de Exercícios O arquivo de dados é o do tempo: @relation weather.symbolic

Leia mais

p( y θ ) depende de um parâmetro desconhecido θ.

p( y θ ) depende de um parâmetro desconhecido θ. 55Modelação, Identificação e Controlo Digital 55 Método de Máxima Verosimilhança (Maximum Likelihood) Seja y uma variável aleatória (v. a.) cuja densidade de probabilidade p( y θ ) depende de um parâmetro

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 3 de Julho de 2014 2/1 Conteúdo Aprendizado Naive Bayes Exemplo: classificação de texto Redes Bayesiana Algoritmo EM Regressão probabiĺıstica 3/1 Classificador

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Introdução ao Datamining 4ºAno M, AN,FZ,EN-MEC,EN-AEL V 1.3, V.Lobo, EN 2008

Introdução ao Datamining 4ºAno M, AN,FZ,EN-MEC,EN-AEL V 1.3, V.Lobo, EN 2008 4ºAno, A,FZ,E-EC,E-AEL V.3, V.Lobo, E 28 Introdução a Datamining (previsão e agrupamento) Victor Lobo E o que fazer depois de ter os dados organizados? 4º ano dos cursos tradicionais da Escola aval Ideias

Leia mais

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada.

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada. Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada [alessandro@psr-inc.com] Conteúdo Introdução Estimação não paramétrica (Kernel density) Transformação

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

1 o Teste de Aprendizagem Automática

1 o Teste de Aprendizagem Automática o Teste de Aprendizagem Automática 3 páginas com 6 perguntas e 2 folhas de resposta. Duração: 2 horas DI, FCT/UNL, 22 de Outubro de 205 Pergunta [4 valores] As figuras abaixo mostram o erro de treino e

Leia mais

Novas Tecnologias de Informação

Novas Tecnologias de Informação Novas Tecnologias de Informação Victor Lobo Objectivos gerais Abrir horizontes em temas actuais Aprender técnicas de Business Intelligence, ou Sistemas de apoio à decisão Métodos de DataMining Pesquisa

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 19 de Maio de 2011 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição

Leia mais

CLASSIFICADORES ELEMENTARES -II

CLASSIFICADORES ELEMENTARES -II CLASSIFICADORES ELEMENTARES -II Estimando a densidade 2 A função densidade de probabilidade é um conceito fundamental em estatística Permite associar probabilidades a uma variável aleatória x Especificar

Leia mais

Novas Tecnologias de Informação Licenciatura em Estatística e Gestão de Informação. Escolha uma e uma só resposta para cada uma das seguintes questões

Novas Tecnologias de Informação Licenciatura em Estatística e Gestão de Informação. Escolha uma e uma só resposta para cada uma das seguintes questões Novas Tecnologias de Informação Licenciatura em Estatística e Gestão de Informação Cotação: Grupo I - 1 valor cada; Grupo II-1,4, Grupo III-1,2,2 ATENÇÃO: Cada pergunta de escolha múltipla errada desconta

Leia mais

Aula 1: k-nearest Neighbors

Aula 1: k-nearest Neighbors Aula 1: k-nearest Neighbors Paulo C. Marques F. Aula ministrada no Insper 29 de Janeiro de 2016 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de 2016 1 / 14 O problema geral de classificação Insper

Leia mais

Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira

Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira Aprendizado de Máquina Aprendizagem Bayesiana Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Cap.1 Introdução a NTI, DataMining, e Aprendizagem Automática V 3.0, V.Lobo, EN/ISEGI, 2005

Cap.1 Introdução a NTI, DataMining, e Aprendizagem Automática V 3.0, V.Lobo, EN/ISEGI, 2005 Objectivos gerais Novas Tecnologias de Informação Victor Lobo Abrir horizontes em temas actuais Aprender técnicas de Business Intelligence, ou Sistemas de apoio à decisão Métodos de Mining Pesquisa de

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.

Leia mais

Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP. Luísa Coheur LN, Tagus, 2015

Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP. Luísa Coheur LN, Tagus, 2015 Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP Luísa Coheur LN, Tagus, 2015 MACHINE LEARNING Machine Learning Explores the study and construcion of algorithms that can learn from and

Leia mais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

2 o Teste de Aprendizagem Automática

2 o Teste de Aprendizagem Automática 2 o Teste de Aprendizagem Automática 3 páginas de enunciado com 6 perguntas mais 2 folhas de resposta. Duração: 1h 30m DI, FCT/UNL, 21 de Dezembro de 2017 Pergunta 1 [4 valores] Considere um problema de

Leia mais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Árvores de Decisão K-Vizinhos

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Inferência estatística lassificador bayesiano Inferência estatística Na inferência estatística, toma-se uma decisão usando a informação contida numa amostra. Na abordagem paramétrica,

Leia mais

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti. Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Classificação David Menotti www.inf.ufpr.br/menotti/am-182 Hoje Árvores de Decisão Aprendizagem Bayesiana Aprendizado por

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina écnicas de Classificação Árvores de Decisão Prof. Paulo Martins Engel UFRGS Árvores de Decisão As árvores de decisão (AD) são ferramentas poderosas para classificação cuja maior

Leia mais

2284-ELE/5, 3316-IE/3

2284-ELE/5, 3316-IE/3 INTELIGÊNCIA ARTIFICIAL 2284-ELE/5, 3316-IE/3 Universidade da Beira Interior, Departamento de Informática Hugo Pedro Proença, 2007/2008 Aprendizagem Supervisionada 2 Os vários algoritmos de Aprendizagem

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih / Aleu S Britto Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR) Aprendizagem Bayesiana Plano de Aula Introdução Teorema

Leia mais

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti. Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Classificação David Menotti www.inf.ufpr.br/menotti/am-182 Hoje Árvores de Decisão Aprendizagem Bayesiana Aprendizado por

Leia mais

Arvores de decisão. O que é uma árvore de decisão? Cap.6 Árvores de Decisão V 3.0, V.Lobo, EN/ISEGI, Victor Lobo

Arvores de decisão. O que é uma árvore de decisão? Cap.6 Árvores de Decisão V 3.0, V.Lobo, EN/ISEGI, Victor Lobo V., V.Lobo, EN/ISEGI, 5 Arvores de decisão Victor Lobo O que é uma árvore de decisão? Algorítmo para tomar decisões (ou classificar) Modo de representar conhecimento Tem penas? Arcos (resultados ou pertença)

Leia mais

Weka. Universidade de Waikato - Nova Zelândia. Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining

Weka. Universidade de Waikato - Nova Zelândia. Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining Weka Universidade de Waikato - Nova Zelândia Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining implementado em Java open source software http://www.cs.waikato.ac.nz/ml/weka/

Leia mais

Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os métodos baseados em instâncias guardam os

Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os métodos baseados em instâncias guardam os Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os métodos baseados em instâncias guardam os exemplos de treinamento A generalização é posposta até

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana Plano de Aula Introdução Teorema de Bayes Classifiador

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

Clustering (k-means, SOM e hierárquicos)

Clustering (k-means, SOM e hierárquicos) Clustering (k-means, SOM e hierárquicos) André Tavares da Silva andre.silva@udesc.br (Capítulo 10 de Duda e Hart) Clustering Introdução e tipos Roteiro Agrupamentos hierárquicos AGNES, DIANA e Dendogram

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 10 Classificação com Naïve Bayes Max Pereira Raciocínio Probabilístico A notação tradicional para criar e analisar sentenças lógicas

Leia mais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Árvores de Decisão Métodos para aproximar funções discretas, representadas por meio de uma árvore de decisão; Árvores de decisão podem ser

Leia mais

Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral

Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Agrupamento de dados Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Dados e grafos Se temos dados x i, i 0... n, criamos

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que

Leia mais

Análise de dados em Geociências

Análise de dados em Geociências Análise de dados em Geociências Modelação estatística Susana Barbosa Mestrado em Ciências Geofísicas 2014-2015 Resumo Modelação estatística Conceitos básicos de modelação estatística Modelação - identificação

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

Processamento de erros grosseiros - Identiمحcaچcﷺao

Processamento de erros grosseiros - Identiمحcaچcﷺao Processamento de erros grosseiros - Identiمحcaچcﷺao Método ˆb Base: variável ˆβ interpretada como uma estimativa do erro associado à medida; verificação da magnitude do erro com relação a faixa esperada

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores

Leia mais

Transmissão de impulsos em banda-base

Transmissão de impulsos em banda-base Transmissão de impulsos em banda-base Transmissão de impulsos através de um canal com ruído aditivo. Probabilidades de erro com detecção no ponto central Detecção de sinais binários em ruído gaussiano

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100% . Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 2012/02 1 Introdução 2 3 4 5 Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição

Leia mais

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular

Leia mais

03/06/2014. Tratamento de Incertezas TIC Aula 18. Conteúdo Inferência Estatística Clássica

03/06/2014. Tratamento de Incertezas TIC Aula 18. Conteúdo Inferência Estatística Clássica Tratamento de Incertezas TIC-00.176 Aula 18 Conteúdo Professor Leandro Augusto Frata Fernandes laffernandes@ic.uff.br Material disponível em http://www.ic.uff.br/~laffernandes/teaching/2014.1/tic-00.176

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Projeto AM Francisco de A. T. de Carvalho 1

Projeto AM Francisco de A. T. de Carvalho 1 Projeto AM 2018-1 Francisco de A. T. de Carvalho 1 1 Centro de Informatica-CIn/UFPE Av. Prof. Luiz Freire, s/n -Cidade Universitaria, CEP 50740-540, Recife-PE, Brasil, fatc@cin.ufpe.br 1) No conjunto de

Leia mais

Inteligência nos Negócios (Business Inteligente)

Inteligência nos Negócios (Business Inteligente) Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões

Leia mais

Redes Neuronais (outras redes)

Redes Neuronais (outras redes) Redes Neuronais (outras redes) Victor Lobo Principais arquitecturas de redes Aprendizagem Supervisionada MLP com BP Multi-Layer Perceptron (perceptrão multicamada) Treinado com Backpropagation (retropropagação

Leia mais

Interpolação. Interpolação. Padrões de amostragem. Autocorrelação. Padrões de amostragem. Padrões de amostragem

Interpolação. Interpolação. Padrões de amostragem. Autocorrelação. Padrões de amostragem. Padrões de amostragem Sistemas de Informação Geográfica II Interpolação 1. Interpolação Autocorrelação Padrões de amostragem Validação de resultados Interpolação Predição do valor de atributos em pontos não-amostrados Tempo

Leia mais

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella PTC-43 Comunicaçõ ções Digitais II Texto original por Prof. Dr. Ivan Roberto Santana Casella Representaçã ção o Geométrica de Sinais A modulação digital envolve a escolha de um sinal específico s i (t)

Leia mais

Transformações e Ponderação para corrigir violações do modelo

Transformações e Ponderação para corrigir violações do modelo Transformações e Ponderação para corrigir violações do modelo Diagnóstico na análise de regressão Relembrando suposições Os erros do modelo tem média zero e variância constante. Os erros do modelo tem

Leia mais

AULA 7 - Inferência em MQO: ICs e Testes de

AULA 7 - Inferência em MQO: ICs e Testes de AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos

Leia mais

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014 Mistura de modelos Marcelo K. Albertini 31 de Julho de 2014 2/11 Mistura de modelos Ideia básica Em vez de aprender somente um modelo, aprender vários e combiná-los Isso melhora acurácia Muitos métodos

Leia mais

2 Uma Proposta para Seleção de Dados em Modelos LVQ

2 Uma Proposta para Seleção de Dados em Modelos LVQ 2 Uma Proposta para Seleção de Dados em Modelos LVQ Abordagens diferentes têm sido encontradas na literatura para seleção de dados. Entretanto, todas as técnicas buscam de fato o mesmo objetivo, seleção

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Apresentação do Curso Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 25 de fevereiro de 2008 C. H. Q. Forster

Leia mais

Máquinas de Vetores de Suporte

Máquinas de Vetores de Suporte Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor

Leia mais

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos

Leia mais

Aula 5: k-means. Paulo C. Marques F. 1 de Abril de Aula ministrada no Insper. Insper Aula 5: k-means 1 de Abril de / 19

Aula 5: k-means. Paulo C. Marques F. 1 de Abril de Aula ministrada no Insper. Insper Aula 5: k-means 1 de Abril de / 19 Aula 5: k-means Paulo C. Marques F. Aula ministrada no Insper 1 de Abril de 2016 Insper Aula 5: k-means 1 de Abril de 2016 1 / 19 Aprendizagem não supervisionada Encerramos, por hora, o capítulo sobre

Leia mais