Aula 1: k-nearest Neighbors
|
|
- Betty Thais Delgado Araújo
- 5 Há anos
- Visualizações:
Transcrição
1 Aula 1: k-nearest Neighbors Paulo C. Marques F. Aula ministrada no Insper 29 de Janeiro de 2016 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
2 O problema geral de classificação Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
3 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
4 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
5 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Formalmente, temos um vetor de variáveis preditoras x R d, uma variável resposta y C = {0,...,c}, e queremos construir um classificador ϕ : R d C. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
6 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Formalmente, temos um vetor de variáveis preditoras x R d, uma variável resposta y C = {0,...,c}, e queremos construir um classificador ϕ : R d C. Sem perda de generalidade, vamos supor que temos apenas duas classes: C = {0,1} (salmão e robalo). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
7 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Formalmente, temos um vetor de variáveis preditoras x R d, uma variável resposta y C = {0,...,c}, e queremos construir um classificador ϕ : R d C. Sem perda de generalidade, vamos supor que temos apenas duas classes: C = {0,1} (salmão e robalo). O caso em que existe um classificador ϕ que nunca erra é de pouco interesse prático/científico. Existem salmões e robalos que tem exatamente o mesmo peso e comprimento. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
8 Aprendizagem supervisionada Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
9 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
10 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
11 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). A função de distribuição conjunta fica determinada formalmente por F X,Y (x,y) = F Y X (y t)df X (t), (,x] na qual usamos a notação (,x] := (,x 1 ] (,x d ]. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
12 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). A função de distribuição conjunta fica determinada formalmente por F X,Y (x,y) = F Y X (y t)df X (t), (,x] na qual usamos a notação (,x] := (,x 1 ] (,x d ]. Estamos fazendo inferência: não conhecemos F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
13 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). A função de distribuição conjunta fica determinada formalmente por F X,Y (x,y) = F Y X (y t)df X (t), (,x] na qual usamos a notação (,x] := (,x 1 ] (,x d ]. Estamos fazendo inferência: não conhecemos F X,Y. Nosso contexto é não paramétrico: a menos do suporte, não impomos quaisquer restrições a F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
14 Erro de classificação Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
15 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
16 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
17 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
18 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Apesar do nome, não estamos fazendo inferência bayesiana. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
19 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Apesar do nome, não estamos fazendo inferência bayesiana. Quando temos dados simulados a partir de uma distribuição conhecida, podemos construir o classificador de Bayes ϕ. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
20 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Apesar do nome, não estamos fazendo inferência bayesiana. Quando temos dados simulados a partir de uma distribuição conhecida, podemos construir o classificador de Bayes ϕ. O classificador de Bayes é ótimo: para qualquer classificador ϕ, temos que L[ϕ ] L[ϕ]. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
21 O classificador de Bayes é ótimo (1) Demonstração Para qualquer classificador ϕ e todo x R d, note que Pr{ϕ(X) = Y X = x} = Pr{ϕ(x) = Y X = x} é igual a Pr{Y = 0 X = x} = 1 η(x), quando ϕ(x) = 0, e é igual a Pr{Y = 1 X = x} = η(x), quando ϕ(x) = 1. Assim, Pr{ϕ(X) Y X = x} = 1 Pr{ϕ(X) = Y X = x} = 1 ( I {ϕ(x)=0} (1 η(x))+i {ϕ(x)=1} η(x) ) = η(x) (2η(x) 1)I {ϕ(x)=1}, uma vez que I {ϕ(x)=0} = 1 I {ϕ(x)=1}. Portanto, Pr{ϕ(X) Y X = x} Pr{ϕ (X) Y X = x} = (2η(x) 1) ( I {ϕ (x)=1} I {ϕ(x)=1} ). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
22 O classificador de Bayes é ótimo (2) Demonstração (continuação) Temos dois casos: se ϕ (x) = 0, então, pela definição do classificador de Bayes, temos que 2η(x) 1 0 e I {ϕ (x)=1} I {ϕ(x)=1} 0. Quando ϕ (x) = 1, temos que 2η(x) 1 0 e I {ϕ (x)=1} I {ϕ(x)=1} 0. Assim, em ambos os casos, temos que Pr{ϕ(X) Y X = x} Pr{ϕ (X) Y X = x} 0. ( ) Pela definição de probabilidade condicional, para todo classificador ϕ, temos que Pr{ϕ(X) Y} = Pr{ϕ(X) Y X = x}df X (x). (,x] Obtemos o resultado desejado integrando ( ) com respeito a df X (x). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
23 Vapnik e Chervonenkis (1) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
24 Vapnik e Chervonenkis (1) Já que em geral o classificador de Bayes é inacessível, como escolher um bom classificador dentro de uma classe de classificadores C = {ϕ 1,...,ϕ m }? Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
25 Vapnik e Chervonenkis (1) Já que em geral o classificador de Bayes é inacessível, como escolher um bom classificador dentro de uma classe de classificadores C = {ϕ 1,...,ϕ m }? Dada uma amostra de pares (X 1,Y 1 ),...,(X n,y n ) independentes e identicamente distribuídos com função de distribuição F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
26 Vapnik e Chervonenkis (1) Já que em geral o classificador de Bayes é inacessível, como escolher um bom classificador dentro de uma classe de classificadores C = {ϕ 1,...,ϕ m }? Dada uma amostra de pares (X 1,Y 1 ),...,(X n,y n ) independentes e identicamente distribuídos com função de distribuição F X,Y. Defina o erro empírico de classificação de um classificador ϕ C por ˆL n [ϕ] = 1 n I n {ϕ(xi ) Y i }. i=1 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
27 Vapnik e Chervonenkis (2) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
28 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
29 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
30 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Muito importante: isto não ocorreria, em geral, se o classificador ϕ fosse uma função de toda a amostra aleatória (X 1,Y 1 ),...,(X n,y n ). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
31 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Muito importante: isto não ocorreria, em geral, se o classificador ϕ fosse uma função de toda a amostra aleatória (X 1,Y 1 ),...,(X n,y n ). Vale lembrar: ϕ é simplesmente uma função de R d em C. O classificador ϕ não é um objeto aleatório. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
32 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Muito importante: isto não ocorreria, em geral, se o classificador ϕ fosse uma função de toda a amostra aleatória (X 1,Y 1 ),...,(X n,y n ). Vale lembrar: ϕ é simplesmente uma função de R d em C. O classificador ϕ não é um objeto aleatório. Menos importante: o estimador é não viciado: E[ˆL n [ϕ]] = L[ϕ]. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
33 Vapnik e Chervonenkis (3) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
34 Vapnik e Chervonenkis (3) Desigualdade de Hoeffding: sejam U 1,...U n variáveis aleatórias independentes tais que Pr{a i U i b i ]} = 1. Definindo Ū n = (U 1 + +U n )/n, temos que Pr { Ūn E[Ū n ] } 2n ǫ 2exp ( 2 ǫ 2 ) n i=1 (b i a i ) 2. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
35 Vapnik e Chervonenkis (3) Desigualdade de Hoeffding: sejam U 1,...U n variáveis aleatórias independentes tais que Pr{a i U i b i ]} = 1. Definindo Ū n = (U 1 + +U n )/n, temos que Pr { Ūn E[Ū n ] } 2n ǫ 2exp ( 2 ǫ 2 ) n i=1 (b i a i ) 2. Usando a desigualdade de Hoeffding, temos que } Pr{ ˆL n [ˆϕ] L[ˆϕ] ǫ 2e 2nǫ2. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
36 Vapnik e Chervonenkis (3) Desigualdade de Hoeffding: sejam U 1,...U n variáveis aleatórias independentes tais que Pr{a i U i b i ]} = 1. Definindo Ū n = (U 1 + +U n )/n, temos que Pr { Ūn E[Ū n ] } 2n ǫ 2exp ( 2 ǫ 2 ) n i=1 (b i a i ) 2. Usando a desigualdade de Hoeffding, temos que } Pr{ ˆL n [ˆϕ] L[ˆϕ] ǫ 2e 2nǫ2. Portanto, para algum α = (0,1], fazendo 2e 2nǫ2 = α, temos que ( ) 1 2 ˆL n [ˆϕ]± 2n log. α é um intervalo de confiança para L[ˆϕ] com nível de confiança não menor do que (1 α)%. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
37 k-nearest Neighbors (1) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
38 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
39 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
40 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
41 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Mahalanobis: d(x,z) = (x z) S 1 (x z), em que S é a matriz de covariâncias amostral. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
42 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Mahalanobis: d(x,z) = (x z) S 1 (x z), em que S é a matriz de covariâncias amostral. E muitas outras. Especialmente quando algumas das preditoras são categóricas. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
43 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Mahalanobis: d(x,z) = (x z) S 1 (x z), em que S é a matriz de covariâncias amostral. E muitas outras. Especialmente quando algumas das preditoras são categóricas. Quando temos muitas preditoras, o classificador k-nn sofre a maldição da dimensionalidade, pois, grosso modo, em um espaço euclidiano de dimensão muito alta todos os x i s estariam aproximadamente à mesma distância da origem. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
44 k-nearest Neighbors (2) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
45 k-nearest Neighbors (2) No caso k = 1, os pontos x 1,...,x n definem células de classificação que formam uma estrutura geométrica conhecida como tesselação (mosaico) de Voronoi. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
46 k-nearest Neighbors (2) No caso k = 1, os pontos x 1,...,x n definem células de classificação que formam uma estrutura geométrica conhecida como tesselação (mosaico) de Voronoi. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
47 k-nearest Neighbors (2) No caso k = 1, os pontos x 1,...,x n definem células de classificação que formam uma estrutura geométrica conhecida como tesselação (mosaico) de Voronoi. Cover e Hart provaram que, assintoticamente, o erro de classificação da regra 1-NN nunca é maior do que o dobro do erro de Bayes, de maneira universal, ou seja, para qualquer F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
48 Como escolher k? (1) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
49 Como escolher k? (1) A escolha de k é crítica. As regiões de classificação podem ser substancialmente diferentes para k s distintos. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
50 Como escolher k? (1) A escolha de k é crítica. As regiões de classificação podem ser substancialmente diferentes para k s distintos. Se, erroneamente, tentassemos minimizar o erro empírico do classificador contruído com toda a amostra, escolheríamos sempre k = 1, pois a regra 1-NN, aparentemente, teria erro empírico igual a zero. Conforme discutido em slides anteriores, esta interpretação é incorreta. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
51 Como escolher k? (1) A escolha de k é crítica. As regiões de classificação podem ser substancialmente diferentes para k s distintos. Se, erroneamente, tentassemos minimizar o erro empírico do classificador contruído com toda a amostra, escolheríamos sempre k = 1, pois a regra 1-NN, aparentemente, teria erro empírico igual a zero. Conforme discutido em slides anteriores, esta interpretação é incorreta. O procedimento clássico em Statistical Learning é dividir a amostra em m dados de treinamento e n m dados de teste: (X 1,Y 1 ),...,(X m,y m ),(X }{{} m+1,y m+1 ),...,(X n,y n ). }{{} dados de treinamento dados de teste Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
52 Como escolher k? (2) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
53 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
54 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
55 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
56 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. O que se vê entre os praticamentes são critérios de divisão do tipo Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
57 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. O que se vê entre os praticamentes são critérios de divisão do tipo Matematicamente, o classificador obtido depende de como a amostra foi dividida. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
58 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. O que se vê entre os praticamentes são critérios de divisão do tipo Matematicamente, o classificador obtido depende de como a amostra foi dividida. Uma variante da k-nn é utilizada para regressão não paramétrica: ao invés do voto da maioria, toma-se a média das respostas dos k vizinhos mais próximos. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
59 Obrigado pela presença! Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisAula 3: Random Forests
Aula 3: Random Forests Paulo C. Marques F. Aula ministrada no Insper 26 de Fevereiro de 2016 Insper Random Forests 26 de Fevereiro de 2016 1 / 18 Árvores de classificação Estamos no mesmo contexto de aprendizagem
Leia maisCC-226 Introdução à Análise de Padrões
CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisAula 5: k-means. Paulo C. Marques F. 1 de Abril de Aula ministrada no Insper. Insper Aula 5: k-means 1 de Abril de / 19
Aula 5: k-means Paulo C. Marques F. Aula ministrada no Insper 1 de Abril de 2016 Insper Aula 5: k-means 1 de Abril de 2016 1 / 19 Aprendizagem não supervisionada Encerramos, por hora, o capítulo sobre
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisReconhecimento de Padrões
Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Duda e Hart Capítulo 1 Reconhecimento de Padrões (imagem) Objetivo: Interpretar um conjunto de dados através de um mapeamento (classificação)
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 12 de Gonzales Reconhecimento de Padrões (imagem) Objetivo: Interpretar o conteúdo da imagem através de um mapeamento
Leia maisAprendizado por Instâncias Janelas de Parzen & Knn
Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por
Leia maisInferência Estatistica
Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns
Leia maisClassificadores. André Tavares da Silva.
Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:
Leia maisMEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana
MEEMF-2010 Aula 01 Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana O que é inferência estatística? Inferência estatística é o importante ramo da Estatística
Leia maisA Bayesian Reassessment of Nearest-Neighbor Classification (2009)
A Bayesian Reassessment of Nearest-Neighbor Classification (2009) Cucala, Marin, Robert e Titterington André Yoshizumi Gomes (IME/USP) Seminário ministrado no Insper 5 de fevereiro de 2016 O método knn
Leia maisà Análise de Padrões
CC-226 Introdução à Análise de Padrões Prof. Carlos Henrique Q. Forster Visão Geral do Curso e Introdução a Classificadores Padrões São apresentados como tuplas de variáveis aleatórias O conjunto amostra
Leia maisMétodos Não Paramétricos
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Leia maisAULA 7 - Inferência em MQO: ICs e Testes de
AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos
Leia maisAnálise Bayesiana de Dados - Aula 1 -
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Leia maisIntrodução ao Reconhecimento. Prof. Dr. Geraldo Braz Junior
Introdução ao Reconhecimento Prof. Dr. Geraldo Braz Junior O que você vê? 2 Pergunta: Essa imagem tem um prédio? Classificação 3 Pergunta: Essa imagem possui carro(s)? Detecção de Objetos Vários 4 Pergunta:
Leia maisInferência Bayesiana - Aula 1 -
Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Leia mais)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD
)XQGDPHQWRVGHUREDELOLGDGHHHVWDWtVWLFD,QWURGXomR A história da estatística pode ser dividida em três fases. De acordo com PEANHA (00), a estatística inicialmente não mantinha nenhuma relação com a probabilidade,
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo
Leia maisExame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores
Leia maisThiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade
Thiago Zavaschi (zavaschi@ppgia.pucpr.br) Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUC-PR) Conceitos relacionados a classificação
Leia maisRESOLUÇÃO Nº 01/2016
Legislações Complementares: Resolução Nº 02/2016 Colegiado DEst Resolução Nº 03/2016 Colegiado DEst Resolução Nº 01/2017 Colegiado DEst RESOLUÇÃO Nº 01/2016 O Departamento de Estatística, tendo em vista
Leia maisExame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores
Leia maisIND 1115 Inferência Estatística Aula 6
Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal
Leia maisMétodos Matemáticos na Ciência de Dados: Introdução Relâmpago. IV
Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. IV Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,
Leia maisAULA 4 -Probabilidade Condicional e Regra de Bayes
AULA 4 - e Regra de Bayes Susan Schommer Introdução à Estatística Econômica - IE/UFRJ : exemplos A soma dos resultados de dois lançamentos de um dado é 9. Qual a probabilidade do primeiro resultado ter
Leia maisConceitos de Aprendizagem de Máquina e Experimentos. Visão Computacional
Conceitos de Aprendizagem de Máquina e Experimentos Visão Computacional O que você vê? 2 Pergunta: Essa imagem tem um prédio? Classificação 3 Pergunta: Essa imagem possui carro(s)? Detecção de Objetos
Leia maisAPRENDIZAGEM DE MÁQUINA
APRENDIZAGEM DE MÁQUINA (usando Python) Thiago Marzagão ÁRVORE DE DECISÃO & VALIDAÇÃO Thiago Marzagão APRENDIZAGEM DE MÁQUINA 1 / 20 árvore de decisão Aulas passadas: queríamos prever variáveis quantitativas.
Leia mais3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.
1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
Leia maisEstimativas e Erros. Propagação de erros e Ajuste de funções
Estimativas e Erros Propagação de erros e Ajuste de funções 1 Algumas referências Estimativas e Erros em Experimentos de Física - Vitor Oguri et al (EdUERJ) Fundamentos da Teoria de Erros - José Henrique
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço
Leia maisTeoria do aprendizado
Teoria do aprendizado Marcelo K. Albertini 7 de Agosto de 2014 2/37 Teoria do aprendizado Teoremas não existe almoço grátis Viés e variância Aprendizado PAC Dimensão VC Máquinas de vetores suporte 3/37
Leia mais03/06/2014. Tratamento de Incertezas TIC Aula 18. Conteúdo Inferência Estatística Clássica
Tratamento de Incertezas TIC-00.176 Aula 18 Conteúdo Professor Leandro Augusto Frata Fernandes laffernandes@ic.uff.br Material disponível em http://www.ic.uff.br/~laffernandes/teaching/2014.1/tic-00.176
Leia maisUniversidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Tipos de Aprendizagem. Luiz Eduardo S. Oliveira, Ph.D.
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Tipos de Aprendizagem Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir diferentes tipos de
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade
Leia maisCDI-II. Resumo das Aulas Teóricas (Semana 1) 2 Norma. Distância. Bola. R n = R R R
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Prof. Gabriel Pires CDI-II Resumo das Aulas Teóricas (Semana 1) 1 Notação R n = R R R x R n : x = (x 1, x 2,, x n ) ; x
Leia maisRalph S. Silva
ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:
Leia maisAprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Bagging,, Support Vector Machines e Combinação de Classificadores Alessandro L. Koerich Uma visão geral de diversos tópicos relacionados à Aprendizagem de Máquina:
Leia maisRafael Izbicki 1 / 38
Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisMINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE GRADUAÇÃO
ANEXO 1 - Plano de Ensino MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE GRADUAÇÃO PLANO DE ENSINO Ano Semestre letivo 2017 01 1. Identificação Código 1.1 Disciplina: Métodos Estatísticos
Leia maisINSTITUTO TECNOLÓGICO DE AERONÁUTICA
INSTITUTO TECNOLÓGICO DE AERONÁUTICA DIVISÃO DE ENGENHARIA MECÂNICA MP-272: CONTROLE E NAVEGAÇÃO DE MULTICÓPTEROS IV. ESTIMAÇÃO ÓTIMA Prof. Davi Antônio dos Santos (davists@ita.br) Departamento de Mecatrônica
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática
Leia maisAula 7 Medidas de Distância. Profa. Elaine Faria UFU
Aula 7 Medidas de Distância Profa. Elaine Faria UFU - 2017 Agradecimentos Este material é baseado No livro Tan et al, 2006 Nos slides do prof Andre C. P. L. F. Carvalho Agradecimentos Ao professor André
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 17 Support Vector Machines (SVM) Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor
Leia maisProf. Lorí Viali, Dr.
Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.mat.ufrgs.br/~viali/ Em muitas situações duas ou mais variáveis estão relacionadas e surge então a necessidade de determinar a natureza deste relacionamento.
Leia maisInferência Bayesiana - Aula 3 -
Inferência Bayesiana - Aula 3 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística Os problemas de estimação e teste de hipóteses podem ser vistos como problemas de decisão.
Leia maisCONHECIMENTOS ESPECÍFICOS
fonte de graus de soma de quadrado variação liberdade quadrados médio teste F regressão 1 1,4 1,4 46,2 resíduo 28 0,8 0,03 total 2,2 A tabela de análise de variância (ANOVA) ilustrada acima resulta de
Leia maisUma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law
Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não
Leia maisUniversidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Introdução
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Introdução Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir os conceito básicos de reconhecimento
Leia maisEspaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:
Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números
Leia maisO uso de Máquina de Suporte Vetorial para Regressão (SVR) na Estimação da Estrutura a Termo da Taxa de Juros do Brasil 12
1 Introdução No Brasil, o grande aumento na adesão a planos de previdência privada nos últimos tempos implicou em maiores preocupações de bancos e seguradoras em fazer investimentos visando garantir o
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Rejeição Introdução Em aplicações reais, sistemas de reconhecimento
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 10 Classificação com Naïve Bayes Max Pereira Raciocínio Probabilístico A notação tradicional para criar e analisar sentenças lógicas
Leia maisDefinição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
Leia maisAula 2 Uma breve revisão sobre modelos lineares
Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar
Leia maisAGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares
1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,
Leia maisThiago Marzagão 1. 1 Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21
MINERAÇÃO DE DADOS Thiago Marzagão 1 1 marzagao.1@osu.edu ÁRVORE DE DECISÃO & VALIDAÇÃO Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21 árvore de decisão Aulas passadas: queríamos
Leia mais5 Avaliação dos estimadores propostos
5 valiação dos estimadores propostos Este capítulo apresenta as medidas estatísticas usuais para avaliar a qualidade de estimadores e as expressões utilizadas para a estimação destas medidas, a partir
Leia maisK-Nearest Neighbours & RSTUDIO
K-Nearest Neighbours & RSTUDIO Rodrigo Augusto Igawa Universidade Estadual de Londrina igawa@uel.br 17 de novembro de 2015 Rodrigo Augusto Igawa (UEL) KNN PARTE 2 17 de novembro de 2015 1 / 16 Sumário
Leia maisCE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística
CE085 - Estatística Inferencial Função de Verossimilhança e suas derivadas Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal
Leia maisMétodos Quantitativos para Avaliação de Políticas Públicas
ACH3657 Métodos Quantitativos para Avaliação de Políticas Públicas Aula 11 Análise de Resíduos Alexandre Ribeiro Leichsenring alexandre.leichsenring@usp.br Alexandre Leichsenring ACH3657 Aula 11 1 / 26
Leia maisClassificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka
Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Árvores de Decisão K-Vizinhos
Leia maisDESENHO DE MECANISMOS (2)
MICROECONOMIA II DESENHO DE MECANISMOS (2) Rafael V. X. Ferreira rafaelferreira@usp.br Novembro de 2017 Universidade de São Paulo (USP) Faculdade de Economia, Administração e Contabilidade (FEA) Departamento
Leia maisTécnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.
Leia maisRegressão linear simples
Regressão linear simples Universidade Estadual de Santa Cruz Ivan Bezerra Allaman Introdução Foi visto na aula anterior que o coeficiente de correlação de Pearson é utilizado para mensurar o grau de associação
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z
Leia maisAprendizado de Máquina
Aprendizado de Máquina Introdução Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 19 Introdução
Leia maisPrincípios de Modelagem Matemática Aula 10
Princípios de Modelagem Matemática Aula 10 Prof. José Geraldo DFM CEFET/MG 19 de maio de 2014 1 Alguns resultados importantes em estatística A distribuição normal tem importante papel em estatística pois
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento
Leia maisPROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012
PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.
Leia maisAprendizado, minimização do arrependimento e equilíbrio (Learning, Regret Minimization, and Equilibria)
Aprendizado, minimização do arrependimento e equilíbrio (Learning, Regret Minimization, and Equilibria) Victor Alberto Romero Instituto de Matemática e Estatística Universidade de São Paulo Teoria dos
Leia maisChamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.
PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses
Leia maisReconhecimento de Padrões
Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Roteiro da aula Conceitos básicos sobre reconhecimento de padrões Visão geral sobre aprendizado no projeto de classificadores Seleção
Leia maisCombinação de Classificadores (seleção)
Combinação de Classificadores (seleção) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Seleção de classificadores Estimativa independente de decisão Estimativa dependente de decisão
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
Leia maisSCC0173 Mineração de Dados Biológicos
SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:
Leia maisTÉCNICAS DE AMOSTRAGEM
TÉCNICAS DE AMOSTRAGEM Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Teorema Central do Limite (TCL) Se y 1, y 2,...,
Leia maisSéries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9
em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 9 Data Mining Equação básica: Amostras finitas + muitos modelos = modelo equivocado. Lovell (1983, Review
Leia maisSUMÁRIO. Prefácio, Espaço amostrai, Definição de probabilidade, Probabilidades finitas dos espaços amostrais fin itos, 20
SUMÁRIO Prefácio, 1 3 1 CÁLCULO DAS PROBABILIDADES, 15 1.1 Introdução, 15 1.2 Caracterização de um experimento aleatório, 15 1.3 Espaço amostrai, 16 1.4 Evento, 17 1.5 Eventos mutuamente exclusivos, 17
Leia maisAprendizado de Máquinas. Classificadores Lineares
Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação
Leia maisMáquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos
Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Introdução * Método supervisionado de aprendizagem de máquina * Empregado em classificação de dados Classificação binária
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo k-nearest Neighbors (knn) Como os filmes são categorizados em gêneros? O que
Leia maisAnálise da Regressão múltipla: Inferência. Aula 4 6 de maio de 2013
Análise da Regressão múltipla: Inferência Revisão da graduação Aula 4 6 de maio de 2013 Hipóteses do modelo linear clássico (MLC) Sabemos que, dadas as hipóteses de Gauss- Markov, MQO é BLUE. Para realizarmos
Leia maisGibbs Sampler para ANOVA e Misturas
Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados
Leia maisMétodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II
Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,
Leia maisCanais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisNome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F)
ESTATÍSTICA I 2. o Ano/Gestão 1. o Semestre Época Normal Duração: 2 horas 1. a Parte Teórica N. o de Exame: RESOLUÇÃO 09.01.2015 Este exame é composto por duas partes. Esta é a 1 a Parte Teórica (Cotação:
Leia maisRedes Neurais (Inteligência Artificial)
Redes Neurais (Inteligência Artificial) Aula 13 Support Vector Machines (SVM) Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
Leia maisInformática Parte 19 Prof. Márcio Hunecke
Escriturário Informática Parte 19 Prof. Márcio Hunecke Informática NOÇÕES DE ALGORITMOS DE APRENDIZADO O aprendizado automático, aprendizado de máquina (em inglês: "machine learning") ou aprendizagem
Leia mais