Aula 1: k-nearest Neighbors

Tamanho: px
Começar a partir da página:

Download "Aula 1: k-nearest Neighbors"

Transcrição

1 Aula 1: k-nearest Neighbors Paulo C. Marques F. Aula ministrada no Insper 29 de Janeiro de 2016 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

2 O problema geral de classificação Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

3 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

4 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

5 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Formalmente, temos um vetor de variáveis preditoras x R d, uma variável resposta y C = {0,...,c}, e queremos construir um classificador ϕ : R d C. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

6 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Formalmente, temos um vetor de variáveis preditoras x R d, uma variável resposta y C = {0,...,c}, e queremos construir um classificador ϕ : R d C. Sem perda de generalidade, vamos supor que temos apenas duas classes: C = {0,1} (salmão e robalo). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

7 O problema geral de classificação Imagine uma fábrica na qual temos uma esteira pela qual descem peixes de duas espécies: salmões e robalos. Nosso objetivo é construir uma máquina que, tomando o peso e o maior comprimento dos peixes, classifique cada um deles como salmão ou robalo. Formalmente, temos um vetor de variáveis preditoras x R d, uma variável resposta y C = {0,...,c}, e queremos construir um classificador ϕ : R d C. Sem perda de generalidade, vamos supor que temos apenas duas classes: C = {0,1} (salmão e robalo). O caso em que existe um classificador ϕ que nunca erra é de pouco interesse prático/científico. Existem salmões e robalos que tem exatamente o mesmo peso e comprimento. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

8 Aprendizagem supervisionada Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

9 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

10 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

11 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). A função de distribuição conjunta fica determinada formalmente por F X,Y (x,y) = F Y X (y t)df X (t), (,x] na qual usamos a notação (,x] := (,x 1 ] (,x d ]. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

12 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). A função de distribuição conjunta fica determinada formalmente por F X,Y (x,y) = F Y X (y t)df X (t), (,x] na qual usamos a notação (,x] := (,x 1 ] (,x d ]. Estamos fazendo inferência: não conhecemos F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

13 Aprendizagem supervisionada Introduzimos incertezas em nossa descrição através de um vetor aleatório (X,Y) R d C com função de distribuição conjunta F X,Y. Metáfora: um oráculo gera um x a partir da função de distribuição marginal F X e depois disso gera um y a partir da função de distribuição condicional F X Y ( x) (conhecida como distribuição do supervisor). A função de distribuição conjunta fica determinada formalmente por F X,Y (x,y) = F Y X (y t)df X (t), (,x] na qual usamos a notação (,x] := (,x 1 ] (,x d ]. Estamos fazendo inferência: não conhecemos F X,Y. Nosso contexto é não paramétrico: a menos do suporte, não impomos quaisquer restrições a F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

14 Erro de classificação Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

15 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

16 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

17 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

18 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Apesar do nome, não estamos fazendo inferência bayesiana. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

19 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Apesar do nome, não estamos fazendo inferência bayesiana. Quando temos dados simulados a partir de uma distribuição conhecida, podemos construir o classificador de Bayes ϕ. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

20 Erro de classificação Definimos o erro de classificação de um classificador ϕ pela probabilidade do classificador errar: L[ϕ] = Pr{ϕ(X) Y}. Defina o classificador de Bayes por { ϕ 1 se Pr{Y = 1 X = x} =: η(x) > 1/2; (x) = 0 caso contrário. O classificador de Bayes tem um papel formal: em um problema real não conhecemos F X,Y. Portanto, também não conhecemos η(x) e não conseguimos construir ϕ. Apesar do nome, não estamos fazendo inferência bayesiana. Quando temos dados simulados a partir de uma distribuição conhecida, podemos construir o classificador de Bayes ϕ. O classificador de Bayes é ótimo: para qualquer classificador ϕ, temos que L[ϕ ] L[ϕ]. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

21 O classificador de Bayes é ótimo (1) Demonstração Para qualquer classificador ϕ e todo x R d, note que Pr{ϕ(X) = Y X = x} = Pr{ϕ(x) = Y X = x} é igual a Pr{Y = 0 X = x} = 1 η(x), quando ϕ(x) = 0, e é igual a Pr{Y = 1 X = x} = η(x), quando ϕ(x) = 1. Assim, Pr{ϕ(X) Y X = x} = 1 Pr{ϕ(X) = Y X = x} = 1 ( I {ϕ(x)=0} (1 η(x))+i {ϕ(x)=1} η(x) ) = η(x) (2η(x) 1)I {ϕ(x)=1}, uma vez que I {ϕ(x)=0} = 1 I {ϕ(x)=1}. Portanto, Pr{ϕ(X) Y X = x} Pr{ϕ (X) Y X = x} = (2η(x) 1) ( I {ϕ (x)=1} I {ϕ(x)=1} ). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

22 O classificador de Bayes é ótimo (2) Demonstração (continuação) Temos dois casos: se ϕ (x) = 0, então, pela definição do classificador de Bayes, temos que 2η(x) 1 0 e I {ϕ (x)=1} I {ϕ(x)=1} 0. Quando ϕ (x) = 1, temos que 2η(x) 1 0 e I {ϕ (x)=1} I {ϕ(x)=1} 0. Assim, em ambos os casos, temos que Pr{ϕ(X) Y X = x} Pr{ϕ (X) Y X = x} 0. ( ) Pela definição de probabilidade condicional, para todo classificador ϕ, temos que Pr{ϕ(X) Y} = Pr{ϕ(X) Y X = x}df X (x). (,x] Obtemos o resultado desejado integrando ( ) com respeito a df X (x). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

23 Vapnik e Chervonenkis (1) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

24 Vapnik e Chervonenkis (1) Já que em geral o classificador de Bayes é inacessível, como escolher um bom classificador dentro de uma classe de classificadores C = {ϕ 1,...,ϕ m }? Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

25 Vapnik e Chervonenkis (1) Já que em geral o classificador de Bayes é inacessível, como escolher um bom classificador dentro de uma classe de classificadores C = {ϕ 1,...,ϕ m }? Dada uma amostra de pares (X 1,Y 1 ),...,(X n,y n ) independentes e identicamente distribuídos com função de distribuição F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

26 Vapnik e Chervonenkis (1) Já que em geral o classificador de Bayes é inacessível, como escolher um bom classificador dentro de uma classe de classificadores C = {ϕ 1,...,ϕ m }? Dada uma amostra de pares (X 1,Y 1 ),...,(X n,y n ) independentes e identicamente distribuídos com função de distribuição F X,Y. Defina o erro empírico de classificação de um classificador ϕ C por ˆL n [ϕ] = 1 n I n {ϕ(xi ) Y i }. i=1 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

27 Vapnik e Chervonenkis (2) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

28 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

29 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

30 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Muito importante: isto não ocorreria, em geral, se o classificador ϕ fosse uma função de toda a amostra aleatória (X 1,Y 1 ),...,(X n,y n ). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

31 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Muito importante: isto não ocorreria, em geral, se o classificador ϕ fosse uma função de toda a amostra aleatória (X 1,Y 1 ),...,(X n,y n ). Vale lembrar: ϕ é simplesmente uma função de R d em C. O classificador ϕ não é um objeto aleatório. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

32 Vapnik e Chervonenkis (2) Vapnik e Chernonenkis preconizam que devemos escolher o classificador ˆϕ que minimiza o erro empírico: ˆϕ = argminˆl n [ϕ]. ϕ C Note-se que, pela lei forte dos grandes números, ˆL n [ϕ] é um estimador fortemente consistente de L[ϕ], ou seja, ˆL n [ϕ] L[ϕ] com probabilidade 1, quando n, para toda F X,Y. Muito importante: isto não ocorreria, em geral, se o classificador ϕ fosse uma função de toda a amostra aleatória (X 1,Y 1 ),...,(X n,y n ). Vale lembrar: ϕ é simplesmente uma função de R d em C. O classificador ϕ não é um objeto aleatório. Menos importante: o estimador é não viciado: E[ˆL n [ϕ]] = L[ϕ]. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

33 Vapnik e Chervonenkis (3) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

34 Vapnik e Chervonenkis (3) Desigualdade de Hoeffding: sejam U 1,...U n variáveis aleatórias independentes tais que Pr{a i U i b i ]} = 1. Definindo Ū n = (U 1 + +U n )/n, temos que Pr { Ūn E[Ū n ] } 2n ǫ 2exp ( 2 ǫ 2 ) n i=1 (b i a i ) 2. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

35 Vapnik e Chervonenkis (3) Desigualdade de Hoeffding: sejam U 1,...U n variáveis aleatórias independentes tais que Pr{a i U i b i ]} = 1. Definindo Ū n = (U 1 + +U n )/n, temos que Pr { Ūn E[Ū n ] } 2n ǫ 2exp ( 2 ǫ 2 ) n i=1 (b i a i ) 2. Usando a desigualdade de Hoeffding, temos que } Pr{ ˆL n [ˆϕ] L[ˆϕ] ǫ 2e 2nǫ2. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

36 Vapnik e Chervonenkis (3) Desigualdade de Hoeffding: sejam U 1,...U n variáveis aleatórias independentes tais que Pr{a i U i b i ]} = 1. Definindo Ū n = (U 1 + +U n )/n, temos que Pr { Ūn E[Ū n ] } 2n ǫ 2exp ( 2 ǫ 2 ) n i=1 (b i a i ) 2. Usando a desigualdade de Hoeffding, temos que } Pr{ ˆL n [ˆϕ] L[ˆϕ] ǫ 2e 2nǫ2. Portanto, para algum α = (0,1], fazendo 2e 2nǫ2 = α, temos que ( ) 1 2 ˆL n [ˆϕ]± 2n log. α é um intervalo de confiança para L[ˆϕ] com nível de confiança não menor do que (1 α)%. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

37 k-nearest Neighbors (1) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

38 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

39 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

40 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

41 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Mahalanobis: d(x,z) = (x z) S 1 (x z), em que S é a matriz de covariâncias amostral. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

42 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Mahalanobis: d(x,z) = (x z) S 1 (x z), em que S é a matriz de covariâncias amostral. E muitas outras. Especialmente quando algumas das preditoras são categóricas. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

43 k-nearest Neighbors (1) Para uma certa distância definida em R d, dados n pares (x 1,y 1 ),...,(x n,y n ) e um novo x R d, o classificador k-nn determina os k pontos em {x 1,...,x n } mais próximos de x e classifica x como pertencente à classe mais frequente entre os y i s destes k vizinhos mais próximos (voto da maioria). Diversas distâncias podem ser utilizadas. Euclidiana: d(x,z) = (x z) (x z). Mahalanobis: d(x,z) = (x z) S 1 (x z), em que S é a matriz de covariâncias amostral. E muitas outras. Especialmente quando algumas das preditoras são categóricas. Quando temos muitas preditoras, o classificador k-nn sofre a maldição da dimensionalidade, pois, grosso modo, em um espaço euclidiano de dimensão muito alta todos os x i s estariam aproximadamente à mesma distância da origem. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

44 k-nearest Neighbors (2) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

45 k-nearest Neighbors (2) No caso k = 1, os pontos x 1,...,x n definem células de classificação que formam uma estrutura geométrica conhecida como tesselação (mosaico) de Voronoi. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

46 k-nearest Neighbors (2) No caso k = 1, os pontos x 1,...,x n definem células de classificação que formam uma estrutura geométrica conhecida como tesselação (mosaico) de Voronoi. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

47 k-nearest Neighbors (2) No caso k = 1, os pontos x 1,...,x n definem células de classificação que formam uma estrutura geométrica conhecida como tesselação (mosaico) de Voronoi. Cover e Hart provaram que, assintoticamente, o erro de classificação da regra 1-NN nunca é maior do que o dobro do erro de Bayes, de maneira universal, ou seja, para qualquer F X,Y. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

48 Como escolher k? (1) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

49 Como escolher k? (1) A escolha de k é crítica. As regiões de classificação podem ser substancialmente diferentes para k s distintos. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

50 Como escolher k? (1) A escolha de k é crítica. As regiões de classificação podem ser substancialmente diferentes para k s distintos. Se, erroneamente, tentassemos minimizar o erro empírico do classificador contruído com toda a amostra, escolheríamos sempre k = 1, pois a regra 1-NN, aparentemente, teria erro empírico igual a zero. Conforme discutido em slides anteriores, esta interpretação é incorreta. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

51 Como escolher k? (1) A escolha de k é crítica. As regiões de classificação podem ser substancialmente diferentes para k s distintos. Se, erroneamente, tentassemos minimizar o erro empírico do classificador contruído com toda a amostra, escolheríamos sempre k = 1, pois a regra 1-NN, aparentemente, teria erro empírico igual a zero. Conforme discutido em slides anteriores, esta interpretação é incorreta. O procedimento clássico em Statistical Learning é dividir a amostra em m dados de treinamento e n m dados de teste: (X 1,Y 1 ),...,(X m,y m ),(X }{{} m+1,y m+1 ),...,(X n,y n ). }{{} dados de treinamento dados de teste Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

52 Como escolher k? (2) Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

53 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

54 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

55 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

56 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. O que se vê entre os praticamentes são critérios de divisão do tipo Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

57 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. O que se vê entre os praticamentes são critérios de divisão do tipo Matematicamente, o classificador obtido depende de como a amostra foi dividida. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

58 Como escolher k? (2) Usa-se os dados de treinamento para construir classificadores com k = 1,...,m e calcula-se o erro empírico de cada classificador usando apenas os n m dados de teste. O menor erro empírico determina o valor de k. Há critérios assintóticos (tipo Stone) para a divisão da amostra em dados de treinamento e dados de teste. Não há critérios universais para n finito. O que se vê entre os praticamentes são critérios de divisão do tipo Matematicamente, o classificador obtido depende de como a amostra foi dividida. Uma variante da k-nn é utilizada para regressão não paramétrica: ao invés do voto da maioria, toma-se a média das respostas dos k vizinhos mais próximos. Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

59 Obrigado pela presença! Insper Aula 1: k-nearest Neighbors 29 de Janeiro de / 14

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Aula 3: Random Forests

Aula 3: Random Forests Aula 3: Random Forests Paulo C. Marques F. Aula ministrada no Insper 26 de Fevereiro de 2016 Insper Random Forests 26 de Fevereiro de 2016 1 / 18 Árvores de classificação Estamos no mesmo contexto de aprendizagem

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Aula 5: k-means. Paulo C. Marques F. 1 de Abril de Aula ministrada no Insper. Insper Aula 5: k-means 1 de Abril de / 19

Aula 5: k-means. Paulo C. Marques F. 1 de Abril de Aula ministrada no Insper. Insper Aula 5: k-means 1 de Abril de / 19 Aula 5: k-means Paulo C. Marques F. Aula ministrada no Insper 1 de Abril de 2016 Insper Aula 5: k-means 1 de Abril de 2016 1 / 19 Aprendizagem não supervisionada Encerramos, por hora, o capítulo sobre

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Reconhecimento de Padrões

Reconhecimento de Padrões Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Duda e Hart Capítulo 1 Reconhecimento de Padrões (imagem) Objetivo: Interpretar um conjunto de dados através de um mapeamento (classificação)

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 12 de Gonzales Reconhecimento de Padrões (imagem) Objetivo: Interpretar o conteúdo da imagem através de um mapeamento

Leia mais

Aprendizado por Instâncias Janelas de Parzen & Knn

Aprendizado por Instâncias Janelas de Parzen & Knn Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por

Leia mais

Inferência Estatistica

Inferência Estatistica Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana MEEMF-2010 Aula 01 Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana O que é inferência estatística? Inferência estatística é o importante ramo da Estatística

Leia mais

A Bayesian Reassessment of Nearest-Neighbor Classification (2009)

A Bayesian Reassessment of Nearest-Neighbor Classification (2009) A Bayesian Reassessment of Nearest-Neighbor Classification (2009) Cucala, Marin, Robert e Titterington André Yoshizumi Gomes (IME/USP) Seminário ministrado no Insper 5 de fevereiro de 2016 O método knn

Leia mais

à Análise de Padrões

à Análise de Padrões CC-226 Introdução à Análise de Padrões Prof. Carlos Henrique Q. Forster Visão Geral do Curso e Introdução a Classificadores Padrões São apresentados como tuplas de variáveis aleatórias O conjunto amostra

Leia mais

Métodos Não Paramétricos

Métodos Não Paramétricos Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

AULA 7 - Inferência em MQO: ICs e Testes de

AULA 7 - Inferência em MQO: ICs e Testes de AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos

Leia mais

Análise Bayesiana de Dados - Aula 1 -

Análise Bayesiana de Dados - Aula 1 - Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

Introdução ao Reconhecimento. Prof. Dr. Geraldo Braz Junior

Introdução ao Reconhecimento. Prof. Dr. Geraldo Braz Junior Introdução ao Reconhecimento Prof. Dr. Geraldo Braz Junior O que você vê? 2 Pergunta: Essa imagem tem um prédio? Classificação 3 Pergunta: Essa imagem possui carro(s)? Detecção de Objetos Vários 4 Pergunta:

Leia mais

Inferência Bayesiana - Aula 1 -

Inferência Bayesiana - Aula 1 - Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD )XQGDPHQWRVGHUREDELOLGDGHHHVWDWtVWLFD,QWURGXomR A história da estatística pode ser dividida em três fases. De acordo com PEANHA (00), a estatística inicialmente não mantinha nenhuma relação com a probabilidade,

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

Thiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade

Thiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade Thiago Zavaschi (zavaschi@ppgia.pucpr.br) Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUC-PR) Conceitos relacionados a classificação

Leia mais

RESOLUÇÃO Nº 01/2016

RESOLUÇÃO Nº 01/2016 Legislações Complementares: Resolução Nº 02/2016 Colegiado DEst Resolução Nº 03/2016 Colegiado DEst Resolução Nº 01/2017 Colegiado DEst RESOLUÇÃO Nº 01/2016 O Departamento de Estatística, tendo em vista

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

IND 1115 Inferência Estatística Aula 6

IND 1115 Inferência Estatística Aula 6 Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal

Leia mais

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. IV

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. IV Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. IV Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,

Leia mais

AULA 4 -Probabilidade Condicional e Regra de Bayes

AULA 4 -Probabilidade Condicional e Regra de Bayes AULA 4 - e Regra de Bayes Susan Schommer Introdução à Estatística Econômica - IE/UFRJ : exemplos A soma dos resultados de dois lançamentos de um dado é 9. Qual a probabilidade do primeiro resultado ter

Leia mais

Conceitos de Aprendizagem de Máquina e Experimentos. Visão Computacional

Conceitos de Aprendizagem de Máquina e Experimentos. Visão Computacional Conceitos de Aprendizagem de Máquina e Experimentos Visão Computacional O que você vê? 2 Pergunta: Essa imagem tem um prédio? Classificação 3 Pergunta: Essa imagem possui carro(s)? Detecção de Objetos

Leia mais

APRENDIZAGEM DE MÁQUINA

APRENDIZAGEM DE MÁQUINA APRENDIZAGEM DE MÁQUINA (usando Python) Thiago Marzagão ÁRVORE DE DECISÃO & VALIDAÇÃO Thiago Marzagão APRENDIZAGEM DE MÁQUINA 1 / 20 árvore de decisão Aulas passadas: queríamos prever variáveis quantitativas.

Leia mais

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente. 1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Estimativas e Erros. Propagação de erros e Ajuste de funções

Estimativas e Erros. Propagação de erros e Ajuste de funções Estimativas e Erros Propagação de erros e Ajuste de funções 1 Algumas referências Estimativas e Erros em Experimentos de Física - Vitor Oguri et al (EdUERJ) Fundamentos da Teoria de Erros - José Henrique

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço

Leia mais

Teoria do aprendizado

Teoria do aprendizado Teoria do aprendizado Marcelo K. Albertini 7 de Agosto de 2014 2/37 Teoria do aprendizado Teoremas não existe almoço grátis Viés e variância Aprendizado PAC Dimensão VC Máquinas de vetores suporte 3/37

Leia mais

03/06/2014. Tratamento de Incertezas TIC Aula 18. Conteúdo Inferência Estatística Clássica

03/06/2014. Tratamento de Incertezas TIC Aula 18. Conteúdo Inferência Estatística Clássica Tratamento de Incertezas TIC-00.176 Aula 18 Conteúdo Professor Leandro Augusto Frata Fernandes laffernandes@ic.uff.br Material disponível em http://www.ic.uff.br/~laffernandes/teaching/2014.1/tic-00.176

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Tipos de Aprendizagem. Luiz Eduardo S. Oliveira, Ph.D.

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Tipos de Aprendizagem. Luiz Eduardo S. Oliveira, Ph.D. Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Tipos de Aprendizagem Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir diferentes tipos de

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade

Leia mais

CDI-II. Resumo das Aulas Teóricas (Semana 1) 2 Norma. Distância. Bola. R n = R R R

CDI-II. Resumo das Aulas Teóricas (Semana 1) 2 Norma. Distância. Bola. R n = R R R Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Prof. Gabriel Pires CDI-II Resumo das Aulas Teóricas (Semana 1) 1 Notação R n = R R R x R n : x = (x 1, x 2,, x n ) ; x

Leia mais

Ralph S. Silva

Ralph S. Silva ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendizagem de Máquina Bagging,, Support Vector Machines e Combinação de Classificadores Alessandro L. Koerich Uma visão geral de diversos tópicos relacionados à Aprendizagem de Máquina:

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE GRADUAÇÃO

MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE GRADUAÇÃO ANEXO 1 - Plano de Ensino MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE GRADUAÇÃO PLANO DE ENSINO Ano Semestre letivo 2017 01 1. Identificação Código 1.1 Disciplina: Métodos Estatísticos

Leia mais

INSTITUTO TECNOLÓGICO DE AERONÁUTICA

INSTITUTO TECNOLÓGICO DE AERONÁUTICA INSTITUTO TECNOLÓGICO DE AERONÁUTICA DIVISÃO DE ENGENHARIA MECÂNICA MP-272: CONTROLE E NAVEGAÇÃO DE MULTICÓPTEROS IV. ESTIMAÇÃO ÓTIMA Prof. Davi Antônio dos Santos (davists@ita.br) Departamento de Mecatrônica

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática

Leia mais

Aula 7 Medidas de Distância. Profa. Elaine Faria UFU

Aula 7 Medidas de Distância. Profa. Elaine Faria UFU Aula 7 Medidas de Distância Profa. Elaine Faria UFU - 2017 Agradecimentos Este material é baseado No livro Tan et al, 2006 Nos slides do prof Andre C. P. L. F. Carvalho Agradecimentos Ao professor André

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 17 Support Vector Machines (SVM) Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.mat.ufrgs.br/~viali/ Em muitas situações duas ou mais variáveis estão relacionadas e surge então a necessidade de determinar a natureza deste relacionamento.

Leia mais

Inferência Bayesiana - Aula 3 -

Inferência Bayesiana - Aula 3 - Inferência Bayesiana - Aula 3 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística Os problemas de estimação e teste de hipóteses podem ser vistos como problemas de decisão.

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS fonte de graus de soma de quadrado variação liberdade quadrados médio teste F regressão 1 1,4 1,4 46,2 resíduo 28 0,8 0,03 total 2,2 A tabela de análise de variância (ANOVA) ilustrada acima resulta de

Leia mais

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Introdução

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Introdução Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Introdução Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir os conceito básicos de reconhecimento

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

O uso de Máquina de Suporte Vetorial para Regressão (SVR) na Estimação da Estrutura a Termo da Taxa de Juros do Brasil 12

O uso de Máquina de Suporte Vetorial para Regressão (SVR) na Estimação da Estrutura a Termo da Taxa de Juros do Brasil 12 1 Introdução No Brasil, o grande aumento na adesão a planos de previdência privada nos últimos tempos implicou em maiores preocupações de bancos e seguradoras em fazer investimentos visando garantir o

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Rejeição Introdução Em aplicações reais, sistemas de reconhecimento

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 10 Classificação com Naïve Bayes Max Pereira Raciocínio Probabilístico A notação tradicional para criar e analisar sentenças lógicas

Leia mais

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas. 1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento

Leia mais

Aula 2 Uma breve revisão sobre modelos lineares

Aula 2 Uma breve revisão sobre modelos lineares Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

Thiago Marzagão 1. 1 Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21

Thiago Marzagão 1. 1 Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21 MINERAÇÃO DE DADOS Thiago Marzagão 1 1 marzagao.1@osu.edu ÁRVORE DE DECISÃO & VALIDAÇÃO Thiago Marzagão (Universidade de Brasília) MINERAÇÃO DE DADOS 1 / 21 árvore de decisão Aulas passadas: queríamos

Leia mais

5 Avaliação dos estimadores propostos

5 Avaliação dos estimadores propostos 5 valiação dos estimadores propostos Este capítulo apresenta as medidas estatísticas usuais para avaliar a qualidade de estimadores e as expressões utilizadas para a estimação destas medidas, a partir

Leia mais

K-Nearest Neighbours & RSTUDIO

K-Nearest Neighbours & RSTUDIO K-Nearest Neighbours & RSTUDIO Rodrigo Augusto Igawa Universidade Estadual de Londrina igawa@uel.br 17 de novembro de 2015 Rodrigo Augusto Igawa (UEL) KNN PARTE 2 17 de novembro de 2015 1 / 16 Sumário

Leia mais

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística CE085 - Estatística Inferencial Função de Verossimilhança e suas derivadas Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal

Leia mais

Métodos Quantitativos para Avaliação de Políticas Públicas

Métodos Quantitativos para Avaliação de Políticas Públicas ACH3657 Métodos Quantitativos para Avaliação de Políticas Públicas Aula 11 Análise de Resíduos Alexandre Ribeiro Leichsenring alexandre.leichsenring@usp.br Alexandre Leichsenring ACH3657 Aula 11 1 / 26

Leia mais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Árvores de Decisão K-Vizinhos

Leia mais

DESENHO DE MECANISMOS (2)

DESENHO DE MECANISMOS (2) MICROECONOMIA II DESENHO DE MECANISMOS (2) Rafael V. X. Ferreira rafaelferreira@usp.br Novembro de 2017 Universidade de São Paulo (USP) Faculdade de Economia, Administração e Contabilidade (FEA) Departamento

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

Regressão linear simples

Regressão linear simples Regressão linear simples Universidade Estadual de Santa Cruz Ivan Bezerra Allaman Introdução Foi visto na aula anterior que o coeficiente de correlação de Pearson é utilizado para mensurar o grau de associação

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Introdução Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 19 Introdução

Leia mais

Princípios de Modelagem Matemática Aula 10

Princípios de Modelagem Matemática Aula 10 Princípios de Modelagem Matemática Aula 10 Prof. José Geraldo DFM CEFET/MG 19 de maio de 2014 1 Alguns resultados importantes em estatística A distribuição normal tem importante papel em estatística pois

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012 PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.

Leia mais

Aprendizado, minimização do arrependimento e equilíbrio (Learning, Regret Minimization, and Equilibria)

Aprendizado, minimização do arrependimento e equilíbrio (Learning, Regret Minimization, and Equilibria) Aprendizado, minimização do arrependimento e equilíbrio (Learning, Regret Minimization, and Equilibria) Victor Alberto Romero Instituto de Matemática e Estatística Universidade de São Paulo Teoria dos

Leia mais

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω. PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses

Leia mais

Reconhecimento de Padrões

Reconhecimento de Padrões Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Roteiro da aula Conceitos básicos sobre reconhecimento de padrões Visão geral sobre aprendizado no projeto de classificadores Seleção

Leia mais

Combinação de Classificadores (seleção)

Combinação de Classificadores (seleção) Combinação de Classificadores (seleção) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Seleção de classificadores Estimativa independente de decisão Estimativa dependente de decisão

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que

Leia mais

SCC0173 Mineração de Dados Biológicos

SCC0173 Mineração de Dados Biológicos SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:

Leia mais

TÉCNICAS DE AMOSTRAGEM

TÉCNICAS DE AMOSTRAGEM TÉCNICAS DE AMOSTRAGEM Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Teorema Central do Limite (TCL) Se y 1, y 2,...,

Leia mais

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9 em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 9 Data Mining Equação básica: Amostras finitas + muitos modelos = modelo equivocado. Lovell (1983, Review

Leia mais

SUMÁRIO. Prefácio, Espaço amostrai, Definição de probabilidade, Probabilidades finitas dos espaços amostrais fin itos, 20

SUMÁRIO. Prefácio, Espaço amostrai, Definição de probabilidade, Probabilidades finitas dos espaços amostrais fin itos, 20 SUMÁRIO Prefácio, 1 3 1 CÁLCULO DAS PROBABILIDADES, 15 1.1 Introdução, 15 1.2 Caracterização de um experimento aleatório, 15 1.3 Espaço amostrai, 16 1.4 Evento, 17 1.5 Eventos mutuamente exclusivos, 17

Leia mais

Aprendizado de Máquinas. Classificadores Lineares

Aprendizado de Máquinas. Classificadores Lineares Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação

Leia mais

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Introdução * Método supervisionado de aprendizagem de máquina * Empregado em classificação de dados Classificação binária

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo k-nearest Neighbors (knn) Como os filmes são categorizados em gêneros? O que

Leia mais

Análise da Regressão múltipla: Inferência. Aula 4 6 de maio de 2013

Análise da Regressão múltipla: Inferência. Aula 4 6 de maio de 2013 Análise da Regressão múltipla: Inferência Revisão da graduação Aula 4 6 de maio de 2013 Hipóteses do modelo linear clássico (MLC) Sabemos que, dadas as hipóteses de Gauss- Markov, MQO é BLUE. Para realizarmos

Leia mais

Gibbs Sampler para ANOVA e Misturas

Gibbs Sampler para ANOVA e Misturas Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados

Leia mais

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,

Leia mais

Canais discretos sem memória e capacidade do canal

Canais discretos sem memória e capacidade do canal Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais

Leia mais

Nome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F)

Nome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F) ESTATÍSTICA I 2. o Ano/Gestão 1. o Semestre Época Normal Duração: 2 horas 1. a Parte Teórica N. o de Exame: RESOLUÇÃO 09.01.2015 Este exame é composto por duas partes. Esta é a 1 a Parte Teórica (Cotação:

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neurais (Inteligência Artificial) Aula 13 Support Vector Machines (SVM) Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Informática Parte 19 Prof. Márcio Hunecke

Informática Parte 19 Prof. Márcio Hunecke Escriturário Informática Parte 19 Prof. Márcio Hunecke Informática NOÇÕES DE ALGORITMOS DE APRENDIZADO O aprendizado automático, aprendizado de máquina (em inglês: "machine learning") ou aprendizagem

Leia mais