Classificação de textos: definição & relevância para ORI

Tamanho: px
Começar a partir da página:

Download "Classificação de textos: definição & relevância para ORI"

Transcrição

1 Conteúdo Classificação de textos: definição & relevância para ORI Classificação de textos & Naive Bayes 1 / 47

2 Conteúdo Classificação de textos: definição & relevância para ORI Classificação de textos & Naive Bayes 1 / 47

3 Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Classificação de textos & Naive Bayes 1 / 47

4 Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Teoria: derivação da regra de classificação de Naive Bayes Classificação de textos & Naive Bayes 1 / 47

5 Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Teoria: derivação da regra de classificação de Naive Bayes Avaliação de classificação de textos: como saber se está funcionando Classificação de textos & Naive Bayes 1 / 47

6 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 2 / 47

7 A tarefa de classificação de textos: filtragem de s spam De: "UFU Contas Suporte Técnico c 2013 " <upgrade@fcm.unicamp.br> Assunto: Caro UFU Usuário (Urgente!). Caro UFU Usuário Estamos atualizando nosso banco de dados dos EUA e centro conta de . Estamos a excluir todas as contas de webmail n~ao utilizados da UFU e criar mais espaço para novas contas. Para garantir que voc^e n~ao experimenta interrupç~ao do serviço durante este período, voc^e precisa clicar no link de validaç~ao abaixo e preencher as informaç~oes yourufu: Validaç~ao Link: Voc^e receberá uma confirmaç~ao de uma nova senha alfanumérica que só é válida durante este período e podem ser alteradas por esse processo. Pedimos desculpas por qualquer inconveniente que isso possa custar-lhe. Por favor, responda a este para que possamos dar-lhe melhores serviços online com o nosso webmail funcionalidade e melhorias novo e melhorado. ================================================= Classificação de textos & Naive Bayes 3 / 47

8 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Classificação de textos & Naive Bayes 4 / 47

9 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Classificação de textos & Naive Bayes 4 / 47

10 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } Classificação de textos & Naive Bayes 4 / 47

11 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Classificação de textos & Naive Bayes 4 / 47

12 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Um conjunto de treinamento de D documentos rotulados Cada documento rotulado d,c X C Classificação de textos & Naive Bayes 4 / 47

13 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Um conjunto de treinamento de D documentos rotulados Cada documento rotulado d,c X C Classificação de textos & Naive Bayes 4 / 47

14 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Um conjunto de treinamento de D documentos rotulados Cada documento rotulado d,c X C Usando um algoritmo de aprendizado podemos aprender um classificador γ que mapeia documentos para classes: γ : X C Classificação de textos & Naive Bayes 4 / 47

15 Definição formal de classificação de textos: aplicação/testes Considerando: uma descrição d X de um documento Determinar: γ(d) C, isto é, a classe é a mais apropriada para d Classificação de textos & Naive Bayes 5 / 47

16 Classificação de tópicos regiões indústrias interesses γ(d ) =China classes: Inglaterra China aves café eleições esportes d conj. treino: tráfego Londres Olimpíadas Beijing alimento frango torragem grãoes recontagem votos campo baseball conj. teste: primeira cia aérea privada chinesa Parlamento Big Ben turismo Muralha patê patos arabica robusta cargo 2 o turno ataque futebol Windsor a Rainha Mao comunista aviária gripe Quênia colheita comerciais campanha time capitão Classificação de textos & Naive Bayes 6 / 47

17 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Classificação de textos & Naive Bayes 7 / 47

18 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Classificação de textos & Naive Bayes 7 / 47

19 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Classificação de textos & Naive Bayes 7 / 47

20 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Buscas contínuas (e.g., Alertas do Google) Classificação de textos & Naive Bayes 7 / 47

21 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Buscas contínuas (e.g., Alertas do Google) Detecção de sentimento: avaliação de filme/produto é positiva ou negativa Classificação de textos & Naive Bayes 7 / 47

22 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Buscas contínuas (e.g., Alertas do Google) Detecção de sentimento: avaliação de filme/produto é positiva ou negativa Função de ranking sem informação de retorno: documento é relevante ou não relevante Classificação de textos & Naive Bayes 7 / 47

23 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Classificação de textos & Naive Bayes 8 / 47

24 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Classificação de textos & Naive Bayes 8 / 47

25 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Classificação de textos & Naive Bayes 8 / 47

26 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Consistente quando problema e time de especialistas é pequeno Classificação de textos & Naive Bayes 8 / 47

27 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Consistente quando problema e time de especialistas é pequeno Classificação manual para problemas grandes é difícil e proibitivo Classificação de textos & Naive Bayes 8 / 47

28 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Consistente quando problema e time de especialistas é pequeno Classificação manual para problemas grandes é difícil e proibitivo necessitamos de métodos automáticos para classificação Classificação de textos & Naive Bayes 8 / 47

29 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Classificação de textos & Naive Bayes 9 / 47

30 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Comum: combinações booleanas Classificação de textos & Naive Bayes 9 / 47

31 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Comum: combinações booleanas Acurácia é alta se regra foi refinada com o tempo por especialista Classificação de textos & Naive Bayes 9 / 47

32 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Comum: combinações booleanas Acurácia é alta se regra foi refinada com o tempo por especialista Construir e manter um sistema de classificação com regras pode ser problemático e caro Classificação de textos & Naive Bayes 9 / 47

33 Uma regra de classificação complexa Classificação de textos & Naive Bayes 10 / 47

34 Métodos de classificação: 3. aprendizado de máquina Classificação de textos como um problema de aprendizado Classificação de textos & Naive Bayes 11 / 47

35 Métodos de classificação: 3. aprendizado de máquina Classificação de textos como um problema de aprendizado (i) Aprendizado supervisionado de uma função de classificação γ e (ii) aplicação de γ para classificar novos documentos Classificação de textos & Naive Bayes 11 / 47

36 Métodos de classificação: 3. aprendizado de máquina Classificação de textos como um problema de aprendizado (i) Aprendizado supervisionado de uma função de classificação γ e (ii) aplicação de γ para classificar novos documentos Para isso estudaremos Naive Bayes Classificação de textos & Naive Bayes 11 / 47

37 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 12 / 47

38 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d Classificação de textos & Naive Bayes 13 / 47

39 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) Classificação de textos & Naive Bayes 13 / 47

40 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c Classificação de textos & Naive Bayes 13 / 47

41 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c P(t k c) pode ser vista como uma medida de quanta evidência t k contribui para que c seja da classe correta Classificação de textos & Naive Bayes 13 / 47

42 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c P(t k c) pode ser vista como uma medida de quanta evidência t k contribui para que c seja da classe correta P(c) é a probabilidade a priori de c. Classificação de textos & Naive Bayes 13 / 47

43 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c P(t k c) pode ser vista como uma medida de quanta evidência t k contribui para que c seja da classe correta P(c) é a probabilidade a priori de c. Se os termos de um documento não dão evidência clara para classe vs. outra, escolhemos a classe c com maior P(c). Classificação de textos & Naive Bayes 13 / 47

44 Classe com probabilidade a posteriori máxima Objetivo da classificação Naive Bayes é encontrar a melhor classe Classificação de textos & Naive Bayes 14 / 47

45 Classe com probabilidade a posteriori máxima Objetivo da classificação Naive Bayes é encontrar a melhor classe A melhor classe é a mais provável ou classe de máxima probabilidade a posteriori (MAP) c map : c map = argmax c C ˆP(c d) = argmax c C ˆP(c) 1 k n d ˆP(t k c) Classificação de textos & Naive Bayes 14 / 47

46 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Classificação de textos & Naive Bayes 15 / 47

47 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Como log(xy) = log(x)+log(y), podemos somar o logaritmo das probabilidades em vez de multiplicar Classificação de textos & Naive Bayes 15 / 47

48 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Como log(xy) = log(x)+log(y), podemos somar o logaritmo das probabilidades em vez de multiplicar Como log é uma função monotônica, a classe com pontuação mais alta não muda Classificação de textos & Naive Bayes 15 / 47

49 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Como log(xy) = log(x)+log(y), podemos somar o logaritmo das probabilidades em vez de multiplicar Como log é uma função monotônica, a classe com pontuação mais alta não muda Na prática, calculamos: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Classificação de textos & Naive Bayes 15 / 47

50 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Classificação de textos & Naive Bayes 16 / 47

51 Classificador Naive Bayes Regra de classificação: c map = argmax c C Interpretação: [log ˆP(c)+ 1 k n d log ˆP(t k c)] Classificação de textos & Naive Bayes 16 / 47

52 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Classificação de textos & Naive Bayes 16 / 47

53 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c Classificação de textos & Naive Bayes 16 / 47

54 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c A probabilidade a priori log ˆP(c) é um peso que indica a frequência relativa de c Classificação de textos & Naive Bayes 16 / 47

55 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c A probabilidade a priori log ˆP(c) é um peso que indica a frequência relativa de c A soma do log de probabilidades e os pesos dos termos é então uma medida de quanta evidência há para o documento ser da classe c Classificação de textos & Naive Bayes 16 / 47

56 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c A probabilidade a priori log ˆP(c) é um peso que indica a frequência relativa de c A soma do log de probabilidades e os pesos dos termos é então uma medida de quanta evidência há para o documento ser da classe c Selecionamos a classe com maior evidência c MAP Classificação de textos & Naive Bayes 16 / 47

57 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Classificação de textos & Naive Bayes 17 / 47

58 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N Classificação de textos & Naive Bayes 17 / 47

59 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Classificação de textos & Naive Bayes 17 / 47

60 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Probabilidades condicionais: ˆP(t c) = T c,t t V T c,t Classificação de textos & Naive Bayes 17 / 47

61 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Probabilidades condicionais: ˆP(t c) = T c,t t V T c,t T c,t é o número de tokens de t nos documentos de treino da classe c (inclui múltiplas ocorrências) Classificação de textos & Naive Bayes 17 / 47

62 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Probabilidades condicionais: ˆP(t c) = T c,t t V T c,t T c,t é o número de tokens de t nos documentos de treino da classe c (inclui múltiplas ocorrências) Usamos a premissa de independência de Naive Bayes aqui: ˆP(t k1 c) = ˆP(t k2 c), independência da posição Classificação de textos & Naive Bayes 17 / 47

63 O problema com estimativas de máxima verossimilhança: zeros C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(China d) P(China) P(Beijing China) P(e China) P(Taipei China) P(aderem China) P(OMC China) Se OMC nunca ocorrer na classe China no conjunto de treinamento: ˆP(OMC China) = T China,OMC 0 t V T = China,t t V T = 0 China,t Classificação de textos & Naive Bayes 18 / 47

64 O problema com estimativas de máxima verossimilhança: zeros C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(China d) P(China) P(Beijing China) P(e China) P(Taipei China) P(aderem China) P(OMC China) Se OMC nunca ocorrer na classe China no conjunto de treinamento: ˆP(OMC China) = T China,OMC 0 t V T = China,t t V T = 0 China,t Classificação de textos & Naive Bayes 18 / 47

65 O problema com estimativas de máxima verossimilhança: zeros C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(China d) P(China) P(Beijing China) P(e China) P(Taipei China) P(aderem China) P(OMC China) Se OMC nunca ocorrer na classe China no conjunto de treinamento: ˆP(OMC China) = T China,OMC 0 t V T = China,t t V T = 0 China,t Classificação de textos & Naive Bayes 18 / 47

66 Problema com estimativas de máx. verossimilhança: zeros Se não há ocorrências de OMC nos documentos na classe China, temos uma estimativa: ˆP(OMC China) = T China,OMC t V T China,t = 0 Classificação de textos & Naive Bayes 19 / 47

67 Problema com estimativas de máx. verossimilhança: zeros Se não há ocorrências de OMC nos documentos na classe China, temos uma estimativa: ˆP(OMC China) = T China,OMC t V T China,t = 0 Teremos P(China d) = 0 para qualquer documento que contém OMC! Classificação de textos & Naive Bayes 19 / 47

68 Evitar zeros: suavização somar-um Antes: ˆP(t c) = T c,t t V T c,t Classificação de textos & Naive Bayes 20 / 47

69 Evitar zeros: suavização somar-um Antes: ˆP(t c) = T c,t t V T c,t Agora: somar um para cada contador para evitar zeros: ˆP(t c) = T c,t +1 t V (T c,t +1) = T c,t +1 ( t V T c,t )+B Classificação de textos & Naive Bayes 20 / 47

70 Evitar zeros: suavização somar-um Antes: ˆP(t c) = T c,t t V T c,t Agora: somar um para cada contador para evitar zeros: ˆP(t c) = T c,t +1 t V (T c,t +1) = T c,t +1 ( t V T c,t )+B B = V é o tamanho do vocabulário Classificação de textos & Naive Bayes 20 / 47

71 Resumo: Naive Bayes Estimar parâmetros do corpus de treino usando suavização soma-um Classificação de textos & Naive Bayes 21 / 47

72 Resumo: Naive Bayes Estimar parâmetros do corpus de treino usando suavização soma-um Para um novo documento, para cada classe, calcular a soma de (i) log das probabilidades a priori e (ii) logs das probabilidades condicionais dos termos Classificação de textos & Naive Bayes 21 / 47

73 Resumo: Naive Bayes Estimar parâmetros do corpus de treino usando suavização soma-um Para um novo documento, para cada classe, calcular a soma de (i) log das probabilidades a priori e (ii) logs das probabilidades condicionais dos termos Atribuir o documento para a classe com maior pontuação Classificação de textos & Naive Bayes 21 / 47

74 Naive Bayes: treino NB = Naive Bayes TreinoMultinomialNB(C, D) 1 V ExtrairVocabulario(D) 2 N ContaDocs(D) 3 for each c C 4 do N c ContaDocsNaClasse(D,c) 5 priori[c] N c /N 6 texto c ConcatenaTextoTodosDocsNaClasse(D,c) 7 for each t V 8 do T c,t ContaTokensDeTermo(texto c,t) 9 for each t V 10 do probcond[t][c] Tc,t+1 11 return V,priori,probcond t (T c,t +1) Classificação de textos & Naive Bayes 22 / 47

75 Naive Bayes: teste AplicarMultinomialNB(C, V, priori, probcond, d) 1 W ExtrairTokensDeDoc(V, d) 2 for each c C 3 do pontuacao[c] log priori[c] 4 for each t W 5 do pontuacao[c]+ = log probcond[t][c] 6 return argmax c C pontuacao[c] Classificação de textos & Naive Bayes 23 / 47

76 Exercício docid palavras no documento em c = China? conj. treino 1 Chinês Beijing Chinês sim 2 Chinês Chinês Shanghai sim 3 Chinês Macao sim 4 Tóquio Japão Chinês não conj. testes 5 Chinês Chinês Chinês Tóquio Japão? Estimar parâmetros do classificador de Naive Bayes Classificar documentos de teste Classificação de textos & Naive Bayes 24 / 47

77 Exemplo: estimação de parâmetros Probabilidades a priori: ˆP(c) = 3/4 e ˆP(c) = 1/4 Probabilidades condicionais: ˆP(Chinês c) = (5+1)/(8+6) = 6/14 = 3/7 ˆP(Tóquio c) = ˆP(Japão c) = (0+1)/(8+6) = 1/14 ˆP(Chinês c) = (1+1)/(3+6) = 2/9 ˆP(Tóquio c) = ˆP(Japão c) = (1+1)/(3+6) = 2/9 Os denominadores são (8+6) e (3+6) porque os tamanhos de text c e text c são 8 e 3 e porque a constante B é 6 como o vocabulário consiste de seis termos Classificação de textos & Naive Bayes 25 / 47

78 Exemplo: classificação ˆP(c d 5 ) 3/4 (3/7) 3 1/14 1/ ˆP(c d 5 ) 1/4 (2/9) 3 2/9 2/ Então o classificador atribui o documento de teste para classe c = China. A razão para essa decisão de classificação é que as três ocorrências do indicador positivo Chinês em d 5 supera as ocorrências de dois indicadores negativos Japão e Tóquio. Classificação de textos & Naive Bayes 26 / 47

79 Custo do Naive Bayes Classificação de textos & Naive Bayes 27 / 47

80 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a Classificação de textos & Naive Bayes 27 / 47

81 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; Classificação de textos & Naive Bayes 27 / 47

82 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; Classificação de textos & Naive Bayes 27 / 47

83 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. Classificação de textos & Naive Bayes 27 / 47

84 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. Classificação de textos & Naive Bayes 27 / 47

85 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; Classificação de textos & Naive Bayes 27 / 47

86 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; Classificação de textos & Naive Bayes 27 / 47

87 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; Classificação de textos & Naive Bayes 27 / 47

88 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; Classificação de textos & Naive Bayes 27 / 47

89 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; D L ave é o custo para calcular todas as contagens Classificação de textos & Naive Bayes 27 / 47

90 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; D L ave é o custo para calcular todas as contagens C V é o custo para obter parâmetros a partir de contagens Classificação de textos & Naive Bayes 27 / 47

91 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; D L ave é o custo para calcular todas as contagens C V é o custo para obter parâmetros a partir de contagens Tempos de treino e teste são lineares Classificação de textos & Naive Bayes 27 / 47

92 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 28 / 47

93 Naive Bayes: análise Queremos ver melhor as propriedades de Naive Bayes. Classificação de textos & Naive Bayes 29 / 47

94 Naive Bayes: análise Queremos ver melhor as propriedades de Naive Bayes. Derivaremos a regra de classificação... Classificação de textos & Naive Bayes 29 / 47

95 Naive Bayes: análise Queremos ver melhor as propriedades de Naive Bayes. Derivaremos a regra de classificação e faremos as premissas explicitamente Classificação de textos & Naive Bayes 29 / 47

96 Derivação da regra de Naive Bayes Queremos encontrar a classe que é mais provável para um dado documento: c map = argmax c C P(c d) Aplicar regra de Bayes P(A B) = P(B A)P(A) P(B) : c map = argmax c C P(d c)p(c) P(d) Ignorar denominador uma vez que P(d) é igual para todas as classes: c map = argmax c C P(d c)p(c) Classificação de textos & Naive Bayes 30 / 47

97 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Classificação de textos & Naive Bayes 31 / 47

98 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Há muitos parâmetros P( t 1,...,t k,...,t nd c), um para cada combinação única de uma classe e sequência de palavras Classificação de textos & Naive Bayes 31 / 47

99 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Há muitos parâmetros P( t 1,...,t k,...,t nd c), um para cada combinação única de uma classe e sequência de palavras Precisaríamos um número muito grande de exemplos de treinamento para estimar esse número de parâmetros. Classificação de textos & Naive Bayes 31 / 47

100 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Há muitos parâmetros P( t 1,...,t k,...,t nd c), um para cada combinação única de uma classe e sequência de palavras Precisaríamos um número muito grande de exemplos de treinamento para estimar esse número de parâmetros. Esse é o problema da esparsidade dos dados. Classificação de textos & Naive Bayes 31 / 47

101 Premissa da independência condicional de Naive Bayes Para reduzir o número de parâmetros para um tamanho razoável, usamos a premissa da independência condicional de Naive Bayes: P(d c) = P( t 1,...,t nd c) = 1 k n d P(X k = t k c) Supomos que a probabilidade de observar a conjunção de atributos é igual ao produto de probabilidades individuais P(X k = t k c). obter de antes as estimativas para essas probabilidades condicionais : ˆP(t c) = T c,t+1 ( t V T c,t )+B Classificação de textos & Naive Bayes 32 / 47

102 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Classificação de textos & Naive Bayes 33 / 47

103 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Gerar uma classe com probabilidade P(c) Classificação de textos & Naive Bayes 33 / 47

104 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Gerar uma classe com probabilidade P(c) Gerar cada uma das palavras (nas suas respectivas posições ), condicional na classe, mas independente entre si, com probabilidade P(t k c) Classificação de textos & Naive Bayes 33 / 47

105 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Gerar uma classe com probabilidade P(c) Gerar cada uma das palavras (nas suas respectivas posições ), condicional na classe, mas independente entre si, com probabilidade P(t k c) Para classificar docs, reprojetamos esse processo e encontramos a classe que é mais provável de ter gerado o documento. Classificação de textos & Naive Bayes 33 / 47

106 Segunda premissa de independência ˆP(X k1 = t c) = ˆP(X k2 = t c) Classificação de textos & Naive Bayes 34 / 47

107 Segunda premissa de independência ˆP(X k1 = t c) = ˆP(X k2 = t c) Por exemplo, para um documento na classe Inglaterra, a probabilidade de ter rainha na primeira posição do documento é a mesma de ter na última posição Classificação de textos & Naive Bayes 34 / 47

108 Segunda premissa de independência ˆP(X k1 = t c) = ˆP(X k2 = t c) Por exemplo, para um documento na classe Inglaterra, a probabilidade de ter rainha na primeira posição do documento é a mesma de ter na última posição As duas premissas de independência nos leva ao modelo de coleção de palavras. Classificação de textos & Naive Bayes 34 / 47

109 Um modelo de Naive Bayes: modelo de Bernoulli C=China U Alaska =0 U Beijing =1 U India =0 U aderem =1 U Taipei =1 U OMC =1 Classificação de textos & Naive Bayes 35 / 47

110 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = 1 k n d P(X k = t k c) Classificação de textos & Naive Bayes 36 / 47

111 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = P(X k = t k c) 1 k n d Independência posicional: Classificação de textos & Naive Bayes 36 / 47

112 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = Independência posicional: ˆP(X k1 = t c) = ˆP(X k2 = t c) 1 k n d P(X k = t k c) Classificação de textos & Naive Bayes 36 / 47

113 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = Independência posicional: ˆP(X k1 = t c) = ˆP(X k2 = t c) 1 k n d P(X k = t k c) As premissas de independência não são realmente verificadas em documentos escritos em linguagem natural Classificação de textos & Naive Bayes 36 / 47

114 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = Independência posicional: ˆP(X k1 = t c) = ˆP(X k2 = t c) 1 k n d P(X k = t k c) As premissas de independência não são realmente verificadas em documentos escritos em linguagem natural Como é possível Naive Bayes funcionar se essas premissas não são apropriadas? Classificação de textos & Naive Bayes 36 / 47

115 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Classificação de textos & Naive Bayes 37 / 47

116 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Classificação de textos & Naive Bayes 37 / 47

117 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação de textos & Naive Bayes 37 / 47

118 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação deve predizar a classe e não necessariamente as probabilidades Classificação de textos & Naive Bayes 37 / 47

119 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação deve predizar a classe e não necessariamente as probabilidades Naive Bayes é ruim para estimação as probabilidades... Classificação de textos & Naive Bayes 37 / 47

120 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação deve predizar a classe e não necessariamente as probabilidades Naive Bayes é ruim para estimação as probabilidades......mas funciona bem para predição de classes Classificação de textos & Naive Bayes 37 / 47

121 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Classificação de textos & Naive Bayes 38 / 47

122 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Classificação de textos & Naive Bayes 38 / 47

123 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Classificação de textos & Naive Bayes 38 / 47

124 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Classificação de textos & Naive Bayes 38 / 47

125 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Classificação de textos & Naive Bayes 38 / 47

126 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Ótimo se premissas de independência forem verdadeiras (nunca verdade para textos, mas verdade para alguns domínios) Classificação de textos & Naive Bayes 38 / 47

127 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Ótimo se premissas de independência forem verdadeiras (nunca verdade para textos, mas verdade para alguns domínios) Muito rápido Classificação de textos & Naive Bayes 38 / 47

128 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Ótimo se premissas de independência forem verdadeiras (nunca verdade para textos, mas verdade para alguns domínios) Muito rápido Baixos requisitos de armazenamento Classificação de textos & Naive Bayes 38 / 47

129 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 39 / 47

130 Avaliação no corpus Reuters regiões indústrias interesses γ(d ) =China classes: Inglaterra China aves café eleições esportes d conj. treino: tráfego Londres Olimpíadas Beijing alimento frango torragem grãos recontagem votos campo baseball conj. teste: primeira privada Chinês cia aérea Parlamento Big Ben turismo Muralha patê patos arábica robusta cargo 2 o turno ataque futebol Windsor a Rainha Mao comunismo aviária gripe Quênia colheita comerciais campanha time capitão Classificação de textos & Naive Bayes 40 / 47

131 Exemplo: Corpus Reuters símbolo estatística valor N documentos 800,000 L média. # tokens por documento 200 M palavras 400,000 Classificação de textos & Naive Bayes 41 / 47

132 Exemplo: Corpus Reuters símbolo estatística valor N documentos 800,000 L média. # tokens por documento 200 M palavras 400,000 tipo de classe número exemplos região 366 Inglaterra, China indústria 870 aves, café interesses 126 eleições, esportes Classificação de textos & Naive Bayes 41 / 47

133 Um documento do corpus Reuters Classificação de textos & Naive Bayes 42 / 47

134 Avaliando classificação Avaliação precisa ser feita em conjunto de testes que seja independente dos dados de treino, i.e., conjuntos de treino e teste são disjuntos Classificação de textos & Naive Bayes 43 / 47

135 Avaliando classificação Avaliação precisa ser feita em conjunto de testes que seja independente dos dados de treino, i.e., conjuntos de treino e teste são disjuntos Fácil obter bom desempenho em um conjunto de teste que estava disponível durante o treino. Classificação de textos & Naive Bayes 43 / 47

136 Avaliando classificação Avaliação precisa ser feita em conjunto de testes que seja independente dos dados de treino, i.e., conjuntos de treino e teste são disjuntos Fácil obter bom desempenho em um conjunto de teste que estava disponível durante o treino. Medidas: Precisão, recuperação, F 1, acurácia de classificação Classificação de textos & Naive Bayes 43 / 47

137 Precisão P and recuperação R na classe não na classe predito como estar na classe verd. positivos (VP) falso positives (FP) predito como não estar classe falso negativos (FN) verd. negativos (VN) TP, FP, FN, TN são contagens de documentos. A soma dos quatro números é igual ao número de documentos precisão:p = TP/(TP + FP) recuperação:r = TP/(TP + FN) Classificação de textos & Naive Bayes 44 / 47

138 Uma medida combinada : F F 1 equilibrar taxa de precisão e recuperação Classificação de textos & Naive Bayes 45 / 47

139 Uma medida combinada : F F 1 equilibrar taxa de precisão e recuperação F 1 = P R = 2PR P +R Classificação de textos & Naive Bayes 45 / 47

140 Uma medida combinada : F F 1 equilibrar taxa de precisão e recuperação F 1 = P R Média de P e R: 1 F = 1 2 ( 1 P + 1 R ) = 2PR P +R Classificação de textos & Naive Bayes 45 / 47

141 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Classificação de textos & Naive Bayes 46 / 47

142 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Classificação de textos & Naive Bayes 46 / 47

143 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Classificação de textos & Naive Bayes 46 / 47

144 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Classificação de textos & Naive Bayes 46 / 47

145 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Classificação de textos & Naive Bayes 46 / 47

146 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Classificação de textos & Naive Bayes 46 / 47

147 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Computar TP, FP, FN para cada classe de C Classificação de textos & Naive Bayes 46 / 47

148 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Computar TP, FP, FN para cada classe de C Somar esses C números (e.g., todos os TP são somados) Classificação de textos & Naive Bayes 46 / 47

149 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Computar TP, FP, FN para cada classe de C Somar esses C números (e.g., todos os TP são somados) Computar F 1 para os TP, FP, FN somados Classificação de textos & Naive Bayes 46 / 47

150 Naive Bayes vs. outros métodos (a) NB Rocchio knn SVM micro-média-l (90 classes) macro-média (90 classes) (b) NB Rocchio knn árvores SVM earn acq money-fx grain crude trade interest ship wheat corn micro-média(top 10) micro-média-d (118 classes) n/a n/a 87 Medida de avaliação: F 1 Classificação de textos & Naive Bayes 47 / 47

151 Naive Bayes vs. outros métodos (a) NB Rocchio knn SVM micro-média-l (90 classes) macro-média (90 classes) (b) NB Rocchio knn árvores SVM earn acq money-fx grain crude trade interest ship wheat corn micro-média(top 10) micro-média-d (118 classes) n/a n/a 87 Medida de avaliação: F 1 Naive Bayes funciona bem, mas alguns métodos são consistentemente melhores (e.g., SVM). Classificação de textos & Naive Bayes 47 / 47

Classificação de textos: definição & relevância para ORI

Classificação de textos: definição & relevância para ORI Conteúdo Conteúdo Classificação de textos: definição & relevância para ORI Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Conteúdo Classificação

Leia mais

Classificação de textos Naive Bayes Teoria de Naive Bayes Avaliação de classificação de textos

Classificação de textos Naive Bayes Teoria de Naive Bayes Avaliação de classificação de textos Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Teoria: derivação da regra de classificação de Naive Bayes Avaliação de classificação de textos: como

Leia mais

Classificação de textos Naive Bayes Teoria de Naive Bayes Avaliação de classificação de textos. Classificação de textos & Naive Bayes 1 / 48

Classificação de textos Naive Bayes Teoria de Naive Bayes Avaliação de classificação de textos. Classificação de textos & Naive Bayes 1 / 48 Conteúdo Classificação de textos & Naive Bayes 1 / 48 Conteúdo Classificação de textos: definição & relevância para ORI Classificação de textos & Naive Bayes 1 / 48 Conteúdo Classificação de textos: definição

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

Outline. 2 Abordagem probabiĺıstica para ORI. 3 Teoria de probabilidades. 4 Princípio de ranking probabiĺıstico

Outline. 2 Abordagem probabiĺıstica para ORI. 3 Teoria de probabilidades. 4 Princípio de ranking probabiĺıstico Outline 1 Recapitulação 2 Abordagem probabiĺıstica para ORI 3 Teoria de probabilidades 4 Princípio de ranking probabiĺıstico 5 Apreciação&Extensões Modelo probabiĺıstico 1 / 47 Retorno de relevância: ideia

Leia mais

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho... DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar

Leia mais

Aprendizado Bayesiano Anteriormente...

Aprendizado Bayesiano Anteriormente... Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas

Leia mais

CLASSIFICADORES BAEYSIANOS

CLASSIFICADORES BAEYSIANOS CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um

Leia mais

Probabilidade - aula II

Probabilidade - aula II 25 de Março de 2014 Interpretações de Probabilidade Amostras Aleatórias e Objetivos Ao final deste capítulo você deve ser capaz de: Calcular probabilidades de eventos conjuntos. Interpretar e calcular

Leia mais

Probabilidade - aula II

Probabilidade - aula II 2012/02 1 Interpretações de Probabilidade 2 3 Amostras Aleatórias e Objetivos Ao final deste capítulo você deve ser capaz de: Calcular probabilidades de eventos conjuntos. Interpretar e calcular probabilidades

Leia mais

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014 Mistura de modelos Marcelo K. Albertini 31 de Julho de 2014 2/11 Mistura de modelos Ideia básica Em vez de aprender somente um modelo, aprender vários e combiná-los Isso melhora acurácia Muitos métodos

Leia mais

Métodos Quantitativos para Ciência da Computação Experimental. Jussara Almeida DCC-UFMG 2013

Métodos Quantitativos para Ciência da Computação Experimental. Jussara Almeida DCC-UFMG 2013 Métodos Quantitativos para Ciência da Computação Experimental Jussara Almeida DCC-UFMG 2013 Revisão de Probabilidade e Estatística Concentrado em estatística aplicada Estatística apropriada para medições

Leia mais

1.4.2 Probabilidade condicional

1.4.2 Probabilidade condicional M. Eisencraft 1.4 Probabilidades condicionais e conjuntas 9 Portanto, P(A B) = P(A)+P(B) P(A B) (1.2) Para eventos mutuamente exclusivos, P(A B) = e P(A)+P(B) = P(A B). 1.4.2 Probabilidade condicional

Leia mais

5 Experimentos Corpus

5 Experimentos Corpus 5 Experimentos 5.1. Corpus A palavra corpus significa corpo em latim. No contexto de Aprendizado de Máquina, corpus se refere a um conjunto de dados utilizados para experimentação e validação de modelos.

Leia mais

Eisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos:

Eisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos: Eisencraft e Loiola 2.1 Probabilidade 37 Modelo matemático de experimentos Para resolver problemas de probabilidades são necessários 3 passos: a Estabelecimento do espaço das amostras b Definição dos eventos

Leia mais

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências

Leia mais

Resumo. Parte 2 Introdução à Teoria da Probabilidade. Ramiro Brito Willmersdorf Introdução.

Resumo. Parte 2 Introdução à Teoria da Probabilidade. Ramiro Brito Willmersdorf Introdução. Parte 2 Introdução à Teoria da Probabilidade Ramiro Brito Willmersdorf ramiro@willmersdorf.net Departamento de Engenharia Mecânica Universidade Federal de Pernambuco 2011.2 Resumo 1 Introdução 2 Espaço

Leia mais

Conceitos básicos de teoria da probabilidade

Conceitos básicos de teoria da probabilidade Conceitos básicos de teoria da probabilidade Experimento Aleatório: procedimento que, ao ser repetido sob as mesmas condições, pode fornecer resultados diferentes Exemplos:. Resultado no lançamento de

Leia mais

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar

Leia mais

CE Estatística I

CE Estatística I CE 002 - Estatística I Agronomia - Turma B Professor Walmes Marques Zeviani Laboratório de Estatística e Geoinformação Departamento de Estatística Universidade Federal do Paraná 1º semestre de 2012 Zeviani,

Leia mais

2 Teoria da Informação

2 Teoria da Informação 2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ

Leia mais

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana MEEMF-2010 Aula 01 Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana O que é inferência estatística? Inferência estatística é o importante ramo da Estatística

Leia mais

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω. PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses

Leia mais

6 Atributos. A dívida da empresa subiu.

6 Atributos. A dívida da empresa subiu. 6 Atributos Para buscar o sentimento de um texto automaticamente precisamos encontrar boas pistas ao longo do discurso. Uma grande variedade de palavras e expressões possui conotação positiva ou negativa,

Leia mais

MODELO DE DECISÃO PARA ESCOLHA DE PORTFOLIO DE INVESTIMENTOS

MODELO DE DECISÃO PARA ESCOLHA DE PORTFOLIO DE INVESTIMENTOS MODELO DE DECISÃO PARA ESCOLHA DE PORTFOLIO DE INVESTIMENTOS Rodrigo José Pires Ferreira UFPE Cx. Postal 7462, Recife PE, 50.630-970 rodrigo@ufpe.br Adiel Teixeira de Almeida Filho UFPE Cx. Postal 7462,

Leia mais

1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3.

1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3. 1 1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3. Modelo de Resultados Potenciais e Aleatorização (Cap. 2 e 3

Leia mais

Recuperação de Informação

Recuperação de Informação Recuperação de Informação Avaliação de Desempenho de Sistemas de Recuperação de Informação Renato Fernandes Corrêa 1 Para que avaliar? Existem muitos modelos de RI, mas qual é o melhor? Qual a melhor escolha

Leia mais

Estatística Aplicada. Árvore de Decisão. Prof. Carlos Alberto Stechhahn PARTE II. Administração. p(a/b) = n(a B)/ n(b)

Estatística Aplicada. Árvore de Decisão. Prof. Carlos Alberto Stechhahn PARTE II. Administração. p(a/b) = n(a B)/ n(b) Estatística Aplicada Administração p(a/b) = n(a B)/ n(b) PARTE II Árvore de Decisão Prof. Carlos Alberto Stechhahn 2014 1. Probabilidade Condicional - Aplicações Considere que desejamos calcular a probabilidade

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Objetivos. Frequência Relativa X Probabilidade. Probabilidade. 1. Definições: Experimento Espaço Amostral Evento Probabilidade

Objetivos. Frequência Relativa X Probabilidade. Probabilidade. 1. Definições: Experimento Espaço Amostral Evento Probabilidade Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática DI Laboratório de Pesquisas em Redes Multimidia LPRM Objetivos 1. Definições: Experimento Espaço Amostral Evento

Leia mais

Exemplos de Aplicações da Teoria das Probabilidades em Biologia. Qual a probabilidade de que o próximo nucleotídeo na seqüência seja A, C, G ou T?

Exemplos de Aplicações da Teoria das Probabilidades em Biologia. Qual a probabilidade de que o próximo nucleotídeo na seqüência seja A, C, G ou T? Exemplos de Aplicações da Teoria das Probabilidades em Biologia Exemplo 1. Suponha que se conheça a seguinte seqüência de nucleotídeos em uma molécula de DNA: AGCTTCCGATCCGCTATAATCGTTAGTTGTTACACCTCTG Qual

Leia mais

Aula de Exercícios - Teorema de Bayes

Aula de Exercícios - Teorema de Bayes Aula de Exercícios - Teorema de Bayes Organização: Rafael Tovar Digitação: Guilherme Ludwig Primeiro Exemplo - Estagiários Três pessoas serão selecionadas aleatóriamente de um grupo de dez estagiários

Leia mais

Introdução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística

Introdução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística Introdução ao Planejamento e Análise Estatística de Capítulo 3 Introdução à Probabilidade e à Inferência Estatística INTERVALOS DE CONFIANÇA: Diferentes pesquisadores, selecionando amostras de uma mesma

Leia mais

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta (luizfsc@icmc.usp.br) Sumário 1. Motivação 2. Bagging 3. Random Forest 4. Boosting

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aulas passadas Motivação Espaço Amostral, Eventos, Álgebra de eventos Aula de hoje Probabilidade Análise Combinatória Independência Probabilidade Experimentos

Leia mais

Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal

Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal Modelos Probabilísticos Teóricos Discretos e Contínuos Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal Distribuição de Probabilidades A distribuição de probabilidades de uma variável aleatória:

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Aula 3 Professora: Rosa M. M. Leão Probabilidade e Estatística Conteúdo: 1.1 Por que estudar? 1.2 O que é? 1.3 População e Amostra 1.4 Um exemplo 1.5 Teoria da Probabilidade 1.6 Análise Combinatória 3

Leia mais

Introdução aos Proc. Estocásticos - ENG 430

Introdução aos Proc. Estocásticos - ENG 430 Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos

Leia mais

WEKA: Prática Carregando a base de dados no Weka

WEKA: Prática Carregando a base de dados no Weka WEKA: Prática 2 1. Introdução O objetivo desta prática é utilizar a ferramenta Weka para comparar dois algoritmos de aprendizagem de máquina em um problema de detecção de SPAM. Os algoritmos a serem comparados

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aulas passadas Motivação Exemplos de aplicação de probabilidade e estatística Informações do curso Aula de hoje Espaço amostral Álgebra de Eventos Eventos

Leia mais

Buscas Informadas ou Heurísticas - Parte II

Buscas Informadas ou Heurísticas - Parte II Buscas Informadas ou Heurísticas - Parte II Prof. Cedric Luiz de Carvalho Instituto de Informática - UFG Graduação em Ciência da Computação / 2006 FUNÇÕES HEURÍSTICAS - 1/7 FUNÇÕES HEURÍSTICAS - 2/7 Solução

Leia mais

T o e r o ia a da P oba ba i b lida d de

T o e r o ia a da P oba ba i b lida d de Teoria da Probabilidade Prof. Joni Fusinato Teoria da Probabilidade Consiste em utilizar a intuição humana para estudar os fenômenos do nosso cotidiano. Usa o princípio básico do aprendizado humano que

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Aula 6 Algoritmos Genéticos M.e Guylerme Velasco Roteiro Introdução Otimização Algoritmos Genéticos Representação Seleção Operadores Geneticos Aplicação Caixeiro Viajante Introdução

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Motivação Exemplos de aplicação de probabilidade e estatística Informações do curso Aula de hoje Espaço amostral Álgebra de Eventos Eventos Mutuamente

Leia mais

Estatística Básica. Probabilidade. Renato Dourado Maia. Instituto de Ciências Agrárias. Universidade Federal de Minas Gerais

Estatística Básica. Probabilidade. Renato Dourado Maia. Instituto de Ciências Agrárias. Universidade Federal de Minas Gerais Estatística Básica Probabilidade Renato Dourado Maia Instituto de Ciências Agrárias Universidade Federal de Minas Gerais Probabilidade Condicional Dados dois eventos A e B, a probabilidade condicional

Leia mais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Árvores de Decisão Métodos para aproximar funções discretas, representadas por meio de uma árvore de decisão; Árvores de decisão podem ser

Leia mais

5 Experimentos Conjunto de Dados

5 Experimentos Conjunto de Dados Experimentos 48 5 Experimentos Este capítulo apresenta o ambiente experimental utilizado para validar o método de predição do CTR proposto neste trabalho. Na seção 5.1, descrevemos a geração do conjunto

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem Outras Técnicas Prof. a Joseana Macêdo Fechine Régis

Leia mais

MAE Introdução à Probabilidade e Estatística II Resolução Lista 5

MAE Introdução à Probabilidade e Estatística II Resolução Lista 5 MAE 229 - Introdução à Probabilidade e Estatística II Resolução Lista 5 Professor: Pedro Morettin e Profa. Chang Chian Exercício 1 (a) De uma forma geral, o desvio padrão é usado para medir a dispersão

Leia mais

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes. TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Capítulo 2 Teoria das Probabilidades 2.1 Introdução No capítulo anterior, foram mostrados alguns conceitos relacionados à estatística descritiva. Neste capítulo apresentamos a base teórica para o desenvolvimento

Leia mais

Hashing: conceitos. Hashing

Hashing: conceitos. Hashing Hashing: conceitos hashing é uma técnica conhecida como espalhamento, mapeamento ou randomização que tenta distribuir dados em posições aleatórias de uma tabela (array) associa cada objeto (de um determinado

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 15 Árvores de Decisão Árvores de Decisão Uma das formas de algoritmo de aprendizado mais simples e de maior sucesso.

Leia mais

Probabilidades. O cálculo de probabilidades teve a sua origem no estudo dos jogos de azar, principalmente nos jogos de dados.

Probabilidades. O cálculo de probabilidades teve a sua origem no estudo dos jogos de azar, principalmente nos jogos de dados. Probabilidades O cálculo de probabilidades teve a sua origem no estudo dos jogos de azar, principalmente nos jogos de dados. Quando lançamos um dado, os resultados possíveis são sempre um dos elementos

Leia mais

Complexidade de Algoritmos

Complexidade de Algoritmos Complexidade de Algoritmos! Uma característica importante de qualquer algoritmo é seu tempo de execução! é possível determiná-lo através de métodos empíricos, considerando-se entradas diversas! é também

Leia mais

Prof. Daniela Barreiro Claro

Prof. Daniela Barreiro Claro O volume de dados está crescendo sem parar Gigabytes, Petabytes, etc. Dificuldade na descoberta do conhecimento Dados disponíveis x Análise dos Dados Dados disponíveis Analisar e compreender os dados 2

Leia mais

SSC510 Arquitetura de Computadores 1ª AULA

SSC510 Arquitetura de Computadores 1ª AULA SSC510 Arquitetura de Computadores 1ª AULA REVISÃO DE ORGANIZAÇÃO DE COMPUTADORES Arquitetura X Organização Arquitetura - Atributos de um Sistema Computacional como visto pelo programador, isto é a estrutura

Leia mais

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Máquinas de suporte vetorial e sua aplicação na detecção de spam e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina André C. P. L. F. de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Agrupamento de dados Tópicos Agrupamento de dados Dificuldades em agrupamento Algoritmos de agrupamento

Leia mais

Árvore de Decisão. Capítulo 18 Russell & Norvig Seções 18.1 a 18.3

Árvore de Decisão. Capítulo 18 Russell & Norvig Seções 18.1 a 18.3 Árvore de Decisão Capítulo 18 Russell & Norvig Seções 18.1 a 18.3 Aprendizagem Indutiva Clássica Recebe como entrada o valor correto de uma função desconhecida para entradas específicas e tenta recuperar

Leia mais

Inteligência Artificial

Inteligência Artificial https://www.pinterest.com/carlymundo/decision-tree-infographics/ Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial

Leia mais

GSI024 - Organização e Recuperação da

GSI024 - Organização e Recuperação da GSI024 - Organização e Recuperação da Informação Ilmério Reis da Silva ilmerio@facom.ufu.br UFU/FACOM/BSI Arquivo 5 - Peso de termos GSI024-ORI Pg:5. 1 Busca paramétrica usando atributos Regiões em documentos

Leia mais

Noções de Algoritmos

Noções de Algoritmos Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Noções de Algoritmos DCA0800 - Algoritmos e Lógica de Programação Heitor Medeiros 1 Tópicos da aula Algoritmos

Leia mais

Mais de 12 mil séries de tempo relativas às economias brasileira e mundial, selecionadas por sua relevância e que podem ser acessadas de forma

Mais de 12 mil séries de tempo relativas às economias brasileira e mundial, selecionadas por sua relevância e que podem ser acessadas de forma Mais de 12 mil séries de tempo relativas às economias brasileira e mundial, selecionadas por sua relevância e que podem ser acessadas de forma simples e eficiente. Séries diárias, mensais trimestrais e

Leia mais

Experiências Aleatórias. Espaço de Resultados. Acontecimentos

Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiência Aleatória É uma experiência em que: não se sabe exactamente o resultado que se virá a observar; conhece-se o universo dos resultados

Leia mais

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Introdução São técnicas de busca e otimização. É a metáfora da teoria da evolução das espécies iniciada pelo Fisiologista e Naturalista inglês Charles Darwin.

Leia mais

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Def.: Um experimento é dito aleatório quando o seu resultado não for previsível antes de sua realização, ou seja,

Leia mais

Conjuntos Fuzzy e Lógica Fuzzy

Conjuntos Fuzzy e Lógica Fuzzy 1 Introdução Conjuntos Fuzzy e Lógica Fuzzy users.femanet.com.br/~fabri/fuzzy.htm Os Conjuntos Fuzzy e a Lógica Fuzzy provêm a base para geração de técnicas poderosas para a solução de problemas, com uma

Leia mais

Introdução à Probabilidade

Introdução à Probabilidade Introdução à Probabilidade Silvia Shimakura silvia.shimakura@ufpr.br Probabilidade O que é probabilidade? Medida que quantifica a incerteza de um acontecimento futuro. Como quantificar incerteza? Definição

Leia mais

Prova Resolvida Raciocínio Lógico Quantitativo e Estatística (ANAC/2016) Prof. Guilherme Neves

Prova Resolvida Raciocínio Lógico Quantitativo e Estatística (ANAC/2016) Prof. Guilherme Neves Prova Resolvida Raciocínio Lógico Quantitativo e Estatística (ANAC/2016) 31- (ANAC 2016/ESAF) A negação da proposição se choveu, então o voo vai atrasar pode ser logicamente descrita por a) não choveu

Leia mais

Modelos de Probabilidade e Inferência Estatística

Modelos de Probabilidade e Inferência Estatística Modelos de Probabilidade e Inferência Estatística Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Probabilidade Condicional 03/14 1 / 48 É provável que você

Leia mais

CAPÍTULO 4 PROBABILIDADE PROBABILIDADE PPGEP Espaço Amostral e Eventos Espaço Amostral e Eventos UFRGS. Probabilidade.

CAPÍTULO 4 PROBABILIDADE PROBABILIDADE PPGEP Espaço Amostral e Eventos Espaço Amostral e Eventos UFRGS. Probabilidade. PROBABILIDADE CAPÍTULO 4 PROBABILIDADE UFRGS A Teoria das s estuda os fenômenos aleatórios. Fenômeno Aleatório: são os fenômenos cujo resultado não pode ser previsto exatamente. Se o fenômeno se repetir,

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema

Leia mais

AULA 07 Inferência a Partir de Duas Amostras

AULA 07 Inferência a Partir de Duas Amostras 1 AULA 07 Inferência a Partir de Duas Amostras Ernesto F. L. Amaral 10 de setembro de 2012 Faculdade de Filosofia e Ciências Humanas (FAFICH) Universidade Federal de Minas Gerais (UFMG) Fonte: Triola,

Leia mais

Classificação de Padrões Radiológicos por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada

Classificação de Padrões Radiológicos por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada Visão Robótica Imagem Classificação de Padrões Radiológicos por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada Aluna: Luiza Dri Bagesteiro Orientador: Prof. Dr. Daniel Weingaertner Co-orientador:

Leia mais

2 O Processo de Avaliação de Recursos de Petróleo Não Descobertos

2 O Processo de Avaliação de Recursos de Petróleo Não Descobertos 2 O Processo de Avaliação de Recursos de Petróleo Não Descobertos Antes do processo de exploração de recursos não descobertos, são as atividades de prospecção de petróleo que identificam regiões que pela

Leia mais

Conceitos Básicos, Básicos,Básicos de Probabilidade

Conceitos Básicos, Básicos,Básicos de Probabilidade Conceitos Básicos, Básicos,Básicos de Probabilidade Espaço Amostral Base da Teoria de Probabilidades Experimentos são realizados resultados NÃO conhecidos previamente Experimento aleatório Exemplos: Determinar

Leia mais

Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas

Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas Universidade de São Paulo Mestrado em Ciência da Computação Instituto de Matemática e Estatística Disciplina MAC5725 Lingüística Computacional Análise Sintática de Frases utilizando Gramáticas Livres de

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Sistemas de Informação Inteligente Prof. Leandro C. Fernandes Adaptação dos materiais de: Thiago A. S. Pardo, Daniel Honorato e Bianca Zadrozny APRENDIZADO SIMBÓLICO: ÁRVORES DE

Leia mais

Técnicas econométricas para avaliação de impacto O uso de algoritmos de emparelhamento baseados em escore de propensão propensity score matching

Técnicas econométricas para avaliação de impacto O uso de algoritmos de emparelhamento baseados em escore de propensão propensity score matching Técnicas econométricas para avaliação de impacto O uso de algoritmos de emparelhamento baseados em escore de propensão propensity score matching Bruno César Araújo Instituto de Pesquisa Econômica Aplicada

Leia mais

Circuitos Lógicos Aula 22

Circuitos Lógicos Aula 22 Circuitos Lógicos Aula 22 Aula passada Armazenamento e transferência Paralela x Serial Divisão de frequência Contador Microprocessador Aula de hoje Aritmética binária Representação binária com sinal Complemento

Leia mais

BCC Introdu c ao ` a Programa c ao Portugol Guillermo C amara-ch avez UFOP 1/35

BCC Introdu c ao ` a Programa c ao Portugol Guillermo C amara-ch avez UFOP 1/35 BCC 201 - Introdução à Programação Portugol Guillermo Cámara-Chávez UFOP 1/35 Introdução I Lógica A lógica é usada no dia a dia das pessoas que trabalham com computação para solucionar problemas de forma

Leia mais

Representações de Números Inteiros: Sinal e Magnitude e Representação em Excesso de k

Representações de Números Inteiros: Sinal e Magnitude e Representação em Excesso de k Representações de Números Inteiros: Sinal e Magnitude e Representação em Excesso de k Cristina Boeres Instituto de Computação (UFF) Fundamentos de Arquiteturas de Computadores Material de Fernanda Passos

Leia mais

Definição de Probabilidade

Definição de Probabilidade INTRODUÇÃO A TEORIA DAS PROBABILIDADES A teoria das probabilidade nada mais é do que o bom senso transformado em cálculo A probabilidade é uma medida da incerteza dos fenômenos. Traduz-se por um número

Leia mais

Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner

Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner Cálculo Numérico / Métodos Numéricos Solução de equações polinomiais Briot-Ruffini-Horner Equações Polinomiais p = x + + a ( x) ao + a1 n x n Com a i R, i = 0,1,, n e a n 0 para garantir que o polinômio

Leia mais

Arquivos invertidos 39

Arquivos invertidos 39 Arquivos invertidos 39 Arquivos invertidos É um mecanismo que utiliza palavras para indexar uma coleção de documentos a fim de facilitar a busca e a recuperação Estruturas de um arquivo invertido Vocabulário

Leia mais

Estatística Empresarial. Fundamentos de Probabilidade

Estatística Empresarial. Fundamentos de Probabilidade Fundamentos de Probabilidade A probabilidade de chuva é de 90% A probabilidade de eu sair é de 5% Conceitos Básicos Conceitos Básicos 1. Experiência Aleatória (E) Processo de obtenção de uma observação

Leia mais

Busca com informação e exploração. Inteligência Artificial. Revisão da aula passada: Heurística Admissível. Revisão da aula passada: Busca A *

Busca com informação e exploração. Inteligência Artificial. Revisão da aula passada: Heurística Admissível. Revisão da aula passada: Busca A * Inteligência Artificial Aula 6 Profª Bianca Zadrozny http://www.ic.uff.br/~bianca/ia Busca com informação e exploração Capítulo 4 Russell & Norvig Seção 4.2 e 4.3 Revisão da aula passada: Busca A * Idéia:

Leia mais

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não

Leia mais

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões Reconhecimento facial uma aplicação prática do reconhecimento de padrões Márcio Koch, junho 2014 Pauta Apresentação Visão computacional Reconhecimento de padrões Analise de Componentes Principais Reconhecimento

Leia mais

O usuário pode restringir dados a um determinado tipo, como números inteiros, números decimais ou texto, e definir limites para as entradas válidas.

O usuário pode restringir dados a um determinado tipo, como números inteiros, números decimais ou texto, e definir limites para as entradas válidas. , %&!', A Validação de Dados permite que você determine condições para restringir os dados a serem digitados numa ou mais células. Dessa forma, tornando sempre válidas as informações numa planilha. O usuário

Leia mais

O que é risco de negócio? Decisões de Estrutura de Capital: Conceitos Básicos

O que é risco de negócio? Decisões de Estrutura de Capital: Conceitos Básicos Decisões de Estrutura de Capital: Conceitos Básicos Prof. Antonio Lopo Martinez Risco do negócio vs. risco financeiro Teoria da estrutura de capital Exemplo de fluxo de caixa perpétuo Estabelecendo a estrutura

Leia mais

AUTOMATED ASSESSMENT OF BREAST TISSUE DENSITY IN DIGITAL MAMMOGRAMS

AUTOMATED ASSESSMENT OF BREAST TISSUE DENSITY IN DIGITAL MAMMOGRAMS AUTOMATED ASSESSMENT OF BREAST TISSUE DENSITY IN DIGITAL MAMMOGRAMS Introdução Câncer de mama É uma das neoplasias mais comuns que afligem as mulheres Globalmente, a cada 3 min uma mulher é diagnosticada

Leia mais

f(h) δ h p f(x + h) f(x) (x) = lim

f(h) δ h p f(x + h) f(x) (x) = lim Capítulo 6 Derivação numérica Nesta seção vamos desenvolver métodos para estimar a derivada de uma função f calculada em um ponto x, f (x, a partir de valores conecidos de f em pontos próximos ao ponto

Leia mais

Sistemas Baseados em Conhecimento

Sistemas Baseados em Conhecimento Sistemas Baseados em Conhecimento Profa. Josiane M. P. Ferreira Baseado no capítulo 2 do livro Sistemas Inteligentes Fundamentos de Aplicações, organizadção: Solange Oliveira Rezende, ed. Manole, 2005.

Leia mais

Algoritmos e Estruturas de Dados I (DCC/003) Estruturas Condicionais e de Repetição

Algoritmos e Estruturas de Dados I (DCC/003) Estruturas Condicionais e de Repetição Algoritmos e Estruturas de Dados I (DCC/003) Estruturas Condicionais e de Repetição 1 Comando while Deseja-se calcular o valor de: 1 + 2 + 3 +... + N. Observação: não sabemos, a priori, quantos termos

Leia mais

Compressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré

Compressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas: Codificações Huffman e Aritmética Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas (Lossless Data Compression) Refere-se a métodos de compressão

Leia mais

Métodos Computacionais. Operadores, Expressões Aritméticas e Entrada/Saída de Dados

Métodos Computacionais. Operadores, Expressões Aritméticas e Entrada/Saída de Dados Métodos Computacionais Operadores, Expressões Aritméticas e Entrada/Saída de Dados Tópicos da Aula Hoje aprenderemos a escrever um programa em C que pode realizar cálculos Conceito de expressão Tipos de

Leia mais

2284-ELE/5, 3316-IE/3. Universidade da Beira Interior, Departamento de Informática

2284-ELE/5, 3316-IE/3. Universidade da Beira Interior, Departamento de Informática INTELIGÊNCIA ARTIFICIAL 2284-ELE/5, 3316-IE/3 Universidade da Beira Interior, Departamento de Informática Hugo Pedro Proença, 2007/2008 Aprendizagem A aprendizagem é um aspecto crucial da Inteligência

Leia mais

Teste Chi-Quadrado de Independência. Prof. David Prata Novembro de 2016

Teste Chi-Quadrado de Independência. Prof. David Prata Novembro de 2016 Teste Chi-Quadrado de Independência Prof. David Prata Novembro de 2016 Duas Variáveis Categóricas Análise de variância envolve o exame da relação entre uma variável categórica explicativa e uma variável

Leia mais