Classificação de textos: definição & relevância para ORI
|
|
- Débora Valverde Barroso
- 6 Há anos
- Visualizações:
Transcrição
1 Conteúdo Classificação de textos: definição & relevância para ORI Classificação de textos & Naive Bayes 1 / 47
2 Conteúdo Classificação de textos: definição & relevância para ORI Classificação de textos & Naive Bayes 1 / 47
3 Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Classificação de textos & Naive Bayes 1 / 47
4 Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Teoria: derivação da regra de classificação de Naive Bayes Classificação de textos & Naive Bayes 1 / 47
5 Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Teoria: derivação da regra de classificação de Naive Bayes Avaliação de classificação de textos: como saber se está funcionando Classificação de textos & Naive Bayes 1 / 47
6 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 2 / 47
7 A tarefa de classificação de textos: filtragem de s spam De: "UFU Contas Suporte Técnico c 2013 " <upgrade@fcm.unicamp.br> Assunto: Caro UFU Usuário (Urgente!). Caro UFU Usuário Estamos atualizando nosso banco de dados dos EUA e centro conta de . Estamos a excluir todas as contas de webmail n~ao utilizados da UFU e criar mais espaço para novas contas. Para garantir que voc^e n~ao experimenta interrupç~ao do serviço durante este período, voc^e precisa clicar no link de validaç~ao abaixo e preencher as informaç~oes yourufu: Validaç~ao Link: Voc^e receberá uma confirmaç~ao de uma nova senha alfanumérica que só é válida durante este período e podem ser alteradas por esse processo. Pedimos desculpas por qualquer inconveniente que isso possa custar-lhe. Por favor, responda a este para que possamos dar-lhe melhores serviços online com o nosso webmail funcionalidade e melhorias novo e melhorado. ================================================= Classificação de textos & Naive Bayes 3 / 47
8 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Classificação de textos & Naive Bayes 4 / 47
9 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Classificação de textos & Naive Bayes 4 / 47
10 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } Classificação de textos & Naive Bayes 4 / 47
11 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Classificação de textos & Naive Bayes 4 / 47
12 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Um conjunto de treinamento de D documentos rotulados Cada documento rotulado d,c X C Classificação de textos & Naive Bayes 4 / 47
13 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Um conjunto de treinamento de D documentos rotulados Cada documento rotulado d,c X C Classificação de textos & Naive Bayes 4 / 47
14 Definição de classificação de textos: treinamento Considerando: Um espaço de documentos X Documentos são representados nesse espaço tipicamente algum tipo de espaço de alta-dimensionalidade. Um conjunto fixo de classes C = {c 1,c 2,...,c J } As classes/rótulos são definidas de acordo com a necessidade da aplicação: (e.g., spam vs. não-spam). Um conjunto de treinamento de D documentos rotulados Cada documento rotulado d,c X C Usando um algoritmo de aprendizado podemos aprender um classificador γ que mapeia documentos para classes: γ : X C Classificação de textos & Naive Bayes 4 / 47
15 Definição formal de classificação de textos: aplicação/testes Considerando: uma descrição d X de um documento Determinar: γ(d) C, isto é, a classe é a mais apropriada para d Classificação de textos & Naive Bayes 5 / 47
16 Classificação de tópicos regiões indústrias interesses γ(d ) =China classes: Inglaterra China aves café eleições esportes d conj. treino: tráfego Londres Olimpíadas Beijing alimento frango torragem grãoes recontagem votos campo baseball conj. teste: primeira cia aérea privada chinesa Parlamento Big Ben turismo Muralha patê patos arabica robusta cargo 2 o turno ataque futebol Windsor a Rainha Mao comunista aviária gripe Quênia colheita comerciais campanha time capitão Classificação de textos & Naive Bayes 6 / 47
17 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Classificação de textos & Naive Bayes 7 / 47
18 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Classificação de textos & Naive Bayes 7 / 47
19 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Classificação de textos & Naive Bayes 7 / 47
20 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Buscas contínuas (e.g., Alertas do Google) Classificação de textos & Naive Bayes 7 / 47
21 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Buscas contínuas (e.g., Alertas do Google) Detecção de sentimento: avaliação de filme/produto é positiva ou negativa Classificação de textos & Naive Bayes 7 / 47
22 Exemplos de como motores de busca usam classificação Identificação de idioma (classes: inglês vs. francês etc.) Detecção automática de páginas de spam web Detecção automática de conteúdo sexualmente expĺıcito Buscas contínuas (e.g., Alertas do Google) Detecção de sentimento: avaliação de filme/produto é positiva ou negativa Função de ranking sem informação de retorno: documento é relevante ou não relevante Classificação de textos & Naive Bayes 7 / 47
23 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Classificação de textos & Naive Bayes 8 / 47
24 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Classificação de textos & Naive Bayes 8 / 47
25 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Classificação de textos & Naive Bayes 8 / 47
26 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Consistente quando problema e time de especialistas é pequeno Classificação de textos & Naive Bayes 8 / 47
27 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Consistente quando problema e time de especialistas é pequeno Classificação manual para problemas grandes é difícil e proibitivo Classificação de textos & Naive Bayes 8 / 47
28 Métodos de classificação: 1. Manual Classificação manual (usado pelo Yahoo no começo da Web e PubMed) Acurácia alta se feito por especialistas Consistente quando problema e time de especialistas é pequeno Classificação manual para problemas grandes é difícil e proibitivo necessitamos de métodos automáticos para classificação Classificação de textos & Naive Bayes 8 / 47
29 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Classificação de textos & Naive Bayes 9 / 47
30 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Comum: combinações booleanas Classificação de textos & Naive Bayes 9 / 47
31 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Comum: combinações booleanas Acurácia é alta se regra foi refinada com o tempo por especialista Classificação de textos & Naive Bayes 9 / 47
32 Métodos de classificação: 2. Baseado em regras E.g., Alertas do Google funciona com regras Comum: combinações booleanas Acurácia é alta se regra foi refinada com o tempo por especialista Construir e manter um sistema de classificação com regras pode ser problemático e caro Classificação de textos & Naive Bayes 9 / 47
33 Uma regra de classificação complexa Classificação de textos & Naive Bayes 10 / 47
34 Métodos de classificação: 3. aprendizado de máquina Classificação de textos como um problema de aprendizado Classificação de textos & Naive Bayes 11 / 47
35 Métodos de classificação: 3. aprendizado de máquina Classificação de textos como um problema de aprendizado (i) Aprendizado supervisionado de uma função de classificação γ e (ii) aplicação de γ para classificar novos documentos Classificação de textos & Naive Bayes 11 / 47
36 Métodos de classificação: 3. aprendizado de máquina Classificação de textos como um problema de aprendizado (i) Aprendizado supervisionado de uma função de classificação γ e (ii) aplicação de γ para classificar novos documentos Para isso estudaremos Naive Bayes Classificação de textos & Naive Bayes 11 / 47
37 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 12 / 47
38 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d Classificação de textos & Naive Bayes 13 / 47
39 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) Classificação de textos & Naive Bayes 13 / 47
40 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c Classificação de textos & Naive Bayes 13 / 47
41 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c P(t k c) pode ser vista como uma medida de quanta evidência t k contribui para que c seja da classe correta Classificação de textos & Naive Bayes 13 / 47
42 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c P(t k c) pode ser vista como uma medida de quanta evidência t k contribui para que c seja da classe correta P(c) é a probabilidade a priori de c. Classificação de textos & Naive Bayes 13 / 47
43 Classificador probabiĺıstico: Naive Bayes Computar a probabilidade de um documento d sendo uma classe c da seguinte forma: P(c d) P(c) P(t k c) 1 k n d n d é o tamanho do documento. (número de tokens) P(t k c) é a probabilidade condicional do termo t k ocorrer em um documento da classe c P(t k c) pode ser vista como uma medida de quanta evidência t k contribui para que c seja da classe correta P(c) é a probabilidade a priori de c. Se os termos de um documento não dão evidência clara para classe vs. outra, escolhemos a classe c com maior P(c). Classificação de textos & Naive Bayes 13 / 47
44 Classe com probabilidade a posteriori máxima Objetivo da classificação Naive Bayes é encontrar a melhor classe Classificação de textos & Naive Bayes 14 / 47
45 Classe com probabilidade a posteriori máxima Objetivo da classificação Naive Bayes é encontrar a melhor classe A melhor classe é a mais provável ou classe de máxima probabilidade a posteriori (MAP) c map : c map = argmax c C ˆP(c d) = argmax c C ˆP(c) 1 k n d ˆP(t k c) Classificação de textos & Naive Bayes 14 / 47
46 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Classificação de textos & Naive Bayes 15 / 47
47 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Como log(xy) = log(x)+log(y), podemos somar o logaritmo das probabilidades em vez de multiplicar Classificação de textos & Naive Bayes 15 / 47
48 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Como log(xy) = log(x)+log(y), podemos somar o logaritmo das probabilidades em vez de multiplicar Como log é uma função monotônica, a classe com pontuação mais alta não muda Classificação de textos & Naive Bayes 15 / 47
49 Fazendo o logaritmo Multiplicar muitas probabilidades pequenas resulta em erro de ponto flutuante Como log(xy) = log(x)+log(y), podemos somar o logaritmo das probabilidades em vez de multiplicar Como log é uma função monotônica, a classe com pontuação mais alta não muda Na prática, calculamos: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Classificação de textos & Naive Bayes 15 / 47
50 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Classificação de textos & Naive Bayes 16 / 47
51 Classificador Naive Bayes Regra de classificação: c map = argmax c C Interpretação: [log ˆP(c)+ 1 k n d log ˆP(t k c)] Classificação de textos & Naive Bayes 16 / 47
52 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Classificação de textos & Naive Bayes 16 / 47
53 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c Classificação de textos & Naive Bayes 16 / 47
54 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c A probabilidade a priori log ˆP(c) é um peso que indica a frequência relativa de c Classificação de textos & Naive Bayes 16 / 47
55 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c A probabilidade a priori log ˆP(c) é um peso que indica a frequência relativa de c A soma do log de probabilidades e os pesos dos termos é então uma medida de quanta evidência há para o documento ser da classe c Classificação de textos & Naive Bayes 16 / 47
56 Classificador Naive Bayes Regra de classificação: c map = argmax c C [log ˆP(c)+ 1 k n d log ˆP(t k c)] Interpretação: n d é o número de tokens no documento d Cada parâmetro condicional log ˆP(t k c) é um peso que indica o quão bom indicador o termo t k é para c A probabilidade a priori log ˆP(c) é um peso que indica a frequência relativa de c A soma do log de probabilidades e os pesos dos termos é então uma medida de quanta evidência há para o documento ser da classe c Selecionamos a classe com maior evidência c MAP Classificação de textos & Naive Bayes 16 / 47
57 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Classificação de textos & Naive Bayes 17 / 47
58 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N Classificação de textos & Naive Bayes 17 / 47
59 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Classificação de textos & Naive Bayes 17 / 47
60 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Probabilidades condicionais: ˆP(t c) = T c,t t V T c,t Classificação de textos & Naive Bayes 17 / 47
61 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Probabilidades condicionais: ˆP(t c) = T c,t t V T c,t T c,t é o número de tokens de t nos documentos de treino da classe c (inclui múltiplas ocorrências) Classificação de textos & Naive Bayes 17 / 47
62 Estimação de parâmetros 1: máxima verossimilhança Estimar parâmetros ˆP(c) e ˆP(t k c) a partir dos dados de treino: como? Prior: ˆP(c) = N c N N c : número de docs na classe c; N: número total de docs Probabilidades condicionais: ˆP(t c) = T c,t t V T c,t T c,t é o número de tokens de t nos documentos de treino da classe c (inclui múltiplas ocorrências) Usamos a premissa de independência de Naive Bayes aqui: ˆP(t k1 c) = ˆP(t k2 c), independência da posição Classificação de textos & Naive Bayes 17 / 47
63 O problema com estimativas de máxima verossimilhança: zeros C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(China d) P(China) P(Beijing China) P(e China) P(Taipei China) P(aderem China) P(OMC China) Se OMC nunca ocorrer na classe China no conjunto de treinamento: ˆP(OMC China) = T China,OMC 0 t V T = China,t t V T = 0 China,t Classificação de textos & Naive Bayes 18 / 47
64 O problema com estimativas de máxima verossimilhança: zeros C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(China d) P(China) P(Beijing China) P(e China) P(Taipei China) P(aderem China) P(OMC China) Se OMC nunca ocorrer na classe China no conjunto de treinamento: ˆP(OMC China) = T China,OMC 0 t V T = China,t t V T = 0 China,t Classificação de textos & Naive Bayes 18 / 47
65 O problema com estimativas de máxima verossimilhança: zeros C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(China d) P(China) P(Beijing China) P(e China) P(Taipei China) P(aderem China) P(OMC China) Se OMC nunca ocorrer na classe China no conjunto de treinamento: ˆP(OMC China) = T China,OMC 0 t V T = China,t t V T = 0 China,t Classificação de textos & Naive Bayes 18 / 47
66 Problema com estimativas de máx. verossimilhança: zeros Se não há ocorrências de OMC nos documentos na classe China, temos uma estimativa: ˆP(OMC China) = T China,OMC t V T China,t = 0 Classificação de textos & Naive Bayes 19 / 47
67 Problema com estimativas de máx. verossimilhança: zeros Se não há ocorrências de OMC nos documentos na classe China, temos uma estimativa: ˆP(OMC China) = T China,OMC t V T China,t = 0 Teremos P(China d) = 0 para qualquer documento que contém OMC! Classificação de textos & Naive Bayes 19 / 47
68 Evitar zeros: suavização somar-um Antes: ˆP(t c) = T c,t t V T c,t Classificação de textos & Naive Bayes 20 / 47
69 Evitar zeros: suavização somar-um Antes: ˆP(t c) = T c,t t V T c,t Agora: somar um para cada contador para evitar zeros: ˆP(t c) = T c,t +1 t V (T c,t +1) = T c,t +1 ( t V T c,t )+B Classificação de textos & Naive Bayes 20 / 47
70 Evitar zeros: suavização somar-um Antes: ˆP(t c) = T c,t t V T c,t Agora: somar um para cada contador para evitar zeros: ˆP(t c) = T c,t +1 t V (T c,t +1) = T c,t +1 ( t V T c,t )+B B = V é o tamanho do vocabulário Classificação de textos & Naive Bayes 20 / 47
71 Resumo: Naive Bayes Estimar parâmetros do corpus de treino usando suavização soma-um Classificação de textos & Naive Bayes 21 / 47
72 Resumo: Naive Bayes Estimar parâmetros do corpus de treino usando suavização soma-um Para um novo documento, para cada classe, calcular a soma de (i) log das probabilidades a priori e (ii) logs das probabilidades condicionais dos termos Classificação de textos & Naive Bayes 21 / 47
73 Resumo: Naive Bayes Estimar parâmetros do corpus de treino usando suavização soma-um Para um novo documento, para cada classe, calcular a soma de (i) log das probabilidades a priori e (ii) logs das probabilidades condicionais dos termos Atribuir o documento para a classe com maior pontuação Classificação de textos & Naive Bayes 21 / 47
74 Naive Bayes: treino NB = Naive Bayes TreinoMultinomialNB(C, D) 1 V ExtrairVocabulario(D) 2 N ContaDocs(D) 3 for each c C 4 do N c ContaDocsNaClasse(D,c) 5 priori[c] N c /N 6 texto c ConcatenaTextoTodosDocsNaClasse(D,c) 7 for each t V 8 do T c,t ContaTokensDeTermo(texto c,t) 9 for each t V 10 do probcond[t][c] Tc,t+1 11 return V,priori,probcond t (T c,t +1) Classificação de textos & Naive Bayes 22 / 47
75 Naive Bayes: teste AplicarMultinomialNB(C, V, priori, probcond, d) 1 W ExtrairTokensDeDoc(V, d) 2 for each c C 3 do pontuacao[c] log priori[c] 4 for each t W 5 do pontuacao[c]+ = log probcond[t][c] 6 return argmax c C pontuacao[c] Classificação de textos & Naive Bayes 23 / 47
76 Exercício docid palavras no documento em c = China? conj. treino 1 Chinês Beijing Chinês sim 2 Chinês Chinês Shanghai sim 3 Chinês Macao sim 4 Tóquio Japão Chinês não conj. testes 5 Chinês Chinês Chinês Tóquio Japão? Estimar parâmetros do classificador de Naive Bayes Classificar documentos de teste Classificação de textos & Naive Bayes 24 / 47
77 Exemplo: estimação de parâmetros Probabilidades a priori: ˆP(c) = 3/4 e ˆP(c) = 1/4 Probabilidades condicionais: ˆP(Chinês c) = (5+1)/(8+6) = 6/14 = 3/7 ˆP(Tóquio c) = ˆP(Japão c) = (0+1)/(8+6) = 1/14 ˆP(Chinês c) = (1+1)/(3+6) = 2/9 ˆP(Tóquio c) = ˆP(Japão c) = (1+1)/(3+6) = 2/9 Os denominadores são (8+6) e (3+6) porque os tamanhos de text c e text c são 8 e 3 e porque a constante B é 6 como o vocabulário consiste de seis termos Classificação de textos & Naive Bayes 25 / 47
78 Exemplo: classificação ˆP(c d 5 ) 3/4 (3/7) 3 1/14 1/ ˆP(c d 5 ) 1/4 (2/9) 3 2/9 2/ Então o classificador atribui o documento de teste para classe c = China. A razão para essa decisão de classificação é que as três ocorrências do indicador positivo Chinês em d 5 supera as ocorrências de dois indicadores negativos Japão e Tóquio. Classificação de textos & Naive Bayes 26 / 47
79 Custo do Naive Bayes Classificação de textos & Naive Bayes 27 / 47
80 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a Classificação de textos & Naive Bayes 27 / 47
81 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; Classificação de textos & Naive Bayes 27 / 47
82 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; Classificação de textos & Naive Bayes 27 / 47
83 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. Classificação de textos & Naive Bayes 27 / 47
84 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. Classificação de textos & Naive Bayes 27 / 47
85 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; Classificação de textos & Naive Bayes 27 / 47
86 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; Classificação de textos & Naive Bayes 27 / 47
87 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; Classificação de textos & Naive Bayes 27 / 47
88 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; Classificação de textos & Naive Bayes 27 / 47
89 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; D L ave é o custo para calcular todas as contagens Classificação de textos & Naive Bayes 27 / 47
90 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; D L ave é o custo para calcular todas as contagens C V é o custo para obter parâmetros a partir de contagens Classificação de textos & Naive Bayes 27 / 47
91 Custo do Naive Bayes modo número de operações treino D L ave + C V teste L a + C M a = C M a D: conj. treino; V: conj. vocabulário; C: conj. de classes. L ave : tamanho médio de um documento de treino; L a : tamanho de um documento de teste; M a : número de termos distintos no doc de teste; D L ave é o custo para calcular todas as contagens C V é o custo para obter parâmetros a partir de contagens Tempos de treino e teste são lineares Classificação de textos & Naive Bayes 27 / 47
92 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 28 / 47
93 Naive Bayes: análise Queremos ver melhor as propriedades de Naive Bayes. Classificação de textos & Naive Bayes 29 / 47
94 Naive Bayes: análise Queremos ver melhor as propriedades de Naive Bayes. Derivaremos a regra de classificação... Classificação de textos & Naive Bayes 29 / 47
95 Naive Bayes: análise Queremos ver melhor as propriedades de Naive Bayes. Derivaremos a regra de classificação e faremos as premissas explicitamente Classificação de textos & Naive Bayes 29 / 47
96 Derivação da regra de Naive Bayes Queremos encontrar a classe que é mais provável para um dado documento: c map = argmax c C P(c d) Aplicar regra de Bayes P(A B) = P(B A)P(A) P(B) : c map = argmax c C P(d c)p(c) P(d) Ignorar denominador uma vez que P(d) é igual para todas as classes: c map = argmax c C P(d c)p(c) Classificação de textos & Naive Bayes 30 / 47
97 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Classificação de textos & Naive Bayes 31 / 47
98 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Há muitos parâmetros P( t 1,...,t k,...,t nd c), um para cada combinação única de uma classe e sequência de palavras Classificação de textos & Naive Bayes 31 / 47
99 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Há muitos parâmetros P( t 1,...,t k,...,t nd c), um para cada combinação única de uma classe e sequência de palavras Precisaríamos um número muito grande de exemplos de treinamento para estimar esse número de parâmetros. Classificação de textos & Naive Bayes 31 / 47
100 Muitos parâmetros / esparsidade c map = argmax P(d c)p(c) c C = argmaxp( t 1,...,t k,...,t nd c)p(c) c C Há muitos parâmetros P( t 1,...,t k,...,t nd c), um para cada combinação única de uma classe e sequência de palavras Precisaríamos um número muito grande de exemplos de treinamento para estimar esse número de parâmetros. Esse é o problema da esparsidade dos dados. Classificação de textos & Naive Bayes 31 / 47
101 Premissa da independência condicional de Naive Bayes Para reduzir o número de parâmetros para um tamanho razoável, usamos a premissa da independência condicional de Naive Bayes: P(d c) = P( t 1,...,t nd c) = 1 k n d P(X k = t k c) Supomos que a probabilidade de observar a conjunção de atributos é igual ao produto de probabilidades individuais P(X k = t k c). obter de antes as estimativas para essas probabilidades condicionais : ˆP(t c) = T c,t+1 ( t V T c,t )+B Classificação de textos & Naive Bayes 32 / 47
102 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Classificação de textos & Naive Bayes 33 / 47
103 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Gerar uma classe com probabilidade P(c) Classificação de textos & Naive Bayes 33 / 47
104 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Gerar uma classe com probabilidade P(c) Gerar cada uma das palavras (nas suas respectivas posições ), condicional na classe, mas independente entre si, com probabilidade P(t k c) Classificação de textos & Naive Bayes 33 / 47
105 Modelos generativos C=China X 1 =Beijing X 2 =e X 3 =Taipei X 4 =aderem X 5 =OMC P(c d) P(c) 1 k n d P(t k c) Gerar uma classe com probabilidade P(c) Gerar cada uma das palavras (nas suas respectivas posições ), condicional na classe, mas independente entre si, com probabilidade P(t k c) Para classificar docs, reprojetamos esse processo e encontramos a classe que é mais provável de ter gerado o documento. Classificação de textos & Naive Bayes 33 / 47
106 Segunda premissa de independência ˆP(X k1 = t c) = ˆP(X k2 = t c) Classificação de textos & Naive Bayes 34 / 47
107 Segunda premissa de independência ˆP(X k1 = t c) = ˆP(X k2 = t c) Por exemplo, para um documento na classe Inglaterra, a probabilidade de ter rainha na primeira posição do documento é a mesma de ter na última posição Classificação de textos & Naive Bayes 34 / 47
108 Segunda premissa de independência ˆP(X k1 = t c) = ˆP(X k2 = t c) Por exemplo, para um documento na classe Inglaterra, a probabilidade de ter rainha na primeira posição do documento é a mesma de ter na última posição As duas premissas de independência nos leva ao modelo de coleção de palavras. Classificação de textos & Naive Bayes 34 / 47
109 Um modelo de Naive Bayes: modelo de Bernoulli C=China U Alaska =0 U Beijing =1 U India =0 U aderem =1 U Taipei =1 U OMC =1 Classificação de textos & Naive Bayes 35 / 47
110 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = 1 k n d P(X k = t k c) Classificação de textos & Naive Bayes 36 / 47
111 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = P(X k = t k c) 1 k n d Independência posicional: Classificação de textos & Naive Bayes 36 / 47
112 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = Independência posicional: ˆP(X k1 = t c) = ˆP(X k2 = t c) 1 k n d P(X k = t k c) Classificação de textos & Naive Bayes 36 / 47
113 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = Independência posicional: ˆP(X k1 = t c) = ˆP(X k2 = t c) 1 k n d P(X k = t k c) As premissas de independência não são realmente verificadas em documentos escritos em linguagem natural Classificação de textos & Naive Bayes 36 / 47
114 Violação das premissas de independência de Naive Bayes Independência condicional: P( t 1,...,t nd c) = Independência posicional: ˆP(X k1 = t c) = ˆP(X k2 = t c) 1 k n d P(X k = t k c) As premissas de independência não são realmente verificadas em documentos escritos em linguagem natural Como é possível Naive Bayes funcionar se essas premissas não são apropriadas? Classificação de textos & Naive Bayes 36 / 47
115 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Classificação de textos & Naive Bayes 37 / 47
116 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Classificação de textos & Naive Bayes 37 / 47
117 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação de textos & Naive Bayes 37 / 47
118 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação deve predizar a classe e não necessariamente as probabilidades Classificação de textos & Naive Bayes 37 / 47
119 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação deve predizar a classe e não necessariamente as probabilidades Naive Bayes é ruim para estimação as probabilidades... Classificação de textos & Naive Bayes 37 / 47
120 Porquê Naive Bayes funciona? Naive Bayes pode funcionar bem apesar das premissas de independência não serem respeitadas Exemplo: c 1 c 2 classe escolhida prob. verdadeira P(c d) c 1 ˆP(c) 1 k n d ˆP(tk c) estimativa NB ˆP(c d) c 1 Contagem duplicada de evidência causa subestimação (0.01) e superestimação (0.99). Classificação deve predizar a classe e não necessariamente as probabilidades Naive Bayes é ruim para estimação as probabilidades......mas funciona bem para predição de classes Classificação de textos & Naive Bayes 37 / 47
121 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Classificação de textos & Naive Bayes 38 / 47
122 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Classificação de textos & Naive Bayes 38 / 47
123 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Classificação de textos & Naive Bayes 38 / 47
124 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Classificação de textos & Naive Bayes 38 / 47
125 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Classificação de textos & Naive Bayes 38 / 47
126 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Ótimo se premissas de independência forem verdadeiras (nunca verdade para textos, mas verdade para alguns domínios) Classificação de textos & Naive Bayes 38 / 47
127 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Ótimo se premissas de independência forem verdadeiras (nunca verdade para textos, mas verdade para alguns domínios) Muito rápido Classificação de textos & Naive Bayes 38 / 47
128 Naive Bayes funciona bem Naive Bayes tem sido aplicado em competições (e.g., KDD-CUP 97) Mais robusto para termos não relevantes que métodos mais complexos Mais robusto para mudança de conceitos (alteração de definição de classe com o tempo) que métodos mais complexos Melhor que métodos como árvores de decisão quando temos muitos atributos igualmente importantes Um bom nível de desempenho para classificação de textos (mas não o melhor) Ótimo se premissas de independência forem verdadeiras (nunca verdade para textos, mas verdade para alguns domínios) Muito rápido Baixos requisitos de armazenamento Classificação de textos & Naive Bayes 38 / 47
129 Outline 1 Classificação de textos 2 Naive Bayes 3 Teoria de Naive Bayes 4 Avaliação de classificação de textos Classificação de textos & Naive Bayes 39 / 47
130 Avaliação no corpus Reuters regiões indústrias interesses γ(d ) =China classes: Inglaterra China aves café eleições esportes d conj. treino: tráfego Londres Olimpíadas Beijing alimento frango torragem grãos recontagem votos campo baseball conj. teste: primeira privada Chinês cia aérea Parlamento Big Ben turismo Muralha patê patos arábica robusta cargo 2 o turno ataque futebol Windsor a Rainha Mao comunismo aviária gripe Quênia colheita comerciais campanha time capitão Classificação de textos & Naive Bayes 40 / 47
131 Exemplo: Corpus Reuters símbolo estatística valor N documentos 800,000 L média. # tokens por documento 200 M palavras 400,000 Classificação de textos & Naive Bayes 41 / 47
132 Exemplo: Corpus Reuters símbolo estatística valor N documentos 800,000 L média. # tokens por documento 200 M palavras 400,000 tipo de classe número exemplos região 366 Inglaterra, China indústria 870 aves, café interesses 126 eleições, esportes Classificação de textos & Naive Bayes 41 / 47
133 Um documento do corpus Reuters Classificação de textos & Naive Bayes 42 / 47
134 Avaliando classificação Avaliação precisa ser feita em conjunto de testes que seja independente dos dados de treino, i.e., conjuntos de treino e teste são disjuntos Classificação de textos & Naive Bayes 43 / 47
135 Avaliando classificação Avaliação precisa ser feita em conjunto de testes que seja independente dos dados de treino, i.e., conjuntos de treino e teste são disjuntos Fácil obter bom desempenho em um conjunto de teste que estava disponível durante o treino. Classificação de textos & Naive Bayes 43 / 47
136 Avaliando classificação Avaliação precisa ser feita em conjunto de testes que seja independente dos dados de treino, i.e., conjuntos de treino e teste são disjuntos Fácil obter bom desempenho em um conjunto de teste que estava disponível durante o treino. Medidas: Precisão, recuperação, F 1, acurácia de classificação Classificação de textos & Naive Bayes 43 / 47
137 Precisão P and recuperação R na classe não na classe predito como estar na classe verd. positivos (VP) falso positives (FP) predito como não estar classe falso negativos (FN) verd. negativos (VN) TP, FP, FN, TN são contagens de documentos. A soma dos quatro números é igual ao número de documentos precisão:p = TP/(TP + FP) recuperação:r = TP/(TP + FN) Classificação de textos & Naive Bayes 44 / 47
138 Uma medida combinada : F F 1 equilibrar taxa de precisão e recuperação Classificação de textos & Naive Bayes 45 / 47
139 Uma medida combinada : F F 1 equilibrar taxa de precisão e recuperação F 1 = P R = 2PR P +R Classificação de textos & Naive Bayes 45 / 47
140 Uma medida combinada : F F 1 equilibrar taxa de precisão e recuperação F 1 = P R Média de P e R: 1 F = 1 2 ( 1 P + 1 R ) = 2PR P +R Classificação de textos & Naive Bayes 45 / 47
141 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Classificação de textos & Naive Bayes 46 / 47
142 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Classificação de textos & Naive Bayes 46 / 47
143 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Classificação de textos & Naive Bayes 46 / 47
144 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Classificação de textos & Naive Bayes 46 / 47
145 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Classificação de textos & Naive Bayes 46 / 47
146 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Classificação de textos & Naive Bayes 46 / 47
147 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Computar TP, FP, FN para cada classe de C Classificação de textos & Naive Bayes 46 / 47
148 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Computar TP, FP, FN para cada classe de C Somar esses C números (e.g., todos os TP são somados) Classificação de textos & Naive Bayes 46 / 47
149 Média: Micro vs. Macro Agora temos uma medida de avaliação (F 1 ) para uma classe. Mas também queremos um número único que mede o desempenho agregado sobre todas as classes na coleção Macro-média Calcular F 1 para cada uma das classes em C Médias desses F 1 para cada classe C Micro-média Computar TP, FP, FN para cada classe de C Somar esses C números (e.g., todos os TP são somados) Computar F 1 para os TP, FP, FN somados Classificação de textos & Naive Bayes 46 / 47
150 Naive Bayes vs. outros métodos (a) NB Rocchio knn SVM micro-média-l (90 classes) macro-média (90 classes) (b) NB Rocchio knn árvores SVM earn acq money-fx grain crude trade interest ship wheat corn micro-média(top 10) micro-média-d (118 classes) n/a n/a 87 Medida de avaliação: F 1 Classificação de textos & Naive Bayes 47 / 47
151 Naive Bayes vs. outros métodos (a) NB Rocchio knn SVM micro-média-l (90 classes) macro-média (90 classes) (b) NB Rocchio knn árvores SVM earn acq money-fx grain crude trade interest ship wheat corn micro-média(top 10) micro-média-d (118 classes) n/a n/a 87 Medida de avaliação: F 1 Naive Bayes funciona bem, mas alguns métodos são consistentemente melhores (e.g., SVM). Classificação de textos & Naive Bayes 47 / 47
Classificação de textos: definição & relevância para ORI
Conteúdo Conteúdo Classificação de textos: definição & relevância para ORI Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Conteúdo Classificação
Leia maisClassificação de textos Naive Bayes Teoria de Naive Bayes Avaliação de classificação de textos
Conteúdo Classificação de textos: definição & relevância para ORI Naive Bayes: classificador de textos Teoria: derivação da regra de classificação de Naive Bayes Avaliação de classificação de textos: como
Leia maisClassificação de textos Naive Bayes Teoria de Naive Bayes Avaliação de classificação de textos. Classificação de textos & Naive Bayes 1 / 48
Conteúdo Classificação de textos & Naive Bayes 1 / 48 Conteúdo Classificação de textos: definição & relevância para ORI Classificação de textos & Naive Bayes 1 / 48 Conteúdo Classificação de textos: definição
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Leia maisOutline. 2 Abordagem probabiĺıstica para ORI. 3 Teoria de probabilidades. 4 Princípio de ranking probabiĺıstico
Outline 1 Recapitulação 2 Abordagem probabiĺıstica para ORI 3 Teoria de probabilidades 4 Princípio de ranking probabiĺıstico 5 Apreciação&Extensões Modelo probabiĺıstico 1 / 47 Retorno de relevância: ideia
Leia maisDCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...
DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar
Leia maisAprendizado Bayesiano Anteriormente...
Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas
Leia maisCLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
Leia maisProbabilidade - aula II
25 de Março de 2014 Interpretações de Probabilidade Amostras Aleatórias e Objetivos Ao final deste capítulo você deve ser capaz de: Calcular probabilidades de eventos conjuntos. Interpretar e calcular
Leia maisProbabilidade - aula II
2012/02 1 Interpretações de Probabilidade 2 3 Amostras Aleatórias e Objetivos Ao final deste capítulo você deve ser capaz de: Calcular probabilidades de eventos conjuntos. Interpretar e calcular probabilidades
Leia maisMistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014
Mistura de modelos Marcelo K. Albertini 31 de Julho de 2014 2/11 Mistura de modelos Ideia básica Em vez de aprender somente um modelo, aprender vários e combiná-los Isso melhora acurácia Muitos métodos
Leia maisMétodos Quantitativos para Ciência da Computação Experimental. Jussara Almeida DCC-UFMG 2013
Métodos Quantitativos para Ciência da Computação Experimental Jussara Almeida DCC-UFMG 2013 Revisão de Probabilidade e Estatística Concentrado em estatística aplicada Estatística apropriada para medições
Leia mais1.4.2 Probabilidade condicional
M. Eisencraft 1.4 Probabilidades condicionais e conjuntas 9 Portanto, P(A B) = P(A)+P(B) P(A B) (1.2) Para eventos mutuamente exclusivos, P(A B) = e P(A)+P(B) = P(A B). 1.4.2 Probabilidade condicional
Leia mais5 Experimentos Corpus
5 Experimentos 5.1. Corpus A palavra corpus significa corpo em latim. No contexto de Aprendizado de Máquina, corpus se refere a um conjunto de dados utilizados para experimentação e validação de modelos.
Leia maisEisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos:
Eisencraft e Loiola 2.1 Probabilidade 37 Modelo matemático de experimentos Para resolver problemas de probabilidades são necessários 3 passos: a Estabelecimento do espaço das amostras b Definição dos eventos
Leia maisClassificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si
Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências
Leia maisResumo. Parte 2 Introdução à Teoria da Probabilidade. Ramiro Brito Willmersdorf Introdução.
Parte 2 Introdução à Teoria da Probabilidade Ramiro Brito Willmersdorf ramiro@willmersdorf.net Departamento de Engenharia Mecânica Universidade Federal de Pernambuco 2011.2 Resumo 1 Introdução 2 Espaço
Leia maisConceitos básicos de teoria da probabilidade
Conceitos básicos de teoria da probabilidade Experimento Aleatório: procedimento que, ao ser repetido sob as mesmas condições, pode fornecer resultados diferentes Exemplos:. Resultado no lançamento de
Leia maisPlano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov
Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar
Leia maisCE Estatística I
CE 002 - Estatística I Agronomia - Turma B Professor Walmes Marques Zeviani Laboratório de Estatística e Geoinformação Departamento de Estatística Universidade Federal do Paraná 1º semestre de 2012 Zeviani,
Leia mais2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Leia maisMEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana
MEEMF-2010 Aula 01 Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana O que é inferência estatística? Inferência estatística é o importante ramo da Estatística
Leia maisChamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.
PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses
Leia mais6 Atributos. A dívida da empresa subiu.
6 Atributos Para buscar o sentimento de um texto automaticamente precisamos encontrar boas pistas ao longo do discurso. Uma grande variedade de palavras e expressões possui conotação positiva ou negativa,
Leia maisMODELO DE DECISÃO PARA ESCOLHA DE PORTFOLIO DE INVESTIMENTOS
MODELO DE DECISÃO PARA ESCOLHA DE PORTFOLIO DE INVESTIMENTOS Rodrigo José Pires Ferreira UFPE Cx. Postal 7462, Recife PE, 50.630-970 rodrigo@ufpe.br Adiel Teixeira de Almeida Filho UFPE Cx. Postal 7462,
Leia mais1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3.
1 1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3. Modelo de Resultados Potenciais e Aleatorização (Cap. 2 e 3
Leia maisRecuperação de Informação
Recuperação de Informação Avaliação de Desempenho de Sistemas de Recuperação de Informação Renato Fernandes Corrêa 1 Para que avaliar? Existem muitos modelos de RI, mas qual é o melhor? Qual a melhor escolha
Leia maisEstatística Aplicada. Árvore de Decisão. Prof. Carlos Alberto Stechhahn PARTE II. Administração. p(a/b) = n(a B)/ n(b)
Estatística Aplicada Administração p(a/b) = n(a B)/ n(b) PARTE II Árvore de Decisão Prof. Carlos Alberto Stechhahn 2014 1. Probabilidade Condicional - Aplicações Considere que desejamos calcular a probabilidade
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisObjetivos. Frequência Relativa X Probabilidade. Probabilidade. 1. Definições: Experimento Espaço Amostral Evento Probabilidade
Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática DI Laboratório de Pesquisas em Redes Multimidia LPRM Objetivos 1. Definições: Experimento Espaço Amostral Evento
Leia maisExemplos de Aplicações da Teoria das Probabilidades em Biologia. Qual a probabilidade de que o próximo nucleotídeo na seqüência seja A, C, G ou T?
Exemplos de Aplicações da Teoria das Probabilidades em Biologia Exemplo 1. Suponha que se conheça a seguinte seqüência de nucleotídeos em uma molécula de DNA: AGCTTCCGATCCGCTATAATCGTTAGTTGTTACACCTCTG Qual
Leia maisAula de Exercícios - Teorema de Bayes
Aula de Exercícios - Teorema de Bayes Organização: Rafael Tovar Digitação: Guilherme Ludwig Primeiro Exemplo - Estagiários Três pessoas serão selecionadas aleatóriamente de um grupo de dez estagiários
Leia maisIntrodução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística
Introdução ao Planejamento e Análise Estatística de Capítulo 3 Introdução à Probabilidade e à Inferência Estatística INTERVALOS DE CONFIANÇA: Diferentes pesquisadores, selecionando amostras de uma mesma
Leia maisAgregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta
Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta (luizfsc@icmc.usp.br) Sumário 1. Motivação 2. Bagging 3. Random Forest 4. Boosting
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aulas passadas Motivação Espaço Amostral, Eventos, Álgebra de eventos Aula de hoje Probabilidade Análise Combinatória Independência Probabilidade Experimentos
Leia maisModelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal
Modelos Probabilísticos Teóricos Discretos e Contínuos Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal Distribuição de Probabilidades A distribuição de probabilidades de uma variável aleatória:
Leia maisProbabilidade e Estatística
Aula 3 Professora: Rosa M. M. Leão Probabilidade e Estatística Conteúdo: 1.1 Por que estudar? 1.2 O que é? 1.3 População e Amostra 1.4 Um exemplo 1.5 Teoria da Probabilidade 1.6 Análise Combinatória 3
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos
Leia maisWEKA: Prática Carregando a base de dados no Weka
WEKA: Prática 2 1. Introdução O objetivo desta prática é utilizar a ferramenta Weka para comparar dois algoritmos de aprendizagem de máquina em um problema de detecção de SPAM. Os algoritmos a serem comparados
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aulas passadas Motivação Exemplos de aplicação de probabilidade e estatística Informações do curso Aula de hoje Espaço amostral Álgebra de Eventos Eventos
Leia maisBuscas Informadas ou Heurísticas - Parte II
Buscas Informadas ou Heurísticas - Parte II Prof. Cedric Luiz de Carvalho Instituto de Informática - UFG Graduação em Ciência da Computação / 2006 FUNÇÕES HEURÍSTICAS - 1/7 FUNÇÕES HEURÍSTICAS - 2/7 Solução
Leia maisT o e r o ia a da P oba ba i b lida d de
Teoria da Probabilidade Prof. Joni Fusinato Teoria da Probabilidade Consiste em utilizar a intuição humana para estudar os fenômenos do nosso cotidiano. Usa o princípio básico do aprendizado humano que
Leia maisInteligência Artificial
Inteligência Artificial Aula 6 Algoritmos Genéticos M.e Guylerme Velasco Roteiro Introdução Otimização Algoritmos Genéticos Representação Seleção Operadores Geneticos Aplicação Caixeiro Viajante Introdução
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Motivação Exemplos de aplicação de probabilidade e estatística Informações do curso Aula de hoje Espaço amostral Álgebra de Eventos Eventos Mutuamente
Leia maisEstatística Básica. Probabilidade. Renato Dourado Maia. Instituto de Ciências Agrárias. Universidade Federal de Minas Gerais
Estatística Básica Probabilidade Renato Dourado Maia Instituto de Ciências Agrárias Universidade Federal de Minas Gerais Probabilidade Condicional Dados dois eventos A e B, a probabilidade condicional
Leia maisClassificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka
Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Árvores de Decisão Métodos para aproximar funções discretas, representadas por meio de uma árvore de decisão; Árvores de decisão podem ser
Leia mais5 Experimentos Conjunto de Dados
Experimentos 48 5 Experimentos Este capítulo apresenta o ambiente experimental utilizado para validar o método de predição do CTR proposto neste trabalho. Na seção 5.1, descrevemos a geração do conjunto
Leia maisInteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem Outras Técnicas Prof. a Joseana Macêdo Fechine Régis
Leia maisMAE Introdução à Probabilidade e Estatística II Resolução Lista 5
MAE 229 - Introdução à Probabilidade e Estatística II Resolução Lista 5 Professor: Pedro Morettin e Profa. Chang Chian Exercício 1 (a) De uma forma geral, o desvio padrão é usado para medir a dispersão
Leia maisTE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.
TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio
Leia maisTeoria das Probabilidades
Capítulo 2 Teoria das Probabilidades 2.1 Introdução No capítulo anterior, foram mostrados alguns conceitos relacionados à estatística descritiva. Neste capítulo apresentamos a base teórica para o desenvolvimento
Leia maisHashing: conceitos. Hashing
Hashing: conceitos hashing é uma técnica conhecida como espalhamento, mapeamento ou randomização que tenta distribuir dados em posições aleatórias de uma tabela (array) associa cada objeto (de um determinado
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 15 Árvores de Decisão Árvores de Decisão Uma das formas de algoritmo de aprendizado mais simples e de maior sucesso.
Leia maisProbabilidades. O cálculo de probabilidades teve a sua origem no estudo dos jogos de azar, principalmente nos jogos de dados.
Probabilidades O cálculo de probabilidades teve a sua origem no estudo dos jogos de azar, principalmente nos jogos de dados. Quando lançamos um dado, os resultados possíveis são sempre um dos elementos
Leia maisComplexidade de Algoritmos
Complexidade de Algoritmos! Uma característica importante de qualquer algoritmo é seu tempo de execução! é possível determiná-lo através de métodos empíricos, considerando-se entradas diversas! é também
Leia maisProf. Daniela Barreiro Claro
O volume de dados está crescendo sem parar Gigabytes, Petabytes, etc. Dificuldade na descoberta do conhecimento Dados disponíveis x Análise dos Dados Dados disponíveis Analisar e compreender os dados 2
Leia maisSSC510 Arquitetura de Computadores 1ª AULA
SSC510 Arquitetura de Computadores 1ª AULA REVISÃO DE ORGANIZAÇÃO DE COMPUTADORES Arquitetura X Organização Arquitetura - Atributos de um Sistema Computacional como visto pelo programador, isto é a estrutura
Leia maisMáquinas de suporte vetorial e sua aplicação na detecção de spam
e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura
Leia maisAprendizado de Máquina
Aprendizado de Máquina André C. P. L. F. de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Agrupamento de dados Tópicos Agrupamento de dados Dificuldades em agrupamento Algoritmos de agrupamento
Leia maisÁrvore de Decisão. Capítulo 18 Russell & Norvig Seções 18.1 a 18.3
Árvore de Decisão Capítulo 18 Russell & Norvig Seções 18.1 a 18.3 Aprendizagem Indutiva Clássica Recebe como entrada o valor correto de uma função desconhecida para entradas específicas e tenta recuperar
Leia maisInteligência Artificial
https://www.pinterest.com/carlymundo/decision-tree-infographics/ Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial
Leia maisGSI024 - Organização e Recuperação da
GSI024 - Organização e Recuperação da Informação Ilmério Reis da Silva ilmerio@facom.ufu.br UFU/FACOM/BSI Arquivo 5 - Peso de termos GSI024-ORI Pg:5. 1 Busca paramétrica usando atributos Regiões em documentos
Leia maisNoções de Algoritmos
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Noções de Algoritmos DCA0800 - Algoritmos e Lógica de Programação Heitor Medeiros 1 Tópicos da aula Algoritmos
Leia maisMais de 12 mil séries de tempo relativas às economias brasileira e mundial, selecionadas por sua relevância e que podem ser acessadas de forma
Mais de 12 mil séries de tempo relativas às economias brasileira e mundial, selecionadas por sua relevância e que podem ser acessadas de forma simples e eficiente. Séries diárias, mensais trimestrais e
Leia maisExperiências Aleatórias. Espaço de Resultados. Acontecimentos
Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiência Aleatória É uma experiência em que: não se sabe exactamente o resultado que se virá a observar; conhece-se o universo dos resultados
Leia maisAlgoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008
Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Introdução São técnicas de busca e otimização. É a metáfora da teoria da evolução das espécies iniciada pelo Fisiologista e Naturalista inglês Charles Darwin.
Leia maisELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015
ELEMENTOS DE PROBABILIDADE Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Def.: Um experimento é dito aleatório quando o seu resultado não for previsível antes de sua realização, ou seja,
Leia maisConjuntos Fuzzy e Lógica Fuzzy
1 Introdução Conjuntos Fuzzy e Lógica Fuzzy users.femanet.com.br/~fabri/fuzzy.htm Os Conjuntos Fuzzy e a Lógica Fuzzy provêm a base para geração de técnicas poderosas para a solução de problemas, com uma
Leia maisIntrodução à Probabilidade
Introdução à Probabilidade Silvia Shimakura silvia.shimakura@ufpr.br Probabilidade O que é probabilidade? Medida que quantifica a incerteza de um acontecimento futuro. Como quantificar incerteza? Definição
Leia maisProva Resolvida Raciocínio Lógico Quantitativo e Estatística (ANAC/2016) Prof. Guilherme Neves
Prova Resolvida Raciocínio Lógico Quantitativo e Estatística (ANAC/2016) 31- (ANAC 2016/ESAF) A negação da proposição se choveu, então o voo vai atrasar pode ser logicamente descrita por a) não choveu
Leia maisModelos de Probabilidade e Inferência Estatística
Modelos de Probabilidade e Inferência Estatística Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Probabilidade Condicional 03/14 1 / 48 É provável que você
Leia maisCAPÍTULO 4 PROBABILIDADE PROBABILIDADE PPGEP Espaço Amostral e Eventos Espaço Amostral e Eventos UFRGS. Probabilidade.
PROBABILIDADE CAPÍTULO 4 PROBABILIDADE UFRGS A Teoria das s estuda os fenômenos aleatórios. Fenômeno Aleatório: são os fenômenos cujo resultado não pode ser previsto exatamente. Se o fenômeno se repetir,
Leia maisProcessos Estocásticos. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema
Leia maisAULA 07 Inferência a Partir de Duas Amostras
1 AULA 07 Inferência a Partir de Duas Amostras Ernesto F. L. Amaral 10 de setembro de 2012 Faculdade de Filosofia e Ciências Humanas (FAFICH) Universidade Federal de Minas Gerais (UFMG) Fonte: Triola,
Leia maisClassificação de Padrões Radiológicos por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada
Visão Robótica Imagem Classificação de Padrões Radiológicos por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada Aluna: Luiza Dri Bagesteiro Orientador: Prof. Dr. Daniel Weingaertner Co-orientador:
Leia mais2 O Processo de Avaliação de Recursos de Petróleo Não Descobertos
2 O Processo de Avaliação de Recursos de Petróleo Não Descobertos Antes do processo de exploração de recursos não descobertos, são as atividades de prospecção de petróleo que identificam regiões que pela
Leia maisConceitos Básicos, Básicos,Básicos de Probabilidade
Conceitos Básicos, Básicos,Básicos de Probabilidade Espaço Amostral Base da Teoria de Probabilidades Experimentos são realizados resultados NÃO conhecidos previamente Experimento aleatório Exemplos: Determinar
Leia maisAnálise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas
Universidade de São Paulo Mestrado em Ciência da Computação Instituto de Matemática e Estatística Disciplina MAC5725 Lingüística Computacional Análise Sintática de Frases utilizando Gramáticas Livres de
Leia maisAprendizado de Máquina
Aprendizado de Máquina Sistemas de Informação Inteligente Prof. Leandro C. Fernandes Adaptação dos materiais de: Thiago A. S. Pardo, Daniel Honorato e Bianca Zadrozny APRENDIZADO SIMBÓLICO: ÁRVORES DE
Leia maisTécnicas econométricas para avaliação de impacto O uso de algoritmos de emparelhamento baseados em escore de propensão propensity score matching
Técnicas econométricas para avaliação de impacto O uso de algoritmos de emparelhamento baseados em escore de propensão propensity score matching Bruno César Araújo Instituto de Pesquisa Econômica Aplicada
Leia maisCircuitos Lógicos Aula 22
Circuitos Lógicos Aula 22 Aula passada Armazenamento e transferência Paralela x Serial Divisão de frequência Contador Microprocessador Aula de hoje Aritmética binária Representação binária com sinal Complemento
Leia maisBCC Introdu c ao ` a Programa c ao Portugol Guillermo C amara-ch avez UFOP 1/35
BCC 201 - Introdução à Programação Portugol Guillermo Cámara-Chávez UFOP 1/35 Introdução I Lógica A lógica é usada no dia a dia das pessoas que trabalham com computação para solucionar problemas de forma
Leia maisRepresentações de Números Inteiros: Sinal e Magnitude e Representação em Excesso de k
Representações de Números Inteiros: Sinal e Magnitude e Representação em Excesso de k Cristina Boeres Instituto de Computação (UFF) Fundamentos de Arquiteturas de Computadores Material de Fernanda Passos
Leia maisDefinição de Probabilidade
INTRODUÇÃO A TEORIA DAS PROBABILIDADES A teoria das probabilidade nada mais é do que o bom senso transformado em cálculo A probabilidade é uma medida da incerteza dos fenômenos. Traduz-se por um número
Leia maisCálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner
Cálculo Numérico / Métodos Numéricos Solução de equações polinomiais Briot-Ruffini-Horner Equações Polinomiais p = x + + a ( x) ao + a1 n x n Com a i R, i = 0,1,, n e a n 0 para garantir que o polinômio
Leia maisArquivos invertidos 39
Arquivos invertidos 39 Arquivos invertidos É um mecanismo que utiliza palavras para indexar uma coleção de documentos a fim de facilitar a busca e a recuperação Estruturas de um arquivo invertido Vocabulário
Leia maisEstatística Empresarial. Fundamentos de Probabilidade
Fundamentos de Probabilidade A probabilidade de chuva é de 90% A probabilidade de eu sair é de 5% Conceitos Básicos Conceitos Básicos 1. Experiência Aleatória (E) Processo de obtenção de uma observação
Leia maisBusca com informação e exploração. Inteligência Artificial. Revisão da aula passada: Heurística Admissível. Revisão da aula passada: Busca A *
Inteligência Artificial Aula 6 Profª Bianca Zadrozny http://www.ic.uff.br/~bianca/ia Busca com informação e exploração Capítulo 4 Russell & Norvig Seção 4.2 e 4.3 Revisão da aula passada: Busca A * Idéia:
Leia maisUma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law
Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não
Leia maisReconhecimento facial. uma aplicação prática do reconhecimento de padrões
Reconhecimento facial uma aplicação prática do reconhecimento de padrões Márcio Koch, junho 2014 Pauta Apresentação Visão computacional Reconhecimento de padrões Analise de Componentes Principais Reconhecimento
Leia maisO usuário pode restringir dados a um determinado tipo, como números inteiros, números decimais ou texto, e definir limites para as entradas válidas.
, %&!', A Validação de Dados permite que você determine condições para restringir os dados a serem digitados numa ou mais células. Dessa forma, tornando sempre válidas as informações numa planilha. O usuário
Leia maisO que é risco de negócio? Decisões de Estrutura de Capital: Conceitos Básicos
Decisões de Estrutura de Capital: Conceitos Básicos Prof. Antonio Lopo Martinez Risco do negócio vs. risco financeiro Teoria da estrutura de capital Exemplo de fluxo de caixa perpétuo Estabelecendo a estrutura
Leia maisAUTOMATED ASSESSMENT OF BREAST TISSUE DENSITY IN DIGITAL MAMMOGRAMS
AUTOMATED ASSESSMENT OF BREAST TISSUE DENSITY IN DIGITAL MAMMOGRAMS Introdução Câncer de mama É uma das neoplasias mais comuns que afligem as mulheres Globalmente, a cada 3 min uma mulher é diagnosticada
Leia maisf(h) δ h p f(x + h) f(x) (x) = lim
Capítulo 6 Derivação numérica Nesta seção vamos desenvolver métodos para estimar a derivada de uma função f calculada em um ponto x, f (x, a partir de valores conecidos de f em pontos próximos ao ponto
Leia maisSistemas Baseados em Conhecimento
Sistemas Baseados em Conhecimento Profa. Josiane M. P. Ferreira Baseado no capítulo 2 do livro Sistemas Inteligentes Fundamentos de Aplicações, organizadção: Solange Oliveira Rezende, ed. Manole, 2005.
Leia maisAlgoritmos e Estruturas de Dados I (DCC/003) Estruturas Condicionais e de Repetição
Algoritmos e Estruturas de Dados I (DCC/003) Estruturas Condicionais e de Repetição 1 Comando while Deseja-se calcular o valor de: 1 + 2 + 3 +... + N. Observação: não sabemos, a priori, quantos termos
Leia maisCompressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré
Compressão Sem Perdas: Codificações Huffman e Aritmética Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas (Lossless Data Compression) Refere-se a métodos de compressão
Leia maisMétodos Computacionais. Operadores, Expressões Aritméticas e Entrada/Saída de Dados
Métodos Computacionais Operadores, Expressões Aritméticas e Entrada/Saída de Dados Tópicos da Aula Hoje aprenderemos a escrever um programa em C que pode realizar cálculos Conceito de expressão Tipos de
Leia mais2284-ELE/5, 3316-IE/3. Universidade da Beira Interior, Departamento de Informática
INTELIGÊNCIA ARTIFICIAL 2284-ELE/5, 3316-IE/3 Universidade da Beira Interior, Departamento de Informática Hugo Pedro Proença, 2007/2008 Aprendizagem A aprendizagem é um aspecto crucial da Inteligência
Leia maisTeste Chi-Quadrado de Independência. Prof. David Prata Novembro de 2016
Teste Chi-Quadrado de Independência Prof. David Prata Novembro de 2016 Duas Variáveis Categóricas Análise de variância envolve o exame da relação entre uma variável categórica explicativa e uma variável
Leia mais