Aprendizagem Bayesiana
|
|
|
- Amanda Filipe
- 7 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti
2 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes 2
3 Aprendizagem Bayesiana O pensamento Bayesiano fornece uma abordagem probabilística para a aprendizagem. Está baseado na suposição de que as quantidades de interesse são reguladas por distribuições de probabilidades. Quantificar o custo/benefício entre diferentes decisões de classificação usando probabilidades e custos associados à classificação. Teorema de Bayes Mostra como alterar as probabilidades a priori tendo em conta novas evidências de forma a obter probabilidades a posteriori. 3
4 Aprendizagem Bayesiana Terminologia Classes (variável aleatória) Probabilidades a priori Conhecimento a priori que se tem sobre o problema, ou seja, conhecimento a priori sobre a aparição de exemplos das classes do problema. Função de Densidade Probabilidade Frequência com a qual encontramos uma determinada característica Evidências 4
5 Aprendizagem Bayesiana Terminologia Densidade de Probabilidade Condicional (Likelihood) - Verossimilhança Frequência com que encontramos uma determinada característica x dado que a mesma pertence a classe Densidade de duas classes em que representa uma característica qualquer 5
6 Aprendizagem Bayesiana Terminologia Probabilidade a posteriori - Probabilidade que o padrão pertença a classe característica data a Regra de decisão 6
7 Aprendizagem Bayesiana Tomando decisão usando Bayes Probabilidades a posteriori calculadas usando Nesse caso, para um valor de, a probabilidade do padrão pertencer a é de 0,08, enquanto que a probabilidade do padrão pertencer a é de 0,92. Para cada x, as probabilidades a posteriori somam 1. 7
8 Aprendizagem Bayesiana Teorema de Bayes Basicamente o teorema de Bayes mostra como rever as crenças sempre que novas evidências são coletadas. Ou seja, atualizar a probabilidade a posteriori utilizando para isso a probabilidade a priori, as verossimilhanças e as evidências 8
9 Aprendizagem Bayesiana Exemplo Um médico sabe que a meningite causa torcicolo em 50% dos casos. Porém, o médico sabe que a meningite atinge 1/ e também que a probabilidade de se ter torcicolo é de 1/20. Usando Bayes para saber a probabilidade de uma pessoa ter meningite dado que ela está com torcicolo Temos então P( T M ) = 0,5 P( M ) = 1 / P( T ) = 1 / 20 9
10 Aprendizagem Bayesiana Exercício Considere o sistema de classificação de peixes. Para essa época do ano, sabe-se que a probabilidade de pescar salmão é maior que pescar robalo, P(salmao) = 0,82 e P(robabo) = 0,18. Suponha que a única característica que você pode contar é a intensidade do peixe ou seja, se ele é claro ou escuro. Sabe-se que 49,5% dos salmões tem intensidade clara e que 85% dos robalos tem intensidade clara. Calcule a probabilidade de ser salmão dado que o peixe pescado tem intensidade clara. 10
11 Um dos algoritmos de aprendizagem mais práticos e utilizados na literatura. Denominado Naive (ingênuo) por assumir que os atributos são condicionalmente independentes, ou seja, a informação de um evento não é informativa sobre nenhum outro. Apesar dessa premissa, o classificador reporta bom desempenho em diversas tarefas de classificação onde há dependência. Aplicações bem sucedidas: Diagnóstico médico Classificação de documentos textuais 11
12 Aplica-se a tarefas de aprendizagem onde cada instância é descrita por uma conjunção de valores de atributos em que a função alvo,, pode assumir qualquer valor de um conjunto Um conjunto de exemplos de treinamento da função alvo é fornecido. E então uma nova instância é apresentada, descrita pela tupla de valores de atributos. A tarefa é predizer o valor alvo (ou classificação) para esta nova instância. 12
13 O classificador é baseado na suposição de que os valores dos atributos são condicionalmente independentes dados o valor alvo. Se usarmos Bayes para múltiplas evidências, temos Considerando a hipótese de independência, podemos reescrever o teorema de Bayes da seguinte forma: O denominador pode ser ignorado por se tratar de um termo comum. 13
14 Exemplo - Considere o seguinte problema: 14
15 Construindo o Modelo (NB) O primeiro passo consiste em construir o modelo de probabilidades condicionais Naïve Bayes (NB) - 14 dias A tabela acima contém a frequência de diferentes evidências. Por exemplo, existem duas instâncias mostrando ( Outlook = Sunny ) para ( Play = Yes ) 15
16 Computando probabilidades Após definir todas as frequências é necessário calcular todas as probabilidades condicionais e as probabilidades a priori. Por exemplo P( Outlook = Sunny Play = Yes ) = 2/9 P( Play = Yes ) = 9/14 16
17 Predição De posse do modelo, podemos usá-lo para predizer um evento Play ' com base em um conjunto qualquer de evidências. Por exemplo: [Sunny,Cool,High,True,?] P( Yes E ) = ( P( Outlook = Sunny Yes ) x P( Temp = Cool Yes ) x P( Humidity = High Yes ) x P( Windy = True Yes ) x P( Yes ) ) / P( E ) P( E ) pode ser ignorada por se tratar de um denominador comum quando queremos comparar as duas classes. Deste modo, temos 17
18 Predição Calculando a predição para as duas classes Para Yes temos Para No temos Convertendo esses valores para probabilidade através da normalização, temos P( Yes E ) = 0,0053 / (0, ) = 0,205 = 20,5% P( No E ) = 0,0206 / (0, ) = 0,795 = 79,5% 18
19 Técnica de Suavização Em alguns casos, a frequência pode ser zero, como por exemplo P( Outlook = Overcast Play = No ) = 0 / 5 Isso cria um problema para calcular P( No ), a qual será sempre zero quando esta evidência for utilizada. Toda instância que contiver esta evidência terá probabilidade nula. 19
20 Técnica de Suavização A técnica de suavização mais utilizada é a estimação de Laplace é o número de hipóteses existentes para a classe (Ex: Zero para Outlook = Overcast e Play = No ) número de exemplos totais para o treinamento Considerado que as evidências são igualmente distribuídas, tempo ( Sunny, Overcast, Rainy ) número de exemplos virtuais (distribuição uniforme?) 20
21 Técnica de Suavização Reestimando os valores usando Laplace, teríamos P( Outlook = Sunny P( Outlook = Overcast P( Outlook = Rainy Play = No ) = ( 3 + 3x1/3 ) / (5+3) = 4 / 8 Play = No ) = ( 0 + 3x1/3 ) / (5+3) = 1 / 8 Play = No ) = ( 2 + 3x1/3 ) / (5+3) = 3 / 8 Desta forma, todos os valores foram redistribuídos mantendo uma proporção similar 21
22 Calculando as probabilidades para atributos contínuos Existem duas maneiras Discretizar os atributos contínuos em algumas categorias, usando conhecimento sobre o domínio / aplicação. Por exemplo Temperatura acima de 80F pode ser considerada alta. Idade acima de 18 anos, entre 18 e 65 anos, acima dos 65 anos Salário anual: 50k, 100k, 200k, 500k, 1M Gordura total: <100, [100,200], >200 22
23 Calculando as probabilidades para atributos contínuos Outra forma consiste em usar uma função de densidade de probabilidade (PDF) e desta forma preservar os valores contínuos. Nesse caso assumimos que as variáveis contínuas seguem uma distribuição normal Com isso em mente, podemos calcular a média e desvio padrão de cada variável usando a base de aprendizagem. De posse da média e desvio padrão, basta aplicar a fórmula da normal para estimar a probabilidade 23
24 Calculando as probabilidades para atributos contínuos Mistura de Gaussianas (GMM) É possível ajustar várias Gaussianas aos dados 24
25 Exemplo 25
26 Exemplo Calcular a probabilidade para E = [ Outlook = Rainy, Temp = 65, Humid = 70, Wind = True ] P( Yes E ) = 4 / 12 x 0,023 x 0,0271 x 4/11 P( No E ) = 3 / 8 x 0,022 x 0,0094 x 4/7 x 0,63 x 0,38 0,75 = 75% 0,25 = 25% 26
27 Exemplo de Aplicação Classificação de texto, identificação de autoria, etc Considere por exemplo que seja necessário construir um classificador que discrimine entre documentos relevantes e não relevantes Base de treinamento deve conter documentos das duas classes Quais características devem ser usadas? Bag of Words: Conjunto pré-definido de palavras Frequência de aparição dessas palavras pode ser utilizada como características 27
28 Referências - Luiz E. S Oliviera, Aprendizagem Bayesiana, DInf / UFPR,
Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira
Aprendizado de Máquina Aprendizagem Bayesiana Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1
Métodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
Classificação. Eduardo Raul Hruschka
Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos
CLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
SCC0173 Mineração de Dados Biológicos
SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:
Aprendizado por Instâncias Janelas de Parzen & Knn
Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por
Aprendizado Bayesiano Anteriormente...
Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas
Aprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Árvore de Decisão. Capítulo 18 Russell & Norvig Seções 18.1 a 18.3
Árvore de Decisão Capítulo 18 Russell & Norvig Seções 18.1 a 18.3 Aprendizagem Indutiva Clássica Recebe como entrada o valor correto de uma função desconhecida para entradas específicas e tenta recuperar
MCZA Processamento de Linguagem Natural Classificação de textos
MCZA017-13 Processamento de Linguagem Natural Classificação de textos Prof. Jesús P. Mena-Chalco [email protected] 1Q-2018 1 Bibliografia Daniel Jurafsky & James H. Martin. Speech and language processing:
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Regressão. David Menotti.
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Regressão David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Regressão Linear ( e Múltipla ) Não-Linear ( Exponencial / Logística
ESTATÍSTICA BAYESIANA
UNIVERSIDADE FEDERAL DE MINAS GERAIS INSTITUTO DE CIÊNCIAS EXATAS PET MATEMÁTICA Orientadora: Rosângela Helena Loschi ESTATÍSTICA BAYESIANA Marina Muniz de Queiroz INTRODUÇÃO A estatística clássica associa
Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Probabilidade Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Experimento aleatório Definição. Qualquer experimento cujo resultado não pode
Métodos Não Paramétricos
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir
Lista de Exercícios - Capítulo 8 [1] SCC Inteligência Artificial 1o. Semestre de Prof. João Luís
ICMC-USP Lista de Exercícios - Capítulo 8 [1] SCC-630 - Inteligência Artificial 1o. Semestre de 2011 - Prof. João Luís 1. Seja breve na resposta às seguintes questões: (a) o que você entende por Aprendizado
Modelos Bayesianos. Ernesto F. L. Amaral Magna M. Inácio
1 Modelos Bayesianos Ernesto F. L. Amaral Magna M. Inácio 09 de dezembro de 2010 Tópicos Especiais em Teoria e Análise Política: Problema de Desenho e Análise Empírica (DCP 859B4) Objetivos 2 Apresentar
Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Probabilidade Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução Experimento aleatório Definição Qualquer experimento cujo resultado
1 Teoria da Decisão Estatística
1 Teoria da Decisão Estatística 1.1 Teste de Hipótese É uma metodologia estatística que permite tomar decisão sobre uma ou mais populações baseando no conhecimento de informações da amostra. Ao tentarmos
Classificadores Lineares
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support
1 Classificadores Bayseanos Simples
Aula 12 - Classificadores Bayseanos Curso de Data Mining Sandra de Amo Classificadores Bayseanos são classificadores estatísticos que classificam um objeto numa determinada classe baseando-se na probabilidade
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná 1 Um dos métodos práticos mais usados Induz funções discretas robustas a ruído Capaz de aprender expressões disjuntivas Se pais = Inglaterra
IMPLEMENTAÇÃO DE CLASSIFICAÇÃO BAYESIANA
IMPLEMENTAÇÃO DE CLASSIFICAÇÃO BAYESIANA Gabriela Silva de Oliveira¹, Silvio do Lago Pereira² ¹Aluna do Curso de Análise e Desenvolvimento de Sistemas DTI/FATEC-SP ²Prof. Dr. do Departamento de Tecnologia
Análise Bayesiana de Dados - Aula 1 -
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
AULA 07 Inferência a Partir de Duas Amostras
1 AULA 07 Inferência a Partir de Duas Amostras Ernesto F. L. Amaral 10 de setembro de 2012 Faculdade de Filosofia e Ciências Humanas (FAFICH) Universidade Federal de Minas Gerais (UFMG) Fonte: Triola,
Introdução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística
Introdução ao Planejamento e Análise Estatística de Experimentos Capítulo 3 Introdução à Probabilidade e à Inferência Estatística Introdução ao Planejamento e Análise Estatística de Experimentos Agora,
CC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Inferência. 1 Estimativa pontual de uma média 2 Estimativa intervalar de uma média. Renata Souza
Inferência 1 Estimativa pontual de uma média 2 Estimativa intervalar de uma média Renata Souza Aspectos Gerais A estatística descritiva tem por objetivo resumir ou descrever características importantes
Inteligência nos Negócios (Business Inteligente)
Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões
Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Revisão de Probabilidade e Estatística
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Revisão de Probabilidade e Estatística Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Conceitos Básicos Estamos
Inferência Bayesiana - Aula 1 -
Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Classificação Bayesiana
Classificação Bayesiana Victor Lobo Contexto Existem um conjunto de dados conhecidos Conjunto de treino Queremos prever o que vai ocorrer noutros casos Exemplo Empresa de seguros de saúde quer estimar
RESOLUÇÃO Nº 01/2016
Legislações Complementares: Resolução Nº 02/2016 Colegiado DEst Resolução Nº 03/2016 Colegiado DEst Resolução Nº 01/2017 Colegiado DEst RESOLUÇÃO Nº 01/2016 O Departamento de Estatística, tendo em vista
Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.
Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Distribuições Amostrais O intuito de fazer uma amostragem
Distribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores
Introdução em Probabilidade e Estatística II
Introdução em Probabilidade e Estatística II Lista 7 Exercicio Em estudo genético um gene A foi destacado para detectar uma doença. Se dita que em pessoas doentes (pacientes) este gene mostra atividade
Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer
Probabilidades Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação 06/03/2018 WB, EK, FM ( LEG/DEST/UFPR
Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes
Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes José Alberto Sousa Torres/ Grinaldo Oliveira /Cláudio Alves Amorim * Em um momento em que é crescente a
Exame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores
Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas
lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas Referências Adicionais Russel e Norvig cap. 14 e 15 Pearl, Judea. Probabilistic Reasoning in Intelligent Systems: Network
Disciplina de Modelos Lineares Professora Ariane Ferreira
Disciplina de Modelos Lineares 2012-2 Regressão Logística Professora Ariane Ferreira O modelo de regressão logístico é semelhante ao modelo de regressão linear. No entanto, no modelo logístico a variável
Inteligência Artificial. Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo] Abordagem Estocástica para a Incerteza: Redes Bayesianas Usando a teoria das probabilidades, podemos determinar, frequentemente
Classificadores Bayesianos
Escola Politécnica da Universidade de São Paulo Departamento de Engenharia de Computação e Sistemas Digitais - PCS PCS5708 Técnicas de Raciocínio Probabilístico em Inteligência Artificial Classificadores
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Weka. Universidade de Waikato - Nova Zelândia. Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining
Weka Universidade de Waikato - Nova Zelândia Coleção de algoritmos de aprendizado de máquina para resolução de problemas de Data Mining implementado em Java open source software http://www.cs.waikato.ac.nz/ml/weka/
Probabilidade. É o conjunto de todos os possíveis resultados de um experimento aleatório.
Probabilidade Introdução O trabalho estatístico se desenvolve a partir da observação de determinados fenômenos e emprega dados numéricos relacionados aos mesmos, para tirar conclusões que permitam conhecê-los
Aprendizado Probabilístico: Bayes
Aprendizado Probabilístico: Bayes SCC-230 Inteligência Artificial Prof. Thiago A. S. Pardo 1 Pergunta O que ocê sabe sobre Bayes? 2 1 Pastor presbiteriano Resposta 1 3 Resposta 2 Em 1931, tee publicado
ESTATÍSTICA. x(s) W Domínio. Contradomínio
Variáveis Aleatórias Variáveis Aleatórias são funções matemáticas que associam números reais aos resultados de um Espaço Amostral. Uma variável quantitativa geralmente agrega mais informação que uma qualitativa.
