Aprendizagem de Máquina
|
|
- Octavio Monteiro Beretta
- 6 Há anos
- Visualizações:
Transcrição
1 Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana
2 Plano de Aula Introdução Teorema de Bayes Classifiador Ótimo de Bayes Classifiador Naïve Bayes Exemplos Resumo
3 Referênias Duda R., Hart P., Stork D. Pattern Classifiation 2ed. Willey Intersiene, Capítulos 2 & 3 Mithell T. Mahine Learning. WCB MGraw Hill, Capítulo 6. Theodoridis S., Koutroumbas K. Pattern Reognition. Aademi Press, Capítulo 2
4 Introdução O pensamento Bayesiano fornee uma abordagem probabilístia para aprendizagem Está baseado na suposição de que as quantidades de interesse são reguladas por distribuições de probabilidade. Distribuição de probabilidade: é uma função que desreve a probabilidade de uma variável aleatória assumir ertos valores.
5 Introdução Deisões ótimas podem ser tomadas om base nestas probabilidades onuntamente om os dados observados. Fornee a base para algoritmos de aprendizagem que manipulam probabilidades, bem omo para outros algoritmos que não manipulam probabilidades expliitamente.
6 Introdução Os métodos Bayesianos são importantes por dois motivos: 1. Forneem algoritmos prátios de aprendizagem: Naïve Bayes Redes Bayesianas Combinam onheimento a priori om os dados observados Requerem probabilidades a priori 2. Forneem uma estrutura oneitual útil: Norma de Ouro para avaliar outros algoritmos de aprendizagem. Norma de Ouro menor erro possível
7 Caraterístias da Aprendizagem Bayesiana Cada exemplo de treinamento pode derementar ou inrementar a probabilidade de uma hipótese ser orreta. Conheimento a priori pode ser ombinado om os dados observados para determinar a probabilidade de uma hipótese. Métodos Bayesianos podem aomodar hipóteses que fazem predições probabilístias. Ex.: o paiente tem uma hane de 93% de possuir a doença. Novas instânias podem ser lassifiadas ombinando a probabilidade de múltiplas hipóteses ponderadas pelas suas probabilidades.
8 Difiuldades Prátias Métodos Bayesianos requerem o onheimento iniial de várias probabilidades. Quando não onheidas, podem ser estimadas: a partir de onheimento prévio dados previamente disponíveis suposições a respeito da forma da distribuição. Custo omputaional signifiativo para determinar a hipótese ótima de Bayes É geralmente linear om o número de hipóteses
9 Teorema de Bayes ( ( ( ( X P P X P X P P(: probabilidade a priori da lasse P(X : probabilidade do vetor X dada a lasse. P( X: probabilidade da lasse dado o vetor X P(X: probabilidade a priori do vetor de treinamento X
10 Teorema de Bayes P( X é hamada de probabilidade a posteriori de porque ela reflete nossa onfiança que se mantenha após termos observado o vetor de treinamento X. P( X reflete a influênia do vetor de treinamento X. Em ontraste, a probabilidade a priori P( é independente de X.
11 Teorema de Bayes Geralmente queremos enontrar a lasse mais provável C, sendo forneidos os exemplos de treinamento X. Ou sea, a lasse om o máximo a posteriori (MAP ( ( arg max ( ( ( arg max ( arg max P X P X P P X P X P C C C MAP
12 Teorema de Bayes Desprezamos o termo P(X porque ele é uma onstante independente de. Se assumirmos que ada lasse em C é igualmente provável a priori, i.e. P( i = P( i e em C Então, podemos simplifiar e esolher a lasse de máxima probabilidade ondiional (maximum likelihood = ML.
13 Teorema de Bayes O termo P(X é hamado de probabilidade ondiional (ou likelihood de X Sendo forneido, qualquer lasse que maximiza P(X é hamada de uma hipótese ML. ML arg max C P( X
14 Teorema de Bayes: Exemplo Considere um problema de diagnóstio médio onde existem duas lasses possíveis: O paiente tem H1N1 O paiente não tem H1N1 As araterístias disponíveis são um exame de laboratório om dois resultados possíveis: : positivo : negativo
15 Teorema de Bayes: Exemplo Temos o onheimento prévio que na população inteira somente 0,008 tem esta doença. O exame retorna um resultado positivo orreto somente em 98% dos asos nos quais a doença está presente. O exame retorna um resultado negativo orreto somente em 97% dos asos nos quais a doença não estea presente. Nos outros asos, o teste retorna o resultado oposto.
16 Teorema de Bayes: Exemplo P(H1N1 =? P( H1N1 =? P( H1N1 =? P( H1N1 =? P( H1N1 =? P( H1N1 =?
17 Teorema de Bayes: Exemplo Supondo que um paiente fez um exame de laboratório e o resultado deu positivo. O paiente tem H1N1 ou não?
18 Apliando o Teorema de Bayes Calulando a lasse om maior probabilidade a posteriori: P( H1N1 P(H1N1 = 0,98 x 0,008 = 0,0078 P( H1N1 P( H1N1 = 0,03 x 0,992 = 0,0298 Assim: MAP = H1N1
19 Formulação Básia de Probabilidades
20 Classifiador Ótimo de Bayes Consideramos até agora a questão: Qual a lasse mais provável ( MAP dado os exemplos de treinamento X? Entretanto, a questão mais signifiativa é na verdade: Qual é a lassifiação mais provável de uma nova instânia dado os dados de treinamento? AlasseMAP( MAP é ou não a lassifiação mais provável?
21 Classifiador Ótimo de Bayes Considere três lasses possíveis 1, 2 e 3 e suponha as seguintes probabilidades a posteriori destas lasses o onunto de treinamento X: P( 1 X = 0.4 P( 2 X = 0.3 P( 3 X = 0.3 Qual é a lasse MAP?
22 Classifiador Ótimo de Bayes A lassifiação mais provável de uma nova instânia x é obtida através da maior probabilidade a posteriori. Assim, a P( x que a orreta lassifiação para a instânia x sea é: Pˆ ( ˆ x arg max P( Qualquer sistema que lassifique novas instânias de aordo om a equação aima é hamada de um lassifiador ótimo de Bayes. max C C P( x x
23 Exemplo Exemplo: Considere as 14 instânias de treinamento de PlayTennis e uma nova instânia de teste (x t que devemos lassifiar: x t = <Outlook=sunny, Temperature=ool, Humidity=high, Wind=strong> Nossa tarefa é predizer o valor alvo (yes ou no do oneito PlayTennis para esta nova instânia, ou sea: Pˆ ( x t max [ yes, no ] P( x t ˆ arg max [ yes, no ] P( x t
24 Exemplo Então, dado x t, devemos estimar duas probabilidades a posteriori: P yes x P no x ( t ( t Apliando o teorema de Bayes P( x t P( x t P( x P( t Ou sea, para estimar a probabilidade a posteriori, devemos onheer:. P (? P ( x t? P(? x t
25 Exemplo Atributo alvo: PlayTennis (yes, no
26 Exemplo Logo, temos que estimar: duas probabilidades a priori das lasses: P( yes P( no probabilidade a priori do vetor x t : P( x t? duas probabilidades ondiionais: P( x yes t??? P( x no t Como fazer isso dadas as 14 instânias de treinamento da tabela??
27 Exemplo P( yes 9 /14 0,643 P( no 5 /14 0,357 P( outlook sunny, temperatur e hot, humidity high, wind weak yes? P( outlook overast, temperatur e hot, humidity high, wind weak yes? P( outlook rain, temperatur e hot, humidity high, wind weak yes? P( outlook rain, temperatur e ool, humidity normal, wind strong yes.ou sea, temos que estimar todas as probabilidades ondiionais, onsiderando todas as lasses possíveis e todos os vetores de araterístias possíveis: 2 x [3 x 3 x 2 x 2] = 72 probabilidades ondiionais
28 Exemplo 2 x [3 x 3 x 2 x 2] = 72 pois: temos 2 lasses temos 4 atributos e seus possíveis valores: Outlook (sunny/overast/rain [3 valores possíveis] Temperature (hot/mild/ool [3 valores possíveis] Humidity (high/normal [2 valores possíveis] Wind (weak/strong [2 valores possíveis] Logo, temos 72 probabilidades ondiionais possíveis. e P(x t?
29 Classifiador Ótimo de Bayes Limitações prátias Como estimar om onfiança todas estas probabilidades ondiionais? Conunto de treinamento om muitas instânias! Conheer a distribuição de probabilidade! A probabilidade a priori alulada geralmente não reflete a população.
30 Classifiador Naïve Bayes Naïve Bayes é um dos métodos de aprendizagem mais prátios. Quando usar? disponibilidade de um onunto de treinamento grande ou moderado. os atributos que desrevem as instânias forem ondiionalmente independentes dada a lasse. Apliações bem suedidas: diagnóstio médio lassifiação de doumentos de textuais
31 Classifiador Naïve Bayes Se aplia a tarefas de aprendizagem onde: ada instânia x é desrita por uma onunção de valores de atributos a função alvo f(x pode assumir qualquer valor de um onunto V. um onunto de exemplos de treinamento da função alvo é forneido uma nova instânia é desrita pela tupla de valores de atributos <a 1, a 2,..., a n >. A tarefa é predizer o valor alvo (ou lasse para esta nova instânia.
32 Classifiador Naïve Bayes A solução Bayesiana para lassifiar uma nova instânia onsiste em: atribuir o valor alvo mais provável ( MAP dados os valores dos atributos <a 1, a 2,..., a n > que desrevem a instânia. MAP arg max P( a, a2,..., C a 1 n Mas podemos usar o teorema de Bayes para reesrever a expressão...
33 Classifiador Naïve Bayes Devemos agora estimar os dois termos da equação aima baseando-se nos dados de treinamento. P( é fáil de estimar... Porém, P(a 1,a 2,...,a n... (,...,, ( max arg,...,, ( (,...,, ( max arg,...,, ( max arg n C n n C MAP n C MAP P a a a P a a a P P a a a P a a a P
34 Classifiador Naïve Bayes O lassifiador Naïve Bayes é baseado na suposição simplifiadora de que os valores dos atributos são ondiionalmente independentes dado o valor alvo. Ou sea, a probabilidade de observar a onunção de atributos a 1, a 2,..., a n é somente o produto das probabilidades para os atributos individuais: P a, a,..., a P( a ( 1 2 n i i
35 Classifiador Naïve Bayes Temos assim o lassifiador Naïve Bayes: ˆ NB arg max C P( i P( a i onde NB india o valor alvo forneido pelo algoritmo Naïve Bayes.
36 Classifiador Naïve Bayes Em resumo, o algoritmo Naïve Bayes envolve Aprendizagem: os termos P( e P(a i são estimados baseado nas suas frequênias no onunto de treinamento. Estas probabilidades aprendidas são então utilizadas para lassifiar uma nova instânia apliando a equação vista anteriormente ( NB
37 Classifiador Naïve Bayes Algoritmo Naïve Bayes Treinamento_Naïve_Bayes(onunto de exemplos Para ada valor alvo (lasse P ( estimar P( Para ada valor de atributo a i P (a i estimar P(a i de ada atributo a Classia_Naïve_Bayes(x t ˆ arg max P' ( P' ( a NB C a x i i
38 Classifiador Naïve Bayes Exemplo: Considere novamente os 14 exemplos de treinamento de PlayTennis e uma nova instânia que o Naïve Bayes deve lassifiar: x t = <outlook=sunny, temperature=ool, humidity=high, wind=strong> A tarefa é predizer o valor alvo (yes ou no do oneito PlayTennis para esta nova instânia.
39 Classifiador Naïve Bayes Atributo alvo: PlayTennis (yes, no
40 Classifiador Naïve Bayes O valor alvo NB será dado por: NB arg arg max { yes, no} max { yes, no} P( P( i P( a i P( Outlook sunny P( Humidity high P( Temperatur e ool P( Wind strong Note que a i foi instaniado utilizando os valores partiulares do atributo da instânia x t. Para alular NB são neessárias 10 probabilidades que podem ser estimadas a partir dos exemplos de treinamento.
41 Classifiador Naïve Bayes Probabilidades a priori: P(PlayTennis = yes = 9/14 = 0.64 P(PlayTennis = no = 5/14 = 0.36 Probabilidades ondiionais: P(Wind=strong PlayTennis = yes = 3/9 = 0.33 P(Wind=strong PlayTennis = no = 3/5 =
42 Classifiador Naïve Bayes Usando estas estimativas de probabilidade e estimativas similares para os valores restantes dos atributos, alulamos NB de aordo om a equação anterior (omitindo nome dos atributos : P(yes P(sunny yes P(ool yes P(high yes P(strong yes = 0,0053 P(no P(sunny no P(ool no P(high no P(strong no = 0,026 Então o lassifiador atribui o valor alvo PlayTennis = no para esta nova instânia.
43 Classifiador Naïve Bayes Sutilezas: 1. A suposição de independênia ondiional é muitas vezes violada P a, a,..., P( a ( mas, de qualquer maneira, ele funiona bem. Note que não é neessário estimar probabilidades a posteriori P ( x para ser orreta. Neessita somente que i i arg max P' ( P' ( a arg max P( P( a1,..., an C i i C Probabilidades Naïve Bayes a posteriori próximas de 0 e 1 são geralmente não realístias
44 Classifiador Naïve Bayes Sutilezas: 2. E se nenhuma das instânias de treinamento om valor alvo tiver uma atributo de valor a i? Então, e... A solução típia é uma estimativa Bayesiana para P (a i. 0 ( ' a i P m n mp n a P i i ( ' 0 ( ' ( ' i i a P P
45 Classifiador Naïve Bayes P' ( a i mp m onde: n é o número de exemplos de treinamento para os quais =, n é o número de exemplos para os quais = e a = a i p é a estimativa a priori para P (a i m é o peso dado as priori (i.e. número de exemplos virtuais. i n n
46 Exemplo: Classifiando Texto Por que? Aprender quais notíias são interessantes Aprender a lassifiar páginas WEB por assunto Naïve Bayes é um dos algoritmos mais efiientes Quais atributos devemos usar para representar doumentos de texto?
47 Exemplo: Classifiando Texto Contexto Considere um espaço de instânias X onsistindo de todos os doumentos de texto possíveis. Dados exemplos de treinamento, de alguma função alvo f(x que pode assumir valores de um onunto finito C. A tarefa de aprendizagem é aprender, a partir dos exemplos de treinamento, a predizer o valor alvo para os doumento de texto subsequentes. Considere a função alvo omo sendo doumentos interessantes e não interessantes
48 Exemplo: Classifiando Texto Proeto do Naïve Bayes: Como representar um doumento de texto arbitrário em termos de valores de atributos? Deidir omo estimar as probabilidades neessárias para o Naïve Bayes.
49 Exemplo: Classifiando Texto Representação de texto arbitrário Dado um doumento de texto, este parágrafo, por exemplo, definimos um atributo para ada posição de palavra no doumento e definimos o valor do atributo omo sendo a palavra em português enontrada nesta posição. O parágrafo anterior pode ser desrito por 34 valores de atributos orrespondendo as 34 posições de palavras. O valor do primeiro atributo é a palavra Dado e do segundo é a palavra um e assim por diante.
50 Exemplo: Classifiando Texto Dada a representação de doumento de texto, podemos apliar o Naïve Bayes. Assumimos um onunto de 700 doumentos lassifiados por uma pessoa omo não interessantes outros 300 lassifiados omo interessantes
51 Exemplo: Classifiando Texto Coneito alvo interessante: doumento {+, } 1. Representar ada doumento por um vetor de palavras Um atributo por posição da palavra no doumento 2. Aprendendo usar exemplos de treinamento para estimar P (+ P ( P (do + P (do
52 Exemplo: Classifiando Texto Suposição da independênia ondiional Naïve Bayes onde P(a i = w k é a probabilidade que a palavra na posição i é w k, dado. Mais uma suposição ( 1 ( ( do length i k i w a P do P m i w a P w a P k m k i, ( (
53 Exemplo: Classifiando Texto Learn_Naïve_Bayes_Text (Examples, C 1. Coleionar todas palavras, pontuação e outros tokens que oorrem em Examples Voabulary todas as palavras distintas e outros tokens que oorrem em Examples 2. Calular as probabilidade neessárias P ( e P (w k...
54 Exemplo: Classifiando Texto Para ada valor alvo em V faça dos subonunto de doumento de Examples para o qual o valor alvo é P( dos Examples Text um doumento únio riado pela onatenação de todos os membros de dos n número total de posições distintas de palavras em Text Para ada palavra w k em Voabulary n k número de vezes que a palavra w k oorre em Text P( w k n nk 1 Voabulary
55 Exemplo: Classifiando Texto Classify_Naïve_Bayes_Text (Do positions todas as posições das palavras em Do que ontém tokens enontrados em Voabulary retornar NB onde NB arg max C P( i positions P( a i
56 Exemplo: Classifiando Texto
57 Exemplo: Classifiando Texto Dados doumentos de treinamento de ada grupo, aprenda a lassifiar novos doumentos de aordo om o newsgroup de origem. Naïve Bayes: preisão de lassifiação: 89%
58 Exemplo: Classifiando Texto Artigo de re.sport.hokey
59 Curva de Aprendizagem
60 Resumo Métodos Bayesianos: aomodam onheimento prévio e os dados observáveis; atribuem probabilidade a posteriori para ada lasse andidata, baseando se na probabilidade a priori e nos dados. podem determinar a hipótese mais provável (MAP, tendo os dados. Bayes Ótimo: ombina predições de todas lasses, ponderadas pela probabilidade a posteriori, para alular a lassifiação mais provável de uma nova instânia.
61 Resumo Naïve Bayes: é hamado de naïve (simples, não sofistiado, porque assume que os valores dos atributos são ondiionalmente independentes. se a ondição é enontrada, ele fornee a lassifiação MAP, aso ontrário, pode forneer também bons resultados.
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana Plano de Aula Introdução Teorema de Bayes Classifiador
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerih / Aleu S Britto Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR) Aprendizagem Bayesiana Plano de Aula Introdução Teorema
Leia maisAprendizagem Bayesiana
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti www.inf.ufpr.br/menotti/ci171-182 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes
Leia maisAprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira
Aprendizado de Máquina Aprendizagem Bayesiana Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço
Leia maisProf. Lorí Viali, Dr.
Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.ufrgs.br/~viali/ Uma A estimação tem por objetivo forneer informações sobre parâmetros populaionais, tendo omo base uma amostra aleatória extraída da
Leia maisProf. Lorí Viali, Dr. Prof. Lorí Viali, Dr. UFRGS Instituto de Matemática - Departamento de Estatística
Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.ufrgs.br/~viali/ 1 A estimação tem por objetivo forneer informações sobre parâmetros populaionais, tendo omo base uma amostra aleatória extraída da população
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich/Alceu S. Britto Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Leia maisNaïve Bayesian Learning. Marcílo Souto DIMAp/UFRN
Naïve Bayesian Learning Marcílo Souto DIMAp/UFRN 1 Teorema de Bayes Probabilidade de um evento H dada evidência E: Pr[ H E] Pr[ E H ]Pr[ H ] Pr[ E] Probabilidade a priori de H: Probabilidade do evento
Leia maisEstimação de Parâmetros de um Modelo Semi-Empírico de Transferência Simultânea de Calor e Água no Solo
rabalho apresentado no XXXV CNMAC, Natal-RN, 0. Estimação de Parâmetros de um Modelo Semi-Empírio de ransferênia Simultânea de Calor e Água no Solo Emanueli Bandeira Avi, Peterson Cleyton Avi, Depto de
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 3 de Julho de 2014 2/1 Conteúdo Aprendizado Naive Bayes Exemplo: classificação de texto Redes Bayesiana Algoritmo EM Regressão probabiĺıstica 3/1 Classificador
Leia maisANALYTICAL METHODS IN VIBRATION. Leonard Meirovitch Capitulo 1
ANALYTICAL METHODS IN VIBRATION Leonard Meirovith Capitulo Comportamento de sistemas Um sistema é definido omo uma montagem de omponentes atuando omo um todo. Os omponentes são lassifiados e definidos
Leia mais2. INTRODUÇÃO À PROBABILIDADE
. INTRODUÇÃO À ROILIDDE 00 Coneitos básios Experimento aleatório ou fenômeno aleatório Situações ou aonteimentos ujos resultados não podem ser previstos om erteza. Um experimento ou fenônemo que, se for
Leia maisExemplo para Fixar a Matéria Vista Até Agora: Modelagem de Reações Químicas
Exemplo para Fixar a Matéria Vista Até Agora: Modelagem de eações Químias. Introdução Em uma reação químia, um onjunto de ompostos químios hamados reagentes e indiados aqui por i se ombina para formar
Leia maisAprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Aprendizagem de Árvores de Decisão Aula 3 Alessandro L. Koerich Introdução Representação de Árvores de Decisão Algoritmo de Aprendizagem ID3 Entropia e Ganho de Informação
Leia maisMétodo para Classificação: - Naïve Bayes.
Método para Classificação: - Naïve Bayes. Modelagem statística (Bayesiana): Contrariamente ao 1R, usa todos os atributos; Duas premissas: Atributos igualmente importantes; Atributos estatisticamente independentes
Leia maisAprendizado Bayesiano Anteriormente...
Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas
Leia maisMétodo Simplex Resolução Algébrica. Prof. Ricardo Santos
Método Simple Resolução Algébria Prof. Riardo Santos Método Simple Dada uma solução fatível: Essa solução é ótima? Caso não seja ótima omo determinar uma melhor? Considere uma solução básia fatível: em
Leia maisAurora Trinidad Ramirez Pozo Universidade Federal do Paraná
Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná 1 Um dos métodos práticos mais usados Induz funções discretas robustas a ruído Capaz de aprender expressões disjuntivas Se pais = Inglaterra
Leia maisDisciplina: Fotogrametria II: Responsável: Mário Reiss. Conteúdo da aula de hoje (26/11/2007)
Disiplina: Fotogrametria : Responsável: Mário Reiss Conteúdo da aula de hoje (6//7) CORRELAÇÃO DE PADRÕES.... CORRELAÇÃO ENTRE MAGENS... BBLOGRAFA... 7 CORRELAÇÃO DE PADRÕES Uma das formas mais onheidas
Leia maisMétodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Leia maisClassificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
Leia maisInstituto Superior Técnico PROPAGAÇÃO & ANTENAS. Projecto 2014 / 2015
Instituto Superior Ténio PROPAGAÇÃO & ANTENAS Projeto 4 / 5 Prof Carlos R Paiva Ano Letivo 4/5 Introdução Este trabalho entra-se sobre a propagação de impulsos em fibras óptias onvenionais, de perfil em
Leia maisRafael Izbicki 1 / 38
Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento
Leia maisAprendizado Probabilístico: Bayes
Aprendizado Probabilístico: Bayes SCC-230 Inteligência Artificial Prof. Thiago A. S. Pardo 1 Pergunta O que ocê sabe sobre Bayes? 2 1 Pastor presbiteriano Resposta 1 3 Resposta 2 Em 1931, tee publicado
Leia mais10. TEORIA DAS PROBABILIDADES. Quadro 1: Motivação
10. OR DS ROBBLDDS Quadro 1: Motivação Figura 1: Gráfio de pontos. Figura 3: olígono de frequênias. Figura 4: Função de distribuição de probabilidades sobre o histograma. teoria das probabilidades estuda
Leia maisClassificação. Eduardo Raul Hruschka
Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos
Leia maisComece apresentando as partes do triângulo retângulo usadas na trigonometria.
ós na ala de Aula - Matemátia 6º ao 9º ano - unidade 7 As atividades propostas nas aulas a seguir têm omo objetivo proporionar ao aluno ondições de ompreender, de forma prátia, as razões trigonométrias
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Inferência estatística lassificador bayesiano Inferência estatística Na inferência estatística, toma-se uma decisão usando a informação contida numa amostra. Na abordagem paramétrica,
Leia maisCréditos. SCC0173 Mineração de Dados Biológicos. Relembrando Classificação... Aula de Hoje. Classificação II: Algoritmo Probabilístico Naïve Bayes
SCC073 Mieração de Dados Biológios Classifiação II: Algoritmo robabilístio Naïve Bayes Créditos O material a seguir osiste de adaptações e extesões dos origiais: getilmete edidos pelo rof. Eduardo R. Hrushka
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Aprendizagem de Conceito Alessandro L. Koerich 2008 Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem
Leia maisMacroeconomia Revisões de Derivadas para aplicação no cálculo de multiplicadores
Maroeonomia 64 Revisões de Derivadas para apliação no álulo de multipliadores Nota introdutória: O que se segue é uma pequena revisão do oneito de derivada e algumas regras de derivação que são utilizadas
Leia maisClassificadores. André Tavares da Silva.
Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:
Leia maisAPLICAÇÃO DAS FUNÇÕES DE PARTIDA E EQUAÇÕES CÚBICAS DE ESTADO NOS CICLOS TERMODINÂMICOS DE POTÊNCIA A VAPOR
APLICAÇÃO DAS FUNÇÕES DE PARTIDA E EQUAÇÕES CÚBICAS DE ESTADO NOS CICLOS TERMODINÂMICOS DE POTÊNCIA A VAPOR A. M. do NASCIMENTO, P. F. ARCE-CASTILLO Universidade de São Paulo, Esola de Engenharia de Lorena
Leia maisESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES
Departamento de Físia ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES Aluno: Maro Antônio Guimarães Auad Barroa Orientador: Welles Antônio Martinez Morgado Introdução Foi feito a análise de iruitos isolados
Leia maisSOBRE O PAPEL DA RESOLUÇÃO LITERAL DE PRO- BLEMAS NO ENSINO DA FÍSICA: EXEMPLOS EM ME- CÂNICA +
SOBRE O PAPEL DA RESOLUÇÃO LITERAL DE PRO- BLEMAS NO ENSINO DA FÍSICA: EXEMPLOS EM ME- CÂNICA + Luiz O.Q. Peduzzi Sônia Silveira Peduzzi Departamento de Físia - UFSC Florianópolis - SC Resumo Neste trabalho
Leia maisProblema 4.40 do livro do Symon
Problema 4.4 do livro do Symon O problema 4.4 do livro do Symon é uma variação do que vimos na postagem Dois osiladores harmônios aoplados pois onsta de três massas presas a duas molas ao longo de um eixo
Leia maisRSE VERSÃO A ... Alternativa correta: D ,6 6,6 Alternativa correta: A SIMULADO DE FÍSICA - 1º TRIMESTRE 2012
SIMULADO DE ÍSIA - 1º TRIMESTRE 2012 RSE Nome: 3º ANO Nº ENSINO MÉDIO Professor (a): ARLOS ALBERTO Data: / /2012 NOTA: Objetivos: Verifiar a desenvoltura do aluno na apliação dos oneitos aprendidos, em
Leia mais3.1. Algoritmos de Solução (algoritmo N 1) o chiller acompanha a carga. os programas N 1.1 e N 1.2 (algoritmo N 2) (algoritmo N 3)
3 Solução Usando os modelos matemátios apresentados no apitulo 2 para ada omponente do sistema e para o sistema global, foram elaborados os algoritmos e os programas de álulo para simular o omportamento
Leia mais5 Descrição do Modelo
5 Desrição do Modelo 5.1. Introdução Neste apítulo será apresentado o modelo de otimização da adeia de suprimentos de petróleo e derivados estudado neste trabalho. Na seção 5.2 será desrito o problema
Leia maisAplicação de um modelo da análise custo-volume-lucro na criação de suínos.
Silva, A T; Resende, A L; Freire Filho, A A de S. 9 Apliação de um modelo da análise usto-volume-luro na riação de suínos. ésar Augusto Tibúrio Silva Doutor em ontabilidade pela USP. Instituição: Programa
Leia maisAprendizado de Máquina
Aprendizado de Máquina Árvores de Decisão Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 28
Leia maisAs Leis da Termodinâmica
As Leis da Termodinâmia Gabarito Parte I: esposta da questão 1: a) P 0.V0 PV x xx = = x xv V = x m. P0 V0 = PV x = P() 2 x 2 P= x x 2, atm 2, x N/m = = = = b) 1, 1, A: U UA = QA A ΔU = Q C: UC U = 0 (isotérmia)
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Redes Bayesianas Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem de Máquina
Leia maisAprendizado de Máquina
Aprendizado de Máquina Aprendizagem de Conceito Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina
Leia maisIdentidade de modelos na estimativa do volume de árvores de Pinus caribaea var. hondurensis
Identidade de modelos na estimativa do volume de árvores de Pinus aribaea var. hondurensis Edson Lahini Adriano Ribeiro de Mendonça Leonardo Cassani Laerda Gilson Fernandes da Silva Introdução Nos inventários
Leia maisRealidade Virtual e Ferramentas Cognitivas Usadas como Auxílio para o Ensino de FísicaF
Realidade Virtual e Ferramentas Cognitivas Usadas omo Auxílio para o Ensino de FísiaF Luiano Ferreira Silva Ezequiel Roberto Zorzal Mônia Roha Ferreira de Oliveira Alexandre Cardoso Edgard Lamounier Júnior
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Apresentação da Disciplina Alessandro L. Koerich 2008 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem
Leia maisPlanejamento em Inteligência Artificial Capítulo 4 Planejamento como busca no Espaço de Estados
Planejamento em Inteligênia Artifiial Capítulo 4 Planejamento omo busa no Espaço de Estados Leliane Nunes de Barros Motivação Planejamento é um problema de busa Busa em espaço de estados» Cada nó representa
Leia maisClassificação Bayesiana
Classificação Bayesiana Victor Lobo Contexto Existem um conjunto de dados conhecidos Conjunto de treino Queremos prever o que vai ocorrer noutros casos Exemplo Empresa de seguros de saúde quer estimar
Leia maisUniversidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Árvores de Decisão. David Menotti.
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Árvores de Decisão David Menotti www.inf.ufpr.br/menotti/ci171-182 Árvores de Decisão Agenda Introdução Representação Quando Usar
Leia maisMinera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33
Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto
Leia maisMáquinas Elétricas. Introdução Parte II
Máquinas Elétrias Introdução Parte II Introdução Nos átomos de ferro e de outros metais similares (obalto, níquel e algumas de suas ligas), os ampos magnétios tendem a estar estreitamente alinhados entre
Leia maisa. Qual a probabilidade de uma paciente escolhida ao acaso ter tido um distúrbio hormonal?
Proposta Resolução Lista 5 Questão 1 Das paientes de uma Clínia de Gineologia om idade aima de 40 anos, 60% são ou foram asadas e 40% são solteiras. Sendo solteira, a probabilidade de ter tido um distúrbio
Leia maisOs Teoremas de Cavalieri 1. 2 Os Princípios de Cavalieri para áreas e volumes
Os Teoremas de Cavalieri 1 Roerto Rieiro Paterlini 1 Introdução O estudo de volumes de sólidos no ensino médio tem omo ase o Prinípio de Cavalieri Esse prinípio tamém pode ser usado para áreas de regiões
Leia maisEXERCÍCIO: DIMENSIONAMENTO ITERATIVO
Enenaria de Tráfeo EXERCÍCIO: DIMENSIONAMENTO ITERATIVO Considere o ruzamento abaixo om as seuintes araterístias:. A interseção abaixo atua om operação em três estáios, omo mostra o esuema: Tempos E1 E
Leia maisGEOPROCESSAMENTO. Correção Geométrica Registro. Prof. Luiz Rotta
GEOPROCESSAMENTO Correção Geométria Registro Prof. Luiz Rotta CORREÇÃO GEOMÉTRICA DA IMAGEM Importânia eliminação de distorções sistemátias estudos multitemporais integração de dados SIG Requerimentos
Leia maisAprendizagem de Máquina
Plano da Apresentação Aprendizagem de Máquina Alessandro L. Koerich 2007 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Professor & Experiência Acadêmica Horários
Leia maisAs Equações de Maxwell e a Onda Eletromagnética
As Equações de Maxwell e a Onda Eletromagnétia Evandro Bastos dos antos 27 de Maio de 2017 1 Introdução Até agora vimos aqui quatro leis do no eletromagnetismo. A lei de Gauss na eletrostátia, E ˆnda =
Leia maisTeoria Acústica da Produção de Voz
Teoria Aústia da Produção da Voz Resumo Fontes do som Função de transferênia do trato voal Equações de onda Propagação do som em um tubo aústio uniforme Representação do trato voal om tubos aústios simples.
Leia maisDistâncias inacessíveis
U UL L esse: http://fuvestibular.om.br/ Distânias inaessíveis Introdução Na ula 20 aprendemos a alular distânias que não podiam ser medidas diretamente. Nessa aula, os oneitos utilizados foram a semelhança
Leia maisUniversidade do Estado do Rio de Janeiro. Cálculo I e Cálculo Diferencial I - Professora: Mariana G. Villapouca Aula 5 - Aplicações da derivada
Universidade do Estado do Rio de Janeiro Cálulo I e Cálulo Diferenial I - Professora: Mariana G. Villapoua Aula 5 - Apliações da derivada Regra de L Hôspital: Suponha que f e g sejam deriváveis e que g
Leia maisJaqueline Vicente Matsuoka 1 Vitor Haertel 1
Investigação do proesso de segmentação multiresolução utilizando o ritério de ponderação de formas e ores apliadas às imagens de áreas urbanas de alta resolução espaial do satélite Ikonos Jaqueline Viente
Leia maisAprendizado de Máquina. Combinando Classificadores
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores
Leia maisAprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Aprendizagem de Conceito Alessandro L. Koerich 2007 Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Introdução Tarefa de Aprendizagem
Leia maisAprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Aprendizagem de Conceito Aula 2 Alessandro L. Koerich Mestrado em Informática Aplicada Introdução Tarefa de Aprendizagem de Conceito Aprendizagem de Conceito como
Leia maisEstudo Dirigido de Matemática 2 o Trimestre
Nome: Nº Colégio Nossa Senhora das Dores 1º ano EM Prof. Manuel Data: / /009 Estudo Dirigido de Matemátia o Trimestre Prezado(a) aluno(a), Devido à interrupção das aulas durante o período ompreendido entre
Leia maisMetodologias de Otimização de Redes para a Determinação da Base de Remuneração Regulatória
21 a 25 de Agosto de 2006 Belo Horizonte - MG Metodologias de Otimização de Redes para a Determinação da Base de Remuneração Regulatória Eng. Sergio Damonte Quantum S.A. sdamonte@quantumameria.om Eng.
Leia maisUm cheirinho de Machine Learning: Naïve bayes & aplicações em NLP. Luísa Coheur LN, Tagus, 2015
Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP Luísa Coheur LN, Tagus, 2015 MACHINE LEARNING Machine Learning Explores the study and construcion of algorithms that can learn from and
Leia maisRoteiro. PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos. Representação dos Dados. Introdução
Roteiro PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos Introdução Representação dos Dados Luiz Henrique de Campos Merschmann Departamento de Computação Universidade Federal de Ouro Preto
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 10 Classificação com Naïve Bayes Max Pereira Raciocínio Probabilístico A notação tradicional para criar e analisar sentenças lógicas
Leia maisDescobrindo medidas desconhecidas (II)
A UU L AL A Desobrindo medidas desonheidas (II) Q uem trabalha no ramo da meânia sabe que existem empresas espeializadas em reforma de máquinas. As pessoas que mantêm esse tipo de atividade preisam ter
Leia maisda carruagem cujo comprimento, do seu ponto de vista, é L
ula Prátia Problema O, no interior de um vagão de omboio, emite um sinal dmita que um observador eletromagnétio a partir do ponto médio do ompartimento ssim, este observador nota que o sinal emitido hega
Leia maisEstrelas Politrópicas Newtonianas Carregadas
Anais do 12 O Enontro de Iniiação Científia e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tenológio de Aeronáutia São José dos Campos SP Brasil Outubro 16 a 19 2006 Estrelas Politrópias Newtonianas
Leia mais9 Lógica Combinacional Modular e Multi-níveis
Notas de aula de MAC39 (4) 7 9 Lógia Combinaional Modular e Multi-níveis Uma possível estruturação de um programa de omputador pode ser baseada em sua deomposição em módulos/funções. Do ponto de vista
Leia maisAula-7 Teoria da Relatividade
Aula-7 Teoria da Relatiidade Os Postulados i) Postulado da relatiidade: As leis da físia deem ser eatamente as mesmas se desritas por obseradores em diferentes refereniais ineriais. Não eiste um referenial
Leia maisNome:... No.USP:... Assinatura:... n, ou f. , para 1 n. T
MF-015 eleomuniação 1ª parte Espeialização em Metro-Ferroviária Programa de Eduação Continuada em Engenharia - PECE Prof. Antonio Fisher de oledo 1ª Prova 06/06/2009 Esolha 5 (ino) dentre as 12 (onze)
Leia maisOndas Planas em Meios Materiais
Ondas Planas em Meios Materiais Thiago S. Mosqueiro (Dated: 05/04/09) Vamos abrir as ontas do prof. Egues, notas de aula pág 1, om a ajuda do Jakson e Marion. Vamos na verdade prourar por soluções para
Leia maisESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES
ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES Aluno: Maro Antônio Guimarães Auad Barroa Orientador: Welles Antônio Martinez Morgado Introdução Foi feito a análise de iruitos isolados e aoplados baseando-se
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 14 Aprendizado de Máquina Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local
Leia maisW = Q Q Q F. 1 ε = 1 1 re γ. 1 r c. r e
66 APÍTULO 3. ENTROPIA E 2a LEI DA TERMODINÂMIA e também, W = Q Q Q F e eliminando W entre as duas equações, segue que: Q Q Q F = Q Q Q F ou ainda, Q Q Q Q = Q F Q F = Q e de aordo om a desigualdade dada
Leia maisDETERMINAÇÃO DA MASSA DAS RADIAÇÕES ELETROMAGNÉTICAS Luiz Carlos de Almeida
DETERMINAÇÃO DA MASSA DAS RADIAÇÕES ELETROMAGNÉTICAS Luiz Carlos de Almeida Fórmula da relação da Energia Cinétia e a massa da radiação eletromagnétia (substânias magnétias, positiva unida à negativa):
Leia maisUM MODELO DE MINIMIZAÇÃO DE CUSTOS EM DIAGNÓSTICOS COM UM CASO DE APLICAÇÃO EM UM BANCO DE SANGUE
Vol. 20, No. 2, p. 8-95, dezembro de 2000 Pesquisa Operaional 8 UM MODELO DE MINIMIZAÇÃO DE CUSTOS EM DIAGNÓSTICOS COM UM CASO DE APLICAÇÃO EM UM BANCO DE SANGUE Eugenio K. Eppreht PUC-Rio / Departamento
Leia mais2. Radiação de Corpo Negro
Apostila da Disiplina Meteorologia Físia II ACA 036, p. 14. Radiação de Corpo Negro Define-se omo orpo negro o meio ou substânia que absorve toda a radiação inidente sobre ele, independentemente do omprimento
Leia mais1.6 Imperfeições de Colunas
1.6 Imperfeições de olunas Foi mostrado anteriormente, omo o omportamento das olunas é afetado quando a arga é apliada exentriamente. O omportamento de uma oluna também pode ser afetado devido às imperfeições
Leia maisIMPLEMENTAÇÃO COMPUTACIONAL DE UM MODELO DE BALANÇO DE ENERGIA PARA A CLIMATOLOGIA URBANA
IMPLEMENTAÇÃO COMPUTACIONAL DE UM MODELO DE BALANÇO DE ENERGIA PARA A CLIMATOLOGIA URBANA BARBIRATO, João Carlos C. (1); BARBIRATO, Gianna M. () (1) Doutor em Engenharia, professor do Departamento de Engenharia
Leia maisCOEFICIENTES DE ATRITO
Físia Geral I MIEET Protoolos das Aulas Prátias Departamento de Físia Universidade do Algarve COEFICIENTES DE ATRITO 1. Resumo Corpos de diferentes materiais são deixados, sem veloidade iniial, sobre um
Leia maisDistribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores
Leia maisPalavras-Chave: Ruptura, Envoltória, Elastoplástico, Mohr-Coulomb, Hoek-Brown.
UTILIZAÇÃO DO CRITÉRIO DE RUPTURA DE HOEK-BROWN EM MECÂNICA DE ROCHA Arlindo J. Bazante, Aarão A. Lima, Maroni E. Alântara & Natanael V. Oliveira Departamento de Mineração e Geologia, Departamento de Engenharia
Leia mais