Aprendizagem de Máquina

Tamanho: px
Começar a partir da página:

Download "Aprendizagem de Máquina"

Transcrição

1 Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana

2 Plano de Aula Introdução Teorema de Bayes Classifiador Ótimo de Bayes Classifiador Naïve Bayes Exemplos Resumo

3 Referênias Duda R., Hart P., Stork D. Pattern Classifiation 2ed. Willey Intersiene, Capítulos 2 & 3 Mithell T. Mahine Learning. WCB MGraw Hill, Capítulo 6. Theodoridis S., Koutroumbas K. Pattern Reognition. Aademi Press, Capítulo 2

4 Introdução O pensamento Bayesiano fornee uma abordagem probabilístia para aprendizagem Está baseado na suposição de que as quantidades de interesse são reguladas por distribuições de probabilidade. Distribuição de probabilidade: é uma função que desreve a probabilidade de uma variável aleatória assumir ertos valores.

5 Introdução Deisões ótimas podem ser tomadas om base nestas probabilidades onuntamente om os dados observados. Fornee a base para algoritmos de aprendizagem que manipulam probabilidades, bem omo para outros algoritmos que não manipulam probabilidades expliitamente.

6 Introdução Os métodos Bayesianos são importantes por dois motivos: 1. Forneem algoritmos prátios de aprendizagem: Naïve Bayes Redes Bayesianas Combinam onheimento a priori om os dados observados Requerem probabilidades a priori 2. Forneem uma estrutura oneitual útil: Norma de Ouro para avaliar outros algoritmos de aprendizagem. Norma de Ouro menor erro possível

7 Caraterístias da Aprendizagem Bayesiana Cada exemplo de treinamento pode derementar ou inrementar a probabilidade de uma hipótese ser orreta. Conheimento a priori pode ser ombinado om os dados observados para determinar a probabilidade de uma hipótese. Métodos Bayesianos podem aomodar hipóteses que fazem predições probabilístias. Ex.: o paiente tem uma hane de 93% de possuir a doença. Novas instânias podem ser lassifiadas ombinando a probabilidade de múltiplas hipóteses ponderadas pelas suas probabilidades.

8 Difiuldades Prátias Métodos Bayesianos requerem o onheimento iniial de várias probabilidades. Quando não onheidas, podem ser estimadas: a partir de onheimento prévio dados previamente disponíveis suposições a respeito da forma da distribuição. Custo omputaional signifiativo para determinar a hipótese ótima de Bayes É geralmente linear om o número de hipóteses

9 Teorema de Bayes ( ( ( ( X P P X P X P P(: probabilidade a priori da lasse P(X : probabilidade do vetor X dada a lasse. P( X: probabilidade da lasse dado o vetor X P(X: probabilidade a priori do vetor de treinamento X

10 Teorema de Bayes P( X é hamada de probabilidade a posteriori de porque ela reflete nossa onfiança que se mantenha após termos observado o vetor de treinamento X. P( X reflete a influênia do vetor de treinamento X. Em ontraste, a probabilidade a priori P( é independente de X.

11 Teorema de Bayes Geralmente queremos enontrar a lasse mais provável C, sendo forneidos os exemplos de treinamento X. Ou sea, a lasse om o máximo a posteriori (MAP ( ( arg max ( ( ( arg max ( arg max P X P X P P X P X P C C C MAP

12 Teorema de Bayes Desprezamos o termo P(X porque ele é uma onstante independente de. Se assumirmos que ada lasse em C é igualmente provável a priori, i.e. P( i = P( i e em C Então, podemos simplifiar e esolher a lasse de máxima probabilidade ondiional (maximum likelihood = ML.

13 Teorema de Bayes O termo P(X é hamado de probabilidade ondiional (ou likelihood de X Sendo forneido, qualquer lasse que maximiza P(X é hamada de uma hipótese ML. ML arg max C P( X

14 Teorema de Bayes: Exemplo Considere um problema de diagnóstio médio onde existem duas lasses possíveis: O paiente tem H1N1 O paiente não tem H1N1 As araterístias disponíveis são um exame de laboratório om dois resultados possíveis: : positivo : negativo

15 Teorema de Bayes: Exemplo Temos o onheimento prévio que na população inteira somente 0,008 tem esta doença. O exame retorna um resultado positivo orreto somente em 98% dos asos nos quais a doença está presente. O exame retorna um resultado negativo orreto somente em 97% dos asos nos quais a doença não estea presente. Nos outros asos, o teste retorna o resultado oposto.

16 Teorema de Bayes: Exemplo P(H1N1 =? P( H1N1 =? P( H1N1 =? P( H1N1 =? P( H1N1 =? P( H1N1 =?

17 Teorema de Bayes: Exemplo Supondo que um paiente fez um exame de laboratório e o resultado deu positivo. O paiente tem H1N1 ou não?

18 Apliando o Teorema de Bayes Calulando a lasse om maior probabilidade a posteriori: P( H1N1 P(H1N1 = 0,98 x 0,008 = 0,0078 P( H1N1 P( H1N1 = 0,03 x 0,992 = 0,0298 Assim: MAP = H1N1

19 Formulação Básia de Probabilidades

20 Classifiador Ótimo de Bayes Consideramos até agora a questão: Qual a lasse mais provável ( MAP dado os exemplos de treinamento X? Entretanto, a questão mais signifiativa é na verdade: Qual é a lassifiação mais provável de uma nova instânia dado os dados de treinamento? AlasseMAP( MAP é ou não a lassifiação mais provável?

21 Classifiador Ótimo de Bayes Considere três lasses possíveis 1, 2 e 3 e suponha as seguintes probabilidades a posteriori destas lasses o onunto de treinamento X: P( 1 X = 0.4 P( 2 X = 0.3 P( 3 X = 0.3 Qual é a lasse MAP?

22 Classifiador Ótimo de Bayes A lassifiação mais provável de uma nova instânia x é obtida através da maior probabilidade a posteriori. Assim, a P( x que a orreta lassifiação para a instânia x sea é: Pˆ ( ˆ x arg max P( Qualquer sistema que lassifique novas instânias de aordo om a equação aima é hamada de um lassifiador ótimo de Bayes. max C C P( x x

23 Exemplo Exemplo: Considere as 14 instânias de treinamento de PlayTennis e uma nova instânia de teste (x t que devemos lassifiar: x t = <Outlook=sunny, Temperature=ool, Humidity=high, Wind=strong> Nossa tarefa é predizer o valor alvo (yes ou no do oneito PlayTennis para esta nova instânia, ou sea: Pˆ ( x t max [ yes, no ] P( x t ˆ arg max [ yes, no ] P( x t

24 Exemplo Então, dado x t, devemos estimar duas probabilidades a posteriori: P yes x P no x ( t ( t Apliando o teorema de Bayes P( x t P( x t P( x P( t Ou sea, para estimar a probabilidade a posteriori, devemos onheer:. P (? P ( x t? P(? x t

25 Exemplo Atributo alvo: PlayTennis (yes, no

26 Exemplo Logo, temos que estimar: duas probabilidades a priori das lasses: P( yes P( no probabilidade a priori do vetor x t : P( x t? duas probabilidades ondiionais: P( x yes t??? P( x no t Como fazer isso dadas as 14 instânias de treinamento da tabela??

27 Exemplo P( yes 9 /14 0,643 P( no 5 /14 0,357 P( outlook sunny, temperatur e hot, humidity high, wind weak yes? P( outlook overast, temperatur e hot, humidity high, wind weak yes? P( outlook rain, temperatur e hot, humidity high, wind weak yes? P( outlook rain, temperatur e ool, humidity normal, wind strong yes.ou sea, temos que estimar todas as probabilidades ondiionais, onsiderando todas as lasses possíveis e todos os vetores de araterístias possíveis: 2 x [3 x 3 x 2 x 2] = 72 probabilidades ondiionais

28 Exemplo 2 x [3 x 3 x 2 x 2] = 72 pois: temos 2 lasses temos 4 atributos e seus possíveis valores: Outlook (sunny/overast/rain [3 valores possíveis] Temperature (hot/mild/ool [3 valores possíveis] Humidity (high/normal [2 valores possíveis] Wind (weak/strong [2 valores possíveis] Logo, temos 72 probabilidades ondiionais possíveis. e P(x t?

29 Classifiador Ótimo de Bayes Limitações prátias Como estimar om onfiança todas estas probabilidades ondiionais? Conunto de treinamento om muitas instânias! Conheer a distribuição de probabilidade! A probabilidade a priori alulada geralmente não reflete a população.

30 Classifiador Naïve Bayes Naïve Bayes é um dos métodos de aprendizagem mais prátios. Quando usar? disponibilidade de um onunto de treinamento grande ou moderado. os atributos que desrevem as instânias forem ondiionalmente independentes dada a lasse. Apliações bem suedidas: diagnóstio médio lassifiação de doumentos de textuais

31 Classifiador Naïve Bayes Se aplia a tarefas de aprendizagem onde: ada instânia x é desrita por uma onunção de valores de atributos a função alvo f(x pode assumir qualquer valor de um onunto V. um onunto de exemplos de treinamento da função alvo é forneido uma nova instânia é desrita pela tupla de valores de atributos <a 1, a 2,..., a n >. A tarefa é predizer o valor alvo (ou lasse para esta nova instânia.

32 Classifiador Naïve Bayes A solução Bayesiana para lassifiar uma nova instânia onsiste em: atribuir o valor alvo mais provável ( MAP dados os valores dos atributos <a 1, a 2,..., a n > que desrevem a instânia. MAP arg max P( a, a2,..., C a 1 n Mas podemos usar o teorema de Bayes para reesrever a expressão...

33 Classifiador Naïve Bayes Devemos agora estimar os dois termos da equação aima baseando-se nos dados de treinamento. P( é fáil de estimar... Porém, P(a 1,a 2,...,a n... (,...,, ( max arg,...,, ( (,...,, ( max arg,...,, ( max arg n C n n C MAP n C MAP P a a a P a a a P P a a a P a a a P

34 Classifiador Naïve Bayes O lassifiador Naïve Bayes é baseado na suposição simplifiadora de que os valores dos atributos são ondiionalmente independentes dado o valor alvo. Ou sea, a probabilidade de observar a onunção de atributos a 1, a 2,..., a n é somente o produto das probabilidades para os atributos individuais: P a, a,..., a P( a ( 1 2 n i i

35 Classifiador Naïve Bayes Temos assim o lassifiador Naïve Bayes: ˆ NB arg max C P( i P( a i onde NB india o valor alvo forneido pelo algoritmo Naïve Bayes.

36 Classifiador Naïve Bayes Em resumo, o algoritmo Naïve Bayes envolve Aprendizagem: os termos P( e P(a i são estimados baseado nas suas frequênias no onunto de treinamento. Estas probabilidades aprendidas são então utilizadas para lassifiar uma nova instânia apliando a equação vista anteriormente ( NB

37 Classifiador Naïve Bayes Algoritmo Naïve Bayes Treinamento_Naïve_Bayes(onunto de exemplos Para ada valor alvo (lasse P ( estimar P( Para ada valor de atributo a i P (a i estimar P(a i de ada atributo a Classia_Naïve_Bayes(x t ˆ arg max P' ( P' ( a NB C a x i i

38 Classifiador Naïve Bayes Exemplo: Considere novamente os 14 exemplos de treinamento de PlayTennis e uma nova instânia que o Naïve Bayes deve lassifiar: x t = <outlook=sunny, temperature=ool, humidity=high, wind=strong> A tarefa é predizer o valor alvo (yes ou no do oneito PlayTennis para esta nova instânia.

39 Classifiador Naïve Bayes Atributo alvo: PlayTennis (yes, no

40 Classifiador Naïve Bayes O valor alvo NB será dado por: NB arg arg max { yes, no} max { yes, no} P( P( i P( a i P( Outlook sunny P( Humidity high P( Temperatur e ool P( Wind strong Note que a i foi instaniado utilizando os valores partiulares do atributo da instânia x t. Para alular NB são neessárias 10 probabilidades que podem ser estimadas a partir dos exemplos de treinamento.

41 Classifiador Naïve Bayes Probabilidades a priori: P(PlayTennis = yes = 9/14 = 0.64 P(PlayTennis = no = 5/14 = 0.36 Probabilidades ondiionais: P(Wind=strong PlayTennis = yes = 3/9 = 0.33 P(Wind=strong PlayTennis = no = 3/5 =

42 Classifiador Naïve Bayes Usando estas estimativas de probabilidade e estimativas similares para os valores restantes dos atributos, alulamos NB de aordo om a equação anterior (omitindo nome dos atributos : P(yes P(sunny yes P(ool yes P(high yes P(strong yes = 0,0053 P(no P(sunny no P(ool no P(high no P(strong no = 0,026 Então o lassifiador atribui o valor alvo PlayTennis = no para esta nova instânia.

43 Classifiador Naïve Bayes Sutilezas: 1. A suposição de independênia ondiional é muitas vezes violada P a, a,..., P( a ( mas, de qualquer maneira, ele funiona bem. Note que não é neessário estimar probabilidades a posteriori P ( x para ser orreta. Neessita somente que i i arg max P' ( P' ( a arg max P( P( a1,..., an C i i C Probabilidades Naïve Bayes a posteriori próximas de 0 e 1 são geralmente não realístias

44 Classifiador Naïve Bayes Sutilezas: 2. E se nenhuma das instânias de treinamento om valor alvo tiver uma atributo de valor a i? Então, e... A solução típia é uma estimativa Bayesiana para P (a i. 0 ( ' a i P m n mp n a P i i ( ' 0 ( ' ( ' i i a P P

45 Classifiador Naïve Bayes P' ( a i mp m onde: n é o número de exemplos de treinamento para os quais =, n é o número de exemplos para os quais = e a = a i p é a estimativa a priori para P (a i m é o peso dado as priori (i.e. número de exemplos virtuais. i n n

46 Exemplo: Classifiando Texto Por que? Aprender quais notíias são interessantes Aprender a lassifiar páginas WEB por assunto Naïve Bayes é um dos algoritmos mais efiientes Quais atributos devemos usar para representar doumentos de texto?

47 Exemplo: Classifiando Texto Contexto Considere um espaço de instânias X onsistindo de todos os doumentos de texto possíveis. Dados exemplos de treinamento, de alguma função alvo f(x que pode assumir valores de um onunto finito C. A tarefa de aprendizagem é aprender, a partir dos exemplos de treinamento, a predizer o valor alvo para os doumento de texto subsequentes. Considere a função alvo omo sendo doumentos interessantes e não interessantes

48 Exemplo: Classifiando Texto Proeto do Naïve Bayes: Como representar um doumento de texto arbitrário em termos de valores de atributos? Deidir omo estimar as probabilidades neessárias para o Naïve Bayes.

49 Exemplo: Classifiando Texto Representação de texto arbitrário Dado um doumento de texto, este parágrafo, por exemplo, definimos um atributo para ada posição de palavra no doumento e definimos o valor do atributo omo sendo a palavra em português enontrada nesta posição. O parágrafo anterior pode ser desrito por 34 valores de atributos orrespondendo as 34 posições de palavras. O valor do primeiro atributo é a palavra Dado e do segundo é a palavra um e assim por diante.

50 Exemplo: Classifiando Texto Dada a representação de doumento de texto, podemos apliar o Naïve Bayes. Assumimos um onunto de 700 doumentos lassifiados por uma pessoa omo não interessantes outros 300 lassifiados omo interessantes

51 Exemplo: Classifiando Texto Coneito alvo interessante: doumento {+, } 1. Representar ada doumento por um vetor de palavras Um atributo por posição da palavra no doumento 2. Aprendendo usar exemplos de treinamento para estimar P (+ P ( P (do + P (do

52 Exemplo: Classifiando Texto Suposição da independênia ondiional Naïve Bayes onde P(a i = w k é a probabilidade que a palavra na posição i é w k, dado. Mais uma suposição ( 1 ( ( do length i k i w a P do P m i w a P w a P k m k i, ( (

53 Exemplo: Classifiando Texto Learn_Naïve_Bayes_Text (Examples, C 1. Coleionar todas palavras, pontuação e outros tokens que oorrem em Examples Voabulary todas as palavras distintas e outros tokens que oorrem em Examples 2. Calular as probabilidade neessárias P ( e P (w k...

54 Exemplo: Classifiando Texto Para ada valor alvo em V faça dos subonunto de doumento de Examples para o qual o valor alvo é P( dos Examples Text um doumento únio riado pela onatenação de todos os membros de dos n número total de posições distintas de palavras em Text Para ada palavra w k em Voabulary n k número de vezes que a palavra w k oorre em Text P( w k n nk 1 Voabulary

55 Exemplo: Classifiando Texto Classify_Naïve_Bayes_Text (Do positions todas as posições das palavras em Do que ontém tokens enontrados em Voabulary retornar NB onde NB arg max C P( i positions P( a i

56 Exemplo: Classifiando Texto

57 Exemplo: Classifiando Texto Dados doumentos de treinamento de ada grupo, aprenda a lassifiar novos doumentos de aordo om o newsgroup de origem. Naïve Bayes: preisão de lassifiação: 89%

58 Exemplo: Classifiando Texto Artigo de re.sport.hokey

59 Curva de Aprendizagem

60 Resumo Métodos Bayesianos: aomodam onheimento prévio e os dados observáveis; atribuem probabilidade a posteriori para ada lasse andidata, baseando se na probabilidade a priori e nos dados. podem determinar a hipótese mais provável (MAP, tendo os dados. Bayes Ótimo: ombina predições de todas lasses, ponderadas pela probabilidade a posteriori, para alular a lassifiação mais provável de uma nova instânia.

61 Resumo Naïve Bayes: é hamado de naïve (simples, não sofistiado, porque assume que os valores dos atributos são ondiionalmente independentes. se a ondição é enontrada, ele fornee a lassifiação MAP, aso ontrário, pode forneer também bons resultados.

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana Plano de Aula Introdução Teorema de Bayes Classifiador

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih / Aleu S Britto Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR) Aprendizagem Bayesiana Plano de Aula Introdução Teorema

Leia mais

Aprendizagem Bayesiana

Aprendizagem Bayesiana Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti www.inf.ufpr.br/menotti/ci171-182 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes

Leia mais

Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira

Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira Aprendizado de Máquina Aprendizagem Bayesiana Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.ufrgs.br/~viali/ Uma A estimação tem por objetivo forneer informações sobre parâmetros populaionais, tendo omo base uma amostra aleatória extraída da

Leia mais

Prof. Lorí Viali, Dr. Prof. Lorí Viali, Dr. UFRGS Instituto de Matemática - Departamento de Estatística

Prof. Lorí Viali, Dr.  Prof. Lorí Viali, Dr. UFRGS Instituto de Matemática - Departamento de Estatística Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.ufrgs.br/~viali/ 1 A estimação tem por objetivo forneer informações sobre parâmetros populaionais, tendo omo base uma amostra aleatória extraída da população

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich/Alceu S. Britto Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores

Leia mais

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN Naïve Bayesian Learning Marcílo Souto DIMAp/UFRN 1 Teorema de Bayes Probabilidade de um evento H dada evidência E: Pr[ H E] Pr[ E H ]Pr[ H ] Pr[ E] Probabilidade a priori de H: Probabilidade do evento

Leia mais

Estimação de Parâmetros de um Modelo Semi-Empírico de Transferência Simultânea de Calor e Água no Solo

Estimação de Parâmetros de um Modelo Semi-Empírico de Transferência Simultânea de Calor e Água no Solo rabalho apresentado no XXXV CNMAC, Natal-RN, 0. Estimação de Parâmetros de um Modelo Semi-Empírio de ransferênia Simultânea de Calor e Água no Solo Emanueli Bandeira Avi, Peterson Cleyton Avi, Depto de

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 3 de Julho de 2014 2/1 Conteúdo Aprendizado Naive Bayes Exemplo: classificação de texto Redes Bayesiana Algoritmo EM Regressão probabiĺıstica 3/1 Classificador

Leia mais

ANALYTICAL METHODS IN VIBRATION. Leonard Meirovitch Capitulo 1

ANALYTICAL METHODS IN VIBRATION. Leonard Meirovitch Capitulo 1 ANALYTICAL METHODS IN VIBRATION Leonard Meirovith Capitulo Comportamento de sistemas Um sistema é definido omo uma montagem de omponentes atuando omo um todo. Os omponentes são lassifiados e definidos

Leia mais

2. INTRODUÇÃO À PROBABILIDADE

2. INTRODUÇÃO À PROBABILIDADE . INTRODUÇÃO À ROILIDDE 00 Coneitos básios Experimento aleatório ou fenômeno aleatório Situações ou aonteimentos ujos resultados não podem ser previstos om erteza. Um experimento ou fenônemo que, se for

Leia mais

Exemplo para Fixar a Matéria Vista Até Agora: Modelagem de Reações Químicas

Exemplo para Fixar a Matéria Vista Até Agora: Modelagem de Reações Químicas Exemplo para Fixar a Matéria Vista Até Agora: Modelagem de eações Químias. Introdução Em uma reação químia, um onjunto de ompostos químios hamados reagentes e indiados aqui por i se ombina para formar

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendizagem de Máquina Aprendizagem de Árvores de Decisão Aula 3 Alessandro L. Koerich Introdução Representação de Árvores de Decisão Algoritmo de Aprendizagem ID3 Entropia e Ganho de Informação

Leia mais

Método para Classificação: - Naïve Bayes.

Método para Classificação: - Naïve Bayes. Método para Classificação: - Naïve Bayes. Modelagem statística (Bayesiana): Contrariamente ao 1R, usa todos os atributos; Duas premissas: Atributos igualmente importantes; Atributos estatisticamente independentes

Leia mais

Aprendizado Bayesiano Anteriormente...

Aprendizado Bayesiano Anteriormente... Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas

Leia mais

Método Simplex Resolução Algébrica. Prof. Ricardo Santos

Método Simplex Resolução Algébrica. Prof. Ricardo Santos Método Simple Resolução Algébria Prof. Riardo Santos Método Simple Dada uma solução fatível: Essa solução é ótima? Caso não seja ótima omo determinar uma melhor? Considere uma solução básia fatível: em

Leia mais

Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná

Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná Aurora Trinidad Ramirez Pozo Universidade Federal do Paraná 1 Um dos métodos práticos mais usados Induz funções discretas robustas a ruído Capaz de aprender expressões disjuntivas Se pais = Inglaterra

Leia mais

Disciplina: Fotogrametria II: Responsável: Mário Reiss. Conteúdo da aula de hoje (26/11/2007)

Disciplina: Fotogrametria II: Responsável: Mário Reiss. Conteúdo da aula de hoje (26/11/2007) Disiplina: Fotogrametria : Responsável: Mário Reiss Conteúdo da aula de hoje (6//7) CORRELAÇÃO DE PADRÕES.... CORRELAÇÃO ENTRE MAGENS... BBLOGRAFA... 7 CORRELAÇÃO DE PADRÕES Uma das formas mais onheidas

Leia mais

Métodos para Classificação: - Naïve Bayes.

Métodos para Classificação: - Naïve Bayes. Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo

Leia mais

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada

Leia mais

Instituto Superior Técnico PROPAGAÇÃO & ANTENAS. Projecto 2014 / 2015

Instituto Superior Técnico PROPAGAÇÃO & ANTENAS. Projecto 2014 / 2015 Instituto Superior Ténio PROPAGAÇÃO & ANTENAS Projeto 4 / 5 Prof Carlos R Paiva Ano Letivo 4/5 Introdução Este trabalho entra-se sobre a propagação de impulsos em fibras óptias onvenionais, de perfil em

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

Aprendizado Probabilístico: Bayes

Aprendizado Probabilístico: Bayes Aprendizado Probabilístico: Bayes SCC-230 Inteligência Artificial Prof. Thiago A. S. Pardo 1 Pergunta O que ocê sabe sobre Bayes? 2 1 Pastor presbiteriano Resposta 1 3 Resposta 2 Em 1931, tee publicado

Leia mais

10. TEORIA DAS PROBABILIDADES. Quadro 1: Motivação

10. TEORIA DAS PROBABILIDADES. Quadro 1: Motivação 10. OR DS ROBBLDDS Quadro 1: Motivação Figura 1: Gráfio de pontos. Figura 3: olígono de frequênias. Figura 4: Função de distribuição de probabilidades sobre o histograma. teoria das probabilidades estuda

Leia mais

Classificação. Eduardo Raul Hruschka

Classificação. Eduardo Raul Hruschka Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos

Leia mais

Comece apresentando as partes do triângulo retângulo usadas na trigonometria.

Comece apresentando as partes do triângulo retângulo usadas na trigonometria. ós na ala de Aula - Matemátia 6º ao 9º ano - unidade 7 As atividades propostas nas aulas a seguir têm omo objetivo proporionar ao aluno ondições de ompreender, de forma prátia, as razões trigonométrias

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Inferência estatística lassificador bayesiano Inferência estatística Na inferência estatística, toma-se uma decisão usando a informação contida numa amostra. Na abordagem paramétrica,

Leia mais

Créditos. SCC0173 Mineração de Dados Biológicos. Relembrando Classificação... Aula de Hoje. Classificação II: Algoritmo Probabilístico Naïve Bayes

Créditos. SCC0173 Mineração de Dados Biológicos. Relembrando Classificação... Aula de Hoje. Classificação II: Algoritmo Probabilístico Naïve Bayes SCC073 Mieração de Dados Biológios Classifiação II: Algoritmo robabilístio Naïve Bayes Créditos O material a seguir osiste de adaptações e extesões dos origiais: getilmete edidos pelo rof. Eduardo R. Hrushka

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Aprendizagem de Conceito Alessandro L. Koerich 2008 Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem

Leia mais

Macroeconomia Revisões de Derivadas para aplicação no cálculo de multiplicadores

Macroeconomia Revisões de Derivadas para aplicação no cálculo de multiplicadores Maroeonomia 64 Revisões de Derivadas para apliação no álulo de multipliadores Nota introdutória: O que se segue é uma pequena revisão do oneito de derivada e algumas regras de derivação que são utilizadas

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

APLICAÇÃO DAS FUNÇÕES DE PARTIDA E EQUAÇÕES CÚBICAS DE ESTADO NOS CICLOS TERMODINÂMICOS DE POTÊNCIA A VAPOR

APLICAÇÃO DAS FUNÇÕES DE PARTIDA E EQUAÇÕES CÚBICAS DE ESTADO NOS CICLOS TERMODINÂMICOS DE POTÊNCIA A VAPOR APLICAÇÃO DAS FUNÇÕES DE PARTIDA E EQUAÇÕES CÚBICAS DE ESTADO NOS CICLOS TERMODINÂMICOS DE POTÊNCIA A VAPOR A. M. do NASCIMENTO, P. F. ARCE-CASTILLO Universidade de São Paulo, Esola de Engenharia de Lorena

Leia mais

ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES

ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES Departamento de Físia ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES Aluno: Maro Antônio Guimarães Auad Barroa Orientador: Welles Antônio Martinez Morgado Introdução Foi feito a análise de iruitos isolados

Leia mais

SOBRE O PAPEL DA RESOLUÇÃO LITERAL DE PRO- BLEMAS NO ENSINO DA FÍSICA: EXEMPLOS EM ME- CÂNICA +

SOBRE O PAPEL DA RESOLUÇÃO LITERAL DE PRO- BLEMAS NO ENSINO DA FÍSICA: EXEMPLOS EM ME- CÂNICA + SOBRE O PAPEL DA RESOLUÇÃO LITERAL DE PRO- BLEMAS NO ENSINO DA FÍSICA: EXEMPLOS EM ME- CÂNICA + Luiz O.Q. Peduzzi Sônia Silveira Peduzzi Departamento de Físia - UFSC Florianópolis - SC Resumo Neste trabalho

Leia mais

Problema 4.40 do livro do Symon

Problema 4.40 do livro do Symon Problema 4.4 do livro do Symon O problema 4.4 do livro do Symon é uma variação do que vimos na postagem Dois osiladores harmônios aoplados pois onsta de três massas presas a duas molas ao longo de um eixo

Leia mais

RSE VERSÃO A ... Alternativa correta: D ,6 6,6 Alternativa correta: A SIMULADO DE FÍSICA - 1º TRIMESTRE 2012

RSE VERSÃO A ... Alternativa correta: D ,6 6,6 Alternativa correta: A SIMULADO DE FÍSICA - 1º TRIMESTRE 2012 SIMULADO DE ÍSIA - 1º TRIMESTRE 2012 RSE Nome: 3º ANO Nº ENSINO MÉDIO Professor (a): ARLOS ALBERTO Data: / /2012 NOTA: Objetivos: Verifiar a desenvoltura do aluno na apliação dos oneitos aprendidos, em

Leia mais

3.1. Algoritmos de Solução (algoritmo N 1) o chiller acompanha a carga. os programas N 1.1 e N 1.2 (algoritmo N 2) (algoritmo N 3)

3.1. Algoritmos de Solução (algoritmo N 1) o chiller acompanha a carga. os programas N 1.1 e N 1.2 (algoritmo N 2) (algoritmo N 3) 3 Solução Usando os modelos matemátios apresentados no apitulo 2 para ada omponente do sistema e para o sistema global, foram elaborados os algoritmos e os programas de álulo para simular o omportamento

Leia mais

5 Descrição do Modelo

5 Descrição do Modelo 5 Desrição do Modelo 5.1. Introdução Neste apítulo será apresentado o modelo de otimização da adeia de suprimentos de petróleo e derivados estudado neste trabalho. Na seção 5.2 será desrito o problema

Leia mais

Aplicação de um modelo da análise custo-volume-lucro na criação de suínos.

Aplicação de um modelo da análise custo-volume-lucro na criação de suínos. Silva, A T; Resende, A L; Freire Filho, A A de S. 9 Apliação de um modelo da análise usto-volume-luro na riação de suínos. ésar Augusto Tibúrio Silva Doutor em ontabilidade pela USP. Instituição: Programa

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Árvores de Decisão Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1 / 28

Leia mais

As Leis da Termodinâmica

As Leis da Termodinâmica As Leis da Termodinâmia Gabarito Parte I: esposta da questão 1: a) P 0.V0 PV x xx = = x xv V = x m. P0 V0 = PV x = P() 2 x 2 P= x x 2, atm 2, x N/m = = = = b) 1, 1, A: U UA = QA A ΔU = Q C: UC U = 0 (isotérmia)

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Redes Bayesianas Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem de Máquina

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Aprendizagem de Conceito Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina

Leia mais

Identidade de modelos na estimativa do volume de árvores de Pinus caribaea var. hondurensis

Identidade de modelos na estimativa do volume de árvores de Pinus caribaea var. hondurensis Identidade de modelos na estimativa do volume de árvores de Pinus aribaea var. hondurensis Edson Lahini Adriano Ribeiro de Mendonça Leonardo Cassani Laerda Gilson Fernandes da Silva Introdução Nos inventários

Leia mais

Realidade Virtual e Ferramentas Cognitivas Usadas como Auxílio para o Ensino de FísicaF

Realidade Virtual e Ferramentas Cognitivas Usadas como Auxílio para o Ensino de FísicaF Realidade Virtual e Ferramentas Cognitivas Usadas omo Auxílio para o Ensino de FísiaF Luiano Ferreira Silva Ezequiel Roberto Zorzal Mônia Roha Ferreira de Oliveira Alexandre Cardoso Edgard Lamounier Júnior

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Apresentação da Disciplina Alessandro L. Koerich 2008 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem

Leia mais

Planejamento em Inteligência Artificial Capítulo 4 Planejamento como busca no Espaço de Estados

Planejamento em Inteligência Artificial Capítulo 4 Planejamento como busca no Espaço de Estados Planejamento em Inteligênia Artifiial Capítulo 4 Planejamento omo busa no Espaço de Estados Leliane Nunes de Barros Motivação Planejamento é um problema de busa Busa em espaço de estados» Cada nó representa

Leia mais

Classificação Bayesiana

Classificação Bayesiana Classificação Bayesiana Victor Lobo Contexto Existem um conjunto de dados conhecidos Conjunto de treino Queremos prever o que vai ocorrer noutros casos Exemplo Empresa de seguros de saúde quer estimar

Leia mais

Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Árvores de Decisão. David Menotti.

Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Árvores de Decisão. David Menotti. Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Árvores de Decisão David Menotti www.inf.ufpr.br/menotti/ci171-182 Árvores de Decisão Agenda Introdução Representação Quando Usar

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Máquinas Elétricas. Introdução Parte II

Máquinas Elétricas. Introdução Parte II Máquinas Elétrias Introdução Parte II Introdução Nos átomos de ferro e de outros metais similares (obalto, níquel e algumas de suas ligas), os ampos magnétios tendem a estar estreitamente alinhados entre

Leia mais

a. Qual a probabilidade de uma paciente escolhida ao acaso ter tido um distúrbio hormonal?

a. Qual a probabilidade de uma paciente escolhida ao acaso ter tido um distúrbio hormonal? Proposta Resolução Lista 5 Questão 1 Das paientes de uma Clínia de Gineologia om idade aima de 40 anos, 60% são ou foram asadas e 40% são solteiras. Sendo solteira, a probabilidade de ter tido um distúrbio

Leia mais

Os Teoremas de Cavalieri 1. 2 Os Princípios de Cavalieri para áreas e volumes

Os Teoremas de Cavalieri 1. 2 Os Princípios de Cavalieri para áreas e volumes Os Teoremas de Cavalieri 1 Roerto Rieiro Paterlini 1 Introdução O estudo de volumes de sólidos no ensino médio tem omo ase o Prinípio de Cavalieri Esse prinípio tamém pode ser usado para áreas de regiões

Leia mais

EXERCÍCIO: DIMENSIONAMENTO ITERATIVO

EXERCÍCIO: DIMENSIONAMENTO ITERATIVO Enenaria de Tráfeo EXERCÍCIO: DIMENSIONAMENTO ITERATIVO Considere o ruzamento abaixo om as seuintes araterístias:. A interseção abaixo atua om operação em três estáios, omo mostra o esuema: Tempos E1 E

Leia mais

GEOPROCESSAMENTO. Correção Geométrica Registro. Prof. Luiz Rotta

GEOPROCESSAMENTO. Correção Geométrica Registro. Prof. Luiz Rotta GEOPROCESSAMENTO Correção Geométria Registro Prof. Luiz Rotta CORREÇÃO GEOMÉTRICA DA IMAGEM Importânia eliminação de distorções sistemátias estudos multitemporais integração de dados SIG Requerimentos

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano da Apresentação Aprendizagem de Máquina Alessandro L. Koerich 2007 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Professor & Experiência Acadêmica Horários

Leia mais

As Equações de Maxwell e a Onda Eletromagnética

As Equações de Maxwell e a Onda Eletromagnética As Equações de Maxwell e a Onda Eletromagnétia Evandro Bastos dos antos 27 de Maio de 2017 1 Introdução Até agora vimos aqui quatro leis do no eletromagnetismo. A lei de Gauss na eletrostátia, E ˆnda =

Leia mais

Teoria Acústica da Produção de Voz

Teoria Acústica da Produção de Voz Teoria Aústia da Produção da Voz Resumo Fontes do som Função de transferênia do trato voal Equações de onda Propagação do som em um tubo aústio uniforme Representação do trato voal om tubos aústios simples.

Leia mais

Distâncias inacessíveis

Distâncias inacessíveis U UL L esse: http://fuvestibular.om.br/ Distânias inaessíveis Introdução Na ula 20 aprendemos a alular distânias que não podiam ser medidas diretamente. Nessa aula, os oneitos utilizados foram a semelhança

Leia mais

Universidade do Estado do Rio de Janeiro. Cálculo I e Cálculo Diferencial I - Professora: Mariana G. Villapouca Aula 5 - Aplicações da derivada

Universidade do Estado do Rio de Janeiro. Cálculo I e Cálculo Diferencial I - Professora: Mariana G. Villapouca Aula 5 - Aplicações da derivada Universidade do Estado do Rio de Janeiro Cálulo I e Cálulo Diferenial I - Professora: Mariana G. Villapoua Aula 5 - Apliações da derivada Regra de L Hôspital: Suponha que f e g sejam deriváveis e que g

Leia mais

Jaqueline Vicente Matsuoka 1 Vitor Haertel 1

Jaqueline Vicente Matsuoka 1 Vitor Haertel 1 Investigação do proesso de segmentação multiresolução utilizando o ritério de ponderação de formas e ores apliadas às imagens de áreas urbanas de alta resolução espaial do satélite Ikonos Jaqueline Viente

Leia mais

Aprendizado de Máquina. Combinando Classificadores

Aprendizado de Máquina. Combinando Classificadores Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendizagem de Máquina Aprendizagem de Conceito Alessandro L. Koerich 2007 Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Introdução Tarefa de Aprendizagem

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendizagem de Máquina Aprendizagem de Conceito Aula 2 Alessandro L. Koerich Mestrado em Informática Aplicada Introdução Tarefa de Aprendizagem de Conceito Aprendizagem de Conceito como

Leia mais

Estudo Dirigido de Matemática 2 o Trimestre

Estudo Dirigido de Matemática 2 o Trimestre Nome: Nº Colégio Nossa Senhora das Dores 1º ano EM Prof. Manuel Data: / /009 Estudo Dirigido de Matemátia o Trimestre Prezado(a) aluno(a), Devido à interrupção das aulas durante o período ompreendido entre

Leia mais

Metodologias de Otimização de Redes para a Determinação da Base de Remuneração Regulatória

Metodologias de Otimização de Redes para a Determinação da Base de Remuneração Regulatória 21 a 25 de Agosto de 2006 Belo Horizonte - MG Metodologias de Otimização de Redes para a Determinação da Base de Remuneração Regulatória Eng. Sergio Damonte Quantum S.A. sdamonte@quantumameria.om Eng.

Leia mais

Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP. Luísa Coheur LN, Tagus, 2015

Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP. Luísa Coheur LN, Tagus, 2015 Um cheirinho de Machine Learning: Naïve bayes & aplicações em NLP Luísa Coheur LN, Tagus, 2015 MACHINE LEARNING Machine Learning Explores the study and construcion of algorithms that can learn from and

Leia mais

Roteiro. PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos. Representação dos Dados. Introdução

Roteiro. PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos. Representação dos Dados. Introdução Roteiro PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos Introdução Representação dos Dados Luiz Henrique de Campos Merschmann Departamento de Computação Universidade Federal de Ouro Preto

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 10 Classificação com Naïve Bayes Max Pereira Raciocínio Probabilístico A notação tradicional para criar e analisar sentenças lógicas

Leia mais

Descobrindo medidas desconhecidas (II)

Descobrindo medidas desconhecidas (II) A UU L AL A Desobrindo medidas desonheidas (II) Q uem trabalha no ramo da meânia sabe que existem empresas espeializadas em reforma de máquinas. As pessoas que mantêm esse tipo de atividade preisam ter

Leia mais

da carruagem cujo comprimento, do seu ponto de vista, é L

da carruagem cujo comprimento, do seu ponto de vista, é L ula Prátia Problema O, no interior de um vagão de omboio, emite um sinal dmita que um observador eletromagnétio a partir do ponto médio do ompartimento ssim, este observador nota que o sinal emitido hega

Leia mais

Estrelas Politrópicas Newtonianas Carregadas

Estrelas Politrópicas Newtonianas Carregadas Anais do 12 O Enontro de Iniiação Científia e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tenológio de Aeronáutia São José dos Campos SP Brasil Outubro 16 a 19 2006 Estrelas Politrópias Newtonianas

Leia mais

9 Lógica Combinacional Modular e Multi-níveis

9 Lógica Combinacional Modular e Multi-níveis Notas de aula de MAC39 (4) 7 9 Lógia Combinaional Modular e Multi-níveis Uma possível estruturação de um programa de omputador pode ser baseada em sua deomposição em módulos/funções. Do ponto de vista

Leia mais

Aula-7 Teoria da Relatividade

Aula-7 Teoria da Relatividade Aula-7 Teoria da Relatiidade Os Postulados i) Postulado da relatiidade: As leis da físia deem ser eatamente as mesmas se desritas por obseradores em diferentes refereniais ineriais. Não eiste um referenial

Leia mais

Nome:... No.USP:... Assinatura:... n, ou f. , para 1 n. T

Nome:... No.USP:... Assinatura:... n, ou f. , para 1 n. T MF-015 eleomuniação 1ª parte Espeialização em Metro-Ferroviária Programa de Eduação Continuada em Engenharia - PECE Prof. Antonio Fisher de oledo 1ª Prova 06/06/2009 Esolha 5 (ino) dentre as 12 (onze)

Leia mais

Ondas Planas em Meios Materiais

Ondas Planas em Meios Materiais Ondas Planas em Meios Materiais Thiago S. Mosqueiro (Dated: 05/04/09) Vamos abrir as ontas do prof. Egues, notas de aula pág 1, om a ajuda do Jakson e Marion. Vamos na verdade prourar por soluções para

Leia mais

ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES

ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES ESTUDO TERMO-ESTOCÁSTICO DE CIRCUITOS SIMPLES Aluno: Maro Antônio Guimarães Auad Barroa Orientador: Welles Antônio Martinez Morgado Introdução Foi feito a análise de iruitos isolados e aoplados baseando-se

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 14 Aprendizado de Máquina Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais

W = Q Q Q F. 1 ε = 1 1 re γ. 1 r c. r e

W = Q Q Q F. 1 ε = 1 1 re γ. 1 r c. r e 66 APÍTULO 3. ENTROPIA E 2a LEI DA TERMODINÂMIA e também, W = Q Q Q F e eliminando W entre as duas equações, segue que: Q Q Q F = Q Q Q F ou ainda, Q Q Q Q = Q F Q F = Q e de aordo om a desigualdade dada

Leia mais

DETERMINAÇÃO DA MASSA DAS RADIAÇÕES ELETROMAGNÉTICAS Luiz Carlos de Almeida

DETERMINAÇÃO DA MASSA DAS RADIAÇÕES ELETROMAGNÉTICAS Luiz Carlos de Almeida DETERMINAÇÃO DA MASSA DAS RADIAÇÕES ELETROMAGNÉTICAS Luiz Carlos de Almeida Fórmula da relação da Energia Cinétia e a massa da radiação eletromagnétia (substânias magnétias, positiva unida à negativa):

Leia mais

UM MODELO DE MINIMIZAÇÃO DE CUSTOS EM DIAGNÓSTICOS COM UM CASO DE APLICAÇÃO EM UM BANCO DE SANGUE

UM MODELO DE MINIMIZAÇÃO DE CUSTOS EM DIAGNÓSTICOS COM UM CASO DE APLICAÇÃO EM UM BANCO DE SANGUE Vol. 20, No. 2, p. 8-95, dezembro de 2000 Pesquisa Operaional 8 UM MODELO DE MINIMIZAÇÃO DE CUSTOS EM DIAGNÓSTICOS COM UM CASO DE APLICAÇÃO EM UM BANCO DE SANGUE Eugenio K. Eppreht PUC-Rio / Departamento

Leia mais

2. Radiação de Corpo Negro

2. Radiação de Corpo Negro Apostila da Disiplina Meteorologia Físia II ACA 036, p. 14. Radiação de Corpo Negro Define-se omo orpo negro o meio ou substânia que absorve toda a radiação inidente sobre ele, independentemente do omprimento

Leia mais

1.6 Imperfeições de Colunas

1.6 Imperfeições de Colunas 1.6 Imperfeições de olunas Foi mostrado anteriormente, omo o omportamento das olunas é afetado quando a arga é apliada exentriamente. O omportamento de uma oluna também pode ser afetado devido às imperfeições

Leia mais

IMPLEMENTAÇÃO COMPUTACIONAL DE UM MODELO DE BALANÇO DE ENERGIA PARA A CLIMATOLOGIA URBANA

IMPLEMENTAÇÃO COMPUTACIONAL DE UM MODELO DE BALANÇO DE ENERGIA PARA A CLIMATOLOGIA URBANA IMPLEMENTAÇÃO COMPUTACIONAL DE UM MODELO DE BALANÇO DE ENERGIA PARA A CLIMATOLOGIA URBANA BARBIRATO, João Carlos C. (1); BARBIRATO, Gianna M. () (1) Doutor em Engenharia, professor do Departamento de Engenharia

Leia mais

COEFICIENTES DE ATRITO

COEFICIENTES DE ATRITO Físia Geral I MIEET Protoolos das Aulas Prátias Departamento de Físia Universidade do Algarve COEFICIENTES DE ATRITO 1. Resumo Corpos de diferentes materiais são deixados, sem veloidade iniial, sobre um

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores

Leia mais

Palavras-Chave: Ruptura, Envoltória, Elastoplástico, Mohr-Coulomb, Hoek-Brown.

Palavras-Chave: Ruptura, Envoltória, Elastoplástico, Mohr-Coulomb, Hoek-Brown. UTILIZAÇÃO DO CRITÉRIO DE RUPTURA DE HOEK-BROWN EM MECÂNICA DE ROCHA Arlindo J. Bazante, Aarão A. Lima, Maroni E. Alântara & Natanael V. Oliveira Departamento de Mineração e Geologia, Departamento de Engenharia

Leia mais