Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Tamanho: px
Começar a partir da página:

Download "Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação"

Transcrição

1 Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME

2 Objetivo Dada M classes ω 1, ω 2,..., ω M e um padrão desconhecido x, determinar a probabilidade condicional p(ω i x) do padrão pertencer a cada classe i. Classificar de acordo com a classe mais provável.

3 Conceitos básicos Probabilidade condicional Partição do espaço amostral Teorema de Bayes

4 Teorema de Bayes

5 Teorema de Bayes

6 Teorema de Bayes Exemplo: Considere duas urnas. A primeira contém duas bolas brancas e sete bolas pretas e a segunda contém cinco bolas brancas e seis pretas. Nós lançamos uma moeda e retiramos uma bola da primeira ou da segunda urna, dependendo do resultado do lançamento, isto é, cara (urna 1) ou coroa (urna 2). Qual é a probabilidade condicional de que o resultado do lançamento da moeda foi cara, dado que uma bola branca foi retirada?

7 Distribuição normal

8 Teoria da decisão Bayesiana Vamos começar tratando do caso de duas classes: Padrão desconhecido é representado por: [ x x ] T x =,..., 1, 2 Sejam ω 1 e ω 2 duas classes nas quais um dado padrão devem pertencer. Assumimos que conhecemos as probabilidades à priori: P(ω 1 ) e P(ω 2 ). Estas probabilidades podem ser estimadas do conjunto de treinamento. x l

9 Teoria da decisão Bayesiana Se N é o número total de padrões disponíveis para treinamento, onde N 1 é da classe ω 1 e N 2 da classe ω 2, então: P(ω 1 )~N 1 /N P(ω 2 ) ~ N 2 /N

10 Teoria da decisão Bayesiana Também assumimos que conhecemos as funções densidades condicionais de probabilidades de cada classe: p(x ω i ), i=1,2, Que descreve a distribuição de probabilidades das características de cada classe.

11 Teoria da decisão Bayesiana

12 Teoria da decisão Bayesiana Se p(x ω i ), i=1,2, não são conhecidas, elas podem ser estimadas. p(x ω i ) é chamada também: função de máxima verossimilhanca de ω i com respeito a x.

13 Teoria da decisão Bayesiana Como conhecemos p(x ω i ) e P(ω i ), i=1,2, podemos usar o teorema de Bayes para determinar: Ou seja a probabilidade condicional do padrão descrito por x pertencer à classe ω i.

14 Teoria da decisão Bayesiana Pela lei da probabilidade total: Logo, podemos calcular para cada classe:

15 Teoria da decisão Bayesiana A regra de classificação Bayesiana será então: Ou seja:

16 Teoria da decisão Bayesiana Para duas classes equiprováveis: l = 1d R1 ( ω1) e R2( ω2)

17 Teoria da decisão Bayesiana Erro associado à classificação: Para duas classes: área indicada sob as curvas l = 1d

18 Teoria da decisão Bayesiana Erro associado à classificação: Região de erro l = 1d

19 Teoria da decisão Bayesiana Erro associado à classificação: Se movermos x 0 para a esquerda, há um aumento do erro, indicado pela área em cinza l = 1d

20 Minimização da probabilidade de erro Podemos mostrar que o classificador Bayesiana é ótimo com respeito à minimização da probabilidade de erro na classificação. Prova: O padrão dado por x pertence à R2 e é da classe ω 1

21 Minimização da probabilidade de erro Usando a regra de Bayes: Obtemos:

22 Minimização da probabilidade de erro Assim, vemos que o erro é minimizado se as regiões R1 e R2 são escolhidas de tal modo que: Ou seja, podemos escrever:

23 Minimização da probabilidade de erro Combinando: Obtemos:

24 Minimização da probabilidade de erro Assim, a probabilidade de erro é minimizada se R1 é a região do espaço na qual P(ω 1 x) > P(ω 2 x). R2 se torna a região onde o caso contrário é verdadeiro.

25 Minimização da probabilidade de erro Esse raciocínio pode ser usado para um número qualquer de classes, sendo o padrão representado por x classificado com pertence à classe ω i se Tal escolha minimiza o erro de classificação, conforme verificamos para duas classes.

26 Minimização do risco médio A minimização da probabilidade de erro nem sempre é a melhor escolha para minimização. Em alguns casos, pode ser associada uma penalidade para cada erro, de modo que algumas decisões são mais importantes do que outras. Por exemplo, é muito mais sério para um doutor diagnosticar um tumor maligno como sendo benigno do que o caso contrário.

27 Minimização do risco médio Assim, podemos minimizar uma versão modificada da probabilidade de erro, isto é: pesos Classificação de padrões da classe w1 como sendo da classe w2 tem um efeito maior na função custo do que o erro associado ao segundo termo na soma acima.

28 Minimização do risco médio Para o caso geral de M classes: Assuma que o vetor de características x que pertence à classe ω k caia na região R i, com k diferente de i. Logo, este vetor é classificado como pertencente à classe ω i e um erro é cometido. Uma penalidade λ ki (conhecida como perda) é associada com esta decisão errada.

29 Minimização do risco médio A função de risco associada com ω k é dada por: que representa a probabilidade de um vetor de características da classe ω k ser classificado como sendo da classe ω i ponderado por λ ki.

30 Minimização do risco médio O objetivo agora é escolher a partição das regiões de classificação onde o risco médio seja minimizado: Isto é obtido se cada integral ser minimizada, o que é equivalente à selecionar as regiões de partição de tal modo que:

31 Minimização do risco médio Tal minimização é obtida se: Assim, a minimização do risco médio é equivalente à minimização da probabilidade de erro na classificação.

32 Minimização do risco médio Para o caso de duas classes: M=2 Classificamos x como sendo da classe ω 1 se l 1 < l 2 : De maneira geral: Razão de verossimilhança

33 Minimização do risco médio Exemplo: = = = = = ) ( ) ( ) 1) ( exp( 1 ) ( ) exp( 1 ) ( L P P x x p x x p ω ω π ω π ω

34 2 1 ) 1) ( exp( ) exp( : = = x x x x Minimização do risco médio Limiar para mínimo Pe: Limiar para mínimo r: ) (1 ˆ ) 1) ( 2exp( ) exp( : ˆ < = = n x x x x l

35 Minimização do risco médio L =

36 Superfícies de decisão

37 Superfícies de decisão 0 ) ( ) ( ) ( = x P x P x g j ω i ω Se R i e R j são regiões vizinhas, a superfície de decisão é dada pela equação: ) ( ) ( : ) ( ) ( : x P x P R x P x P R i j j j i i ω ω ω ω > > + 0 ) ( = x g -

38 Classificação Bayesiana para distribuições normais

39 Função densidade de prob. Gaussiana Teorema do limite central: Seja X 1, X 2,... X n uma seqüência de variáveis aleatórias independentes com E[X i ] =µ i e var[x i ] = σ 2, i i =1, 2,... Façamos X = X 1 + X X n, então, X Zn = tem aproximadamente a distribuição N(0,1). n i = 1 n i = 1 σ µ 2 i i

40 Função densidade de prob. Gaussiana A gaussiana unidimensional:

41 Função densidade de prob. Gaussiana A gaussiana unidimensional:

42 Função densidade de prob. Gaussiana A gaussiana em l-dimensões: Determinante de Σ Vetor de médias (l X 1) Matriz de covariância (l X l)

43 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância entre as variáveis x1 e x2.

44 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância diagonal:

45 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância diagonal:

46 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância diagonal:

47 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância não-diagonal:

48 Classes normalmente distribuídas Devido à forma exponencial das densidades é preferível trabalhar com funções logarítmicas: Função discriminante: ) ( ln ) ( ln )) ( ) ( ln( ) ( i i i i i P x p P x p x g ω ω ω ω + = = i i i i i i T i i C C P x x x g Σ = + + Σ = )ln 2 1 ( )ln 2 2 ( ) ( ln ) ( ) ( 2 1 ) ( 1 π ω µ µ l mas:

49 Classes normalmente distribuídas Exemplo: l = 2 = Σ σ σ i i i i i i i i C P x x x x x g = ) ln( ) ( 2 1 ) ( 1 ) ( 2 1 ) ( ω µ µ σ µ µ σ σ Assim, g i (x) se torna:

50 Classes normalmente distribuídas E as regiões de separação: g i ( x) g ( x) = j 0 São superfícies quádricas: Elipses, hipérboles, pares de linhas, etc.

51 Classes normalmente distribuídas

52 Classes normalmente distribuídas

53 Classificadores de distância mínima Vamos assumir que as classes são equiprováveis e com mesma matriz de covariância: 1 P( ω i ) = M A função discriminante se torna: 1 T 1 g i ( x) = ( x µ i ) Σ ( x µ i ) 2

54 Classificadores de distância mínima Σ = σ 2 I : Matriz de covariância diagonal: Classifique x como sendo da classe ω i se a distância euclidiana do vetor característica ao vetor média da classe ω i é mínima: d x µ E i

55 Classificadores de distância mínima Σ σ 2 I : Matriz de covariância não-diagonal: Classifique x como sendo da classe ω i se a distância de Mahalanobis do vetor característica ao vetor média da classe ω i é mínima: 1 d = ((x µ ) Σ ( x µ )) m i T i 1 2 Minimização da norma de Σ -1

56 Classificadores de distância mínima Exemplo: Para duas classes, os vetores de características são gerados por duas distribuições normais com mesma matriz de covariância: E médias: Classifique o padrão dado por: Σ = , 0 0 ),, ( ) ( ),, ( ) ( e ) ( ) ( = = = = = µ µ µ ω µ ω ω ω Σ N x p Σ N x p P P = x

57 Classificadores de distância mínima Solução: Vamos calcular a distância de Mahalanobis para as duas classes: ω 1 ω 2 Logo, o padrão pertence à classe ω 1 OBS: Note que o vetor está mais próximo da classe 2 em termos da distância euclidiana (verifique).

58 Estimação de funções densidade de probabilidade desconhecidas

59 Estimação Em muitos casos fdp deve ser estimada dos dados disponíveis. Muitas vezes é conhecido o tipo da fdp (gaussiana, exponencial, etc), mas não seus parâmetros (média, desvio padrão, etc). Em outros casos, não se sabe a forma da fdp, mas sim seus parâmetros (média, desvio padrão, etc).

60 Estimação: máxima verossimilhança Estimação de parâmetros via máxima verossimilhança Objetivo: Estimar os parâmetros da fdp usando um conjunto de vetores de características de cada classe. Sejam x1, x2,..., x N amostras aleatórias da fdp: θ : p( x) p( x; θ ) vetores

61 Assuma independência entre as amostras. Então: { } ) ; ( ) ;,..., ( ) ; (,..., θ θ θ k N k N N x p x x x p X p x x x X = = Π = Estimação: máxima verossimilhança

62 0 ) ( ) ( ) ( 1 ) ( ) ( : ˆ ) ; ( ln ) ; ( ln ) ( ) ; ( arg max : ˆ ; ; ML = Σ = Σ = Π = = = θ θ θ θ θ θ θ θ θ θ θ θ k k N k ML k N k k Ν k x p x p L x p X p L x p O estimador de máxima verossimilhança de θ: Estima θ de tal modo que a função de verossimilhança tome seu valor máximo. Estimação: máxima verossimilhança

63 Estimação: máxima verossimilhança Propriedade do estimador de máxima verossimilhança de θ: Assintoticamente não viesado: Na média, converge para o valor real quando o número de amostras é grande. Vetor:

64 Estimação: máxima verossimilhança Propriedade do estimador de máxima verossimilhança de θ: Assintoticamente consistente: A variância do estimador tende a zero quando N é grande.

65 Estimação: máxima verossimilhança Propriedade do estimador de máxima verossimilhança de θ: O estimador é assintoticamente eficiente, isto é, ele obedece à desigualdade de Cramer-Rao. Logo, o estimador com menor variância dentre todos os estimadores possíveis.

66 Estimação: máxima verossimilhança Exemplo 1: Assuma que N pontos x 1, x 2,..., x N foram gerados por uma gaussiana unidimensional com média conhecida µ, mas variância desconhecida. Determine o estimador de máxima verossimilhança para a variância.

67 Estimação: máxima verossimilhança Solução: A função (log) de máxima verossimilhança: Tomando a derivada em ambos os lados com respeito a σ 2, obtemos:

68 Estimação: máxima verossimilhança Solução: Assim: Esse estimador é não viesado pois: Para N grande:

69 Estimação: máxima verossimilhança Exemplo 2: Assuma que N vetores x 1, x 2,..., x N foram providos por uma distribuição normal com matriz de covariância conhecida, mas média desconhecida: Determine o estimador de máxima verossimilhança para o vetor média.

70 Estimação: máxima verossimilhança Solução: A função (log) de máxima verossimilhança: Tomando o gradiente com relação à µ e igualando a zero: Obtemos:

71 Estimação: máxima verossimilhança Solução: Assim: Esse estimador é não viesado pois: Para N grande:

72 Estimação: inferência Bayesiana Inferência Bayesiana: Dado o conjunto X de N vetores de treinamento e uma informação a priori da fdp p(θ), o objetivo é calcular a fdp condicional p(x X). Temos: onde

73 Estimação: inferência Bayesiana Inferência Bayesiana: Ou seja: Como p(q X) considera integrais que muitas vezes não possuem solução exata, é necessária a utilização de métodos numéricos: Markov Chain Monte Carlo (MCMC), tais como Gibbs Sampler e Metropolis Hastings.

74 Estimação: inferência Bayesiana Exemplo: Seja p(x µ) uma gaussiana univariada N(µ,σ 2 ) com parâmetro média desconhecido que também segue uma gaussiana N(µ 0,σ 02 ). Usando a metodologia de inferência Bayesiana:

75 Estimação: inferência Bayesiana Observação: Os métodos de estimação por máxima verossimilhança e estimação Bayesiana resultam no mesmo estimador quando o número de conjuntos de treinamentos N é grande, mas levam a resultados diferentes para N pequeno.

76 Estimação: Outros métodos Mistura de gaussianas: Expectation maximization Estimação máxima à posteriori.

77 Classificação Bayesiana não paramétrica

78 Estimação não-paramétrica Métodos não paramétricos são variações da aproximação de fdps por histogramas. Caixas de tamanhos diferentes.

79 Estimação não-paramétrica No caso do histograma: Número de pontos dentro da caixa Largura da caixa Ponto médio da caixa

80 Estimação não-paramétrica Janelas de Parzen No espaço l-dimensional, ao invés de caixas de tamanho h, temos hipercubos de lado h e volume h l. Seja x i, i=1, 2,..., N os vetores de características disponíveis. Definamos a função: onde x ij, i=1,2,.., l são as componentes de x i.

81 Estimação não-paramétrica Janelas de Parzen Ou seja, a função é igual a um para todos os pontos dentro do hipercubo de dimensão unitária e igual a zero, caso contrário.

82 Estimação não-paramétrica Janelas de Parzen Assim:

83 Estimação não-paramétrica Janelas de Parzen Parzen em 1962 generalizou a aproximação por histograma usando uma função mais suave: Janela de Parzen

84 Estimação não-paramétrica Janelas de Parzen Para o caso de uma janela gaussiana N(0,I) A fdp aproximada como uma média de N gaussianas, cada uma centrada em diferentes pontos do conjunto de treinamento. O parâmetro h controla a largura da gaussiana.

85 Estimação não-paramétrica Janelas de Parzen

86 Estimação não-paramétrica Janelas de Parzen

87 Estimação não-paramétrica Janelas de Parzen h = 0,1 e N= 1,000 h = 0,1 e N=

88 Estimação não-paramétrica Janelas de Parzen % generate synthetic data X1 = [randn(500,1) randn(500,1)+2]; X2 = [randn(500,1)+5 randn(500,1)]; data=[x1; X2]; N = 5; [bandwidth,density,x,y]=kde2d(data,n); % plot the data and the density estimate contour3(x,y,density,50), hold on plot(data(:,1),data(:,2),'r.','markersize',5)

89 Estimação não-paramétrica Janelas de Parzen: N = 5

90 Estimação não-paramétrica Janelas de Parzen: N = 10

91 Estimação não-paramétrica Janelas de Parzen: N = 50

92 Estimação não-paramétrica Janelas de Parzen: N = 500

93 Estimação não-paramétrica Janelas de Parzen No caso em que h tende a zero, é um estimador não viesado de p(x). Note que esse fato é independente do tamanho da amostra N.

94 Estimação não-paramétrica Janelas de Parzen Classificação:

95 Estimação não-paramétrica Projeto Usando os features do projeto anterior. Implemente os classificadores de distância mínima (euclidiana e Mahalanobis). Classifique as imagens usando a metodologia bayesiana paramétrica. Escolha duas características e faça a classificação usando janelas de Parzen.

96 Referências C. Bishop, Pattern Recognition and Machine Learning, Springer (2006) Sergios Theodoridis, Konstantinos Koutroumbas, Pattern Recognition. Elsevier (2006).

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

p( y θ ) depende de um parâmetro desconhecido θ.

p( y θ ) depende de um parâmetro desconhecido θ. 55Modelação, Identificação e Controlo Digital 55 Método de Máxima Verosimilhança (Maximum Likelihood) Seja y uma variável aleatória (v. a.) cuja densidade de probabilidade p( y θ ) depende de um parâmetro

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 2012/02 1 Introdução 2 3 4 5 Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z

Leia mais

Estimação: (A) Propriedades e Distribuições Amostrais

Estimação: (A) Propriedades e Distribuições Amostrais Estimação: (A) Propriedades e Distribuições Amostrais Wagner H. Bonat Fernando P. Mayer Elias T. Krainski Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.

Leia mais

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Inferência Estatistica

Inferência Estatistica Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente. 1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-

Leia mais

Métodos Não Paramétricos

Métodos Não Paramétricos Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir

Leia mais

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC 1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que

Leia mais

Aprendizado por Instâncias Janelas de Parzen & Knn

Aprendizado por Instâncias Janelas de Parzen & Knn Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 19 de Maio de 2011 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08 Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Inferência estatística lassificador bayesiano Inferência estatística Na inferência estatística, toma-se uma decisão usando a informação contida numa amostra. Na abordagem paramétrica,

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Probabilidade e Estatística stica Prof. Dr. Narciso Gonçalves da Silva http://paginapessoal.utfpr.edu.br/ngsilva Inferência Estatística stica e Distribuições Amostrais Inferência Estatística stica O objetivo

Leia mais

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA UFPE - Universidade Federal de Pernambuco Departamento de Estatística Disciplina: ET-406 Estatística Econômica Professor: Waldemar A. de Santa Cruz Oliveira Júnior INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA Podemos

Leia mais

Gibbs Sampler para ANOVA e Misturas

Gibbs Sampler para ANOVA e Misturas Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores

Leia mais

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,

Leia mais

AULA 7 - Inferência em MQO: ICs e Testes de

AULA 7 - Inferência em MQO: ICs e Testes de AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos

Leia mais

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:

Leia mais

PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES

PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES Certas distribuições de probabilidades se encaixam em diversas situações práticas As principais são: se v.a. discreta Distribuição de Bernoulli Distribuição binomial

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Aula 1: k-nearest Neighbors

Aula 1: k-nearest Neighbors Aula 1: k-nearest Neighbors Paulo C. Marques F. Aula ministrada no Insper 29 de Janeiro de 2016 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de 2016 1 / 14 O problema geral de classificação Insper

Leia mais

Introdução ao Processamento Estatístico de Sinais

Introdução ao Processamento Estatístico de Sinais Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

Fernando de Pol Mayer

Fernando de Pol Mayer Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative

Leia mais

Distribuição Amostral e Estimação Pontual de Parâmetros

Distribuição Amostral e Estimação Pontual de Parâmetros Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências População e Amostra

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel MOQ 13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 3 4 5 6 7 8 9 10 11 1 13 14 15 e 16 Introdução à probabilidade (eventos,

Leia mais

Lista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL.

Lista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL. Introdução à Inferência Estatística Departamento de Física é Matemática. USP-RP. Prof. Rafael A. Rosales 5 de setembro de 004 Lista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL. 1 Medidas Resumo DISTRIBUIÇÕES

Leia mais

Vetor de Variáveis Aleatórias

Vetor de Variáveis Aleatórias Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias

Leia mais

Inferência Bayesiana

Inferência Bayesiana Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF

Leia mais

Fernando de Pol Mayer

Fernando de Pol Mayer Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative

Leia mais

Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento

Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento Ian Meneghel Danilevicz Walmir dos Reis Miranda Filho Métodos Computacionais Aplicados à Estatística Prof.: Cristiano

Leia mais

CLASSIFICADORES BAEYSIANOS

CLASSIFICADORES BAEYSIANOS CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um

Leia mais

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel MOQ 3 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 2 3 4 5 6 7 8 9 0 2 3 4 5 e 6 Introdução à probabilidade (eventos, espaço

Leia mais

Universidade Federal de Lavras

Universidade Federal de Lavras Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 6 a Lista de Exercícios Teoria da Estimação pontual e intervalar 1) Marcar como verdadeira ou falsa as seguintes

Leia mais

Inferência Bayesiana - Aula 1 -

Inferência Bayesiana - Aula 1 - Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

Modelos Lineares Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite. Professora Ariane Ferreira

Modelos Lineares Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite. Professora Ariane Ferreira Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite Professora Ariane Ferreira Modelos Probabilísticos de v.a. continuas Distribuição de Probabilidades 2 IPRJ UERJ Ariane Ferreira

Leia mais

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um

Leia mais

Introdução à Probabilidade e à Estatística II

Introdução à Probabilidade e à Estatística II Introdução à Probabilidade e à Estatística II Introdução à Inferência Estatística Capítulo 10, Estatística Básica (Bussab&Morettin, 7a Edição) Lígia Henriques-Rodrigues MAE0229 1º semestre 2018 1 / 36

Leia mais

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23 Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração

Leia mais

Intervalos de Confiança

Intervalos de Confiança Intervalos de Confiança Carla Henriques e Nuno Bastos Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques e Nuno Bastos (DepMAT) Intervalos de Confiança 2010/2011 1 / 33 Introdução

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 12 de Gonzales Reconhecimento de Padrões (imagem) Objetivo: Interpretar o conteúdo da imagem através de um mapeamento

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS As variáveis aleatórias X e Y seguem uma distribuição de Bernoulli com probabilidade de sucesso igual a 0,4. Considerando S = X + Y e que os eventos aleatórios A = [X = 1] e B

Leia mais

Teoria da Probabilidade

Teoria da Probabilidade Teoria da Probabilidade Luis Henrique Assumpção Lolis 14 de fevereiro de 2014 Luis Henrique Assumpção Lolis Teoria da Probabilidade 1 Conteúdo 1 O Experimento Aleatório 2 Espaço de amostras 3 Álgebra dos

Leia mais

VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE

VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE.1 INTRODUÇÃO Admita que, de um lote de 10 peças, 3 das quais são defeituosas, peças são etraídas ao acaso, juntas (ou uma a uma, sem reposição). Estamos

Leia mais

Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Inferência para CS Tópico 10 - Princípios de Estimação Pontual Inferência para CS Tópico 10 - Princípios de Estimação Pontual Renato Martins Assunção DCC - UFMG 2013 Renato Martins Assunção (DCC - UFMG) Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de

Leia mais

Análise Bayesiana de Dados - Aula 1 -

Análise Bayesiana de Dados - Aula 1 - Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012 PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou

Leia mais

MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade

MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e

Leia mais

Inferência para CS Modelos univariados contínuos

Inferência para CS Modelos univariados contínuos Inferência para CS Modelos univariados contínuos Renato Martins Assunção DCC - UFMG 2014 Renato Martins Assunção (DCC - UFMG) Inferência para CS Modelos univariados contínuos 2014 1 / 42 V.A. Contínua

Leia mais

Funções Discriminantes Lineares

Funções Discriminantes Lineares Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:

Leia mais

2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB.

2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB. 2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB. 1) Classifique as seguintes variáveis aleatórias como discretas ou contínuas. X : o número de acidentes de automóvel por ano na rodovia BR 116. Y :

Leia mais

F- Classificação. Banda A

F- Classificação. Banda A F- Classificação Classificação Digital é associar determinado pixel a determinada categoria por meio de critérios estatísticos Banda B? da d b dc Espaço dos Atributos Classes Banda A Classificação: ordenar,

Leia mais

Estatística Aplicada II. } Revisão: Probabilidade } Propriedades da Média Amostral

Estatística Aplicada II. } Revisão: Probabilidade } Propriedades da Média Amostral Estatística Aplicada II } Revisão: Probabilidade } Propriedades da Média Amostral 1 Aula de hoje } Tópicos } Revisão: } Distribuição de probabilidade } Variáveis aleatórias } Distribuição normal } Propriedades

Leia mais

Controle Ótimo - Aula 6 Exemplos e Exercícios

Controle Ótimo - Aula 6 Exemplos e Exercícios Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:

Leia mais

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana MEEMF-2010 Aula 01 Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana O que é inferência estatística? Inferência estatística é o importante ramo da Estatística

Leia mais

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística CE085 - Estatística Inferencial Função de Verossimilhança e suas derivadas Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal

Leia mais

AGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I

AGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I 1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 6. O Método da Máxima Verossimilhança- I Laerte Sodré Jr. 1o. semestre, 2019 introdução aula de hoje: 1 modelagem dos dados 2 a verossimilhança

Leia mais

Fundamentos de Estatística

Fundamentos de Estatística Fundamentos de Estatística Clássica Workshop Análise de Incertezas e Validação Programa de Verão 2017 Marcio Borges 1 1LABORATÓRIO NACIONAL DE COMPUTAÇÃO CIENTÍFICA mrborges@lncc.br Petrópolis, 9 de Fevereiro

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso Sumário:

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 6 de outubro de 2016 Segmentação de imagens A segmentação

Leia mais

AULA 17 - Distribuição Uniforme e Normal

AULA 17 - Distribuição Uniforme e Normal AULA 17 - Distribuição Uniforme e Normal Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Distribuições Contínuas Em muitos problemas se torna matematicamente mais simples considerar um espaço

Leia mais

θ depende de um parâmetro desconhecido θ.

θ depende de um parâmetro desconhecido θ. 73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo

Leia mais

Conceitos e aplicações de Estatística em pesquisa cientíca utilizando o R

Conceitos e aplicações de Estatística em pesquisa cientíca utilizando o R Conceitos e aplicações de Estatística em pesquisa cientíca utilizando o R Resumo da Parte Teórica Silvio Rodrigues de Faria Junior Departamento de Estatística - IME-USP Eventos e Probabilidade. Experimento

Leia mais

Processos Estocásticos

Processos Estocásticos Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade

Leia mais

Distribuição Normal. Prof. Eduardo Bezerra. (CEFET/RJ) - BCC - Inferência Estatística. 25 de agosto de 2017

Distribuição Normal. Prof. Eduardo Bezerra. (CEFET/RJ) - BCC - Inferência Estatística. 25 de agosto de 2017 padrão - padronização Distribuição Normal Prof. Eduardo Bezerra (CEFET/RJ) - BCC - Inferência Estatística 25 de agosto de 2017 Eduardo Bezerra (CEFET/RJ) Distribuição Normal Março/2017 1 / 32 Roteiro Distribuições

Leia mais

Amostra Aleatória. Tiago Viana Flor de Santana

Amostra Aleatória. Tiago Viana Flor de Santana ESTATÍSTICA BÁSICA Amostra Aleatória Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual de Londrina UEL Departamento de

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Métodos de Monte Carlo baseados em Cadeias de Markov:

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Tópicos 1. Seleção de atributos 2. Redução de

Leia mais

Metodologia de inversão

Metodologia de inversão 6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único

Leia mais

O teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(a B) prob(b) prob(a)

O teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(a B) prob(b) prob(a) O teorema de Bayes O teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(b A) = no qual o denominador é a probabilidade total. prob(a B) prob(b), (4) prob(a)

Leia mais

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS 4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está

Leia mais

Aula 2 Uma breve revisão sobre modelos lineares

Aula 2 Uma breve revisão sobre modelos lineares Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar

Leia mais

COMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA

COMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA COMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA Felipe Matheus Gonçalves Costa (1); Divanilda Maia Esteves (2) 1 Universidade Estadual da Paraíba; felipematheusem@hotmail.com.br 2 Universidade

Leia mais

a) o time ganhe 25 jogos ou mais; b) o time ganhe mais jogos contra times da classe A do que da classe B.

a) o time ganhe 25 jogos ou mais; b) o time ganhe mais jogos contra times da classe A do que da classe B. Universidade de Brasília Departamento de Estatística 5 a Lista de PE. Um time de basquete irá jogar uma temporada de 44 jogos. desses jogos serão disputados contra times da classe A e os 8 restantes contra

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

AGA Análise de Dados em Astronomia I. 2. Probabilidades

AGA Análise de Dados em Astronomia I. 2. Probabilidades 1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana

Leia mais

Novembro/2018. Ajuste Automático ao Histórico em Simulação de Reservatórios

Novembro/2018. Ajuste Automático ao Histórico em Simulação de Reservatórios Ajuste Automático ao Histórico Simulação de Reservatórios Flavio Dickstein Paulo Goldfeld Renan V. Pinto IM/UFRJ IM/UFRJ LabMAPetro/UFRJ Novembro/2018 Simulação sob incerteza (i) O reservatório é inacessível

Leia mais

BIOESTATÍSTICA. Parte 3 Variáveis Aleatórias

BIOESTATÍSTICA. Parte 3 Variáveis Aleatórias BIOESTATÍSTICA Parte 3 Variáveis Aleatórias Aulas Teóricas de 29/03/2011 a 26/04/2011 3.1. Conceito de Variável Aleatória. Função de Distribuição Variáveis aleatórias Uma variável aleatória pode ser entendida

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017. Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Distribuições Amostrais O intuito de fazer uma amostragem

Leia mais

Nome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F)

Nome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F) ESTATÍSTICA I 2. o Ano/Gestão 1. o Semestre Época Normal Duração: 2 horas 1. a Parte Teórica N. o de Exame: RESOLUÇÃO 09.01.2015 Este exame é composto por duas partes. Esta é a 1 a Parte Teórica (Cotação:

Leia mais

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

Cap. 8 - Intervalos Estatísticos para uma Única Amostra Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO

Leia mais

MAB-515 Avaliação e Desempenho (DCC/UFRJ)

MAB-515 Avaliação e Desempenho (DCC/UFRJ) MAB-515 Avaliação e Desempenho (DCC/UFRJ) Aula 7: Intervalos de Confiança 13 de novembro de 2012 1 2 3 4 Percentil 100p%-percentil O ponto t 0 tal que t 0 = F 1 X (p) = min{t : F X (t) p}, 0 < p < 1 é

Leia mais

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas. 1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento

Leia mais