Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação
|
|
- Maria da Assunção Macedo Chaplin
- 5 Há anos
- Visualizações:
Transcrição
1 Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME
2 Objetivo Dada M classes ω 1, ω 2,..., ω M e um padrão desconhecido x, determinar a probabilidade condicional p(ω i x) do padrão pertencer a cada classe i. Classificar de acordo com a classe mais provável.
3 Conceitos básicos Probabilidade condicional Partição do espaço amostral Teorema de Bayes
4 Teorema de Bayes
5 Teorema de Bayes
6 Teorema de Bayes Exemplo: Considere duas urnas. A primeira contém duas bolas brancas e sete bolas pretas e a segunda contém cinco bolas brancas e seis pretas. Nós lançamos uma moeda e retiramos uma bola da primeira ou da segunda urna, dependendo do resultado do lançamento, isto é, cara (urna 1) ou coroa (urna 2). Qual é a probabilidade condicional de que o resultado do lançamento da moeda foi cara, dado que uma bola branca foi retirada?
7 Distribuição normal
8 Teoria da decisão Bayesiana Vamos começar tratando do caso de duas classes: Padrão desconhecido é representado por: [ x x ] T x =,..., 1, 2 Sejam ω 1 e ω 2 duas classes nas quais um dado padrão devem pertencer. Assumimos que conhecemos as probabilidades à priori: P(ω 1 ) e P(ω 2 ). Estas probabilidades podem ser estimadas do conjunto de treinamento. x l
9 Teoria da decisão Bayesiana Se N é o número total de padrões disponíveis para treinamento, onde N 1 é da classe ω 1 e N 2 da classe ω 2, então: P(ω 1 )~N 1 /N P(ω 2 ) ~ N 2 /N
10 Teoria da decisão Bayesiana Também assumimos que conhecemos as funções densidades condicionais de probabilidades de cada classe: p(x ω i ), i=1,2, Que descreve a distribuição de probabilidades das características de cada classe.
11 Teoria da decisão Bayesiana
12 Teoria da decisão Bayesiana Se p(x ω i ), i=1,2, não são conhecidas, elas podem ser estimadas. p(x ω i ) é chamada também: função de máxima verossimilhanca de ω i com respeito a x.
13 Teoria da decisão Bayesiana Como conhecemos p(x ω i ) e P(ω i ), i=1,2, podemos usar o teorema de Bayes para determinar: Ou seja a probabilidade condicional do padrão descrito por x pertencer à classe ω i.
14 Teoria da decisão Bayesiana Pela lei da probabilidade total: Logo, podemos calcular para cada classe:
15 Teoria da decisão Bayesiana A regra de classificação Bayesiana será então: Ou seja:
16 Teoria da decisão Bayesiana Para duas classes equiprováveis: l = 1d R1 ( ω1) e R2( ω2)
17 Teoria da decisão Bayesiana Erro associado à classificação: Para duas classes: área indicada sob as curvas l = 1d
18 Teoria da decisão Bayesiana Erro associado à classificação: Região de erro l = 1d
19 Teoria da decisão Bayesiana Erro associado à classificação: Se movermos x 0 para a esquerda, há um aumento do erro, indicado pela área em cinza l = 1d
20 Minimização da probabilidade de erro Podemos mostrar que o classificador Bayesiana é ótimo com respeito à minimização da probabilidade de erro na classificação. Prova: O padrão dado por x pertence à R2 e é da classe ω 1
21 Minimização da probabilidade de erro Usando a regra de Bayes: Obtemos:
22 Minimização da probabilidade de erro Assim, vemos que o erro é minimizado se as regiões R1 e R2 são escolhidas de tal modo que: Ou seja, podemos escrever:
23 Minimização da probabilidade de erro Combinando: Obtemos:
24 Minimização da probabilidade de erro Assim, a probabilidade de erro é minimizada se R1 é a região do espaço na qual P(ω 1 x) > P(ω 2 x). R2 se torna a região onde o caso contrário é verdadeiro.
25 Minimização da probabilidade de erro Esse raciocínio pode ser usado para um número qualquer de classes, sendo o padrão representado por x classificado com pertence à classe ω i se Tal escolha minimiza o erro de classificação, conforme verificamos para duas classes.
26 Minimização do risco médio A minimização da probabilidade de erro nem sempre é a melhor escolha para minimização. Em alguns casos, pode ser associada uma penalidade para cada erro, de modo que algumas decisões são mais importantes do que outras. Por exemplo, é muito mais sério para um doutor diagnosticar um tumor maligno como sendo benigno do que o caso contrário.
27 Minimização do risco médio Assim, podemos minimizar uma versão modificada da probabilidade de erro, isto é: pesos Classificação de padrões da classe w1 como sendo da classe w2 tem um efeito maior na função custo do que o erro associado ao segundo termo na soma acima.
28 Minimização do risco médio Para o caso geral de M classes: Assuma que o vetor de características x que pertence à classe ω k caia na região R i, com k diferente de i. Logo, este vetor é classificado como pertencente à classe ω i e um erro é cometido. Uma penalidade λ ki (conhecida como perda) é associada com esta decisão errada.
29 Minimização do risco médio A função de risco associada com ω k é dada por: que representa a probabilidade de um vetor de características da classe ω k ser classificado como sendo da classe ω i ponderado por λ ki.
30 Minimização do risco médio O objetivo agora é escolher a partição das regiões de classificação onde o risco médio seja minimizado: Isto é obtido se cada integral ser minimizada, o que é equivalente à selecionar as regiões de partição de tal modo que:
31 Minimização do risco médio Tal minimização é obtida se: Assim, a minimização do risco médio é equivalente à minimização da probabilidade de erro na classificação.
32 Minimização do risco médio Para o caso de duas classes: M=2 Classificamos x como sendo da classe ω 1 se l 1 < l 2 : De maneira geral: Razão de verossimilhança
33 Minimização do risco médio Exemplo: = = = = = ) ( ) ( ) 1) ( exp( 1 ) ( ) exp( 1 ) ( L P P x x p x x p ω ω π ω π ω
34 2 1 ) 1) ( exp( ) exp( : = = x x x x Minimização do risco médio Limiar para mínimo Pe: Limiar para mínimo r: ) (1 ˆ ) 1) ( 2exp( ) exp( : ˆ < = = n x x x x l
35 Minimização do risco médio L =
36 Superfícies de decisão
37 Superfícies de decisão 0 ) ( ) ( ) ( = x P x P x g j ω i ω Se R i e R j são regiões vizinhas, a superfície de decisão é dada pela equação: ) ( ) ( : ) ( ) ( : x P x P R x P x P R i j j j i i ω ω ω ω > > + 0 ) ( = x g -
38 Classificação Bayesiana para distribuições normais
39 Função densidade de prob. Gaussiana Teorema do limite central: Seja X 1, X 2,... X n uma seqüência de variáveis aleatórias independentes com E[X i ] =µ i e var[x i ] = σ 2, i i =1, 2,... Façamos X = X 1 + X X n, então, X Zn = tem aproximadamente a distribuição N(0,1). n i = 1 n i = 1 σ µ 2 i i
40 Função densidade de prob. Gaussiana A gaussiana unidimensional:
41 Função densidade de prob. Gaussiana A gaussiana unidimensional:
42 Função densidade de prob. Gaussiana A gaussiana em l-dimensões: Determinante de Σ Vetor de médias (l X 1) Matriz de covariância (l X l)
43 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância entre as variáveis x1 e x2.
44 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância diagonal:
45 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância diagonal:
46 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância diagonal:
47 Função densidade de prob. Gaussiana No caso bi-dimensional: l=2 Covariância não-diagonal:
48 Classes normalmente distribuídas Devido à forma exponencial das densidades é preferível trabalhar com funções logarítmicas: Função discriminante: ) ( ln ) ( ln )) ( ) ( ln( ) ( i i i i i P x p P x p x g ω ω ω ω + = = i i i i i i T i i C C P x x x g Σ = + + Σ = )ln 2 1 ( )ln 2 2 ( ) ( ln ) ( ) ( 2 1 ) ( 1 π ω µ µ l mas:
49 Classes normalmente distribuídas Exemplo: l = 2 = Σ σ σ i i i i i i i i C P x x x x x g = ) ln( ) ( 2 1 ) ( 1 ) ( 2 1 ) ( ω µ µ σ µ µ σ σ Assim, g i (x) se torna:
50 Classes normalmente distribuídas E as regiões de separação: g i ( x) g ( x) = j 0 São superfícies quádricas: Elipses, hipérboles, pares de linhas, etc.
51 Classes normalmente distribuídas
52 Classes normalmente distribuídas
53 Classificadores de distância mínima Vamos assumir que as classes são equiprováveis e com mesma matriz de covariância: 1 P( ω i ) = M A função discriminante se torna: 1 T 1 g i ( x) = ( x µ i ) Σ ( x µ i ) 2
54 Classificadores de distância mínima Σ = σ 2 I : Matriz de covariância diagonal: Classifique x como sendo da classe ω i se a distância euclidiana do vetor característica ao vetor média da classe ω i é mínima: d x µ E i
55 Classificadores de distância mínima Σ σ 2 I : Matriz de covariância não-diagonal: Classifique x como sendo da classe ω i se a distância de Mahalanobis do vetor característica ao vetor média da classe ω i é mínima: 1 d = ((x µ ) Σ ( x µ )) m i T i 1 2 Minimização da norma de Σ -1
56 Classificadores de distância mínima Exemplo: Para duas classes, os vetores de características são gerados por duas distribuições normais com mesma matriz de covariância: E médias: Classifique o padrão dado por: Σ = , 0 0 ),, ( ) ( ),, ( ) ( e ) ( ) ( = = = = = µ µ µ ω µ ω ω ω Σ N x p Σ N x p P P = x
57 Classificadores de distância mínima Solução: Vamos calcular a distância de Mahalanobis para as duas classes: ω 1 ω 2 Logo, o padrão pertence à classe ω 1 OBS: Note que o vetor está mais próximo da classe 2 em termos da distância euclidiana (verifique).
58 Estimação de funções densidade de probabilidade desconhecidas
59 Estimação Em muitos casos fdp deve ser estimada dos dados disponíveis. Muitas vezes é conhecido o tipo da fdp (gaussiana, exponencial, etc), mas não seus parâmetros (média, desvio padrão, etc). Em outros casos, não se sabe a forma da fdp, mas sim seus parâmetros (média, desvio padrão, etc).
60 Estimação: máxima verossimilhança Estimação de parâmetros via máxima verossimilhança Objetivo: Estimar os parâmetros da fdp usando um conjunto de vetores de características de cada classe. Sejam x1, x2,..., x N amostras aleatórias da fdp: θ : p( x) p( x; θ ) vetores
61 Assuma independência entre as amostras. Então: { } ) ; ( ) ;,..., ( ) ; (,..., θ θ θ k N k N N x p x x x p X p x x x X = = Π = Estimação: máxima verossimilhança
62 0 ) ( ) ( ) ( 1 ) ( ) ( : ˆ ) ; ( ln ) ; ( ln ) ( ) ; ( arg max : ˆ ; ; ML = Σ = Σ = Π = = = θ θ θ θ θ θ θ θ θ θ θ θ k k N k ML k N k k Ν k x p x p L x p X p L x p O estimador de máxima verossimilhança de θ: Estima θ de tal modo que a função de verossimilhança tome seu valor máximo. Estimação: máxima verossimilhança
63 Estimação: máxima verossimilhança Propriedade do estimador de máxima verossimilhança de θ: Assintoticamente não viesado: Na média, converge para o valor real quando o número de amostras é grande. Vetor:
64 Estimação: máxima verossimilhança Propriedade do estimador de máxima verossimilhança de θ: Assintoticamente consistente: A variância do estimador tende a zero quando N é grande.
65 Estimação: máxima verossimilhança Propriedade do estimador de máxima verossimilhança de θ: O estimador é assintoticamente eficiente, isto é, ele obedece à desigualdade de Cramer-Rao. Logo, o estimador com menor variância dentre todos os estimadores possíveis.
66 Estimação: máxima verossimilhança Exemplo 1: Assuma que N pontos x 1, x 2,..., x N foram gerados por uma gaussiana unidimensional com média conhecida µ, mas variância desconhecida. Determine o estimador de máxima verossimilhança para a variância.
67 Estimação: máxima verossimilhança Solução: A função (log) de máxima verossimilhança: Tomando a derivada em ambos os lados com respeito a σ 2, obtemos:
68 Estimação: máxima verossimilhança Solução: Assim: Esse estimador é não viesado pois: Para N grande:
69 Estimação: máxima verossimilhança Exemplo 2: Assuma que N vetores x 1, x 2,..., x N foram providos por uma distribuição normal com matriz de covariância conhecida, mas média desconhecida: Determine o estimador de máxima verossimilhança para o vetor média.
70 Estimação: máxima verossimilhança Solução: A função (log) de máxima verossimilhança: Tomando o gradiente com relação à µ e igualando a zero: Obtemos:
71 Estimação: máxima verossimilhança Solução: Assim: Esse estimador é não viesado pois: Para N grande:
72 Estimação: inferência Bayesiana Inferência Bayesiana: Dado o conjunto X de N vetores de treinamento e uma informação a priori da fdp p(θ), o objetivo é calcular a fdp condicional p(x X). Temos: onde
73 Estimação: inferência Bayesiana Inferência Bayesiana: Ou seja: Como p(q X) considera integrais que muitas vezes não possuem solução exata, é necessária a utilização de métodos numéricos: Markov Chain Monte Carlo (MCMC), tais como Gibbs Sampler e Metropolis Hastings.
74 Estimação: inferência Bayesiana Exemplo: Seja p(x µ) uma gaussiana univariada N(µ,σ 2 ) com parâmetro média desconhecido que também segue uma gaussiana N(µ 0,σ 02 ). Usando a metodologia de inferência Bayesiana:
75 Estimação: inferência Bayesiana Observação: Os métodos de estimação por máxima verossimilhança e estimação Bayesiana resultam no mesmo estimador quando o número de conjuntos de treinamentos N é grande, mas levam a resultados diferentes para N pequeno.
76 Estimação: Outros métodos Mistura de gaussianas: Expectation maximization Estimação máxima à posteriori.
77 Classificação Bayesiana não paramétrica
78 Estimação não-paramétrica Métodos não paramétricos são variações da aproximação de fdps por histogramas. Caixas de tamanhos diferentes.
79 Estimação não-paramétrica No caso do histograma: Número de pontos dentro da caixa Largura da caixa Ponto médio da caixa
80 Estimação não-paramétrica Janelas de Parzen No espaço l-dimensional, ao invés de caixas de tamanho h, temos hipercubos de lado h e volume h l. Seja x i, i=1, 2,..., N os vetores de características disponíveis. Definamos a função: onde x ij, i=1,2,.., l são as componentes de x i.
81 Estimação não-paramétrica Janelas de Parzen Ou seja, a função é igual a um para todos os pontos dentro do hipercubo de dimensão unitária e igual a zero, caso contrário.
82 Estimação não-paramétrica Janelas de Parzen Assim:
83 Estimação não-paramétrica Janelas de Parzen Parzen em 1962 generalizou a aproximação por histograma usando uma função mais suave: Janela de Parzen
84 Estimação não-paramétrica Janelas de Parzen Para o caso de uma janela gaussiana N(0,I) A fdp aproximada como uma média de N gaussianas, cada uma centrada em diferentes pontos do conjunto de treinamento. O parâmetro h controla a largura da gaussiana.
85 Estimação não-paramétrica Janelas de Parzen
86 Estimação não-paramétrica Janelas de Parzen
87 Estimação não-paramétrica Janelas de Parzen h = 0,1 e N= 1,000 h = 0,1 e N=
88 Estimação não-paramétrica Janelas de Parzen % generate synthetic data X1 = [randn(500,1) randn(500,1)+2]; X2 = [randn(500,1)+5 randn(500,1)]; data=[x1; X2]; N = 5; [bandwidth,density,x,y]=kde2d(data,n); % plot the data and the density estimate contour3(x,y,density,50), hold on plot(data(:,1),data(:,2),'r.','markersize',5)
89 Estimação não-paramétrica Janelas de Parzen: N = 5
90 Estimação não-paramétrica Janelas de Parzen: N = 10
91 Estimação não-paramétrica Janelas de Parzen: N = 50
92 Estimação não-paramétrica Janelas de Parzen: N = 500
93 Estimação não-paramétrica Janelas de Parzen No caso em que h tende a zero, é um estimador não viesado de p(x). Note que esse fato é independente do tamanho da amostra N.
94 Estimação não-paramétrica Janelas de Parzen Classificação:
95 Estimação não-paramétrica Projeto Usando os features do projeto anterior. Implemente os classificadores de distância mínima (euclidiana e Mahalanobis). Classifique as imagens usando a metodologia bayesiana paramétrica. Escolha duas características e faça a classificação usando janelas de Parzen.
96 Referências C. Bishop, Pattern Recognition and Machine Learning, Springer (2006) Sergios Theodoridis, Konstantinos Koutroumbas, Pattern Recognition. Elsevier (2006).
CC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo
Leia maisp( y θ ) depende de um parâmetro desconhecido θ.
55Modelação, Identificação e Controlo Digital 55 Método de Máxima Verosimilhança (Maximum Likelihood) Seja y uma variável aleatória (v. a.) cuja densidade de probabilidade p( y θ ) depende de um parâmetro
Leia maisDistribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 2012/02 1 Introdução 2 3 4 5 Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z
Leia maisEstimação: (A) Propriedades e Distribuições Amostrais
Estimação: (A) Propriedades e Distribuições Amostrais Wagner H. Bonat Fernando P. Mayer Elias T. Krainski Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação
Leia maisReconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.
Leia maisPROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)
PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia maisInferência Estatistica
Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns
Leia maisClassificadores. André Tavares da Silva.
Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:
Leia mais3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.
1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-
Leia maisMétodos Não Paramétricos
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir
Leia maisAGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC
1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que
Leia maisAprendizado por Instâncias Janelas de Parzen & Knn
Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por
Leia maisDistribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 19 de Maio de 2011 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Inferência estatística lassificador bayesiano Inferência estatística Na inferência estatística, toma-se uma decisão usando a informação contida numa amostra. Na abordagem paramétrica,
Leia maisProbabilidade e Estatística
Probabilidade e Estatística stica Prof. Dr. Narciso Gonçalves da Silva http://paginapessoal.utfpr.edu.br/ngsilva Inferência Estatística stica e Distribuições Amostrais Inferência Estatística stica O objetivo
Leia maisINTRODUÇÃO À INFERÊNCIA ESTATÍSTICA
UFPE - Universidade Federal de Pernambuco Departamento de Estatística Disciplina: ET-406 Estatística Econômica Professor: Waldemar A. de Santa Cruz Oliveira Júnior INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA Podemos
Leia maisGibbs Sampler para ANOVA e Misturas
Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados
Leia maisRafael Izbicki 1 / 38
Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)
Leia maisDistribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores
Leia maisMOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,
Leia maisAULA 7 - Inferência em MQO: ICs e Testes de
AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos
Leia maisDISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia
ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:
Leia maisPRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES Certas distribuições de probabilidades se encaixam em diversas situações práticas As principais são: se v.a. discreta Distribuição de Bernoulli Distribuição binomial
Leia maisMinera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33
Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto
Leia maisAula 1: k-nearest Neighbors
Aula 1: k-nearest Neighbors Paulo C. Marques F. Aula ministrada no Insper 29 de Janeiro de 2016 Insper Aula 1: k-nearest Neighbors 29 de Janeiro de 2016 1 / 14 O problema geral de classificação Insper
Leia maisIntrodução ao Processamento Estatístico de Sinais
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisFernando de Pol Mayer
Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative
Leia maisDistribuição Amostral e Estimação Pontual de Parâmetros
Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências População e Amostra
Leia maisTécnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.
Leia maisAGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares
1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,
Leia maisMOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ 13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 3 4 5 6 7 8 9 10 11 1 13 14 15 e 16 Introdução à probabilidade (eventos,
Leia maisLista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL.
Introdução à Inferência Estatística Departamento de Física é Matemática. USP-RP. Prof. Rafael A. Rosales 5 de setembro de 004 Lista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL. 1 Medidas Resumo DISTRIBUIÇÕES
Leia maisVetor de Variáveis Aleatórias
Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias
Leia maisInferência Bayesiana
Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF
Leia maisFernando de Pol Mayer
Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative
Leia maisAumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento
Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento Ian Meneghel Danilevicz Walmir dos Reis Miranda Filho Métodos Computacionais Aplicados à Estatística Prof.: Cristiano
Leia maisCLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
Leia maisMOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ 3 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 2 3 4 5 6 7 8 9 0 2 3 4 5 e 6 Introdução à probabilidade (eventos, espaço
Leia maisUniversidade Federal de Lavras
Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 6 a Lista de Exercícios Teoria da Estimação pontual e intervalar 1) Marcar como verdadeira ou falsa as seguintes
Leia maisInferência Bayesiana - Aula 1 -
Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Leia maisModelos Lineares Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite. Professora Ariane Ferreira
Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite Professora Ariane Ferreira Modelos Probabilísticos de v.a. continuas Distribuição de Probabilidades 2 IPRJ UERJ Ariane Ferreira
Leia maisRicardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Leia maisIntrodução à Probabilidade e à Estatística II
Introdução à Probabilidade e à Estatística II Introdução à Inferência Estatística Capítulo 10, Estatística Básica (Bussab&Morettin, 7a Edição) Lígia Henriques-Rodrigues MAE0229 1º semestre 2018 1 / 36
Leia maisNoções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
Leia maisIntervalos de Confiança
Intervalos de Confiança Carla Henriques e Nuno Bastos Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques e Nuno Bastos (DepMAT) Intervalos de Confiança 2010/2011 1 / 33 Introdução
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 12 de Gonzales Reconhecimento de Padrões (imagem) Objetivo: Interpretar o conteúdo da imagem através de um mapeamento
Leia maisCONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS As variáveis aleatórias X e Y seguem uma distribuição de Bernoulli com probabilidade de sucesso igual a 0,4. Considerando S = X + Y e que os eventos aleatórios A = [X = 1] e B
Leia maisTeoria da Probabilidade
Teoria da Probabilidade Luis Henrique Assumpção Lolis 14 de fevereiro de 2014 Luis Henrique Assumpção Lolis Teoria da Probabilidade 1 Conteúdo 1 O Experimento Aleatório 2 Espaço de amostras 3 Álgebra dos
Leia maisVARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE
VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE.1 INTRODUÇÃO Admita que, de um lote de 10 peças, 3 das quais são defeituosas, peças são etraídas ao acaso, juntas (ou uma a uma, sem reposição). Estamos
Leia maisInferência para CS Tópico 10 - Princípios de Estimação Pontual
Inferência para CS Tópico 10 - Princípios de Estimação Pontual Renato Martins Assunção DCC - UFMG 2013 Renato Martins Assunção (DCC - UFMG) Inferência para CS Tópico 10 - Princípios de Estimação Pontual
Leia maisCC-226 Introdução à Análise de Padrões
CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de
Leia maisAnálise Bayesiana de Dados - Aula 1 -
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Leia maisPROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012
PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou
Leia maisMAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e
Leia maisInferência para CS Modelos univariados contínuos
Inferência para CS Modelos univariados contínuos Renato Martins Assunção DCC - UFMG 2014 Renato Martins Assunção (DCC - UFMG) Inferência para CS Modelos univariados contínuos 2014 1 / 42 V.A. Contínua
Leia maisFunções Discriminantes Lineares
Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:
Leia mais2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB.
2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB. 1) Classifique as seguintes variáveis aleatórias como discretas ou contínuas. X : o número de acidentes de automóvel por ano na rodovia BR 116. Y :
Leia maisF- Classificação. Banda A
F- Classificação Classificação Digital é associar determinado pixel a determinada categoria por meio de critérios estatísticos Banda B? da d b dc Espaço dos Atributos Classes Banda A Classificação: ordenar,
Leia maisEstatística Aplicada II. } Revisão: Probabilidade } Propriedades da Média Amostral
Estatística Aplicada II } Revisão: Probabilidade } Propriedades da Média Amostral 1 Aula de hoje } Tópicos } Revisão: } Distribuição de probabilidade } Variáveis aleatórias } Distribuição normal } Propriedades
Leia maisControle Ótimo - Aula 6 Exemplos e Exercícios
Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia maisModelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados
Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:
Leia maisMEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana
MEEMF-2010 Aula 01 Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana O que é inferência estatística? Inferência estatística é o importante ramo da Estatística
Leia maisCE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística
CE085 - Estatística Inferencial Função de Verossimilhança e suas derivadas Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal
Leia maisAGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 6. O Método da Máxima Verossimilhança- I Laerte Sodré Jr. 1o. semestre, 2019 introdução aula de hoje: 1 modelagem dos dados 2 a verossimilhança
Leia maisFundamentos de Estatística
Fundamentos de Estatística Clássica Workshop Análise de Incertezas e Validação Programa de Verão 2017 Marcio Borges 1 1LABORATÓRIO NACIONAL DE COMPUTAÇÃO CIENTÍFICA mrborges@lncc.br Petrópolis, 9 de Fevereiro
Leia maisReconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso Sumário:
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 6 de outubro de 2016 Segmentação de imagens A segmentação
Leia maisAULA 17 - Distribuição Uniforme e Normal
AULA 17 - Distribuição Uniforme e Normal Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Distribuições Contínuas Em muitos problemas se torna matematicamente mais simples considerar um espaço
Leia maisθ depende de um parâmetro desconhecido θ.
73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo
Leia maisConceitos e aplicações de Estatística em pesquisa cientíca utilizando o R
Conceitos e aplicações de Estatística em pesquisa cientíca utilizando o R Resumo da Parte Teórica Silvio Rodrigues de Faria Junior Departamento de Estatística - IME-USP Eventos e Probabilidade. Experimento
Leia maisProcessos Estocásticos
Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade
Leia maisDistribuição Normal. Prof. Eduardo Bezerra. (CEFET/RJ) - BCC - Inferência Estatística. 25 de agosto de 2017
padrão - padronização Distribuição Normal Prof. Eduardo Bezerra (CEFET/RJ) - BCC - Inferência Estatística 25 de agosto de 2017 Eduardo Bezerra (CEFET/RJ) Distribuição Normal Março/2017 1 / 32 Roteiro Distribuições
Leia maisAmostra Aleatória. Tiago Viana Flor de Santana
ESTATÍSTICA BÁSICA Amostra Aleatória Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual de Londrina UEL Departamento de
Leia maisTécnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Métodos de Monte Carlo baseados em Cadeias de Markov:
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Tópicos 1. Seleção de atributos 2. Redução de
Leia maisMetodologia de inversão
6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único
Leia maisO teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(a B) prob(b) prob(a)
O teorema de Bayes O teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(b A) = no qual o denominador é a probabilidade total. prob(a B) prob(b), (4) prob(a)
Leia maisSUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS
4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está
Leia maisAula 2 Uma breve revisão sobre modelos lineares
Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar
Leia maisCOMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA
COMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA Felipe Matheus Gonçalves Costa (1); Divanilda Maia Esteves (2) 1 Universidade Estadual da Paraíba; felipematheusem@hotmail.com.br 2 Universidade
Leia maisa) o time ganhe 25 jogos ou mais; b) o time ganhe mais jogos contra times da classe A do que da classe B.
Universidade de Brasília Departamento de Estatística 5 a Lista de PE. Um time de basquete irá jogar uma temporada de 44 jogos. desses jogos serão disputados contra times da classe A e os 8 restantes contra
Leia maisExercícios de programação
Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana
Leia maisNovembro/2018. Ajuste Automático ao Histórico em Simulação de Reservatórios
Ajuste Automático ao Histórico Simulação de Reservatórios Flavio Dickstein Paulo Goldfeld Renan V. Pinto IM/UFRJ IM/UFRJ LabMAPetro/UFRJ Novembro/2018 Simulação sob incerteza (i) O reservatório é inacessível
Leia maisBIOESTATÍSTICA. Parte 3 Variáveis Aleatórias
BIOESTATÍSTICA Parte 3 Variáveis Aleatórias Aulas Teóricas de 29/03/2011 a 26/04/2011 3.1. Conceito de Variável Aleatória. Função de Distribuição Variáveis aleatórias Uma variável aleatória pode ser entendida
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Leia maisProfessora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.
Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Distribuições Amostrais O intuito de fazer uma amostragem
Leia maisNome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F)
ESTATÍSTICA I 2. o Ano/Gestão 1. o Semestre Época Normal Duração: 2 horas 1. a Parte Teórica N. o de Exame: RESOLUÇÃO 09.01.2015 Este exame é composto por duas partes. Esta é a 1 a Parte Teórica (Cotação:
Leia maisCap. 8 - Intervalos Estatísticos para uma Única Amostra
Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO
Leia maisMAB-515 Avaliação e Desempenho (DCC/UFRJ)
MAB-515 Avaliação e Desempenho (DCC/UFRJ) Aula 7: Intervalos de Confiança 13 de novembro de 2012 1 2 3 4 Percentil 100p%-percentil O ponto t 0 tal que t 0 = F 1 X (p) = min{t : F X (t) p}, 0 < p < 1 é
Leia maisDefinição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
Leia mais