AST203-CVR 4-1 AST203-CVR. Observação eletromagnética. Processamento de sinais importante em várias áreas, além da astronomia telecomunicações

Documentos relacionados
NOÇÕES RÁPIDAS DE ESTATÍSTICA E TRATAMENTO DE DADOS

Estimativas e Erros. Propagação de erros e Ajuste de funções

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

Física Geral - Laboratório. Aula 2: Organização e descrição de dados e parâmetros de dispersão e correlação

Física Geral - Laboratório (2014/1) Estimativas e erros em medidas diretas (I)

CONHECIMENTOS ESPECÍFICOS

Princípios de Modelagem Matemática Aula 10

Física Geral - Laboratório (2014/1) Estimativas e erros em medidas diretas (I)

Física Geral - Laboratório. Aula 3: Estimativas e erros em medidas diretas (I)

Estatísticas Inferenciais Distribuições Amostrais. Estatística

SUMÁRIO. 1.1 Introdução, Conceitos Fundamentais, 2

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 09

Avaliação e Desempenho Aula 5

6- Probabilidade e amostras: A distribuição das médias amostrais

PARTE TEÓRICA Perguntas de escolha múltipla

Física Geral (2013/1) Aula 3: Estimativas e erros em medidas diretas (I)

Introdução aos Proc. Estocásticos - ENG 430

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

3 3. Variáveis Aleatórias

CONHECIMENTOS ESPECÍFICOS

Distribuição Amostral e Estimação Pontual de Parâmetros

Distribuições de Probabilidade

Distribuições Discretas

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

Inferências bayesianas com probabilidade

Avaliação de Desempenho de Sistemas Discretos

1 Que é Estatística?, 1. 2 Séries Estatísticas, 9. 3 Medidas Descritivas, 27

Prof. Eduardo Bezerra. 6 de abril de 2018

SUMÁRIO. Prefácio, Espaço amostrai, Definição de probabilidade, Probabilidades finitas dos espaços amostrais fin itos, 20

MAE Introdução à Probabilidade e Estatística II Resolução Lista 5

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2017

Universidade Federal de Lavras

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

aula DISTRIBUIÇÃO NORMAL - PARTE I META OBJETIVOS PRÉ-REQUISITOS Apresentar o conteúdo de distribuição normal

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

Física Geral - Laboratório (2015/2) Estimativas e erros em medidas diretas (I)

Estatística Aplicada II. } Estimação e Intervalos de Confiança

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018

Modelagem e Análise de Sistemas de Computação Aula 20

3 Filtro de Kalman Discreto

3. Estimação pontual USP-ICMC-SME. USP-ICMC-SME () 3. Estimação pontual / 25

AGA Análise de Dados em Astronomia I. 2. Probabilidades

Probabilidade Revisão de Conceitos

Distribuições de Probabilidade

QUI 154/150 Química Analítica V Análise Instrumental. Aula 1 Estatística (parte 1)

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

Física Geral - Laboratório (2013/2) Aula 3: Estimativas e erros em medidas diretas (I)

Estatística Descritiva e Exploratória

Cálculo das Probabilidades e Estatística I

Redes de Computadores sem Fio

Probabilidade e Estatística

Introdução aos Proc. Estocásticos - ENG 430

A equação horária do movimento de um corpo lançado para cima em um plano inclinado por um ângulo em relação à horizontal, a partir da origem, é

Métodos Computacionais em Física

Inferência. 1 Estimativa pontual de uma média 2 Estimativa intervalar de uma média. Renata Souza

MOQ-12: PROBABILIDADES E PROCESSOS ESTOCÁSTICOS. VA s e Distribuições

Probabilidade e Estatística

Fundamentos de Estatística

Vetor de Variáveis Aleatórias

UNIVERSIDADE FEDERAL DA PARAÍBA. Variáveis Aleatórias. Departamento de Estatística Luiz Medeiros

Estatística (MAD231) Turma: IGA. Período: 2018/2

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA

VARIÁVEIS ALEATÓRIAS 1

4 ABORDAGENS METROLÓGICAS

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

2 Medida de Incertezas: Fundamentos

Aula 2. ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos

Tratamento Estatístico de Dados em Física Experimental

Análise Multivariada Aplicada à Contabilidade

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

PESQUISA EM MERCADO DE CAPITAIS. Prof. Patricia Maria Bortolon, D. Sc.

Distribuições por Amostragem

Probabilidade e Estatística. Estimação de Parâmetros Intervalo de Confiança

Probabilidade e Estatística

Análise de dados em Geociências

MODELOS DE REGRESSÃO PARA DADOS CONTÍNUOS ASSIMÉTRICOS

Distribuições Amostrais e Estimação Pontual de Parâmetros

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

MAB-515 Avaliação e Desempenho (DCC/UFRJ)

Catarina Marques. Estatística II Licenciatura em Gestão. Conceitos: População, Unidade Estatística e Amostra

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

PROGRAMA/BIBLIOGRAFIA e NORMAS DE AVALIAÇÃO

Análise de Dados em Astronomia. 3. Distribuições de Probabilidades

1 C alculo Estoc astico

Cap. 8 - Variáveis Aleatórias

DA PARAÍBA. Variáveis Aleatórias. Departamento de Estatística Luiz Medeiros

AGA Análise de Dados em Astronomia I. 1. Introdução

Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal

Análise Estatística de Experimentos

1 Variáveis Aleatórias

Física Geral - Laboratório (2015/2) Estimativas e erros em medidas diretas (I)

FÍSICA EXPERIMENTAL C ( )

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Métodos Quantitativos para Ciência da Computação Experimental

Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas

Revisões de Matemática e Estatística

Estatística. O que é Estatística? Estatística pode ser: Estatística Descritiva. Ivonete Melo de Carvalho. Conteúdo

Transcrição:

Bloco 4 Estatística Atualizado: 2012 4-1 Bibliografia Lena Cap. 4 (parte) - só a inspiração... Wall & Jenkins, Practical statistics for astronomers Brandt Statistical and computacional methods in data analysis Bevington Data reduction and error analysis for the physical sciences Gnedenko & Khinchin - An elementary introduction to the theory of probability Dwass Probability: theory and applications Saridis Stochastic processes, estimation... Link interessante: http://astrostatistics.psu.edu/ 4-2 Introdução Observação extração de parte da informação carregada pela radiação eletromagnética seleção de informação depende da técnica utilizada resultado: um sinal Processamento de sinais importante em várias áreas, além da astronomia telecomunicações controle de processos medicina Ferramentas importantes para o processamento de sinais probabilidade e estatística transformada de Fourier 4-4

Em uma observação astrofísica, ao se realizar uma medida, como em qualquer ciência experimental, temos como resultado um dado que deve ter sua: avaliação correta e exploração completa. Um experimento pode ter seu objetivo classificado como: amostragem (sampling): para caracterização de uma população teste de uma hipótese estimativa de um parâmetro 4-5

Acurácia x precisão acurácia: quão próximo do valor real está a medida precisão: quão bem um dado valor foi determinado o que chamamos normalmente de erro da medida está relacionada à sua precisão erros sistemáticos - afetam a acurácia: diferença entre o valor real e a medida que podem ser reproduzidos introduzidos por falhas de procedimento tendências da medida erros aleatórios - afetam a precisão medida da flutuação dos dados relacionada a precisão finita dos dados 4-9 Exemplo Considere o lançamento de uma moeda com dois possíveis resultados, cara e coroa, de mesma probabilidade: ζ 1 : cara ζ 2 : coroa P(ζ 1 ) = P(ζ 2 ) = 0.5 4-11 Probabilidade A probabilidade, P(ζ), do evento ζ é um número positivo entre 0 e 1. Quando se pensa em um único evento, a sua probabilidade só pode ser definida em condições invariantes Dois eventos são chamados independentes, ζ 1 e ζ 2, se a ocorrência de cada um deles é completamente desassociada da outra, isto é, a ocorrência de ζ 1 não interfere absolutamente na ocorrência de ζ 2. Nesse caso, a probabilidade dos dois eventos ocorrerem simultaneamente é dada pela multiplicação de suas probabilidades: P(ζ 1 e ζ 2 ) = P(ζ 1 ). P(ζ 2 ) 4-10 Variáveis aleatórias ou estocásticas Ao se realizar um experimento, normalmente, não existe apenas 1 resultado possível, mas vários. Assim, podemos pensar em um conjunto de resultados possíveis para um dado experimento. Porém, esse conjunto ainda não define o comportamento de um experimento. É necessário saber quais são as probabilidades de um dado resultado ocorrer: Daí entra os conceitos de função de distribuição e de densidade de probabilidade. Por que um resultado não é sempre o mesmo? Porque existem condições que determinam o resultado que não conseguimos levar em conta ou controlar. Esses desvios podem ser expressos de uma maneira estatística. Assim, o comportamento de uma variável aleatória é definido por: seu espaço amostral sua distribuição de probabilidades 4-12

Densidade de probabilidade A densidade de probabilidade (de uma variável aleatória), f(x), é tal que a probabilidade, P, da v.a. x(ζ) estar entre dois valores x 1 e x 2 é: P= x 1 x 2 f x dx Se pensarmos em eventos discretos (não contínuos), a distribuição de probabilidade pode ser expressa a partir das probabilidades, p i, de cada evento, ζ i, como: f x= i p i x x i 4-15 Evento Definimos como um evento um subconjunto de resultados dentro do espaço amostral. A um evento pode ser associado uma probabilidade, de acordo com as probabilidades dos resultados (eventos elementares) Exemplos de eventos: { x(ζ) < 0,74 } 5 caras consecutivas 4-14 Probabilidade cumulativa A probabilidade cumulativa, F(x), ou função de distribuição é a probabilidade da variável aleatória x(ζ) possuir um valor menor que x: x F x = f u du A função F(x) é tal que: F(- ) = 0 F( ) = 1 (normalizada) F(x) é uma função crescente F(x) é contínua à direita 4-16

Descrição de uma variável aleatória Considere uma função, H, dependente de uma variável aleatória f(x). H[f(x)] é também uma variável aleatória e possui uma distribuição de probabilidade que a descreve Podemos pensar em uma medida como um procedimento para determinar a variável aleatória que descreve a obtenção de uma grandeza física que é inicialmente desconhecida Assim, é adequado ter meios para descrever a variável aleatória, mesmo que parcialmente, a partir das medidas Entretanto, vamos inicialmente introduzir algumas definições formais que dependem do conhecimento da variável aleatória 4-17 A chart displaying the speed probability density functions of the speeds of a few noble gases at a temperature of 298.15K (25 C). Distribuição Velocidade + provável Velocidade média f v=4 m 2 k T 3/ 2 v 2 exp[ m v2 2k T ] v p= 2 k T m v = 8k T m Wikipedia 4-19

Momentos O momento em torno da origem de ordem k, λ k, de uma v.a. é dado por: λ k =E {x k }= x k f (x)dx Podemos também definir o momento central que é dado por: k=e {x k }= x k f xdx Se conhecemos todos os momentos, conhecemos a distribuição f(x) 4-22 Distribuição de mais de uma variável aleatória Vamos considerar uma variável aleatória, y, que é composta por n variáveis aleatórias de modo que podemos escrever sua distribuição cumulativa de densidade como: F(x 1, x 2,...,x n ) A densidade de probabilidade pode ser escrita como: f x 1, x 2,..., x n = n F x x 1 x 2... x 1, x 2,..., x n n Se as probabilidades associadas a cada v.a. são independentes, as v.a. também serão independentes. Nesse caso, temos que: f x 1, x 2,..., x n = g x 1 g x 2... g x n 4-24

Podemos definir os momentos em torno da origem nesse caso como: λ k1 k2... kn = E{ x 1 k1 x 2 k2... x n kn } E os momentos centrais como: µ k1 k2... kn = E{ (x 1 - x 1 )k1 (x 2 - x 2 )k2... (x n - x n )kn } O valor esperado pode ser expresso como: E {H x }= H x f xd x, onde x= x 1, x 2,..., x n 4-25 Lei de propagação de erros Uma variável aleatória composta por v.a. independentes possui as covariâncias nulas. Se uma variável aleatória y é uma combinação linear de variáveis aleatórias independentes, podemos definir a lei de propagação de erros: 2 y = n y j=i x j 2 2 xj 4-27 Alguns momentos específicos Médias λ 10...0 = E{ x 1 1 x 2 0... x n 0 } = E{ x 1 } = x 1 λ 01...0 = E{ x 1 0 x 2 1 x... x n 0 } = E{ x 2 } = x 2... Variâncias µ 200...0 = E{ (x 1 - x 1 )2 } = s2(x 1 ) m 020...0 = E{ (x 2 - x 2 )2 } = s2(x 2 )... Covariâncias c ij = cov(x i,x j ) = E{ (x i - x i ) (x j - x j ) } 4-26 Algumas distribuições de probabilidade importantes Distribuição normal ou Gaussiana f x= 1 2 exp [ x 2 2 2 ] Se η = 0, a distribuição é dita centrada Função cumulativa de probabilidade: x F x= onde f g u du= 1 2 { 1erf x 2 } erf x= 2 x exp t 2 dt 0 4-28

Wikipedia Funçao de distribuição de probabilidade Gaussiana 4-29 O teorema do limite central ou teorema de Lyapunov Wikipedia Funçao cumulativa de probabilidade Gaussiana 4-30 4-32 Dada uma série de variáveis aleatórias, x1, x2, x3,..., xi,..., xn, identicamente distribuídas e estatisticamente independentes (com desvio padrão não nulo), a variável aleatória representada pela soma das v.a. acima tende à distribuição normal quando n tende a infinito.

Funçao cumulativa de probabilidade de Poisson Wikipedia Barras horizontais representam que a função cresce aos saltos, pois a função de distribuição de probabilidade só existe para valores inteiros 4-35 Funçao de distribuição de probabilidade de Poisson Wikipedia 4-34 Freqüência A probabilidade de um dado evento não é normalmente conhecida. Muitas vezes a medida tem como objetivo a determinação da probabilidade associada a um evento de modo mais geral, um experimento pode fornecer a distribuição de probabilidade dos resultados possíveis Nesse caso, pode ser útil a definição de freqüência, h, do evento j: h é a fração de ocorrências do evento j com relação ao número total de experimentos h é uma variável aleatória da qual podemos definir média e variância É comum considerar a freqüência h como uma estimativa da probabilidade real do evento j 4-36

Lei dos grandes números A freqüência de um evento fração do número de ocorrências com relação ao número total de experimentos, h - tende ao valor real da probabilidade, p, com o aumento do número de repetições do evento É possível demonstrar que: a média de h tende a p a variância da média diminui com o número total de experimentos 4-37 População: conjunto de todos os resultados possíveis de um experimento pode ser finito ou infinito discreto ou contínuo Amostra: sub-conjunto da população que resulta de uma série de experimentos podemos considerar que os resultados da amostra seguem um distribuiçao de probabilidade da variável aleatória que os descrevem Amostragem aleatória elementos das amostras, eventos, são independentes cada evento é amostrado pela mesma variável aleatória e portanto pela mesma densidade de probabilidade 4-39 Uma função da amostra é uma variável aleatória e é chamada de estatística Exemplo: considere uma amostra de n resultados, z i : x 1 (z 1 ), x 2 (z 2 ), x 3 (z 3 ),..., x n (z n ) média da amostra x= 1 n i x i 4-40

Estimativa de parâmetros Suponhamos um experimento cuja forma funcional da densidade de probabilidade dos resultados, f(x), seja conhecida, mas cujos parâmetros não conhecemos. Esses parâmetros podem ser estimados pela amostra Exemplo: aproximação da emissão de uma estrela por um corpo negro. Consideramos que a densidade de fluxo segue a lei de Planck, mas não conhecemos a temperatura. A temperatura pode ser estimada pelo índice de cor. Se o valor estimado baseia-se em uma amostra, ele é uma estatística, e especificamente um estimador, S S =S x 1, x 2, x 3,..., x n 4-41 Amostragem de população População: N elementos y 1, y 2, y 3,..., y N Amostra n elementos x 1, x 2, x 3,..., x n Média da amostra x= 1 n i x i A média da amostra possue como valor esperado a média da população E {x}=y 4-43 Estimadores Estimador sem viés seu valor independe do tamanho da amostra E {S x 1, x 2, x 3,..., x n }=, n Estimador consistente sua dispersão tende a zero para uma amostra infinita lim S =0 n 4-42

A distribuição ao lado foi ajustada a uma Gaussiana. A média da amostra é igual ao valor médio da Gaussiana? Você poderia estimar visualmente a moda da distribuição observada? 4-45 Medidas com diferentes precisões Os estimadores de uma amostra citados até agora consideram que todas as medidas possuem o mesmo erro. Mas, esse pode não ser o caso. Considere uma série de medidas (x 1, x 2,...,x n ), as quais podemos associar diferentes distribuições de probabilidade que possuem mesma média h, mas diferentes variâncias (s 2 1, s2 2,...,s2 n ) Nesse caso, a média da amostra e sua variância são dadas por: x= n i n i x i / i 2 1/ i 2 2 x={ i n 1/ i 2} 1 4-47 Root mean square (RMS) Média quadrática RMS = 1 n i n xi 2 A média quadrática é útil para termos uma noção do valor médio do valor absoluto de uma grandeza, independentemente de seu sinal 4-46 Estatística Uma quantidade calculada a partir dos valores de uma amostra é chamada de estatística Assim, um estimador é uma estatística a média é uma estatística a variância é uma estatística etc 4-48

Hipótese nula De modo geral, a hipótese nula é a hipótese inicialmente assumida. É comum realizar testes estatísticos para estimar se ela é válida ou não. isso se faz pelo cálculo de uma estatística específica para o teste desejado A essa estatística costuma se associar um grau de confiança que a hipótese nula seja válida, dado pela probabilidade da estatística ocorrer 4-49 Teste de χ 2 da qualidade do ajuste Teste de hipótese O teste de χ2 é usado para comparar um conjunto de dados, Di, aos valores esperados (um modelo, por exemplo), Mi Nesse caso, podemos definir a estatística do teste de χ2 χ 2 = i n (Di M i ) 2 M i cuja função de densidade é: χ 2 f (χ 2 )=k (χ 2 ) λ 1 2 e onde λ= n 2 k= 1 Γ(λ)2 λ n: graus de liberdade 4-51 Como testar a hipótese nula, isto é, que os dados sejam bem representados pelo modelo? Em primeiro lugar, você deve definir com qual grau de confiança você quer testar a hipótese. O valor normalmente usado é 5% ou menos. Isto é, o X2 é maior que o valor medido em apenas 5% (ou menos) dos casos se a hipótese nula é verdadeira. O problema define qual o grau de liberdade. A seguir, você deve comparar qual o valor obtido com o X2 com o esperado para o grau de confiança definido. Se o X2 for maior, você descarta a hipótese nula com 5% de confiança. Vide a seguir alguns valores da probabilidade de X2 como função do grau de liberdade. 4-52

http://en.wikipedia.org/wiki/chi-squared_distribution Funçao cumulativa de probabilidade de χ 2 k: graus de liberdade 4-53 4-57 Densidade de probabilidade de χ 2 k: graus de liberdade Método dos mínimos quadrados Uma medida, y j, pode ser considerada como: y j =x j erro quantidade desconhecida Podemos determinar ε j de modo que: j j = j x y j 2 =mínimo 4-56 4-58

Aplicação do método dos mínimos quadrados Realização de n medidas do valor x representados por yj, com cada medida possuindo variância estimada de σj 2 x é uma função conhecida de n p parâmetros desconhecidos Podemos definir: M = j n x y j 2 j 2 M segue uma distribuição de probabilidade de χ 2 o número de graus de liberdade é (n - np) Além disso, a minimização de M permite um método para determinar os parâmetros np 4-59