Apêndice D Distribuição gaussiana Existem diversas situações práticas em que não é possível prever o resultado, apenas a probabilidade de um determinado resultado ocorrer. No dia a dia lidamos com alguns casos assim, como a previsão do tempo e o resultado da loteria. Na Física você já deve ter aprendido que no estudo dos gases lidamos com o elevadíssimo número de moléculas, tratando-as de forma estatística. O resultado de uma medição também é imprevisível. Se estivermos com um instrumento preciso o suficiente veremos que, ao repetir uma determinada medição, obtemos valores que variam a partir de uma determinada casa decimal de forma aleatória. Podemos entender um pouco sobre essa aleatoriedade se conhecermos a probabilidade de ocorrência de um determinado valor da medida. Se formos usar números reais para representar nossas medidas fica sem sentido falar da probabilidade de um determinado valor ocorrer. Em vez disso, definimos a probabilidade de encontrar um valor num determinado intervalo. Chamando de x o valor de uma determinada variável aleatória definimos a probabilidade de encontrar o valor da medida entre x e x + dx, dp(x), como dp(x) = f(x)dx (D.) A função f(x) é o que chamamos de função distribuição. Ela dá a densidade de probabilidade no intervalo especificado e pode assumir diversas formas dependendo do problema. A probabilidade de se ter valores num intervalo finito definido entre a e b, b > a é dada por P(a x b) = b a f(x)dx = b a dp(x). (D.2) Na figura D. você pode ver alguns exemplos de distribuições mais frequentemente utilizadas. Quando estamos lidando com um problema que envolve variáveis aleatórias, conhecer a distribuição de probabilidades f(x) equivale a resolver a equação de movimento nos problemas determinísticos. Infelizmente a forma exata de f(x) só pode ser encontrada em algumas poucas situações muito simplificadas. Encontrar uma f(x) que descreva as principais características de um sistema já é muito! As quatro funções mostradas na figura D. aparecem frequentemente em problemas de física. Aqui vamos nos deter na distribuição gaussiana que é a mais simples depois da distribuição uniforme, embora corresponda a uma grande variedade de situações. 47
48 APÊNDICE D. DISTRIBUIÇÃO GAUSSIANA Figura D.: Gráficos de algumas distribuições. (a) Uniforme: f(x) = [ ] 2 Gaussiana: f(x) = σ P 2π exp ; (c) Log-normal: f(x) = Poisson: f(x) = µx e µ x!. (x µ)2 xσ P 2π exp para < x < 2; (b) [ ] ; (d) de ln(x/µ)2 A expressão da distribuição gaussiana é [ f G (x) = exp σ P 2π ] (x µ)2 Observamos que ela depende de dois parâmetros, µ e σ P definidos como e σ P = µ = + + dx xf G (x) dx (x µ) 2 f G (x).. (D.3) (D.4) (D.5) Estes parâmetros nada mais são do que a média e o desvio padrão, definidos para um sistema ideal contínuo regido pela distribuição gaussiana. O desvio padrão σ P, assim como no caso discreto, mede a dispersão dos valores de x. µ é o que chamamos de valor médio ideal ou verdadeiro sendo inatingível na prática. Seriam necessárias infinitas medidas para determinar µ, como sempre temos um número finito de medidas, nossa média aritmética x no fundo é uma estimativa de µ. Mais adiante veremos como estimar a distância entre µ e x. Podemos observar que a distribuição gaussiana é uma função simétrica com relação a x = µ, ou seja f G (µ + ) = f G (µ ), para qualquer valor de. Isso significa que flutuações para
49 mais ou para menos no valor de x = µ são igualmente prováveis. Também temos que f G tem seu valor máximo em x = µ. Isso pode ser facilmente verificado através do cálculo da derivada de f G. O valor de f G (x) no ponto de máximo é dado por f G (µ) e vale f Gmax = σ P 2π. (D.6) Com isso podemos escrever a distribuição gaussiana como [ ] (x µ)2 f G (x) = f Gmax exp. (D.7) Os fatores numéricos garantem a normalização já que [ ] + (x µ)2 dx exp =, (D.8) σ P 2π ou seja, a probabilidade de se encontrar qualquer valor como resultado da medida é %. Veja no final do Apêndice como calcular a integral da equação (D.8). Agora vamos verificar a influência dos parâmetros µ e σ P na forma da distribuição gaussiana. A figura D.2 mostra gráficos de f G (x) para diversos valores desses parâmetros. Como já dissemos, valor de µ dá a posição do máximo e posiciona a curva como um todo. O parâmetro σ P Figura D.2: Gráficos de distribuições gaussianas a partir da expressão (D.3). O valor de µ indica a posição da curva e a localização de seu ponto de máximo. σ P está associado à largura da curva. Os dois parâmetros são independentes entre si. está relacionado a largura da gaussiana e com a rapidez com que f G cai quando nos afastamos de seu valor máximo. Podemos ver como σ P está relacionado com a largura da curva de várias maneiras. Por exemplo, podemos calcular em que pontos ela cai a f Gmax /e ou a 36,8% de f Gmax. Chamando esses pontos de x + e x, temos: f G (x ± ) = f Gmax e [ (x ± µ) 2 ] = x ± = µ ± σ P 2. (D.9)
5 APÊNDICE D. DISTRIBUIÇÃO GAUSSIANA Também poderíamos estimar a largura da distribuição gaussiana pelo cálculo dos pontos nos quais ela cai à metade de seu valor máximo, ou seja, impondo f G (x ± ) = f Gmax /2. Ou seja, (x ± µ) 2 = ln2 x ± = µ ± σ P 2ln2. (D.) A figura D.3 ilustra estas duas análises. Observando-a, vemos que, a menos de fatores numéricos, σ P nos dá a largura da curva. Figura D.3: Determinação da largura da gaussiana a partir de dois critérios diferentes. (a) Escolhemos os pontos em que a curva cai a e do seu valor máximo, como na equação (D.9). (b) Escolhemos os pontos onde a curva cai à metade de seu valor máximo, como na equação (D.). Vamos calcular a probabilidade de encontrar x entre µ nσ P e µ+nσ P, sendo n um número inteiro. Para este cálculo a posição da curva não importa, já que ela é simétrica em relação a µ. Então, podemos tomar, por simplicidade, µ =. Usamos a expressão (D.2) para este cálculo: P( nσ P x +nσ P ) = +nσp exp σ P 2π nσ P ( x2 ) dx. (D.) Agora fazemos a troca de variável x/σ P 2 u, dx = σp 2 du. Com isso a integral toma a forma: P( nσ P x +nσ P ) = +n/ 2 e u2 du. (D.2) π n/ 2 Esta integral não pode ser calculada analiticamente, devemos consultar alguma tabela. Usaremos para isso a função erro que tem a seguinte definição: erf(a) 2 a e u2 du = +a e u2 du. π π a (D.3) Assim, temos que, ( ) n P( nσ P x +nσ P ) = erf. (D.4) 2 Consultando uma tabela de integrais encontramos:
5 n P( nσ P x +nσ P ),6827 2,9545 3,9973 Este resultado significa que, ao realizar uma experiência ideal, com um número muito grande de repetições, e cujos resultados obedecem distribuição gaussiana, cerca de 68% dos valores medidos estarão na região central definida pelo intervalo µ ± σ P. Se considerarmos uma faixa de valores de 4σ P em torno do valor mais provável, teremos aí cerca de 95% dos dados. Em resumo, a chance de se obter um valor diferente do esperado em mais de 2σ P é muitíssimo pequena. Quanto menor for o valor de σ P, mais iguais a µ serão os valores medidos. A figura D.4 ilustra essas faixas numa gaussiana com σ P =. Figura D.4: Gráficos de distribuições gaussianas com σ P = e µ = mostrando as regiões compreendidas por (a) x ± σ P (68% da área total) e (b) x ± 2σ P (95% da área total). Desvio padrão da média Vamos retornar à questão de que µ é o valor médio ideal, inatingível experimentalmente, que apenas podemos estimar com a realização de N medidas. Imagine que repetimos essa série de N medidas, seguindo os mesmos procedimentos. Os novos N valores nada tem a ver com os medidos na primeira vez e provavelmente obteremos um valor médio diferente. Entretanto, devemos observar o mesmo desvio padrão já que este reflete o procedimento experimental, que não mudou. Assim, ao primeiro conjunto de N medidas, associamos os valores x e σ P e ao segundo, x 2 e σ P. Repetindo de novo e de novo, obteremos valores x 3 ± σ P, x 4 ± σ P etc. É impossível prever qual será o valor de média cada vez que fazemos as N medidas, ou seja, a média também é uma variável aleatória. E qual seria a distribuição que descreve a média, para um número infinito de repetições? É uma distribuição gaussiana de desvio padrão σ PN = σ P / N, centrada em µ. Note que a distribuição em cada conjunto de N medidas não
52 APÊNDICE D. DISTRIBUIÇÃO GAUSSIANA precisa ser gaussiana, basta que tenha σ P finito. Este importante resultado vem do Teorema do Limite Central [2]. Na vida real não vamos repetir as N medidas, mas sabemos que nossa média x tem 68% de chance de estar entre µ σ P / N e µ + σ P / N, logo, quando maior o valor de N mais nos aproximaremos de µ. Exemplo D. Imagine que uma empresa especializada em pesquisas de opinião é contratada para prever que fração V dos votos um determinado candidato terá nas eleições. Claro que é impossíve se saber o resultado com certeza, mas pode-se usar a estatística para fazer uma boa previsão. A empresa terá que fazer N medidas de V, consultando vários grupos finitos e equivalentes de eleitores. Ao final a empresa calcula V e o σ P. Agora vem um ponto importante. Vamos chamar de V real à fração que seria obtida consultando todos os eleitores, ou seja, o resultado da eleição. Para uma previsão com 68% de chance de acerto, adotamos σ PN como incerteza: V = V ± σ P. N Já se o desejado for que haja 95% chance de acerto, devemos usar uma incerteza correspondendo a 2σ PN: V = V ± 2 σ P. N Ajuste de uma gaussiana a um histograma O histograma da figura B.3 tem uma forma que sugere uma distribuição gaussiana. Vamos buscar a expressão da gaussiana que poderia ser usada para descrever esse conjunto de dados, realizando um ajuste não linear como explicado no Apêndice C. Para fazer o ajuste temos que lembrar o que é um histograma. O histograma em questão foi obtido através da classificação de N = valores de período, em segundos, em intervalos de T =,2 s. Contamos quantos valores caíam em cada intervalo, N i, depois dividimos esses valores pelo número total de medidas obtendo os valores de frequência F i = N i /N em cada intervalo. Na discussão que antecede a figura B.3, associamos os valores de F i às probabilidades P i de encontrar o valor de período naquele intervalo. Para ajustar uma distribuição gaussiana, que é contínua, devemos fazer a seguinte associação F i = N i N = P Ti + T ( i = P(T i x T i + T) = f G (x)dx f G T i + T ) T. T i 2 (D.5) Assim, concluímos que para comparar o histograma com a equação D.3 devemos dividir cada valor de F i pelo valor de T, como na terceira coluna da tabela D.. Vamos escrever a gaussiana a ser ajustada como y = [ ] b 2π exp (x a)2 2b 2. (D.6)
53 T(s) F (F/ T)( s ),6,2,,8,7,35 2,,28,4 2,2,67,335 2,4,32,66 2,6,68,84 2,8,2,5 3,,75,875 3,2,2,56 3,4,73,365 3,6,25,25 3,8,8,4 Tabela D.: Tabela para ajuste do histograma da figura B.3. T =,2 s. Comparando com a expressão (D.3) temos que y F T x T a T b σ P Podemos calcular T e σ P diretamente do conjunto de dados que gerou o histograma e usá-los como valores iniciais do ajuste. Neste caso T = 2,8 s e σ P =,4 s. Realizando o ajuste como explicado no Apêndice C temos o gráfico mostrado na figura D.5. Finalmente vamos escrever nosso resultado para o período do pêndulo. Como o parâmetro a é associado ao desvio padrão e N = temos que σ PN = a N =, s, onde já escrevemos o resultado com algarismo significativo, já que σ PN será associado à incerteza. Escolhendo ter um resultado com 68% de confiança, escrevemos Para um grau de confiança de 95% teríamos T = T ± σ PN = (2,79 ±,) s. T = T ± 2σ PN = (2,79 ±,2) s.
54 APÊNDICE D. DISTRIBUIÇÃO GAUSSIANA mt_ m atq )2 )2 mr i _i HHHi o o H _Hr _i _HH d 2-2*t/pf/(mfppqa(( oa( 2-2atpp(*_fmp//ppm 2-2_t*p_m**pa((*mp saa2sro2qt(qm**b*pmpfq_ oaf 2-2(ta/b*a/ */qb* oam2sro2btpfba_p*a_/(mb oaf a atb at( at_ a m mt/ t/ f ft/ ( Figura D.5: Ajuste de uma gaussiana ao histogramada figura B.3. Cálculo de integrais gaussianas As integrais gaussianas são extremamente importantes em todas as áreas da ciência. Quando os limites de integração são e, podemos calculá-las analiticamente em alguns poucos casos, caso contrário, apenas numericamante. Aqui vamos ver como fazer integrais do tipo I n O ponto de partida é o cálculo da integral u n e u2 du n =,, 2,... (D.7) I = + du e u2 Vamos calcular I através da integral I no plano xy, escrita em coordenadas polares como I = 2π dφ e r2 rdr = 2π ] [ e r2 I também pode ser escrita em coordenadas cartesiana, dando Assim, I = = + ( + + dx exp [ (x 2 + y 2 ) ] dy ) ( + e x2 dx I = 2 ) e y2 dy = (2I ) 2. (D.8) = π. (D.9) e u2 du = 2 π. (D.2)
55 Note também que, fazendo a troca de variável w αu, Agora vamos calcular Observe a igualdade Usando este resultado, e αu2 du = e w2 dw = π α 2 α I 2 = u 2 e αu2 du d e αu2 du = u 2 e αu2 du. dα d e αu2 du = d ( ) π dα dα 2 α I 2 = 4 π α 3. As integrais pares, I 4, I 6, etc podem ser calculadas de forma semelhante. As integrais ímpares são mais simples. I = ue αu2 du = e w dw = 2α 2α I 3, I 5 etc, podem ser feitas por partes. Os resultados de algumas integrais gaussianas estão na tabela D.2. (D.2) (D.22) (D.23) n I n n I n π 2 α 2α π 3 α 3 2 4 3 4 π 5 8 α 5 6 5 6 2α 2 π α 7 7 α 3 3 α 4 Tabela D.2: I n + u n e αu2 du
62 APÊNDICE D. DISTRIBUIÇÃO GAUSSIANA
Bibliografia [] B P Flannery, W H Press, S A Teukolsky, and W Vetterling. Numerical recipes in C. University of Cambridge, New York, 992. [2] Paul L Meyer. Probabilidade: aplicações à estatística. In Probabilidade: aplicações à estatística. Livro Técnico, 97. 63