Modelo de calibração ultraestrutural. Alina Marcondes Talarico

Tamanho: px
Começar a partir da página:

Download "Modelo de calibração ultraestrutural. Alina Marcondes Talarico"

Transcrição

1 Modelo de calibração ultraestrutural Alina Marcondes Talarico

2

3 SERVIÇO DE PÓS-GRADUAÇÃO DO ICMC-USP Data de Depósito: Assinatura: Modelo de calibração ultraestrutural Alina Marcondes Talarico Orientadora: Profa. Dra. Reiko Aoki Dissertação apresentada ao Instituto de Ciências Matemáticas e de Computação - ICMC-USP, como parte dos requisitos para obtenção do título de Mestre em Ciências - Ciências de Computação e Matemática Computacional. VERSÃO REVISADA USP São Carlos Fevereiro de 014

4 Ficha catalográfica elaborada pela Biblioteca Prof. Achille Bassi e Seção Técnica de Informática, ICMC/USP, com os dados fornecidos peloa) autora) T137m Talarico, Alina Marcondes Modelo de calibração ultraestrutural / Alina Marcondes Talarico; orientador Reiko Aoki. -- São Carlos, p. Dissertação Mestrado - Programa de Pós-Graduação em Ciências de Computação e Matemática Computacional) -- Instituto de Ciências Matemáticas e de Computação, Universidade de São Paulo, Modelo de Calibração.. Comparação interlaboratorial. 3. Distribuição normal multivariada. 4. Distribuição t multivariada. I. Aoki, Reiko, orient. II. Título. 1

5 Sumário 1 Introdução Revisão bibliográca Motivação Modelo de Calibração Normal 18.1 Função escore Matriz de informação observada Estimação dos parâmetros e testes de hipóteses Algoritmo EM Testes de hipóteses assintóticos Estimação restrita sob H Modelo de Calibração t de Student Função escore e matriz de informação observada Estimação dos parâmetros e testes de hipóteses Algoritmo EM Testes de hipóteses assintóticos Estimação restrita sob H Aplicação Resultados utilizando a distribuição Normal Resultados utilizando a distribuição t de Student Comparação dos resultados dos testes Normal e t de Student Estudos de Simulação Resultados da simulação para o valor empírico: distribuições Normal e t de Student

6 5. Resultados da simulação para o poder do teste: distribuições Normal e t de Student Conclusão nal 91 7 Trabalhos Futuros 9 8 Referências bibliográcas 93 9 Apêndice A Apêndice B Apêndice C Apêndice D 146 3

7 "A vida é construída nos sonhos e concretizada no amor." Chico Xavier 4

8 Agradecimentos A Deus por me dar forças para começar e terminar este trabalho. Aos meus avós Rosa e Wladimir pelo amor, carinho e conança que sempre tiveram por mim. À minha mãe Rosa Maria e ao meu irmão Neto por todo amor e paciência, por terem me direcionado sempre para o caminho certo e, principalmente, por me darem um exemplo a seguir. À minha cunhada Clarissa pela amizade e pelos momentos de distração e diversão. Aos amigos de graduação e pós-graduação que tornaram o desenvolvimento deste trabalho menos desgastante. À minha orientadora Reiko pelos ensinamentos. Finalmente, à CAPES pelo apoio nanceiro. Pesquisa desenvolvida com o auxílio do LCCA-Laboratório de Computação Cientíca Avançada da Universidade de São Paulo. 5

9 Resumo Os programas de Ensaios de Prociência EP) são utilizados pela sociedade para avaliar a competência e a conabilidade de laboratórios na execução de medições especícas. Atualmente, diversos grupos de EP foram estabelecidos pelo INMETRO, entre estes, o grupo de testes de motores. Cada grupo é formado por diversos laboratórios que medem o mesmo artefato e suas medições são comparadas através de métodos estatísticos. O grupo de motores escolheu um motor gasolina 1.0, gentilmente cedido pela GM Powertrain, como artefato. A potência do artefato foi medida em 10 pontos de rotação por 6 laboratórios. Aqui, motivados por este conunto de dados, estendemos o modelo de calibração comparativa de Barnett 1969) para avaliar a compatibilidade dos laboratórios considerando a distribuição t de Student e apresentamos os resultados obtidos das aplicações e simulações a este conunto de dados. 6

10 Abstract Prociency Testing PT) programs are used by society to assess the competence and the reliability in laboratories execution of specic measurements. Nowadays many PT groups were established by INMETRO, including the motor's test group. Each group is formed by laboratories measuring the same artifact and their measurements are compared through statistic methods. The motor's group chose a gasoline engine 1.0, kindly provided by GM as an artifact. The artifact's power was measured at ten points of rotation by 6 laboratories. Here, motivated by this set data, we extend the Barnet comparative calibration model 1969) to assess the compatibility of the laboratories considering the Student-t distribution and show the results obtained from application and simulation of this set data. 7

11 1 Introdução Um importante mecanismo para as exportações é a conança que o mercado deposita na rede brasileira de laboratórios. Caso tenhamos problemas nas medições de peças e componentes, não temos como garantir uma boa performance do produto que utiliza tais peças e componentes. O INMETRO Instituto Nacional de Metrologia, Normalização e Qualidade Industrial) e a sociedade desenvolveram diversos grupos de laboratórios que se reunem periodicamente para avaliar e melhorar seus sistemas de medição. Um sistema de medição corresponde ao conunto equipamentos, métodos e pessoas, utilizados para obter os resultados da medição. Entre as técnicas aplicadas, está o Ensaio de Prociência EP). O EP corresponde ao uso de comparações interlaboratoriais para determinar a performance de laboratórios para realizar medições especícas ou calibrações de acordo com o Guide 43 ISO/IEC Guide )). Com esta técnica a consistência e a comparabilidade dos dados do laboratório são monitoradas. Comparações interlaboratoriais são conduzidas não somente para analisar laboratórios, como também para avaliar métodos e padrões. Os EP's por meio de comparações interlaboratoriais são utilizados de forma corrente pelos organismos de acreditamento INMETRO), com o obetivo de avaliar e acompanhar a capacidade de medição dos laboratórios. Eles são reconhecidos internacionalmente como um elemento importante para o estabelecimento da conança mútua entre os laboratórios de diferentes países e entre organismos nacionais de acreditamento de laboratórios. Um programa de comparação interlaboratorial envolvendo diversos laboratórios requer uma estrutura organizacional adequada e um forte comprometimento dos participantes no cumprimento das condições pré-estabelecidas em documento de orientação. Os métodos de EP dependem da natureza do item ou material sob teste, do método de ensaio em uso e do número de laboratórios participantes. Existem seis tipos distintos de EP, discutidos no Guide 43: 8

12 Esquemas de comparação de medição: Um único ítem de teste é distribuído sequencialmente entre os laboratórios participantes. Cada laboratório envia o obeto para o próximo laboratório ou ao coordenador para manutenção. Este procedimento é comum em comparações de padrões de calibração. Os resultados das medições, untamente com as incertezas padrões associadas, devem ser enviadas ao coordenador; Esquemas de ensaios interlaboratoriais: Vários obetos de teste com características idênticas supostamente) são produzidos, misturados, embrulhados, e distribuídos para vários participantes. Podem ser distribuídos obetos em duplicata para testar a precisão e exatidão dos laboratórios; Esquemas de divisão de amostras: Amostras de um produto ou material são divididas em duas ou mais partes com cada laboratório participante testando uma parte de cada amostra; Esquemas qualitativos: Os obetos de teste têm características conhecidas e categóricas. Os resultados podem ser avaliados independente de outros participantes. Esquemas de valor conhecido: Os obetos de teste têm características conhecidas e quantitativas. Isso também ocorre quando o obeto de teste é fabricado para produzir uma resposta deseada ou conter uma quantidade conhecida de uma substância. Como no esquema qualitativo, não existe necessidade de se comparar os resultados com outros participantes; Esquemas de processo parcial: O teste envolve somente partes denidas de um ensaio ou processo de medição. Isso pode ser feito para testar conformidades em certas ações em um laboratório, tais como austar uma curva de calibração ou interpretar quantidades radiológicas. Neste trabalho, consideramos o primeiro tipo de ensaio. Montanari 006) considerou o EP de esquemas de comparação de medição, para analisar as medições de um artefato em diferentes temperaturas. Para avaliar o resultado, foi proposto um modelo para explicar os dados e a partir dele foram encontradas as estimativas de máxima verossimilhança EMV) dos parâmetros do modelo e foi de- 9

13 senvolvida uma estratégia para vericar a compatibilidade dos laboratórios. Neves 004) propôs um modelo estatístico para dados provenientes de um EP conduzido na área de eletricidade. Os laboratórios participantes mediram um mesmo equipamento padrão devidamente calibrado. Foi feita uma análise para comparar os resultados dos laboratórios em relação a um valor de referência e vericar se o laboratório apresentou algum problema na medição. Leão, Aoki e Silva 009) recentemente propuseram um modelo de regressão com erros nas variáveis para testar a competência de laboratórios utilizando a classe de distribuições elípticas para modelar os dados e estabelecer testes estatísticos. Em adição ao monitoramento da consistência e comparabilidade dos dados obtidos em ensaios, o programa de EP pode contribuir para a melhora dos dados coletados pelos laboratórios, vea Richardson et al. 1996), por exemplo. A análise dos dados obtidos em um EP segue 3 passos básicos, que são comuns para todos os tipos de programas. Os passos são: Determinar o Valor de Referência; Fazer a comparação dos resultados; Determinar uma estatística de performance. Os resultados dos participantes devem ser comparados com os valores ou respostas que mais demonstrarem competência com o método. No nosso caso, no grupo de testes de motores, a GM Powertrain forneceu um motor gasolina 1.0, que circulou entre 6 laboratórios. Cada laboratório mediu a potência do motor em 10 pontos de rotação. O grupo de testes de motores realiza um programa de EP por ano e utiliza os resultados do EP para determinar as ações de melhoria nos laboratórios. Além disso, os resultados do EP são utilizados pelos organismos de acreditação INMETRO) para avaliar os laboratórios. Os métodos estatísticos propostos nas normas ociais ISO/IEC Guide )) correspondem a aplicações de testes t de Student para cada dois laboratórios e um 10

14 ponto de rotação. No entanto, em muitas situações estamos interessados também em estabelecer comparações múltiplas considerando o grupo de laboratórios participantes. Neste trabalho estendemos o modelo estrutural denido em Barnett 1969) para o modelo ultra-estrutural com réplicas considerando a distribuição t de Student. Primeiro vamos considerar a distribuição normal e depois estenderemos para a distribuição t de Student. Sabemos que a inferência baseada na distribuição normal é vulnerável à presença de outliers nos dados que provêm de distribuições com caudas mais pesadas. É um fato reconhecido que os outliers têm uma grande inuência sobre os estimadores e testes baseados em máxima verossimilhança. Assim, a distribuição normal pode não ser apropriada em situações em que os dados provêm de distribuições de caudas mais pesadas. Uma possibilidade a m de resolver este problema é usar distribuições simétricas, com caudas mais pesadas que as da normal, as quais permitem reduzir a inuência dos outliers sobre os EMV. A classe de distribuições elípticas tem tido um interesse crescente entre diversos autores. Fang & Zhang1990), Berkane et al e Arellano 1994), Leão et al 009), por exemplo, utilizam essas distribuições. Dentro desta classe, uma das distribuições mais usadas como alternativa à normal é a t de Student. Vários autores sugerem a distribuição t multivariada como alternativa à normal multivariada por ter as caudas mais pesadas e portanto "acomodar" possíveis outliers presentes nos dados. Além disso, ela produz estimativas mais robustas a observações atípicas. Por exemplo, Rubin 1983) obteve as EMV para os parâmetros da distribuição t multivariada usando o algoritmo EM que é uma ferramenta computacional utilizada para calcular a EMV de forma iterativa, principalmente em problemas envolvendo dados incompletos ; Little 1988) estende os resultados de Rubin 1983) a dados incompletos; Sutradhar e Ali 1986) usam máxima verossimilhança no modelo de regressão multivariados com erros distribuídos t. Portanto estenderemos nosso 11

15 trabalho para a distribuição t de Student. Uma alternativa para modelos com dados correlacionados seria o uso de modelos mistos. Os modelos mistos, por denição, contém efeitos xos e aleatórios e possibilitam a inclusão de correlação entre indivíduos. São úteis em ambientes onde as medições repetidas são feitas nas mesmas unidades estatísticas. Tais modelos correspondem a uma hierarquia de níveis com ocorrências de medições repetidas e correlacionadas entre os dados da amostra. Na literatura encontramos exemplos de usos de modelos mistos em várias áreas do conhecimento, como, ciências físicas, biológicas e socias. Yang 008) investigou o problema de previsão de calibração inversa em um cenário de modelo misto. Lesare & Verbeke 1998) usam inuência local em modelos mistos para dados longitudinais, Zhu & Lee 003) utilizam esquemas de perturbação a modelos lineares mistos generalizados. Neste trabalho, vamos considerar o modelo de regressão com erros nas variáveis devido às características do nosso conunto de dados. 1.1 Revisão bibliográca Em várias áreas do conhecimento, encontramos problemas envolvendo relações entre duas ou mais variáveis. Na química analítica, por exemplo, problemas envolvendo concentrações de substâncias diferentes em uma amostra são muito comuns. Um método geral muito usado para determinar a concentração dessas substâncias na amostra é o de calibração. Uma introdução ao problema de calibração pode ser encontrado em Shukla 197). Blas 007) fez uso do modelo de calibração controlada em seu trabalho. Blas, Bolfarine & Lachos 011) generalizaram o modelo usado por Blas 007) assumindo réplicas. A calibração comparativa, que trata da comparação de instrumentos de medição, foi utilizada por Grubbs 1948) em seu trabalho para comparar 3 cronômetros. Barnett 1969) dá um exemplo em que 4 combinações instrumento-operador concebidos para medir a capacidade vital num grupo de pacientes são avaliados. Leurgans 1980) compara métodos para medir a concentração de glicose no sangue. Outros exemplos na área médica podem ser encontrados em 1

16 Kelly 1984,1985). Na área industrial, Jaech 1985), na agricultura, Fuller 1987) e em Psicologia e Educação, Dunn 199). Roas 1995) estudou uma sub-classe de modelos com erros nas variáveis, frequentemente usados para comparar instrumentos ou métodos de medição calibração comparativa). Russo 006) estudou um problema na área de Odontologia: austou um modelo de regressão linear multivariado com erros nas variáveis com intercepto nulo que tratava de medições de placa bacteriana em 3 grupos de voluntários antes e após o uso de bochechos diferentes. Motivado por um conunto de dados reais, cedido pela GM Powertrain, nesta dissertação estudaremos um modelo de calibração ultraestrutural, em que o obetivo principal será a comparação dos vícios aditivos e multiplicativos de cada um dos laboratórios com uma medida de referência. Apesar dos constantes avanços tecnológicos terem tornado cada vez mais precisos os procedimentos de mensuração, não é realista supor que as variáveis seam medidas sem erros e, o mais comum, é não termos acesso aos seus verdadeiros valores a presença de erros de mensuração afetará a precisão dos estimadores). Um estudo detalhado sobre esses modelos pode ser encontrado em Kendall & Stuart 1961), Fuller 1987), Moran 1971) e Cheng&Van Ness1999). Um modelo de regressão linear simples com erros nas váriáveis é denido considerando um conunto nito de pares x 1, y 1 ), x, y ),..., x n, y n ), satisfazendo a relação linear: y i = α + βx i, i = 1,..., n, em que x i, y i ) não podem ser observados diretamente, mas com erros através dos pares X i, Y i ), isto é, X i = x i + u i Y i = y i + e i Os erros u i e e i são variáveis aleatórias v.a.) com médias 0 e variâncias nitas σ 13

17 e σe, respectivamente, e independentemente distribuídos para diferentes valores de i, i = 1,..., n. Assim, podem ser propostos pelo menos 3 modelos diferentes; quando os x i são constantes desconhecidas, o modelo é denominado funcional Kendall & Stuart, 1973); quando os x i são v.a. com a mesma distribuição, o modelo é estrutural Moran, 1971); quando os x i são v.a. independentes com médias diferentes e variância em comum, o modelo é ultraestrutural Dolby, 1976). Dessa forma, podemos notar que o modelo ultraestrutural generaliza os demais modelos citados. O modelo de regressão linear simples com erros nas variáveis descrito anteriormente, sob distribuição Normal, é não identicável Kendall & Stuart 1973)) Para se obter um modelo identicável Cheng & Van Ness 1999), Roas 1995)) algumas suposições adicionais são necessárias. Os procedimentos mais comumente utilizados consistem em supor que: As razões das variâncias dos erros σ e σe são conhecidas ou A variância dos erros associados a variável X i ou Y i é conhecida ou α é conhecido. Qualquer uma das suposições acima torna o modelo identicável. Nesse trabalho, estudaremos o modelo ultraestrutural com réplicas. Um aspecto importante do modelo a ser estudado são as componentes da variância. São utilizadas informações externas em relação ao sistema de medição para estimar estes valores e portanto estes valores são fornecidos pelos laboratórios e supostos conhecidos. 1. Motivação Vários laboratórios, buscando a comprovação da competência técnica para realizarem medições, comprometeram-se a participar do programa de comparação interlaborial por ensaios de prociência. Tais ensaios são utilizados pela sociedade para avaliar a competência e a conabilidade dos laboratórios na execução de medições 14

18 especícas. Diversos grupos de EP foram estabelicidos pelo INMETRO, e entre eles está o grupo de testes de motores. O grupo de motores escolheu um motor gasolina 1.0, gentilmente cedido pela GM Powertrain, como artefato. No nosso caso, os laboratórios participantes Marelli, Delphi, Mahle, KSPG, Bosch, Maua) realizaram várias medições de potência em 10 pontos de rotação diferentes: 1500, 000, 500, 3000, 3500, 4000, 4500, 5000, 5500 e, O número de réplicas pode ser diferente para diferentes laboratórios. Com essas medições há um monitoramento de consistência e comparabilidade dos dados dos laboratórios. Sea y ik a k-ésima medição do verdadeiro valor da potência do motor no -ésimo ponto de rotação medido pelo i-ésimo laboratório e x o verdadeiro valor não observável da potência do motor no -ésimo ponto de rotação, i = 1,, p, = 1,, m, k = 1,, n i. Para o nosso conunto de dados, assumindo que y ik satisfaz a relação linear ultraestrutural com o verdadeiro valor não observável) x e denotando por Y ik o valor observado sueito a erro de medição) da k-ésima medição da potência do motor no -ésimo ponto de rotação obtido pelo i-ésimo laboratório, o modelo proposto pode ser representado como y ik = α i + β i x, 1) Y ik = y ik + e ik, i = 1,, p, = 1,, m e k = 1,, n i em que Ee ik ) = 0, V e ik ) = σi, Ex ) = µ x e V x ) = σx, x independente de e ik, i = 1,, p, = 1,, m e k = 1,, n i. O obetivo desta análise é a comparação dos vícios aditivos α i ) e dos vícios multiplicativos β i ) de cada um dos laboratórios i com a medida de referência α = 0 e β = 1), ou sea, medidas obtidas por um laboratório acreditado ao INMETRO. Barnett 1969) assume um instrumento de referência para seu modelo que mede x sem vícios. Sem perda de generalidade vamos considerar que o primeiro laboratório 15

19 é o laboratório de referência. Assim, temos que: Y 1k = x + e 1k e Y ik = α i + β i x + e ik, ) i =,, p, = 1,, m, e k = 1,, n i. Para comparar as medidas dos p laboratórios, nós podemos testar as seguintes hipóteses: 1) H 0 : α = = α p = 0 e β = = β p = 1, ) H 0 : β = = β p = 1, 3) H 0 : α = = α p = 0, 4) H 0 : α i = 0 e β i = 1, i =,, p, 5) H 0 : α i = 0, i =,, p, 6) H 0 : β i = 1, i =,, p. Sob a primeira hipótese, todos os laboratórios estão medindo sem vícios aditivos e multiplicativos e sob a segunda terceira) hipótese os laboratórios estão medindo sem vícios multiplicativos aditivos). As hipóteses 4, 5 e 6 referem-se a testes individuais de cada laboratório em relação aos seus vícios. Para testarmos estas hipóteses vamos considerar os testes assintóticos de Wald e razão de verossimilhança. No Capítulo, vamos descrever o modelo normal e desenvolver o algoritmo EM para a obtenção das estimativas de máxima verossimilhança. Para tanto obteremos a função escore e a matriz de Fisher observada. Calcularemos a estimação restrita a Ho, e obteremos as estatísticas do teste para testarmos as hipóteses de interesse descritas acima. No Capítulo 3, faremos a extensão para a distribuição t de Student e desenvolveremos o algoritmo EM para a obtenção das estimativas de máxima verossimilhança e também obteremos a função escore e a matriz de Fisher observada. Calcularemos a estimação restrita a Ho e obteremos as estatísticas do teste para testarmos as hipóteses de interesse. No Capítulo 4, vamos aplicar os resultados obtidos aos dados reais descritos na 16

20 Introdução. No Capítulo 5, faremos um estudo de simulação e nalmente no Capítulo 6, vamos descrever a continuação do trabalho. 17

21 Modelo de Calibração Normal Considerando o modelo denido em 1) e ), onde e ik ind N0, σ i), x Nµ x, σ x ), x independente de e ik, i = 1,, p, = 1,, m e k = 1,, n i, temos: Y 1k Nµ x, σ x + σ 1 ) ind e Y ik Nα i + β i µ x, β i σ x + σ i ), para i =,..., p, = 1,..., m e k = 1,..., n i. Desta forma, a covariância entre as observações tomadas no mesmo ponto de rotação pelo laboratório de referência i-ésimo laboratório) é dada por σx βi σx ) e a covariância entre as observações do laboratório de referência e o i-ésimo laboratório no mesmo ponto de rotação é dado por β i σx, enquanto que as covariâncias entre as observações do i-ésimo e do s-ésimo laboratório no mesmo ponto de rotação é dada por β i β s σx, ou sea: covy 1l, Y 1q ) = σx, covy il, Y iq ) = βi σx, covy 1l, Y iq ) = β i σx, covy il, Y sq ) = β i β s σx, em que i, s =,..., p, = 1,..., m, l, q = 1,..., n i. Então, Y 1 = Y 11,..., Y 1n1 ) t N n1 µ 1, Σ 11 ), em que µ 1 = µ x 1 n1 e Σ 11 = σx + σ1 σx σx σx σx + σ1 σx σx σx σx + σ1 = σ1i n1 + σx 1 n1 1 t n 1, 3) Y i = Y i1,..., Y ini ) t N ni µ i, Σ ii ), 18

22 onde µ i = α i + β i µ x )1 ni e Σ ii = βi σx + σi βi σx βi σx βi σx βi σx + σi βi σx βi σx βi σx βi σx + σi = σii ni + βi σx 1 ni 1 t n i, 4) I ni e 1 ni denotam respectivamente, a matriz de identidade de ordem n i e um vetor composto por n i um's, i =,...p, = 1,...m. Observe que Y 1 representa as medições da potência do motor pelo laboratório de referência no -ésimo ponto de rotação e Y i as medições do i-ésimo laboratório no -ésimo ponto de rotação. Considere Y = Y t 1,..., Y t p) t N n µ, Σ ), em que n = p i=1 n i, µ = µ t 1,..., µ t p) t = α+µ x β, com α = 0 t n 1, α 1 t n,..., α p 1 t n p ) t, β = 1 t n 1, β 1 t n,..., β p 1 t n p ) t, 0 n1 denotando um vetor composto por n 1 zeros e Σ = Σ 11 Σ 1 Σ 1p Σ 1 Σ Σ p Σ p1 Σ p Σ pp = Dσ ) + σx ββ t, 5) uma matriz simétrica com Σ 11 e Σ ii como visto em 3) e 4) respectivamente, Σ 1i = β i σ x J n1 n i, e Σ il = β i β l σ xj ni n l, em que J ni n l é uma matriz n i x n l de uns, com i =,..., p, l = i + 1,..., p, σ = 19

23 σ 11 t n 1,..., σ p1 t n p ) t e Da) denotando uma matriz diagonal com os elementos da diagonal dados pelos elementos do vetor a. Assim, temos: f y y ) = 1 [ Σ π) n 1 exp 1 ) t ) ] y µ Σ 1 y µ, 6) para = 1,..., m, sendo Σ = a Dσ ), a = 1 + σ x β t D 1 σ )β. Chamando a forma quadrática de, Q = y µ ) t Σ 1 y µ ), após alguns cálculos, temos que Q pode ser escrita como: Q 1 {}}{{}}{ Y µ ) t D 1 σ )Y µ ) + Y 1 µ 1 ) t D 1 σ1 1 n1 )Y 1 µ 1 ) Q Q 3 {}}{ σ x a σ 1 ) Y 1 µ 1 ) t 1 n1 1 t n 1 Y 1 µ 1 ) Q 4 {}}{ σ x a σ 1 ) Y µ ) t D 1 σ )β 1 t n 1 Y 1 µ 1 ) Q 5 {}}{ σx Y µ a ) t D 1 σ )β β t D 1 σ )Y µ ), em que Y = Y t,..., Y t p) t, µ = µ t,..., µ t p) t, β = β 1 t n,..., β p 1 t n p ) t e σ = σ 1 t n,..., σ p1 t n p ) t. As expressões de Q 1 a Q 5, que daqui para frente serão indicadas simplesmente por Q = Q 1 + Q + Q 3 + Q 4 + Q 5, podem ser simplicadas e reescritas a m de facilitar nossos cálculos futuros de derivadas. 0

24 Sea Y = Y t 1,..., Y t m) t. Da equação 6), temos f y y) = m =1 f y y ) = π) mn m ) [ Σ 1 exp 1 =1 m =1 ) t ) ] y µ Σ 1 y µ. Tomando o logarítmo da função 7, temos que a função log-verossimilhança é dada por: Lθ) = log [f y y)] = mn [logπ] 1 m log Σ 1 =1 em que θ = µ x1,..., µ xm, α,..., α p, β,..., β p ). m =1 7) ) t ) y µ Σ 1 y µ, A seguir, apresentaremos a função score, que será utilizada na obtenção das estatísticas do teste. 8).1 Função escore A função escore é dada por: Uθ) = Lθ) = Uθ 1 ) t, Uθ ) t, Uθ 3 ) t)t, em que, θ θ = θ t 1, θ t, θ3) t t com, θ 1 = µ x1,..., µ xm ) t, θ = α,..., α p ) t, θ 3 = β,..., β p ) t e Uθ 1 ) = 1 Q, θ 1 Uθ ) = 1 Uθ 3 ) = 1 m =1 m =1 Q θ, log Σ θ 3 1 m =1 Q θ 3. Em seguida, apresentaremos as derivadas primeiras de log Σ e Q com relação aos parâmetros. Então, notando que: a α i = a µ = 0, a x β i = n iβ i σx, loga σi β i = n iβ i σx a σi e após algumas manipulações algébricas, temos que: I) Derivada primeira de log Σ com relação ao parâmetro β i, 1

25 log Σ β i = 1 a n iβ i σx ) σi, i =,..., p. II) Derivadas primeiras de Q com relação aos parâmetros a) Q µ x = [ ] [ µ x a 1) a σ x n1 k=1 y 1k σ 1 b) Q µ xh = 0,, h = 1,..., m, para h. { c) Q = ni β i σx M α i σi a [ ] Q d) Q β i = M σ x a α i p i= β i σi ni )] y ik α i n i, = 1,..., m. k=1 n i + n i α i y ik }, para = 1,..., m e i =,..., p. k=1 onde, = 1,..., m e i =,..., p. Na sequência, apresentaremos a matriz de informação observada.. Matriz de informação observada A matriz de informação observada é dada por Iθ) = Lθ) t, em que, θ = θ θ θ t 1, θ t, θ3) t t com, θ t 1 = µ x1,..., µ xm ) t, θ t = α,..., α p ) t, θ t 3 = β,..., β p ) t e portanto, =1 I θ1 θ 1 I θ1 θ I θ1 θ 3 Iθ) = I θ θ 1 I θ θ I θ θ 3, I θ3 θ 1 I θ3 θ I θ3 θ 3 em que, I θ1 θ 1 = 1 Q t t, I θ 1 θ θ1 θ = I θ θ 1 = 1 Q t t, I 1 θ 1 θ θ1 θ 3 = I θ3 θ 1 = 1 Q t θ 1 θ, I θ θ = 1 m Q t 3 θ =1 θ, I θ θ 3 = I θ3 θ t = 1 m Q t θ =1 θ, I θ 3 θ 3 = 3 1 m log Σ t 1 m Q t θ 3 θ 3 θ 3 θ. 3 Desta forma, =1

26 Iθ) = I µx1 µ x1 I µx1 µ xm I µx1 α I µx1 α p I µx1 β I µx1 β p I µxmµ x1 I µxmµ xm I µxmα I µxmαp I µxmβ I µxmβp I α µ x1 I α µ xm I α α I α α p I α β I α β p I αpµ x1 I αpµ xm I αpα I αpαp I αpβ I αpβp I β µ x1 I β µ xm I β α I β α p I β β I β β p I βpµ x1 I βpµ xm I βpα I βpαp I βpβ I βpβp em que, I θl θ h = Lθ) θ l θ h. Apresentaremos a seguir as derivadas de segunda ordem do log Σ e Q em relação aos parâmetros. I) Derivadas de segunda ordem de log Σ em relação ao parâmetro β i, i =,..., p. a) log Σ β i = n iσ x a σ i [ 1 n iβ i σ x a σ i ], para i =,..., p. b) log Σ β i β l = 4n in l β i β lσ x) a σ i σ l, para i, l =,..., p e i l. Seam: M = µx σ x + n1 k=1 y 1k σ 1 + p β ni i i= σi k=1 y ik n i α i ), a como denido em 6), D i = 1 t ni Y i α i 1 ni ) = ni k=1 y ik n i α i com = 1,..., m e i =,..., p. Assim, M µ x = 1 σx, M α i = n iβ i σi e M ni k=1 β i = y ik n i α i σi. E então, após algumas manipulações algébricas, temos: II) Derivadas de segunda ordem de Q em relação aos parâmetros 3

27 a) Q = a 1, = 1,..., m, µ x a σx b) Q =0,, h = 1,..., m, h, µ xh Q c) =0,, h = 1,..., m, h, µ x µ xh Q d) = n iβ i, para = 1,..., m e i =,..., p, µ x α i a σi Q e) =0, h = 1,..., m, µ xh α i [ Q f) = ni µ x β i σi a y ik n i )] αi a + β i σ a xm, para = 1,..., m e i = k=1,..., p, Q g) = 0, h = 1,..., m e i =,..., p, µ xh β i 1 n iβi σx ) σi a, para i =,..., p, h) Q α i = n i σ i i) Q = n in l β i β l σx, para i, l =,..., p e i l, α i α l a σi σ l ) Q = n iσx α i β i σi a l) Q = n iβ i σx α i β l σi σ l a m) Q β i = σ x a σ i [ M β i σ i n) Q = σ x β i β σ l i σ l a para i, l =,..., p e i l. [ ni β i σ x M a D i ]], para i =,..., p, [ D l n lβ l σx M a ], para i, l =,..., p e i l, [ D i n iσ ) ]] x [ M σi 1 4n iσx β i a a + 4M D i β i, para i =,..., p, σ i σi [ [ D i D l + σ x ni ) β i σx a n l β M l a n i β i M D l n l β l M D i ]], Então, pode-se notar que: a) I µx µ x = a 1, para = 1,..., m, a σx b) I µx µ xh = 0, para, h = 1,..., m, h, c) I µx α i = n iβ i, para = 1,..., m e i =,..., p, a σi d) I µx β i = 1 e) I αi α i = σi a m n i σ =1 i [ ni β i σ x M a D i ], para = 1,..., m e i =,..., p, 1 n iβi σx ) σi a, para i =,..., p, 4

28 m n i n l β i β l σx f) I αi α l =, para i, l =,..., p e i l, a =1 σi σ l m n i σ [ x g) I αi β i = σ =1 i a M β [ i ni β i σxm D σi i a m n i β i σ [ x h)i αi β l = σ =1 i σ l a D l n lβ l σxm a m σ [ x i) I βi β i = n a =1 σi i D i + n iσ [ x M σi a para i =,..., p, m σx ) I βi β l = σ =1 i σ l a para i, l =,..., p e i l. ]], para i =,..., p, ], para i, l =,..., p e i l, 1 4n iσxβ i ) n iβi a σi σi + 4M ]] β i D i, σi [ [ D i D l + σ x σ x M ) ]] n i n l β i β l + 1 n i β i M D l n l β l M D i, a a Na próxima subseção, apresentaremos uma metodologia para a estimação dos parâmetros do modelo e desenvolveremos os testes de hipóteses de interesse..3 Estimação dos parâmetros e testes de hipóteses Nesta Seção estamos interessados em obter os valores das estimativas dos parâmetros do modelo. Como não conseguimos explicitar tais estimativas, utilizaremos o algoritmo EM, descrito abaixo, muito usado como uma alternativa para obtenção das estimativas de máxima verossimilhança dos parâmetros..3.1 Algoritmo EM O algoritmo EM Expectation-Maximization) é um dos algoritmos mais usados na Estatística McLachlan and Krishnan1997)) para a obtenção de estimativas de máxima verossimilhança EMV). É um procedimento iterativo eciente para a obtenção da estimativa de máxima verossimilhança na presença de dados perdidos ou incompletos ou em modelos com variáveis latentes. Foi proposto primeiro por Dempster 1977), com exemplos e aplicações, mas outros autores á haviam trabalhado com tal algoritmo. 5

29 A referência mais antiga da literatura para um algoritmo do tipo EM é Newcomb1886), que considera a estimação dos parâmetros da mistura de duas normais univariadas. McKendreick196) apresenta uma aplicação médica para um método no "espírito" do algoritmo EM. Hartley1958) e Buck1960) também nos dão outros exemplos de aplicações. Vários artigos tratam de aplicações do algoritmo EM em modelos markovianos. Oliveira001) utiliza o algoritmo em um modelo de calibração comparativa para comparar a eciência dos instrumentos de medição em diferentes alturas de árvores. Zavala001) apresenta um estudo do algoritmo EM nos modelos de regressão lineares mistos com erros nas variáveis. Lima 1996) trata dos modelos de calibração absoluta com erros nas variáveis. Bolfarine & Roas 1995) utilizam o algoritmo em um modelo de calibração estrutural. Labra, Aoki & Bolfarine 005) tratam da inuência local em uma regressão com erro de medição com intercepto nulo sob a distribuição t de Student e para isso, fazem uso do algoritmo EM para encontrar as estimativas dos parâmetros do modelo. Um exemplo fora da área de exatas, pode ser encontrado em Chuong & Batzoglou 008) que utilizam o EM na área da biologia. A metodologia consiste em acrescentar aos dados observados, alguns dados não observados ou perdidos de uma maneira que a obtenção das estimativas de MV baseada nos dados completos observados untamente com os não observados que foram acrescentados) sea fácil de ser obtida. O algoritmo é facil de ser implementado, e é dividido em etapas: etapa E E-step) e etapa M M-step). Na etapa E, o dado incompleto é estimado utilizando esperança condicional da log-verossimilhança dos dados completos, dadas as observações e as estimativas dos parâmetros da iteração anterior. Na etapa M, a equação obtida na etapa E é maximizada em relação aos parâmetros, obtendo assim as estimativas da etapa seguinte. Considerando o modelo denido em 1) e ) e os dados observados para o -ésimo 6

30 ponto de rotação, ou sea, Y = Y t 1,..., Y t p) t Nµ, Σ ) acrescente a Y o dado não observado x. Então os dados completos para o -ésimo ponto de rotação são dados por Y c = x, Y t ) t, com Y c N n+1 µ c, Σ c ), onde µ c = µ x, α + µ x β) e Σ c = σ x A 1 A 1 Σ, com = 1,..., m e A t 1 = A 1, em que A 1 = covx, Y ) = σ x β t, e Σ e µ como em 5). Sea Y c = Y t 1c,..., Y t mc) t então, f yc y c ) = [ m =1 1 π) n+1 Σ c 1 exp [ 1 Y c µ c ) t Σ 1 c Y c µ c )] ]. Segue que a função log-verosimilhança dos dados completos é dada por: L c θ) = mn + 1) logπ) 1 m log Σ c 1 =1 m =1 Y c µ c ) t Σ 1 c Y c µ c ) = cte 1 m logσx + =1 ) [ p n i logσi 1 m x µ x ) + i=1 =1 i= k=1 =1 σ x m n1 y 1k x ) =1 k=1 ] m p ni y ik α i β i x ) +. 9) σ i σ 1 Agora podemos calcular as etapas E e M do algoritmo. Etapa E Queremos encontrar as expressões para ˆx r) = E[x Y, ˆθ r 1) ] e ˆx r) = E[x Y, ˆθ r 1) ]. 7

31 De Searle1971) e Johnson1998), temos que: ˆx r) = E[x Y, ˆθ r 1) ] = µ x + A 1 Σ 1 Y µ ). Substituindo os valores e fazendo algumas manipulações algébricas, temos que: ˆµ r 1) x n1 k=1 y 1k + r 1) p ˆβ ni i i= k=1 y ik n i ˆα r 1)) ) i, ˆx r) = σ x â r 1) em que â r 1) + 1 σx σ1 = 1 + σ x Temos também que x r) n 1 σ 1 + p i= n i ˆβr 1) i σ i ). = E[x Y, ˆθ r 1) ] = V ar[x Y, ˆθ r 1) ]+E[x Y, ˆθ r 1) ]. Então, novamente após as substituições e manipulações algébricas, temos que: x r) = ˆx r) ) + σ x Desta forma: â r 1) EL c θ) Y, ˆθ r 1) ) = cte 1 m logσx + =1. ) [ p n i logσi 1 m i=1 =1 σ i x r) 1 σ x + n 1 σ 1 + p i= ) n ˆβr 1) i i σi + m =1 ˆx r) + m =1 ˆµr 1) x σx ˆµ r 1) x σ x + n 1 k=1 m n 1 =1 k=1 y 1k σ 1 y 1k σ 1 + ) p n i r 1) y ik ˆβi + r 1) r 1) ˆαi ˆβi i= m =1 k=1 σ i ] p n i y ik ˆα r 1) i ). i= k=1 σ i Etapa M Nesta etapa estamos interessados em maximizar a esperança condicional da função de verossimilhança completa dadas as observações e as estimativas dos parâmetros da iteração anterior, ou sea, queremos encontrar os valores de ˆµ r) x, ˆα i r) e ˆβ i r), i =,..., p e = 1,..., m. Após calcular as derivadas e isolar os termos, chegamos a: ˆµ r) x = ˆxr), = 1,..., m, 8

32 ˆα i r) = m ni y ik =1 k=1 σi ˆβ i r) = 1 n i m =1 i =,..., p. ˆx r) σ i n i m =1 n i ˆβi r) m =1 1 σ i ni k=1 y ik m =1 ) m x r) σ i =1 ˆx r) σ i ) m, i =,..., p, ) m 1 ni σi =1 k=1 =1 ) 1 σi m =1 ˆx r) σ i )) ˆx r) σi ) y ik m σi =1 ),.3. Testes de hipóteses assintóticos Nesta Seção, usaremos os testes de hipóteses assintóticos de Wald e razão de verossimilhança para testar as hipóteses de interesse. O teste de Wald é um teste paramétrico, ou sea, baseado nos parâmetros da amostra, como por exemplo média e desvio padrão; seu uso está condicionado à dimensão da amostra pois é um teste assintótico) e à respectiva distribuição das variáveis em estudo. O teste de Wald pode ser utilizado para testar o verdadeiro valor do parâmetro com base na estimativa de amostra e também pode ser utilizado em uma grande variedade de diferentes modelos, incluindo modelos para variáveis discretas e variáveis contínuas Fisher, 195). Neste teste são usados os valores das estimativas de máxima verossimilhança. O teste da razão de verossimilhança é um teste estatístico que compara o auste de dois modelos; baseia-se na razão de probabilidade, que expressa o número de vezes mais provável que os dados estão sob um modelo do que o outro Rao, 1973). Este teste utiliza os valores das estimativas de máxima verossimilhança e também das estimativas de máxima verossimilhança restritos a hipótese que estamos trabalhando. Normalmente, o teste de Wald e o teste de razão de verossimilhança dão conclusões muito semelhantes pois são assintoticamente equivalentes), mas muito raramente, eles discordam o suciente para levar a conclusões diferentes. No nosso modelo, as observações não são identicamente distribuídas para cada um dos patamares. O parâmetro µ x é especíco do patamar, = 1,..., m, enquanto 9

33 que os parâmetros α i e β i, i =,...p, são comuns a todos os patamares. O número de observações em cada patamar é dado por n = p i=1 n i. Desta forma, podemos mostrar a normalidade assintótica do EMV como um caso paticular do Teorema 5.1 apresentado em Russo 006) que pode ser encontrado no Apêndice A. Com este resultado e assumindo válidas as condições de regularidade do Teorema 5.1, podemos testar H 0 : h θ) = 0 vs. H 1 : h θ) 0, em que h θ) = h 1,..., h r ) t : R k R r r k) é tal que i) Existem k r funções adicionais h r+1 θ),..., h k θ) tal que as relações inversas θ 1 h ),..., θ k h ) existem, com h = h 1 θ),..., h k θ)). ii) as derivadas parciais de primeira e segunda ordem de h 1 θ),..., h k θ) são funções uniformemente contínuas e limitadas de θ. iii) o maior limite inferior do valor absoluto do acobiano h 1,...,h k ) θ 1,...,θ k ) é positivo. Sea a matriz H θ) = hθ) contínua em θ com posto r. Seam θ ˆθ o EMV de θ e θ o estimador de máxima verossimilhança restrito à H 0 e sea, Estatística de Wald ) [ t ) t [ ˆθ)] 1 ) Q W = h ˆθ H ˆθ I H ˆθ ] 1 ) h ˆθ, Estatística da Razão de Verossimilhança [ ] Q L = logλ = Lˆθ) Lθ), em que λ = sup {θɛθ:hθ)=0} L θ) /sup {θɛθ} L θ). Então Q W e Q L têm distribuição assintótica χ r sob H 0 Russo, 006). Continuando na próxima Seção, apresentaremos a estimação restrita sob H 0 que será utilizada na obtenção das estatísticas dos testes descritos acima..3.3 Estimação restrita sob H 0 Como discutido na Introdução, estamos interessados nos seguintes testes: 30

34 1) H 0 : α = = α p = 0 e β = = β p = 1, ) H 0 : β = = β p = 1, 3) H 0 : α = = α p = 0, 4) H 0 : α i = 0 e β i = 1, i =,, p, 5) H 0 : α i = 0, i =,, p, 6) H 0 : β i = 1, i =,, p. O signicado de cada hipótese acima pode ser encontrado na Introdução deste trabalho. Para a hipótese 1, utilizando a expressão 8) sob H 0, encontramos o seguinte estimador: ˆµ x = p i=1 ni p i=1 Para o restante das hipóteses iremos utilizar o algoritmo EM sob cada hipótese H 0, pois não encontramos uma forma analítica para os estimadores. Consideramos como dados completos Y c = Y 1c,..., Y mc ), com Y t c = x, Y t ) t. Desta forma, o logarítmo da função de verossimilhança completa é dada pela expressão 9) sob H 0. segue, resumidamente, que: Para a hipótese: ) H 0 : β = = β p = 1, Etapa E Etapa M ˆx r) = σ x â r 1) 0 x r) ˆµ r) x ˆα r) i = ˆµ r 1) x σ x + = ˆx r) ) + σ x = ˆx r), â r 1) 0 m ni y ik =1 k=1 σi n i m =1 p i=1 1 σ i n i k=1, com â r 1) 0 n i m =1 1 σ i ˆx r) σ i k=1 n i σ i y ik σ i y ik. p i= = 1 + σ x. ) n i ˆα r 1) i, σi p i=1 n i σi. Assim 31

35 3) H 0 : α = = α p = 0: Etapa E Etapa M ˆx r) = σ x â r 1) 03 x r) ˆµ r) x r) ˆβ i = = ˆx r) ) + σ x = ˆx r), m =1 ˆx r) σ i n i m =1 ˆµ r 1) x σ x + 1 σ 1 â r 1) 03 ni k=1 y ik x r) σ i 4) H 0 : α i = 0 e β i = 1, i =,, p: Etapa E n1 k=1 p ˆβ r 1) ni i y σ ik ), i= i k=1 03 = 1 + σx n1 p + y 1k +, em que, â r 1). σ 1 i= ) n ˆβr 1) i i. σi ˆx r) = σ x â r 1) 04 n l ˆα r 1) l ˆµ r 1) x + 1 σx )) σ 1 n1 k=1 y 1k + ni k=1 y ik σ i + p l=,l i ˆβ r 1) l σ l nl k=1 y lk x r) = ˆx r) ) + σ x â r 1) 04, com, â r 1) 04 = 1+σx n 1 σ1 + n i σ i + p l=,l i ) n ˆβr 1) l l. σl Etapa M ˆµ r) x ˆα r) l = ˆβ r) l = = ˆx r), m nl y lk =1 k=1 σl n l m =1 n l ˆβl r) m =1 1 σ l m 1 ˆx r) nl n l =1 σl k=1 y lk l =,..., p, l i, m =1 ˆx r) σ l ) m x r) σ l =1 ) m, l =,..., p, l i, ) m 1 nl σl =1 k=1 =1 ) 1 σl m =1 ˆx r) σ l )) ˆx r) σl ) y lk m σl =1 ), 3

36 e, portanto, o mesmo estimador de α l e β l, para l i, obtido na estimação irrestrita. 5) H 0 : α i = 0, i =,, p, Etapa E Etapa M ˆx r) = σ x â r 1) 05 x r) ˆµ r) x r) ˆβ i = ˆα r) l = ˆx r) ) + σ x = ˆx r) e, m =1 ˆxr) ˆβ r) l n i m =1 l =,..., p, l i. ˆµ r 1) x σ x + 1 σ 1 â r 1) 05 ni y ik k=1 σi x r) σ i n1 p ˆβ r 1) n l p l y 1k + y σ lk k=1 l= l k=1, em que, â r 1) 05 = 1 + σx n 1 p +. σ 1 l=,l i l= ˆβ r 1) l n l ˆβr 1) l σ l são os mesmos estimadores obtidos na estimação irrestrita para n l ˆα r 1) l σ l ). ), 6) H 0 : β i = 1, i =,, p: Etapa E Etapa M ˆx r) = σ x â r 1) 06 + p l=,l i x r) ˆµ r) x = ˆx r) = ˆx r), ˆµ r 1) x ˆβ r 1) l σx nl ) + σ x + 1 σ 1 n1 k=1 k=1 y lk n l ˆα r 1) l σl â r 1) 06 y 1k + 1 ) ), σ i ni k=1, em que, â r 1) 06 = 1+σx y ik n i ˆα r 1) i n 1 σ1 + n i σ i + ) p l=,l i ) n ˆβr 1) l l. σl 33

37 ˆα r) i = ˆα r) l e m ni y ik =1 k=1 σi ˆβ r) l l =,..., p, l i. n i m =1 + n i m =1 1 σ i ˆx r) σ i, são os mesmos estimadores obtidos na estimação irrestrita para 34

38 3 Modelo de Calibração t de Student Nesta Seção iremos estender o modelo descrito na Introdução, considerando a distribuição t de Student, que tem forma geral simétrica e semelhante à curva da distribuição normal, porém com caudas mais pesadas. O parâmetro γ é o número de graus de liberdade. Quanto maior for esse parâmetro, mais próxima da curva da normal ela será. O modelo t de Student pode produzir estimativas mais robustas às observações atípicas, além de se austar mais adequadamente a dados com caudas mais pesadas do que as da distribuição normal. Ao utilizá-lo, podemos minimizar a inuência dos outliers presentes nos dados. Considere agora z ik como a k-ésima medição do verdadeiro valor da potência do motor no -ésimo ponto de rotação medido pelo i-ésimo laboratório e x o verdadeiro valor não observável da potência do motor no -ésimo ponto de rotação, i = 1,, p, = 1,, m, k = 1,, n i. Assumindo que z ik satisfaz a relação linear ultraestrutural com o verdadeiro valor não observável) x e denotando por Z ik o valor observado sueito a erro de medição) da k-ésima medição da potência do motor no -ésimo ponto de rotação obtido pelo i-ésimo laboratório, temos: z ik = α i + β i x, Z ik = z ik + e ik, i = 1,, p, = 1,, m e k = 1,, n i. Considerando o laboratório 1 como o laboratório de referência, obtemos: Z 1k = x + e 1k, Z ik = α i + β i x + e ik, 35

39 i =,..., p, = 1,..., m e k = 1,..., n i. Sea Z = Z t 1,..., Z t p) t, com Z i = Z i1,..., Z ini ) t, = 1,..., m e i = 1,..., p. Assumindo que Z t n µ, Λ, γ), em que t r µ,λ, γ) denota uma distribuição t de Student r-variada com vetor de locação µ, matriz escala Λ e γ graus de liberdade e Λ = γ Σ γ, com µ, Σ e n como denidos em 5), temos que: V arz ) = Desta forma, f z Z ) = Γ ) γ+n [ Γ ) γ n Λ γ π n γ Γ ) γ+n ) n γ Γ ) γ n γ π n Σ 1 γ e, logf z Z ) = cte 1 γ + n log Σ γ γ Λ = Σ. ) t ) ] γ+n ) Z µ Λ 1 Z µ = [ ) t γ + Z µ Σ 1 γ Z µ ) ) log γ + Q ), em que ] γ+n ) Assim, Lθ) = logf Z z) = Q = ) t ) Z µ Σ 1 Z µ. m f z Z ) = cte 1 =1 m ) γ + n m log Σ log γ + Q ), =1 onde, Z = Z t 1,..., Z t m) t e Σ como visto em 5). Na próxima subseção, apresentamos a função score e a matriz de informação observada. =1 10) 3.1 Função escore e matriz de informação observada A função escore para o modelo descrito acima é dada por: Uθ) = Lθ) = θ Uθ1 ) t, Uθ ) t, Uθ 3 ) t) t onde, θ = θ t 1, θ t, θ3) t t com, θ 1 = µ x1,..., µ xm ) t, θ = α,..., α p ) t, θ 3 = β,..., β p ) t e 36

40 Uθ 1 ) = 1 γ + n) 1 γ + Q Q θ 1, Uθ ) = 1 γ + n) m Uθ 3 ) = 1 m =1 =1 log Σ θ 3 1 γ + Q Q θ, 1 γ + n) m =1 1 γ + Q Q θ 3. As derivadas parciais de log Σ e Q são as mesmas vistas anteriormente no Capítulo partes I e II) substituindo y 1k e y ik por z 1k e z ik respectivamente, com i =,...p, = 1,..., m e k = 1,..., n i. A matriz de informação observada é dada por Iθ) = Lθ) t, em que, θ = θ θ θ t 1, θ t, θ3) t t com, θ t 1 = µ x1,..., µ xm ) t, θ t = α,..., α p ) t, θ t 3 = β,..., β p ) t e portanto, I θ1 θ 1 I θ1 θ I θ1 θ 3 Iθ) = I θ θ 1 I θ θ I θ θ 3, I θ3 θ 1 I θ3 θ I θ3 θ 3 onde, ) γ + n) 1 Q Q I θ1 θ 1 = γ + Q ) t θ 1 θ + 1 Q t, 1 γ + Q ) θ 1 θ 1 ) I θ1 θ = I θ θ t γ + n) 1 Q Q 1 = γ + Q ) t θ 1 θ + 1 Q t, γ + Q ) θ 1 θ ) I θ1 θ 3 = I θ3 θ t γ + n) 1 Q Q 1 = γ + Q ) t θ 1 θ + 1 Q t, 3 γ + Q ) θ 1 θ 3 γ + n) m m ) 1 Q Q I θ θ = γ + Q =1 ) t θ θ + 1 Q t, γ + Q =1 ) θ θ γ + n) m m ) 1 Q Q I θ θ 3 = I θ3 θ = γ + Q ) t θ θ + 1 Q t, 3 γ + Q ) θ θ 3 I θ3 θ 3 = 1 m =1 =1 log Σ γ + n) t θ 3 θ 3 m =1 =1 1 γ + Q ) Q θ 3 Q θ 3 t + 37

41 γ + n) + m 1 Q t γ + Q ) θ 3 θ, 3 =1 Novamente, as derivadas parciais de segunda ordem de log Σ e Q são as mesmas vistas anteriormente no Capítulo, substituindo y 1k e y ik por z 1k e z ik respectivamente, com i =,..., p, = 1,..., m, k = 1,..., n i. Apresentamos a seguir, um método para a estimação dos parâmetros do modelo e descrevemos os testes de hipóteses de interesse. 3. Estimação dos parâmetros e testes de hipóteses Estamos interessados em obter as estimativas para os parâmetros do novo modelo, para tanto utilizaremos o algoritmo EM. Sea T = x, Z t ) t t n+1 µ t, Λ t, γ), em ) que µ t = µ x, µ t ) t, Λ t = Σ t, γ γ Σ t = σ x σxβ t σxβ Σ, µ e Σ como em 4) e 5). Considere W χ γ), γ > 0, = 1,..., m, então T γ W = w N n+1 µ t, w 1 Λ t ). Desta forma, o logarítmo da função de verossimilhança completa é dada por: L c θ) = log m ft =1, w ) = log m ft =1 w )fw ) = m =1 [π) log ) n+1) w 1 Λ t 1 exp{ 1 t ) T µ t w Λ 1 t T µ t }fw )], em que, ft, w ) denota a função densidade de probabilidade fdp) conunta de T e W,ft /w ) denota a densidade condicionada de t dado w e fw ) denota a fdp de W. Portanto, L c θ) = cte 1 m =1 log Σ t 1 Logo, podemos reescrever: ) 1 γ m γ =1 w ) t ) T µ t Σ 1 t T µ t, 38

42 L c θ) = cte 1 ) [ γ m x µ x ) w + γ σ =1 x ] m p ni z ik α i β i x ) + w, σi ou ainda, =1 i= k=1 m n1 =1 k=1 w z 1k x ) σ 1 L c θ) = cte 1 + m =1 m =1 w µ x σ x ) [ m γ w x γ =1 w x µ x σ x + + m n 1 =1 k=1 n 1 k=1 z 1k σ 1 w z 1k σ σ x p n i i= m =1 k=1 i= + n 1 σ 1 + p i= z ik β i α i β i σ i k=1 n i β i σ i ) ) ] p n i z ik α i ) w σi 11) 3..1 Algoritmo EM Etapa E temos: Seguindo os mesmos passos vistos na Seção.3., segue que para o novo modelo, ŵ r) = E[w Z, ˆθ r 1) ] = ˆx r) = E[x Z, ˆθ r 1) ] = σ x em que â r 1) = 1 + σ x x r) n 1 σ1 + γ ) γ + n) ), r 1) γ γ + ˆQ ˆµ r 1) x + 1 n1 z σx σ1 1k + â r 1) p i= ) n ˆβr 1) i i σi = E[x Z, ˆθ r 1) ] = ˆx r) ) + σ x â r 1) k=1 p i= ) γ + ˆQr 1) γ + n r 1) ni ˆβ i σ i )) r 1) z ik n i ˆα i, k=1 39

43 Desta forma: EL c θ) Z, ˆθ r 1) ) = cte 1 ) [ m γ ŵ r) x r) 1 + n 1 γ σ =1 x σ1 + p i= ) n ˆβr 1) i i σi + m =1 + ŵ r) m =1 Etapa M ˆµ r) x ˆα i r) = ˆx r) ŵ r) ˆµr 1) x σx ˆµ r 1) x σ x + = ˆxr), = 1,..., m, m =1 ni ˆβ i r) = 1 n i m =1 i =,..., p. k=1 ŵr) m n 1 =1 k=1 z ik σ i n i m =1 n 1 k=1 z 1k σ 1 ŵ r) z 1k + σ1 ) p n i r 1) z ik ˆβi r 1) r 1) ˆαi ˆβi i= m =1 k=1 p n i i= r) n m i ˆβi =1 ŵr) ˆx r) σi ŵ r) σ i ˆx r) ŵ r) ni σi k=1 z ik m =1 ) m x r)ŵr) σ i =1 ) m k=1 ŵ r), i =,..., p, σ i ) ŵ r) m ni σi =1 =1 ) ŵ r) σi ] z ik ˆα r 1) i ) m σ i k=1 ŵr) =1 ˆx r) )) ˆx r) σi ) z ik m σi =1 ŵr) ), ŵ r) σi 3.. Testes de hipóteses assintóticos Nesta Seção vamos utilizar os testes apresentados na Seção Estimação restrita sob H 0 Como discutido na introdução, estamos interessados nos testes descritos na página 15, agora para o novo modelo. Para a hipótese 1, utilizando a expressão 10) sob H 0, encontramos o seguinte estimador: ˆµ x = p i=1 ni p i=1 k=1 n i σ i z ik σ i. 40

44 Para o restante das hipóteses iremos utilizar o algorítmo EM sob cada hipótese H 0, pois, novamente, não encontramos uma forma analítica para os estimadores. O logarítmo da função de verossimilhança completa é dada pela expressão 11) sob H 0. Assim, para a hipótese: ) H 0 : β = = β p = 1, Etapa E com â r 1) 0 ŵ r) = ˆx r) = σ x â r 1) 0 x r) γ ) γ + n) ), r 1) γ γ + ˆQ 0 ˆµ r 1) x p + σx = ˆx r) ) + σ x â r 1) 0 = 1 + σ x p i=1 n i σi e i=1 1 σ i n i k=1 z ik γ + ˆQr 1) 0 γ + n ˆQ r 1) 0 ) p i=, ) n i ˆα r 1) i, σi = Z µ 0 ) t Σ 1 0 Z µ 0 ), onde µ0 = α + µ x 1 n e Σ 0 = Dσ ) + σ x 1 n 1 t n, com α como em 5) e σ como em 6). Etapa M ˆµ r) x ˆα r) i = = ˆx r), m =1 ni k=1 3) H 0 : α = = α p = 0: ŵ r) z ik n m σi i =1 n i m =1 ŵ r) σ i ŵ r) ˆx r) σi. Etapa E ŵ r) = ˆx r) = σ x â r 1) γ ) γ + n) ), r 1) γ γ + ˆQ 03 ˆµ r 1) x + 1 n1 z σx σ1 1k + k=1 p i= ˆβ r 1) i σ i ni k=1 z ik ), 41

45 x r) = ˆx r) ) + σ x â r 1) ) γ + ˆQr 1) 03, γ + n em que, â é o mesmo da Seção 3..1, Etapa E e em que µ 03 = µ x β, com β como em 5). ˆQ r 1) 03 = ) t ) Z µ 03 Σ 1 Z µ 03, Etapa M ˆµ r) x r) ˆβ i = = ˆx r), m =1 ŵ r) ˆx r) ni σi k=1 z ik n i m =1 ŵ r) x r) σi 4) H 0 : α i = 0 e β i = 1, i =,, p: Etapa E ŵ r) = γ ) γ + n) ), γ γ + ˆQ r 1) 04. ˆx r) = σ x â r 1) 04 n l ˆα r 1) l ˆµ r 1) x + 1 σx )), σ 1 n1 k=1 z 1k + ni k=1 z ik σ i + p l=,l i ˆβ r 1) l σ l nl k=1 z lk em que, â r 1) x r) 04 = 1+σ x com µ 04 = = ˆx r) ) + σ x â r 1) 04 n 1 σ1 + n i σ i + p l=,l i ) γ + ˆQr 1) 04, γ + n ) n ˆβr 1) l l e σl µ t 1,..., µ t i 1), µ t i 04, µ t i+1),..., µ t p ainda, µ i04 = µ x 1 ni e β 04 = ˆQr 1) 04 = Z µ 04 ) t Σ 1 04 Z µ 04 ), ) t e Σ04 = Dσ ) + σ x β 04 β t 04, e 1 t n1, β 1 t n,..., β i 1) 1 t n i 1), 1 t n i, β i+1) 1 t n i+1),..., β p 1 t n p ) t. Etapa M 4

46 ˆµ r) x = ˆx r), ˆα r) l = r) ˆβ l = m m =1 nl k=1 m 1 n l m =1 =1 ŵ r) x σl ŵ r) z lk r) n m σl l ˆβl =1 r) m 1 nl n l =1 k=1 =1 ŵ r) x r) σl n l m =1 ŵ r) σ l ŵ r) ˆx r) nl σl k=1 z lk ) ) m ŵ r) ) m σ l =1 z lk =1 ŵ r) σ l ŵ r) σl ) m ) ŵ r) ˆx r) σl ) m =1 m ŵ r) =1 σl m =1 ˆx r) =1 ŵ r) ) σ l, l =,..., p, l i, ) ŵ r) σl ˆx r) ŵ r) σ l ˆx r) ) ), l =,..., p, l i, e, portanto, o mesmo estimador de α l e β l, para l i, obtido na estimação irrestrita. 5) H 0 : α i = 0, i =,, p, Etapa E ŵ r) = ˆx r) = σ x â r 1) 05 x r) γ ) γ + n) ), r 1) γ γ + ˆQ 05 ˆµ r 1) x + 1 n1 z σx 1k + = ˆx r) ) + σ x â r 1) σ 1 k=1 γ + ˆQr 1) 05 γ + n p l= ), ˆβ r 1) l σ l n l k=1 z lk p l=,l i ˆβ r 1) l n l ˆα r 1) l σ l ), onde, â r 1) com µ 05 = ˆQ r 1) 05 = ) t ) Z µ 05 Σ 1 Z µ 05, é o mesmo visto na Seção 3..1, etapa E e t µ t 1,..., µ t i 1), µ t i 05, µ t i+1),..., µ p) t, e ainda, µi05 = µ x β i1. ni Etapa M ˆµ r) x r) ˆβ i = = ˆx r), m =1 ŵr) n i m =1 ˆx r) ni z ik k=1 σi ŵ r) x r) σi, 43

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:

Leia mais

Disciplina de Modelos Lineares Professora Ariane Ferreira

Disciplina de Modelos Lineares Professora Ariane Ferreira Disciplina de Modelos Lineares 2012-2 Regressão Logística Professora Ariane Ferreira O modelo de regressão logístico é semelhante ao modelo de regressão linear. No entanto, no modelo logístico a variável

Leia mais

Modelos Lineares Generalizados

Modelos Lineares Generalizados Modelos Lineares Generalizados Emilly Malveira de Lima Análise de Dados Categóricos Universidade Federal de Minas Gerais - UFMG 10 de Maio de 2018 Emilly Malveira (PGEST-UFMG) 10 de Maio de 2018 1 / 20

Leia mais

Modelos Lineares Generalizados - Verificação do Ajuste do Modelo

Modelos Lineares Generalizados - Verificação do Ajuste do Modelo 1 Modelos Lineares Generalizados - Verificação do Ajuste do Modelo Erica Castilho Rodrigues 9 de Abril de 2015 2 3 Função Deviance Podemos ver o ajuste de um modelo a um conjunto de dados como: uma forma

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Análise de Dados Longitudinais Aula

Análise de Dados Longitudinais Aula 1/35 Análise de Dados Longitudinais Aula 08.08.2018 José Luiz Padilha da Silva - UFPR www.docs.ufpr.br/ jlpadilha 2/35 Sumário 1 Revisão para dados transversais 2 Como analisar dados longitudinais 3 Perspectiva

Leia mais

MÉTODO MEAN SHIFT PARA DETECÇÃO DE OUTLIERS EM MODELOS NORMAIS ASSIMÉTRICOS

MÉTODO MEAN SHIFT PARA DETECÇÃO DE OUTLIERS EM MODELOS NORMAIS ASSIMÉTRICOS UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE ESTATÍSTICA MÉTODO MEAN SHIFT PARA DETECÇÃO DE OUTLIERS EM MODELOS NORMAIS ASSIMÉTRICOS Thalita do Bem Mattos Clécio da

Leia mais

Inferência Estatistica

Inferência Estatistica Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns

Leia mais

INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS ANÁLISE DE DEVIANCE

INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS ANÁLISE DE DEVIANCE INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS ANÁLISE DE DEVIANCE A análise de deviance é uma generalização, para modelos lineares generalizados, da análise de variância. No caso de modelos lineares, utiliza-se

Leia mais

Aula 2 Uma breve revisão sobre modelos lineares

Aula 2 Uma breve revisão sobre modelos lineares Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar

Leia mais

TESTES DE HIPÓTESES Notas de aula. Prof.: Idemauro Antonio Rodrigues de Lara

TESTES DE HIPÓTESES Notas de aula. Prof.: Idemauro Antonio Rodrigues de Lara 1 TESTES DE HIPÓTESES Notas de aula Prof.: Idemauro Antonio Rodrigues de Lara 2 Conteúdo 1. Fundamentos e conceitos básicos; 2. Função poder; 3. Testes mais poderosos e Lema de Neyman-Pearson; 4. Teste

Leia mais

Distribuição Amostral e Estimação Pontual de Parâmetros

Distribuição Amostral e Estimação Pontual de Parâmetros Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências População e Amostra

Leia mais

Comparação entre intervalos de confiança calculados com métodos bootstrap e intervalos assintóticos

Comparação entre intervalos de confiança calculados com métodos bootstrap e intervalos assintóticos Comparação entre intervalos de confiança calculados com métodos strap e intervalos assintóticos Selene Loibel Depto. de Estatística, Matemática Aplicada e Computação, IGCE, UNESP, Rio Claro, SP E-mail:sloibel@rc.unesp.br,

Leia mais

AULA 7 - Inferência em MQO: ICs e Testes de

AULA 7 - Inferência em MQO: ICs e Testes de AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos

Leia mais

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA UFPE - Universidade Federal de Pernambuco Departamento de Estatística Disciplina: ET-406 Estatística Econômica Professor: Waldemar A. de Santa Cruz Oliveira Júnior INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA Podemos

Leia mais

Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento

Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento Ian Meneghel Danilevicz Walmir dos Reis Miranda Filho Métodos Computacionais Aplicados à Estatística Prof.: Cristiano

Leia mais

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

Cap. 8 - Intervalos Estatísticos para uma Única Amostra Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO

Leia mais

Modelos com erros nas variáveis: teoria e

Modelos com erros nas variáveis: teoria e Modelos com erros nas variáveis: teoria e aplicações Alexandre Galvão Patriota Agradecimentos à Fapesp, Cnpq e Capes pelo apoio financeiro Alexandre G. Patriota (patriota@ime.usp.br) Modelos com erros

Leia mais

Intervalos Estatísticos para uma única Amostra - parte I

Intervalos Estatísticos para uma única Amostra - parte I Intervalos Estatísticos para uma única Amostra - parte I Intervalo de confiança para média 14 de Janeiro Objetivos Ao final deste capítulo você deve ser capaz de: Construir intervalos de confiança para

Leia mais

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Considere o problema de encontrar o valor que

Leia mais

Modelos Lineares Generalizados - Métodos de Estimação

Modelos Lineares Generalizados - Métodos de Estimação Modelos Lineares Generalizados - Métodos de Estimação Erica Castilho Rodrigues 07 de Abril de 2014 3 Componentes dos MLG s Os MLG s são compostos por duas partes: componente sistemático e componente aleatório.

Leia mais

MAE0212 Introdução à Probabilidade e Estatística II

MAE0212 Introdução à Probabilidade e Estatística II MAE01 Introdução à Probabilidade e Estatística II Gabarito-Lista 3 Exercicio 1 (a) Cada X i N(µ, σ ). Tamanho da amostra n = 9, desvio padrão σ =. A amostra é: 4.9, 7.0, 8.1, 4.5, 5.6, 6.8, 7., 5.7, 6..

Leia mais

Modelos de regressão para dados correlacionados. Cibele Russo

Modelos de regressão para dados correlacionados. Cibele Russo Modelos de regressão para dados correlacionados Cibele Russo cibele@icmc.usp.br ICMC USP Mini-curso oferecido no Workshop on Probabilistic and Statistical Methods 28 a 30 de janeiro de 2013 Cibele Russo

Leia mais

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência Erica Castilho Rodrigues 12 de Agosto Introdução 3 Vimos como usar Poisson para testar independência em uma Tabela 2x2.

Leia mais

MAB-515 Avaliação e Desempenho (DCC/UFRJ)

MAB-515 Avaliação e Desempenho (DCC/UFRJ) MAB-515 Avaliação e Desempenho (DCC/UFRJ) Aula 7: Intervalos de Confiança 13 de novembro de 2012 1 2 3 4 Percentil 100p%-percentil O ponto t 0 tal que t 0 = F 1 X (p) = min{t : F X (t) p}, 0 < p < 1 é

Leia mais

Regressão Linear - Parte I

Regressão Linear - Parte I UFPE - Universidade Federal de Pernambuco Curso: Economia Disciplina: ET-406 Estatística Econômica Professor: Waldemar Araújo de S. Cruz Oliveira Júnior Regressão Linear - Parte I 1 Introdução Podemos

Leia mais

Inferências sobre o vetor de Média. (Johnson & Wichern, Cap. 5) Considere o problema univariado no qual temse uma amostra aleatória de tamanho n da

Inferências sobre o vetor de Média. (Johnson & Wichern, Cap. 5) Considere o problema univariado no qual temse uma amostra aleatória de tamanho n da Inferências sobre o vetor de Média (Johnson & Wichern, Cap. 5) Considere o problema univariado no qual temse uma amostra aleatória de tamanho n da distribuição N(µ, σ 2 ), em que ambos os parâmetros de

Leia mais

Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas

Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas Matheus Rosso e Camila Steffens 19 de Março de 2018 Independência de variáveis aleatórias Duas V.A. são independentes se, e somente

Leia mais

p( y θ ) depende de um parâmetro desconhecido θ.

p( y θ ) depende de um parâmetro desconhecido θ. 55Modelação, Identificação e Controlo Digital 55 Método de Máxima Verosimilhança (Maximum Likelihood) Seja y uma variável aleatória (v. a.) cuja densidade de probabilidade p( y θ ) depende de um parâmetro

Leia mais

3. Estimação pontual USP-ICMC-SME. USP-ICMC-SME () 3. Estimação pontual / 25

3. Estimação pontual USP-ICMC-SME. USP-ICMC-SME () 3. Estimação pontual / 25 3. Estimação pontual USP-ICMC-SME 2013 USP-ICMC-SME () 3. Estimação pontual 2013 1 / 25 Roteiro Formulação do problema. O problema envolve um fenômeno aleatório. Interesse em alguma característica da população.

Leia mais

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas. 1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento

Leia mais

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência Erica Castilho Rodrigues 12 de Agosto 3 Vimos como usar Poisson para testar independência em uma Tabela 2x2. Veremos

Leia mais

Capítulo 2. Distribuições de Probabilidade Estimativas de parâmetros e tempos-atéfalha. Flávio Fogliatto

Capítulo 2. Distribuições de Probabilidade Estimativas de parâmetros e tempos-atéfalha. Flávio Fogliatto Capítulo 2 Distribuições de Probabilidade Estimativas de parâmetros e tempos-atéfalha Flávio Fogliatto 1 Ajustes de distribuições Em estudos de confiabilidade, dados são amostrados a partir de uma população

Leia mais

Introdução à Inferência Estatística

Introdução à Inferência Estatística Introdução à Inferência Estatística Prof. Cícero Quarto www.cicerocq.com Slides produzidos a partir de suas anotações de aula do curso de Especialização em Estatística, Turma 2018/UEMA, assim como, aprofundados

Leia mais

IND 1115 Inferência Estatística Aula 6

IND 1115 Inferência Estatística Aula 6 Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal

Leia mais

Universidade Federal de Pernambuco Departamento de Estatística Inferência Estatística (PGE 951) Método de Máxima Verossimilhança (M.M.V.

Universidade Federal de Pernambuco Departamento de Estatística Inferência Estatística (PGE 951) Método de Máxima Verossimilhança (M.M.V. Universidade Federal de Pernambuco Departamento de Estatística Inferência Estatística (PGE 95) Método de Máxima Verossimilhança (MMV) Definição: Qualquer ˆθ = ˆθ(X,, X n ) Θ tal que L(ˆθ; x,, x n ) = Sup{L(θ)

Leia mais

MODELOS DE REGRESSÃO PARA DADOS CONTÍNUOS ASSIMÉTRICOS

MODELOS DE REGRESSÃO PARA DADOS CONTÍNUOS ASSIMÉTRICOS MODELOS DE REGRESSÃO PARA DADOS CONTÍNUOS ASSIMÉTRICOS 1 Diversas distribuições podem ser consideradas para a modelagem de dados positivos com distribuição contínua e assimétrica, como, por exemplo, as

Leia mais

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística CE085 - Estatística Inferencial Função de Verossimilhança e suas derivadas Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal

Leia mais

Diagnóstico de influência local no modelo de calibração ultraestrutural com réplicas. Bruno Pinheiro de Andrade

Diagnóstico de influência local no modelo de calibração ultraestrutural com réplicas. Bruno Pinheiro de Andrade Diagnóstico de influência local no modelo de calibração ultraestrutural com réplicas Bruno Pinheiro de Andrade UNIVERSIDADE FEDERAL DE SÃO CARLOS CENTRO DE CIÊNCIAS EXATAS E TECNOLOGIA PROGRAMA INTERINSTITUCIONAL

Leia mais

Ralph S. Silva

Ralph S. Silva ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS fonte de graus de soma de quadrado variação liberdade quadrados médio teste F regressão 1 1,4 1,4 46,2 resíduo 28 0,8 0,03 total 2,2 A tabela de análise de variância (ANOVA) ilustrada acima resulta de

Leia mais

Estimação: (A) Propriedades e Distribuições Amostrais

Estimação: (A) Propriedades e Distribuições Amostrais Estimação: (A) Propriedades e Distribuições Amostrais Wagner H. Bonat Fernando P. Mayer Elias T. Krainski Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23 Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração

Leia mais

Influência Local Gilberto A. Paula

Influência Local Gilberto A. Paula Influência Local p. 1/18 Influência Local Gilberto A. Paula Instituto de Matemática e Estatística Universidade de São Paulo e-mail:giapaula@ime.usp.br Influência Local p. 2/18 Preliminares O método de

Leia mais

Modelos de Regressão Linear Simples - Análise de Resíduos

Modelos de Regressão Linear Simples - Análise de Resíduos Modelos de Regressão Linear Simples - Análise de Resíduos Erica Castilho Rodrigues 1 de Setembro de 2014 3 O modelo de regressão linear é dado por Y i = β 0 + β 1 x i + ɛ i onde ɛ i iid N(0,σ 2 ). O erro

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 2012/02 1 Introdução 2 3 4 5 Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição

Leia mais

Técnicas Multivariadas em Saúde. Vetores Aleatórios. Métodos Multivariados em Saúde Roteiro. Definições Principais. Vetores aleatórios:

Técnicas Multivariadas em Saúde. Vetores Aleatórios. Métodos Multivariados em Saúde Roteiro. Definições Principais. Vetores aleatórios: Roteiro Técnicas Multivariadas em Saúde Lupércio França Bessegato Dep. Estatística/UFJF 1. Introdução 2. Distribuições de Probabilidade Multivariadas 3. Representação de Dados Multivariados 4. Testes de

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões

Leia mais

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017. Estimação pontual Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Introdução Exemplo Desejamos comprar um

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores

Leia mais

TESTES DE HIPÓTESES E INTERVALOS DE CONFIANÇA EM MODELOS LINEARES GENERALIZADOS

TESTES DE HIPÓTESES E INTERVALOS DE CONFIANÇA EM MODELOS LINEARES GENERALIZADOS TESTES DE HIPÓTESES E INTERVALOS DE CONFIANÇA EM MODELOS LINEARES GENERALIZADOS Antes de apresentar alguns dos testes de hipóteses e intervalos de confiança mais usuais em MLG, segue a definição de modelos

Leia mais

Distribuição Amostral e Estimação Pontual de Parâmetros

Distribuição Amostral e Estimação Pontual de Parâmetros Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências Estatística Aplicada

Leia mais

Análise de Regressão Linear Simples e

Análise de Regressão Linear Simples e Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável

Leia mais

Inferência. 1 Estimativa pontual de uma média 2 Estimativa intervalar de uma média. Renata Souza

Inferência. 1 Estimativa pontual de uma média 2 Estimativa intervalar de uma média. Renata Souza Inferência 1 Estimativa pontual de uma média 2 Estimativa intervalar de uma média Renata Souza Aspectos Gerais A estatística descritiva tem por objetivo resumir ou descrever características importantes

Leia mais

Modelos de Regressão Linear Simples - Análise de Resíduos

Modelos de Regressão Linear Simples - Análise de Resíduos 1 Modelos de Regressão Linear Simples - Análise de Resíduos Erica Castilho Rodrigues 27 de Setembro de 2016 2 3 O modelo de regressão linear é dado por 3 O modelo de regressão linear é dado por Y i = β

Leia mais

Testes de Hipóteses. Curso de Introdução à Econometria usando o R. Vítor Wilher. 1 de Dezembro de analisemacro.com.br

Testes de Hipóteses. Curso de Introdução à Econometria usando o R. Vítor Wilher. 1 de Dezembro de analisemacro.com.br Testes de Hipóteses Curso de Introdução à Econometria usando o R Vítor Wilher analisemacro.com.br 1 de Dezembro de 2016 Vítor Wilher (analisemacro.com.br) Testes de Hipóteses 1 de Dezembro de 2016 1 /

Leia mais

AULA 11 - Normalidade e Inferência em Regressão Múltipla - Parte 1

AULA 11 - Normalidade e Inferência em Regressão Múltipla - Parte 1 AULA 11 - Normalidade e Inferência em Regressão Múltipla - Parte 1 Susan Schommer Econometria I - IE/UFRJ Distribuições amostrais dos estimadores MQO Nas aulas passadas derivamos o valor esperado e variância

Leia mais

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9 em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 9 Data Mining Equação básica: Amostras finitas + muitos modelos = modelo equivocado. Lovell (1983, Review

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

Coeficiente de determinação R 2 no modelo de regressão linear normal

Coeficiente de determinação R 2 no modelo de regressão linear normal Coeficiente de determinação R 2 no modelo de regressão linear normal Fernando Lucambio Departamento de Estatística Universidade Federal do Paraná Curitiba/PR, 81531 990, Brasil email: lucambio@ufpr.br

Leia mais

Universidade Federal de Lavras

Universidade Federal de Lavras Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 6 a Lista de Exercícios Teoria da Estimação pontual e intervalar 1) Marcar como verdadeira ou falsa as seguintes

Leia mais

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017. Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Distribuições Amostrais O intuito de fazer uma amostragem

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Modelo de Regressão Múltipla

Modelo de Regressão Múltipla Modelo de Regressão Múltipla Modelo de Regressão Linear Simples Última aula: Y = α + βx + i i ε i Y é a variável resposta; X é a variável independente; ε representa o erro. 2 Modelo Clássico de Regressão

Leia mais

Inferência Bayesiana

Inferência Bayesiana Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares

Leia mais

Análise de Dados Longitudinais Modelos de Regressão - Perspecitva Histórica

Análise de Dados Longitudinais Modelos de Regressão - Perspecitva Histórica 1/41 Análise de Dados Longitudinais Modelos de Regressão - Perspecitva Histórica Enrico A. Colosimo/UFMG http://www.est.ufmg.br/ enricoc/ Revisão para Dados Transversais 1 Características Informações amostrais

Leia mais

MAE Introdução à Probabilidade e Estatística II Resolução Lista 5

MAE Introdução à Probabilidade e Estatística II Resolução Lista 5 MAE 229 - Introdução à Probabilidade e Estatística II Resolução Lista 5 Professor: Pedro Morettin e Profa. Chang Chian Exercício 1 (a) De uma forma geral, o desvio padrão é usado para medir a dispersão

Leia mais

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000)

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) 5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) A primeira parte deste capítulo, referente à passagem dos modelos estocásticos para as equações do Filtro de Kalman, já foi previamente

Leia mais

Modelos de Regressão Linear Simples - parte III

Modelos de Regressão Linear Simples - parte III 1 Modelos de Regressão Linear Simples - parte III Erica Castilho Rodrigues 20 de Setembro de 2016 2 3 4 A variável X é um bom preditor da resposta Y? Quanto da variação da variável resposta é explicada

Leia mais

AULA 07 Inferência a Partir de Duas Amostras

AULA 07 Inferência a Partir de Duas Amostras 1 AULA 07 Inferência a Partir de Duas Amostras Ernesto F. L. Amaral 10 de setembro de 2012 Faculdade de Filosofia e Ciências Humanas (FAFICH) Universidade Federal de Minas Gerais (UFMG) Fonte: Triola,

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário (bootstrap) Este método foi proposto por Efron

Leia mais

Erros com Distribuição Log-Beta-Weibull em Regressões Lineares

Erros com Distribuição Log-Beta-Weibull em Regressões Lineares UNIVERSIDADE DE BRASÍLIA DEPARTAMENTO DE ESTASTÍSTICA Monograa Erros com Distribuição Log-Beta-Weibull em Regressões Lineares Helson Barcelos Resende Orientador: Antônio Eduardo Gomes Brasília, 9 de dezembro

Leia mais

Distribuições Amostrais - Tamanho da Amostra

Distribuições Amostrais - Tamanho da Amostra Distribuições Amostrais - Tamanho da Amostra Prof. Eduardo Bezerra Inferência Estatística 21 de Setembro de 2018 Eduardo Bezerra (CEFET/RJ) Tamanho da Amostra 1 / 10 Motivação Suponha que queremos estimar

Leia mais

5 Avaliação dos estimadores propostos

5 Avaliação dos estimadores propostos 5 valiação dos estimadores propostos Este capítulo apresenta as medidas estatísticas usuais para avaliar a qualidade de estimadores e as expressões utilizadas para a estimação destas medidas, a partir

Leia mais

Gráficos de Controle para Variáveis

Gráficos de Controle para Variáveis Gráficos de Controle para Variáveis CE219 - Controle Estatístico de Qualidade Prof. Cesar Taconeli taconeli@ufpr.br Prof. Walmes Zeviani walmes@ufpr.br Laboratório de Estatística e Geoinformação Departamento

Leia mais

Teoria da Estimação. Fabricio Goecking Avelar. junho Universidade Federal de Alfenas - Instituto de Ciências Exatas

Teoria da Estimação. Fabricio Goecking Avelar. junho Universidade Federal de Alfenas - Instituto de Ciências Exatas Teoria da Estimação Fabricio Goecking Avelar Universidade Federal de Alfenas - Instituto de Ciências Exatas junho - 2018 Algumas distribuições importantes Sumário 1 Algumas distribuições importantes 2

Leia mais

MAE Modelos Lineares Generalizados 2 o semestre 2017

MAE Modelos Lineares Generalizados 2 o semestre 2017 MAE5763 - Modelos Lineares Generalizados 2 o semestre 2017 Prof. Gilberto A. Paula 3 a Lista de Exercícios 1. Supor y i ind FE(µ, φ i ) com φ i = α + γz i, para i = 1,..., n. Como ca a matriz modelo Z?

Leia mais

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12 em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 12 Regressão com Variáveis Não-Estacionárias Considere três processos estocásticos definidos pelas seguintes

Leia mais

Probabilidades e Estatística MEEC, LEIC-A, LEGM

Probabilidades e Estatística MEEC, LEIC-A, LEGM Departamento de Matemática Probabilidades e Estatística MEEC, LEIC-A, LEGM Exame a Época / o Teste (Grupos III e IV) o semestre 009/00 Duração: 80 / 90 minutos /06/00 9:00 horas Grupo I Exercício 5 valores

Leia mais

2 Conceitos de Teoria da Probabilidade

2 Conceitos de Teoria da Probabilidade 2 Conceitos de Teoria da Probabilidade Neste capítulo, enunciaremos algumas denições e resultados de teoria de probabilidade. justicativa deste capítulo reside no fato que u objetivo nal é estimar momentos

Leia mais

Análise de Dados Categóricos

Análise de Dados Categóricos 1/43 Análise de Dados Categóricos Modelo de Regressão de Poisson Enrico A. Colosimo/UFMG http://www.est.ufmg.br/ enricoc/ Departamento de Estatística Universidade Federal de Minas Gerais 2/43 Revisão:

Leia mais

AULA 9 - MQO em regressão múltipla: Propriedades Estatísticas (Valor Esperado)

AULA 9 - MQO em regressão múltipla: Propriedades Estatísticas (Valor Esperado) AULA 9 - MQO em regressão múltipla: Propriedades Estatísticas (Valor Esperado) Susan Schommer Econometria I - IE/UFRJ Valor esperado dos estimadores MQO Nesta aula derivamos o valor esperado dos estimadores

Leia mais

Modelo marginal de odds proporcionais para dados longitudinais: um estudo de simulação

Modelo marginal de odds proporcionais para dados longitudinais: um estudo de simulação Modelo marginal de odds proporcionais para dados longitudinais: um estudo de simulação Nívea B. da Silva 1 Enrico A. Colosimo 2 Leila A. F. Amorim 3 1 Introdução Nos últimos anos muitas metodologias têm

Leia mais

Cap. 4 - Estimação por Intervalo

Cap. 4 - Estimação por Intervalo Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.

Leia mais

Econometria em Finanças e Atuária

Econometria em Finanças e Atuária Ralph S. Silva http://www.im.ufrj.br/ralph/especializacao.html Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Maio-Junho/2013 Motivação Motivação Por

Leia mais

PGF Mecânica Clássica Prof. Iberê L. Caldas

PGF Mecânica Clássica Prof. Iberê L. Caldas PGF 5005 - Mecânica Clássica Prof Iberê L Caldas Quarto Estudo Dirigido o semestre de 08 Os estudos dirigidos podem ser realizados em duplas Apenas os exercícios marcados com asteriscos precisam ser entregues

Leia mais

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente. 1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-

Leia mais

Distribuições Amostrais e Estimação Pontual de Parâmetros

Distribuições Amostrais e Estimação Pontual de Parâmetros Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 19 de Maio de 2011 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição

Leia mais

PE-MEEC 1S 09/ Capítulo 7 - Estimação por intervalos. 7.2 Intervalos de. confiança para. média de uma. normal 7.

PE-MEEC 1S 09/ Capítulo 7 - Estimação por intervalos. 7.2 Intervalos de. confiança para. média de uma. normal 7. Capítulo 7 - Estimação por intervalos 7.1 Noções básicas 7.2 Intervalos de confiança para a média de uma população normal 7.3 Intervalos de confiança para a diferença de duas médias de populações normais

Leia mais

Análise de Dados e Simulação

Análise de Dados e Simulação Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer

Leia mais

Introdução a Modelos VAR

Introdução a Modelos VAR Introdução a Modelos VAR Henrique Dantas Neder - Professor Associado Universidade Federal de Uberlândia July 24, 2014 Um VAR é um modelo no qual K variáveis são especicadas como funções lineares de p de

Leia mais

Sumário. CAPÍTULO 1 Conceitos preliminares 1. CAPÍTULO 2 Descrição de dados: análise monovariada 47

Sumário. CAPÍTULO 1 Conceitos preliminares 1. CAPÍTULO 2 Descrição de dados: análise monovariada 47 CAPÍTULO 1 Conceitos preliminares 1 Introdução........................................................1 O que é estatística?.................................................. 4 Papel dos microcomputadores.........................................

Leia mais

Estatísticas Inferenciais Distribuições Amostrais. Estatística

Estatísticas Inferenciais Distribuições Amostrais. Estatística Estatística Na descrição dos conjuntos de dados x 1,..., x n, não foi feita menção ao conceito de população. Estatísticas inferenciais: preocupadas com a fonte dos dados e em tentar fazer generalizações

Leia mais