200 likes | 270 Views
Estatística. Dados valores (amostras) de variáveis aleatórias X 1 , X 2 , ..., X n , cuja distribuição conjunta é desconhecida, inferir propriedades desta distribuição. Estatística.
E N D
Estatística • Dados valores (amostras) de variáveis aleatórias X1, X2, ..., Xn, cuja distribuição conjunta é desconhecida, inferir propriedades desta distribuição.
Estatística • Situação mais comum: X1, X2, ..., Xnsão i.i.d. (formam uma amostra aleatória simples), com distribuição comum Fq, conhecida a menos do parâmetro q (estatística clássica paramétrica). • Outras modalidades de inferência: não paramétrica, bayesiana
Estimativa Pontual • Estimar q por meio de uma estatística
Exemplo • Os táxis em uma cidade são numerados de 1 a N, onde N é desconhecido. Estimar N, por meio de uma amostra dos números dos táxis que passam em um determinado ponto (por exemplo: • Mais conveniente considerar a versão contínua: X1, X2, ..., Xn i.i.d. U[0, q].
Critérios para Avaliar Estimadores • Vício (ou viés ou tendência ou bias) • O estimador é não-viciado quando a tendência é igual a zero para todo q. • Erro médio quadrático • O erro médio quadrático de um estimador não-viciado é igual à sua variância
Exemplo • Dos estimadores do exemplo anterior, qual é o melhor?
Métodos de Estimação • Método dos momentos • Método da máxima verossimilhança
Método dos Momentos • Exprimir os momentos da distribuição em função dos parâmetros • Igualar esses momentos às estimativas amostrais • Obter os estimadores obtendo o valor dos parâmetros nas equações acima.
Exemplo • X1, X2, ..., Xn i.i.d. U[0, q]
Exemplo • X1, X2, ..., Xn i.i.d. N(m, s2)
Método da Máxima Verossimilhança • O estimador é escolhido de modo a maximimizar a função de verossimilhança onde p(x, q) é a probabilidade (ou densidade) de se observar a amostra x1, x2, …, xn quando o parâmetro é igual a q.
Exemplo • X1, X2, ..., Xn i.i.d.Bernoulli (q)
Exemplo • X1, X2, ..., Xn i.i.d.N(m, s2)
Exemplo • X1, X2, ..., Xn i.i.d. U[0, q]
Qual é o melhor estimador? • Sonho de consumo • Um estimador não viciado que possua menor variância que qualquer outro, para todo valor de q (ENVUMV). • Há teoremas que permitem obter, em certos casos, estes estimadores.
ENVUMV • Um estimador não viciado que seja uma função de uma estatística suficiente e completa T(X1, …, Xn) é um ENVUMV. • Essencialmente, uma estatística suficiente e completa é a que resulta ao escrever p(x, q) na forma h(x).g(T(x), q) na forma mais compacta possível.
Exemplo • X1, X2, ..., Xn i.i.d.Bernoulli (q)
Observação • Embora existam ENVUMVs para as distribuições clássicas, em geral sequer há estimadores não viciados. • Por esta razão, o método geral para obtenção de bons estimadores é o método da máxima verossimilhança. • Há teoremas que garantem que tais estimadores são assintoticamente não viciados e de mínima variância.