710 likes | 952 Views
Econometria. Propriedades assintóticas dos estimadores MQO Inferência para grandes amostras Teste de Wald e LM. Econometria. Multicolinearidade Testes de hipóteses no modelo de regressão linear Propriedades assintóticas dos estimadores MQO. Propriedades assintóticas.
E N D
Econometria Propriedadesassintóticas dos estimadoresMQO Inferênciaparagrandesamostras Testede Wald e LM
Econometria Multicolinearidade Testes de hipóteses no modelo de regressão linear Propriedadesassintóticas dos estimadores MQO
Propriedades assintóticas O número de resultados estatísticos exatos, tais como o valor esperado ou a distribuição verdadeira, em muitos modelos é baixo. Usualmente, utilizamos resultados aproximados com base no que se sabe do comportamento de determinadas estatísticas de grandes amostras.
Convergência Definições, tipos de convergência quando n cresce: 1. Para uma constante; exemplo, a média amostral, 2. Para uma variável aleatória; exemplo, uma estatística t com n -1 graus de liberdade.
Convergência para uma constante Convergência de umavariávelaleatória O quesignificaumavariávelaleatóriaconvergirparaumaconstante? Convergênciadavariânciapara zero. A variávelaleatória converge paraalgoquenão é aleatório.
Resultados de convergência Convergência de uma sequência de variáveis aleatórias para uma constante A média converge para uma constante e a variância converge para zero. Teorema de convergência para momentos amostrais. Momentos amostrais convergem em probabilidade para seus análogos populacionais. (1/n)Σig(zi) converge para E[g(zi)].
Convergência em probabilidade A probabilidade que a diferença entre xn e c seja maior do que ε para qualquer ε vai para zero. Ou seja, xn fica perto de c.
Convergência em probabilidade Convergência em probabilidade significa que os valores das variáveis que não estão próximos de c ficam cada vez mais improváveis à medida que o n cresce. Exemplo: Suponha uma variável aleatória xn que assume dois valores, zero e n, com probabilidades (1-1/n) e (1/n), respectivamente. Quando n aumenta , o segundo valor é menos provável. Xn converge em probabilidade para zero. Toda a massa da distribuição de probabilidade fica concentrada em pontos próximos de c.
Convergência em Média Quadrática Se xn tem média μn e variância σ2 tal que os limites ordinários de μn e σ2 são c e 0, respectivamente, xn converge em “média quadrática“ para c, e
Convergência em Média Quadrática Convergênciaemprobabilidadenãoimplicaconvergênciaemmédiaquadrática!!! Exemplo dado: calcular o valor esperado: o valor esperado é igual a 1 paraqualquern. As condiçõespara a convergênciaemmédiasãomaisfáceis de verificar do que a forma geral de convergênciaemprobabilidade. Utilizaremosquasesempreconvergênciaemmédia.
Consistência de um estimador Se a variável aleatória, xn é um estimador (por exemplo, a média), e se: plim xn = θ xn é um estimador consistente de θ.
Teorema de Slutsky Se xn é uma variável aleatória tal que plim xn = θ. Onde θ é uma constante. g(.) é uma função contínua. g(.) não é função de n. Conclusão: plim[g(xn)] = g[plim(xn)] e g[plim(xn)] existe. Limite de probabilidade não necessariamente funciona para esperanças.
Resultados de Slutsky para Matrizes Funções de matrizes são funções contínuas de elementos das matrizes. Se plimAn = A e plimBn = B (elemento a elemento), Plim(An-1) = [plim An]-1 = A-1 e plim(AnBn) = plimAnplim Bn = AB
Distribuições limites Convergência para um tipo de VA e não para uma constante xn é uma sequência de VA com Fn(xn). Se plim xn = θ (constante), Fn(xn) será um ponto. Mas, Fn pode convergir para uma variável aleatória específica. A distribuição desta VA será a distribuição limite de xn.
Teorema de Slutsky para Variáveis Aleatórias Se , e se g(Xn) é uma função continua com derivadas contínuas e que não depende de n, temos que : Exemplo: t-student converge para uma normal padrão. Quadrado de uma t-student converge para uma qui-quadrada.
Uma extensão do Teorema de Slutsky Se (Xn tem uma distribuição limite) e θ é uma constante tal que (gn tem uma distribuição limite que é função de θ), e temos que: Ou seja, substituir o θ por um estimador consistente leva a mesma distribuição limite.
Aplicação do Teorema de Slutsky Comportamento da estatística F para testar restrições em grandes amostras:
Teorema do Limite Central Descreve o comportamento de uma variável aleatória que envolve soma de variáveis “Tendência para a normalidade.” A média de uma amostra aleatória de qualquer população (com variância finita), quando padronizada, tem uma distribuição normal padrão assintótica.
Teorema do Limite Central TeoremaLindeberg-Levy (versão simples do TLC): Se x1, x2, … , xn é umaamostraaleatória de umapopulaçãocujadistribuição de probabilidade tem médiaμ e variância finita igual a σ2 e temosque:
Teorema do Limite Central TeoremaLindeberg-Feller : Suponhaque é umasequência de variáveisaleatóriasindependentes com médiaμi e variâncias positivas finitas σ2i
Lindberg-Levy vs. Lindeberg-Feller Lindeberg-Levy assume amostra aleatória – observações possuem as mesmas média e variância. Lindeberg-Feller – a variância pode ser diferente entre as observações, apenas com hipóteses de como elas variam. Soma de variáveis aleatórias, independente da sua distribuição, tenderão a ser normalmente distribuídas. E, mais, Lindeberg-Feller não requere que as variáveis na soma venham da mesma distribuição de probabilidade. Estimadores em econometria – uso da versão Lindeberg-Feller do TLC.
Distribuição assintótica • Uma distribuição assintótica é uma distribuição usada para a aproximar a verdadeira distribuição de amostra finita de uma variável aleatória. • Construída a partir da distribuição limite da função de uma variável aleatória. • Se • é assintoticamente normalmente distribuído com média μ e variância σ2/n.
Eficiência assintótica • Comparação de variâncias assintóticas • Como comparamos estimadores consistentes? Se convergem para constante, ambas variâncias vão para zero. • Eficiência assintótica: Um estimador é assintoticamente normal, este estimador é eficiente assintoticamente se a matriz de covariância de qq outro estimador consistente e assintoticamente normal exceder (1/n)V por uma matriz definida não negativa.
Eficiência assintótica Exemplo: Amostra aleatória de uma distribuição normal, • A média amostral é assintoticamente normal com [μ,σ2/n] • Mediana é assintoticamente normal com [μ,(π/2)σ2/n] • Média é assintoticamente mais eficiente.
Propriedades assintóticas do EMQ A hipótese de normalidade não é necessária para derivarmos as propriedades assintóticas. Hipóteses: Convergência de XX/n para uma matriz Q positiva definida. Convergência de X’/n para 0. Suficiente para a consistência. Hipóteses: Convergência de (1/n)X’ para um vetor com distribuição normal – normalidade assintótica.
EMQ EMQ pode ser escrito da seguinte forma: (XX)-1Xy = (XX)-1ixiyi = + (XX)-1ixiεi Um vetor de constantes mais um vetor de variáveis aleatórias. Os resultados para a amostra finita são estabelecidos conforme regras estatísticas para esta soma. Como esta soma de variáveis se comporta em grandes amostras?
Convergência em média quadrática E[b|X]=β para qualquer X. Var[b|X]0 para um X específico b converge para β b é consistente
Limite de probabilidade A inversa é uma função contínua da matriz original. Este plim deverá ser zero
Limite de probabilidade Devemos encontrar o plim do último termo: Para isto, devemos formular algumas hipóteses.
Hipótese crucial do modelo O quedevemosassumirparaqueplim(1/nX’ε)=0? xi = vetoraleatório com média e variânciasfinitas e com distribuiçõesidênticas. εi = variável aleatória com uma distribuição constante com média e variância finitas e E(εi)=0 xie εi são estatisticamente independentes. wi= xiεi = uma observação em uma amostra aleatória, com matriz de covariância constante e o vetor de média igual a zero. converge para sua esperança.
Limite de probabilidade Pela hipótese de exogeneidade e pela lei das expectativas iteradas:
Limite de probabilidade Pela decomposição da variância:
Limite de probabilidade EMQ é consistente!!
Distribuição assintótica O comportamento limite de b é o mesmo da estatística resultante da substituição da matriz de momentos pelo seu limite. Examinamos o comportamentoda seguinte soma modificada:
Resultados Assintóticos Qual a média desta variável aleatória? Qual sua variância? Esta soma converge para algo? Podemos achar o limite de probabilidade. Qual a distribuição assintótica?
Distribuição assintótica • b β em probabilidade. Como descrever esta distribuição? • Não tem uma distribuição limite • Variância b 0 • Como estabilizar a variância? Var[n b] ~ σ2Q-1 • Mas, E[n b]= n β que diverge • n (b- β) é uma variável aleatória com média e variância finitas (transformação que estabiliza) • b aproximadamente β +1/ n vezes a variável aleatória.
Distribuição limite n (b- β) = n (X’X)-1X’ε = (X’X/n)-1(X’ε/ n) No limite, isto é igual a (plim): Q-1(X’ε/n) Q é uma matriz positiva definida. Comportamento depende da variável aleatória (X’ε/n)
Eficiência assintótica Um estimador é assintoticamente eficiente se é consistente, assintoticamente normalmente distribuído, e tem uma matriz de covariância que não é maior que uma matriz de covariância de qualquer outro estimador consistente e com distribuição assintótica normal.
Econometria Propriedadesassintóticas dos estimadores MQO (continuação) Inferência – grandesamostras
Estatísticas de testes Como estabelecemos a distribuição assintótica de b, podemos construir estatísticas de testes. Baseamos os testes na estatística de Wald. F[J,n-K] = (1/J)(Rb - q)’[R s2(XX)-1R]-1(Rb - q) Esta é a estatística de teste usual para testar hipóteses lineares no modelo de regressão linear, seguindo uma distribuição F exata se os erros são normalmente distribuídos. Qual o resultado mais geral? Quando não se assume normalidade.
Estatística de Wald Abordagem geral considerando uma distribuição univariada Quadrado de uma variável normal padrão qui-quadrada com 1 grau de liberdade. Suponha z ~ N[0,2] , desta forma (z/)2 é uma qui-quadrada com 1 gl. Suponha z~N[,2]. [(z - )/]2 é uma qui-quadrada com 1 gl. Esta é a distância normalizada entre z e , onde a distância é medida em unidades de desvios padrão. Suponha zn não é exatamente normalmente distribuída, mas (1) E[zn] = , (2) Var[zn] = 2, (3) a distribuição limite de zn é normal. (zn - )/ N[0,1], que é uma distribuição limite , não é uma distribuição exata em uma amostra finita.
Extensões Logo: n2 = [(zn - )/]2 {N[0,1]}2, ou 2[1]. Novamente, uma distribuição limite, não é uma distribuição exata. Suponha desconhecido, e substituímos por um estimador consistente para , ou seja sn, tal que plim sn = . O que acontece com este “análogo empírico”? tn = [(zn - )/sn]? Como plim sn = , o comportamento desta estatística em uma grande amostra será igual ao comportamento da estatística original usando ao invés de sn. tn2 = [(zn - )/sn]2 converge para uma qui-quadrada[1]. tn e n convergem para a mesma variável aleatória.