1.36k likes | 2.69k Views
AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relaci ón entre las perturbaciones Profesora Samaria Muñoz. 1.- Definición - cuándo ocurre la autocorrelación. 2.- Causas de la Autocorrelación. 3.- Por qué Ocurre la Autocorrelación. 4.- Tipos de Autocorrelación.
E N D
AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relación entre las perturbaciones Profesora Samaria Muñoz
1.- Definición - cuándo ocurre la autocorrelación 2.- Causas de la Autocorrelación 3.- Por qué Ocurre la Autocorrelación 4.- Tipos de Autocorrelación 5.- Detección de la Autocorrelación 6.- Cómo corregirla
Autocorrelación • Aparece cuando los términos de error del modelo no son independientes entre sí. • La autocorrelación generalmente aparece en datos en serie de tiempo aunque también se presenta en el caso de en corte transversal. • Aquí se estudiará el primer caso.
Causas de Autocorrelación • Error de especificación por excluir variables • Error de especificación debido a forma funcional incorrecta • El fenómeno de la telaraña • El comportamiento lento, cíclico y sesgado de las variables económicas • El Uso de modelos Autoregresivos
Autocorrelación • Con la presencia de autocorrelación los estimadores obtenidos con mínimos cuadrados ordinarios dejan de ser MELI, en el sentido que dejan de ser aquellos con varianza mínima. • Ignorar el problema de la autocorrelación lleva a que las pruebas t y F dejen de ser válidas y muy probablemente arrojen conclusiones erradas.
Por qué ocurre la Autocorrelación • Inercia. Cuando existen tendencias marcadas que influyen en los valores futuros de la serie. • Sesgos de especificación. Cuando se elige mal la forma funcional o cuando se omiten variables, lo cual genera un comportamiento sistemático en el término estocástico.
Tiempo de ajuste. Implica el tiempo que los agentes económicos deben tomar para procesar información de un período dado. Así un fenómeno sucedido en un período determinado puede impactar en uno o varios posteriores.
Detección de la Autocorrelación • Prueba Gráfico • Prueba de las rachas • Prueba de Durbin y Watson • Modelo Autoregresivo de Markov • Prueba de Breusch – Godfrey
Prueba de las rachas Se tienen residuos positivos y negativos si los residuos fuesen aleatorios ¿seria posible observar tal patrón? Intuitivamente parece poco probable. Esta intuición puede verificarse mediante la prueba de “las rachas” conocida también como prueba de Gearey, es una prueba no paramétrica.
Prueba de las rachas RACHA: sucesión ininterrumpida de un símbolo o atributo, tal como + o -. LONGITUD DE LA RACHA: número de elementos en ésta. N = número total de observaciones=N1 +N2 N1= número de símbolos + (es decir resid +) N2= número de símbolos - (es decir resid -) R = número de rachas
Prueba de las rachas Bajo la hipótesis nula de que los residuos son independientes y suponiendo que N1>10 y N2 >10, el número de rachas está (asintóticamente) normalmente distribuido con:
Prueba de las rachas Media: Varianza:
Prueba de las rachas Si la hipótesis nula de aleatoriedad es sostenible, se debe esperar que: Es decir, la probabilidad es de 95%, de que el intervalo anterior incluya R.
Prueba de las rachas Regla de decisión: No se rechace la hipótesis nula de aleatoriedad al 95% de confianza si R, el número de rachas, esta en el intervalo de confianza anterior; rechácese la hipótesis nula si la R estimada se encuentra fuera de estos limites. (se puede elegir cualquier nivel de confianza).
Como regla general si existe autocorrelación positiva, el número de rachas será reducido, mientras que si existe autocorrelación negativa el número de rachas será grande.
Ejemplo (- - - - - - - - - ) (+++++++++++++++++++++) (- - - - - - - - - -) N = número total de observaciones 40 N1= número de símbolos + ,21 N2= número de símbolos –, 19 Longitud de racha 1=9 ,de racha 2=21, de racha 3=10 R = número de rachas, 3.
Ejemplo • H0: Los residuos en la regresión son aleatorios. • H1: Los residuos no son aleatorios.
Ejemplo El Intervalo de Confianza de 95% para R es:
Ejemplo • Regla de decisión: Como el intervalo no incluye al 3 se rechaza la hipótesis de que los residuos son aleatorios, con un 95% de confianza. Es decir los residuos muestran autocorrelación.
Durbin y Watson • Para detectar la presencia de autocorrelación en una serie de datos la prueba más utilizada y que aparece en prácticamente todos los softwares econométricos es la de Durbin Watson. • Para este fin se define el estadístico de la siguiente manera:
Durbin y Watson • Dicho estadístico se basa en los residuos que se calculan automáticamente en el análisis de regresión. • Otra forma de representar el estimador es de la siguiente manera: • Donde ^ es un estimador del coeficiente de autocorrelación de primer orden.
Durbin y Watson • El valor de ^ estará entre 1 y -1 lo cual implica que 0 < d < 4 • Cuando ^ = 0 tendremos qued = 2 • Cuando ^ = -1 tendremos qued = 4 • Cuando ^ = 1 tendremos qued = 0 • Por tanto, como regla general, si se encuentra que d = 2 puede suponerse que no existe autocorrelación de primer orden.
Durbin y Watson • Tablas: • Durbin y Watson formularon una tabla donde se muestran los límites inferiores y superiores de un valor crítico (dL y dU) que, de acuerdo al valor obtenido en la estimación del estadístico d, permite tomar decisiones sobre la posible presencia de correlación serial positiva o negativa.
Durbin y Watson • Los valores de significancia de las tablas de Durbin-Watson se tabulan para probar la hipótesis de ρ=o, contra ρ>0. La tabla arroja dos valores dL y dU. • Si d>2 y se desea probar la hipótesis de ρ=o, contra ρ<0 , se considera 4-d y se hace referencia a las tablas como si se probara una autocorrelación positiva
ƒ(d) ¿? ¿? ρ=1 ρ=0 ρ= -1 0 4 dl du (4-du) (4-dl) Durbin y Watson 6 de Junio 2007
0 dL dU 2 4- dU 4- dl 4
Durbin y Watson • Cuando la estimación del modelo excluye el intercepto u ordenada en el origen la prueba se invalida • Cuando existen dos o mas variables rezagadas, el DW estará cerca de 2 aun cuando los errores estén correlacionados • Para ello se utiliza el estadístico h de Durbin
dl= 1.338 du=1.659 d=0.756968
Modelo Autoregresivo de Markov • Como primera aproximación se asume que las perturbaciones se generan de la siguiente manera: • se le conoce como coeficiente de autocovarianza o de autocorrelación y es una perturbación estocástica que satisface los supuestos MCO tradicionales.
Modelo Autoregresivo de Markov • Sabemos que -1 < < 1 • Si = 0 no existe autocorrelación • Si = 1 o >0 existe autocorrelación positiva perfecta • Si = -1 o <0 existe autocorrelación negativa perfecta • Este es un comportamiento autorregresivo de primer orden y se denota como AR(1).
Prueba de Breusch – Godfrey Permite detectar la presencia de autocorrelación de mayor orden, es decir, con más de un retardo. Se determina un estadístico igual a n * R² con X2(p) p grados de liberta p=los retardos • Se establece como decisión “si el estadístico es mayor al X² (p) no hay autocorrelacion • Ho= no autocorrelacón • Hi= Hay atocorrelacion
El valor del X2 con dos grados de libertad es igual a 5.99147 y el de n* R² es igual a 13.47355. Dado a que 5.99147<13.47355 Se rechaza la hipótesis nula, aceptando los problemas de autocorrelación correspondientes