1 / 71

AUTOCORRELACIÓN.

AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relaci ón entre las perturbaciones Profesora Samaria Muñoz. 1.- Definición - cuándo ocurre la autocorrelación. 2.- Causas de la Autocorrelación. 3.- Por qué Ocurre la Autocorrelación. 4.- Tipos de Autocorrelación.

theta
Download Presentation

AUTOCORRELACIÓN.

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relación entre las perturbaciones Profesora Samaria Muñoz

  2. 1.- Definición - cuándo ocurre la autocorrelación 2.- Causas de la Autocorrelación 3.- Por qué Ocurre la Autocorrelación 4.- Tipos de Autocorrelación 5.- Detección de la Autocorrelación 6.- Cómo corregirla

  3. Definición o cuando ocurre la autocorrelación

  4. Autocorrelación • Aparece cuando los términos de error del modelo no son independientes entre sí. • La autocorrelación generalmente aparece en datos en serie de tiempo aunque también se presenta en el caso de en corte transversal. • Aquí se estudiará el primer caso.

  5. Causas de la Autocorrelación

  6. Causas de Autocorrelación • Error de especificación por excluir variables • Error de especificación debido a forma funcional incorrecta • El fenómeno de la telaraña • El comportamiento lento, cíclico y sesgado de las variables económicas • El Uso de modelos Autoregresivos

  7. Autocorrelación • Con la presencia de autocorrelación los estimadores obtenidos con mínimos cuadrados ordinarios dejan de ser MELI, en el sentido que dejan de ser aquellos con varianza mínima. • Ignorar el problema de la autocorrelación lleva a que las pruebas t y F dejen de ser válidas y muy probablemente arrojen conclusiones erradas.

  8. Por que Ocurre la Autocorrelación

  9. Por qué ocurre la Autocorrelación • Inercia. Cuando existen tendencias marcadas que influyen en los valores futuros de la serie. • Sesgos de especificación. Cuando se elige mal la forma funcional o cuando se omiten variables, lo cual genera un comportamiento sistemático en el término estocástico.

  10. Tiempo de ajuste. Implica el tiempo que los agentes económicos deben tomar para procesar información de un período dado. Así un fenómeno sucedido en un período determinado puede impactar en uno o varios posteriores.

  11. Tipos de Autocorrelación

  12. PATRONES DE AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓN

  13. Detección de la Autocorrelación

  14. Detección de la Autocorrelación • Prueba Gráfico • Prueba de las rachas • Prueba de Durbin y Watson • Modelo Autoregresivo de Markov • Prueba de Breusch – Godfrey

  15. Prueba Gráfico

  16. 2. Prueba de las rachas o prueba de Geary

  17. Prueba de las rachas Se tienen residuos positivos y negativos si los residuos fuesen aleatorios ¿seria posible observar tal patrón? Intuitivamente parece poco probable. Esta intuición puede verificarse mediante la prueba de “las rachas” conocida también como prueba de Gearey, es una prueba no paramétrica.

  18. Prueba de las rachas RACHA: sucesión ininterrumpida de un símbolo o atributo, tal como + o -. LONGITUD DE LA RACHA: número de elementos en ésta. N = número total de observaciones=N1 +N2 N1= número de símbolos + (es decir resid +) N2= número de símbolos - (es decir resid -) R = número de rachas

  19. Prueba de las rachas Bajo la hipótesis nula de que los residuos son independientes y suponiendo que N1>10 y N2 >10, el número de rachas está (asintóticamente) normalmente distribuido con:

  20. Prueba de las rachas Media: Varianza:

  21. Prueba de las rachas Si la hipótesis nula de aleatoriedad es sostenible, se debe esperar que: Es decir, la probabilidad es de 95%, de que el intervalo anterior incluya R.

  22. Prueba de las rachas Regla de decisión: No se rechace la hipótesis nula de aleatoriedad al 95% de confianza si R, el número de rachas, esta en el intervalo de confianza anterior; rechácese la hipótesis nula si la R estimada se encuentra fuera de estos limites. (se puede elegir cualquier nivel de confianza).

  23. Como regla general si existe autocorrelación positiva, el número de rachas será reducido, mientras que si existe autocorrelación negativa el número de rachas será grande.

  24. Ejemplo (- - - - - - - - - ) (+++++++++++++++++++++) (- - - - - - - - - -) N = número total de observaciones 40 N1= número de símbolos + ,21 N2= número de símbolos –, 19 Longitud de racha 1=9 ,de racha 2=21, de racha 3=10 R = número de rachas, 3.

  25. Ejemplo • H0: Los residuos en la regresión son aleatorios. • H1: Los residuos no son aleatorios.

  26. Ejemplo El Intervalo de Confianza de 95% para R es:

  27. Ejemplo • Regla de decisión: Como el intervalo no incluye al 3 se rechaza la hipótesis de que los residuos son aleatorios, con un 95% de confianza. Es decir los residuos muestran autocorrelación.

  28. Durbin Watson.

  29. Durbin y Watson • Para detectar la presencia de autocorrelación en una serie de datos la prueba más utilizada y que aparece en prácticamente todos los softwares econométricos es la de Durbin Watson. • Para este fin se define el estadístico de la siguiente manera:

  30. Durbin y Watson • Dicho estadístico se basa en los residuos que se calculan automáticamente en el análisis de regresión. • Otra forma de representar el estimador es de la siguiente manera: • Donde ^ es un estimador del coeficiente de autocorrelación de primer orden.

  31. Durbin y Watson • El valor de ^ estará entre 1 y -1 lo cual implica que 0 < d < 4 • Cuando ^ = 0 tendremos qued = 2 • Cuando ^ = -1 tendremos qued = 4 • Cuando ^ = 1 tendremos qued = 0 • Por tanto, como regla general, si se encuentra que d = 2 puede suponerse que no existe autocorrelación de primer orden.

  32. Durbin y Watson • Tablas: • Durbin y Watson formularon una tabla donde se muestran los límites inferiores y superiores de un valor crítico (dL y dU) que, de acuerdo al valor obtenido en la estimación del estadístico d, permite tomar decisiones sobre la posible presencia de correlación serial positiva o negativa.

  33. Durbin y Watson • Los valores de significancia de las tablas de Durbin-Watson se tabulan para probar la hipótesis de ρ=o, contra ρ>0. La tabla arroja dos valores dL y dU. • Si d>2 y se desea probar la hipótesis de ρ=o, contra ρ<0 , se considera 4-d y se hace referencia a las tablas como si se probara una autocorrelación positiva

  34. ƒ(d) ¿? ¿? ρ=1 ρ=0 ρ= -1 0 4 dl du (4-du) (4-dl) Durbin y Watson 6 de Junio 2007

  35. 0 dL dU 2 4- dU 4- dl 4

  36. Durbin y Watson • Cuando la estimación del modelo excluye el intercepto u ordenada en el origen la prueba se invalida • Cuando existen dos o mas variables rezagadas, el DW estará cerca de 2 aun cuando los errores estén correlacionados • Para ello se utiliza el estadístico h de Durbin

  37. dl= 1.338 du=1.659 d=0.756968

  38. Modelo Autoregresivo de Markov

  39. Modelo Autoregresivo de Markov • Como primera aproximación se asume que las perturbaciones se generan de la siguiente manera: •  se le conoce como coeficiente de autocovarianza o de autocorrelación y  es una perturbación estocástica que satisface los supuestos MCO tradicionales.

  40. Modelo Autoregresivo de Markov • Sabemos que -1 <  < 1 • Si  = 0 no existe autocorrelación • Si  = 1 o  >0 existe autocorrelación positiva perfecta • Si  = -1 o  <0 existe autocorrelación negativa perfecta • Este es un comportamiento autorregresivo de primer orden y se denota como AR(1).

  41. Prueba de Breusch – Godfrey Permite detectar la presencia de autocorrelación de mayor orden, es decir, con más de un retardo. Se determina un estadístico igual a n * R² con X2(p) p grados de liberta p=los retardos • Se establece como decisión “si el estadístico es mayor al X² (p) no hay autocorrelacion • Ho= no autocorrelacón • Hi= Hay atocorrelacion

  42. El valor del X2 con dos grados de libertad es igual a 5.99147 y el de n* R² es igual a 13.47355. Dado a que 5.99147<13.47355 Se rechaza la hipótesis nula, aceptando los problemas de autocorrelación correspondientes

More Related