370 likes | 770 Views
Capitulo 10: La metodología Box-Jenkins. Identificación Estimación Validación Predicción y evaluación de capacidad de predecir. Información. Estos transparencias no son completas.
E N D
Capitulo 10: La metodología Box-Jenkins Identificación Estimación Validación Predicción y evaluación de capacidad de predecir.
Información • Estos transparencias no son completas. • La idea con las transparencias es dar una estructura general y asegurar que gráficos y ecuaciones están reproducidos correctamente. • Cada estudiante debe tomar notas adecuadas para completar las transparencias.
La metodología Box-Jenkins • Etapas: • Identificación • Estimación • Validación • Predicción
Identificación • Detectar que modelo sigue la serie; identificaren el modelo ARIMA. • Transformación de Box-Cox para conseguir una serie estacionar en varianza y aplicar diferencias (para identificar ).
Identificación • 1. Transformación de Box-Cox, estudiar FAS y FAP. Si estos indican un comportamiento típico de paseo aleatorio tenemos una síntoma de un proceso no estacionario y aplicamos diferencias, es decir
Identificación 2. Volvemos a estudiar FAS y FAP y aplicamos diferencias (etc) hasta FAS y FAP no tengan la indicación de un paseo aleatorio. 3. Entonces podemos identificar los ordenes de en el modelo ARIMA.
Identificación 4. Si hemos hecho la diferencia cuando no era necesario tenemos un proceso media móvil no invertible. Principio de parsimonia; Preferimos un modelo con pocos parámetros para estimar. Si, a partir de FAS y FAP, podemos identificar dos modelos diferentes, elegimos el modelo con menos parámetros.
Estimación • Cuando hemos identificado el modelo ARMA estacionario, (después de la transformación), podemos estimar el modelo; • Minimizar la suma de los errores cuadrados. Problema: Los ecuaciones son no lineales en los parámetros, excepto para un modelo AR. En este caso podemos usar MCO.
Estimación • Cuando hay una estructura MA o efectos multiplicativos entre la parte estacional y el regular, la función a minimizar es no lineal al respecto a los parámetros. • Entonces hay que aplicar optimización numérica iterativa, como por ejemplo los algoritmos Gauss-Newton, Newton-Rapson o l’Scoring.
Estimación • Los primeros parámetros de depende de valores que no tenemos en la muestra. Por ejemplos ARMA(1,1): • Dos soluciones: Estimación condicional: Asigna a los valores, desconocidas su valor esperado. Estimación no condicionada: Dejar el modelo predecir, “back forecasting”.
Validación • Contrastar requisitos básicos del modelo y determinar cual de los modelos que es mejor (si hay varios candidatos).
Validación • Significación de los parámetros estimados. Si el proceso es no lineal o la variable endógena (retardada) aparece como variable explicativa, (AR) t-estadística, F (conjunta) no es ideal, pero si tenemos una muestra relativamente grande, podemos aproximar con la distribución normal para t-ratios.
Validación 2. Cumplimiento de los condiciones de invertibilidad y estacionariedad. Si no es así tenemos un error de especificación. Nota: Para hacer la identificación, estimación y contrastes de significación de parámetros están hecho bajo el supuesto de estacionariedad (del modelo transformado).
Validación 3. Matriz de correlación entre los parámetros estimados. A partir de la matriz de varianza y covarianza se puede obtener un matriz de correlación. Ningún coeficiente de esta matriz debe tener un valor más grande que 0.7 en valor absoluto. Si no, los parámetros explican prácticamente la misma serie.
4. FAS y FAP de los residuos. Las FAS y FAP de los residuos debe mostrar un comportamiento de ruido blanco. En el caso contrario esto comportamiento debe ser incluida en el modelo. Nota: Hay casos cuando coeficientes en FAS y FAP son significativos por aleatoriedad, es decir, no tiene un significativo claro.
Validación 5. Contraste de Box-Pierce. Hasta M retardos los residuos presentan una estructura ruido blanco. Donde es FAS estimado de los residuos y k el número de parámetros en el modelo original (p+q+P+Q). Este contraste es sesgado hacia el no rechace de para muestras pequeñas.
Validación 6. Contraste de Ljung-Box.
Validación • Elegir entre modelos • Elegir el modelo con menor suma de los cuadrados de los errores o menor varianza residual: donde k es el número de parámetros estimados. Problema: Si añadimos regressores innecesarias, por ejemplo términos AR redundantes, esto reduce la suma.
Validación 2. Utilizar criterios de información como AIC, BIC (SC). Estos criterios penalizan la introducción de regressores innecesarias.
Validación 3. Elegir modelos a partir de capacidad de predecir. Los modelos se estiman reservando una parte de observaciones al final (por ejemplo, los últimos años) para validar la capacidad de predecir.
Predicción • Una de las aplicaciones más importantes de modelos unívariados de series temporales es la predicción.
Predicción • Predicción puntal. • Podemos actualizar la expresión de un modelo ARMA para T+1; • y mirar la esperanza condicionada a para tener una expresión para la predicción;
Predicción • Para dos periodos (h=2); • y mirar la esperanza condicionada a
Predicción • Generalmente, para h periodos; • Para la predicción substituimos los parámetros desconocidas con los parámetros estimadas y lo mismo con los errores, donde es la predicción (fitted value; ajuste) del modelo.
Predicción • Predicción por intervalo. • Un modelo , se puede representar con una
Predicción • Actualizando para T+h; • Aplicando esperanzas tenemos la predicción; • Esto da el mismo resultado como predicción puntual, pero podemos encontrar la varianza de los errores de la predicción, que necesitamos para hacer el intervalo.
Predicción • Con estos dos expresiones tenemos el error; • con la varianza;
Predicción • La varianza se hace más grande cuando aumenta la horizonte de predicción. (¡Es más difícil predecir más lejos en el futuro!) • Si supongamos que tiene una distribución normal, los mismo tendrá el error de la predicción y la predicción por intervalo, con un nivel de confianza de 95 %, realizada en el momento T, con un horizonte de predicción h, es, • Para la predicción substituimos los parámetros desconocidas con los parámetros estimadas.
Predicción • [EJEMPLO 34]
Predicción • Para modelos estacionarios la varianza del error de la predicción se puede aproximar con; • que coincide con la varianza de un proceso ARMA.
Predicción • [EJEMPLO 37]
Predicción • Evaluación de la capacidad de predecir • Dividir la muestra en dos partes; una para estimación ( primeros observaciones) y una para evaluar la capacidad de predecir. • Estima el modelo y calcula la predicción para los periodos no usadas. • Compara la predicción con valores reales. El error del pronostico es
Predicción • Hay varias medidas para cuantificar la magnitud del error;
Predicción • Alternativos si lo interesante es predecir un periodo especifico (a largo plazo), es decir la capacidad de predecir un, dos, tres periodos (corto plazo) a lo mejor no es interesante);