1 / 29

Introducción: Características básicas de los datos económicos de series temporales

Introducción: Características básicas de los datos económicos de series temporales. Qu’est-ce que c’est La Econometria?. Def: Analisis cuantitativo de relaciones económicas causales . Algunos hechos:

Download Presentation

Introducción: Características básicas de los datos económicos de series temporales

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Introducción: Características básicas de los datos económicos de series temporales

  2. Qu’est-ce que c’est La Econometria? Def:Analisis cuantitativo de relaciones económicas causales. Algunos hechos: • Hacia 1930 en un hotel de Ohio (EEUU) se crea la Econometric Society, editora de la revista ECONOMETRICA. • Ragnar Frisch, Econometrica (1933) la define como una intersección especial entre Matemáticas, Estadística y Economía. • Haavelmo (1944) introduce la metodologia de la Econometria moderna: Los modelos cuantitativo economicos deben ser modelos probabilisticos o estocasticos. Diferentes Modelos Econometricos: • Aproximacion Estructural: El modelo economico esta correctamente especificado • Aproximacion Quasi-Estructural: El modelo economico es una aproximacion • Aproximacion Semiparametrica: Una parte del modelo esta bien especificada y la otra se deja sin especificar. Quizas el mejor ejemplo de modelo es un MAPA a diferentes escalas y para diferentes usos

  3. Dos tipos de observaciones o datos: • observacionales • experimentales La estructura de los datos observacionales: • Seccion cruzada • Series temporales • Panel …..y recuerda como empieza la pagina web del curso Econometrics Uncertainty Principle • In order to study causality we need to keep certain things constant ("ceteris paribus") • In order to study causality we need time to pass (there is not causality between simultaneous events) • Nothing is constant through time • Therefore ...........

  4. Breve Repaso de Tª de la Probabilidad • Espacio Muestral: , el conjunto de posibles resultados de un experimento aleatorio • Resultado: , un elemento del Espacio Muestral • Suceso: , un subconjunto del Espacio Muestral • Algebra: , colección de sucesos que nos interesa estudiar • Variable Aleatoria: , una función del Espacio Muestral al conjunto de estados S • Conjunto de Estados: S, el espacio que contiene todos los posibles valores de una variable aleatoria. Las elecciones mas comunes son los números naturales N, los reales R, vectores de dimensión k Rk, los reales positivos R+, etc • Probabilidad: , obedece las tres reglas que ya sabéis. Importante que el origen es F y no solo • Distribución: es un Borel Set (conjunto de la recta real que puede expresarse como uniones o intersección de intervalos) donde vive la variable aleatoria Z.

  5. Breve Repaso (cont) • Vector de Variables Aleatorias: Z= (Z1, Z2 , ..., Zk) es un vector de dimensión k donde cada componente es una variable aleatoria • Sucesión de Variables Aleatorias: Z= (Z1, Z2 , ..., Zn) es una sucesion de n variables aleatorias • Si interpretamos t=1, ..., n como momentos equidistantes en el tiempo, Zt puede interpretarse como el resultado de un experimento aleatorio en el momento de tiempo t . Por ejemplo la sucesión de variables aleatorias podria ser los precios de las acciones de Toyota Zt en n días sucesivos. Siempre que se mencione un ejemplo pensad vosotros en otros ejemplos alternativos. • Un aspecto NUEVO, comparado con la situación de una sola variable aleatoria, es que ahora podemos hablar de la estructura de DEPENDENCIA dentro del vector de variables aleatorias. • Función de Distribución FZ de Z : Es la función • Repasad las propiedades de la función de distribución.

  6. Procesos Estocásticos Supongamos que el tipo de cambio €/$ en cada instante fijo de tiempo t entre las 5p.m y las 6p.m. de esta tarde es aleatorio. Entonces podemos interpretarlo como una realización Zt(w) de la variable aleatoria Zt tipo de cambio. Observamos Zt(w), 5<t<6. Si quisieramos hacer una predicción a las 6 p.m. sobre el tipo de cambio Z7(w) a las 7 p.m. es razonable considerar TODA la evolución de Zt(w) entre las 5 y las 6 p.m. El modelo matematico que describe esta evolución se le llama proceso estocástico.

  7. Procesos Estocásticos (cont) Un proceso estocástico es una colección-sucesión de variables aleatorias indexadas por el tiempo definidas en un espacio muestral W. Supongamos que (1) Fijamos t Esto es una variable aleatoria. (2) Fijamos Es una realización o trayectoria del Proceso Estocástico. Cambianos el indice temporal podemos generar varias variables aleatorias: Una realización es: La colección-sucesión de variables aleatorias se le llama PROCESO ESTOCATISCO Una realización del proceso estocástico se le llama SERIE TEMPORAL

  8. E1: Sea el conjunto indice T={1, 2, 3} y sea el espacio muestral (W) el formado por los resultados de lanzar un dado: • W={1, 2, 3, ,4 ,5, 6} • Definimos el siguiente proceso estocástico • Z(t, w)= t + [valor del dado]2 t • Entonces para un w particular, digamos w3={3}, la realización o trayectoria es (10, 20, 30). • Q1: Dibuja todas las realizaciones de este proceso estocástico. • Usa Gapminder para observar un proceso estocástico donde el experimento se llama producción economía mundial y w es un país concreto. • E2: Un Movimiento BrownianoB=(Bt, t [0, infty]): • Comienza en cero: Bo=0 • Tiene incrementos independientes y estacionarios • Para cada t>0, Bt sigue una distribución N(0, t) • Tiene trayectorias continuas: “no saltos”. Ejemplos de procesos estocásticos

  9. Distribución de un Proceso Estocástico En analogía con las variables aleatorias queremos introducir caracteristicas no aletorias de los procesos estocásticos tales como su distribución, su esperanza, varianza, etc, y describir su estructura de dependencia. Esta es una tarea mucho más complicada que en el caso de vectores de variables aleatorias. De hecho un proceso estocástico no-trivial Z=(Zt, t  T) con un conjunto índice T es un objeto de dimensión infinita en el sentido de que se puede entender como una colección infinita de variables aleatorias Zt, t  T. Ya que los valores de Z son funciones en T, la distribución de Z debería ser definida sobre subconjuntos de un cierto “espacio de funciones”, i.e. P(Z  A), A F, donde F es una colección apropiada de subconjunto de este espacio de funciones. Este enfoque es posible, pero requiere matemáticas muy avanzadas. En este curso intentaremos algo mucho mas simple. Las distribuciones finito-dimensionales (fidis) de un proceso estocástico Z son las distribuciones de los vectores finito dimensionales (Zt1,..., Ztn), t1, ..., tn T, para todas las posibles elecciones de t1, ..., tn  T y para cada n  1.

  10. Necesitamos hacer dos supuestos: Al igual que en la Econometría básica trabajábamos con dos los supuestos de i.i.d. (independiente e idénticamente distribuido), en la Econometría de Series Temporales nos hace faltan dos supuestos equivalentes: Estacionariedad (substituye al supuesto de identicamente distribuido) Ergodicidad(substituye al supuesto de independencia)

  11. Considera la probabilidad conjunta de un conjunto de variables aleatorias Estacionareidad Proceso estacionario de 1st orden si Proceso estacionario de 2nd orden si Proceso estacionario de orden n si Definición. Un proceso es estrictamente (o en sentido fuerte) estacionario si es estacionario de orden n para cada n.

  12. Momentos (repaso)

  13. Momentos (cont) Para procesos estrictamente estacionarios: porque asumiendo que Tambien se cumple que La correlación entre dos variables aleatorias depende SOLAMENTE de su diferencia temporal.

  14. Estacionareidad Débil Un proceso se dice que es estacionario debil de orden n si todos sus momentos conjuntos de orden n existen y son invariantes en el tiempo. • Procesos Estacionarios en Covarianzas (de 2nd orden): • Esperanza constante • Varianza constante • La función de covarianzas depende solo de la diferencia • temporal entre las variables

  15. Funciones de Autocovarianza y de Autocorrelación (repaso) Para un proceso estacionario en covarianzas:

  16. Propiedades de la función de autocorrelación (repaso)

  17. Funcion de Autocorrelación Parcial (o correlación condicional) Esta función mide la correlación entre dos variable separadas k periodos cuando la dependencia lineal en el medio de esos periodos (entre t yt+k ) es eliminada (?) o mejor dicho condicionada a ella. Motivación Piensa en el modelo de regresión lineal (asume E(Z)=0 sin perdida de generalidad)

  18. Dividiendo por la varianza del proceso: Ecuaciones de Yule-Walker

  19. Ejemplos de Procesos Estocásticos (para ver si se ha entendido el concepto de estacionareidad) Yt si t es par E4: Zt= Yt+1 si t es impar donde Yt es una serie estacionaria. Es Zt estacionaria debil? E5: Defina el proceso St = X1+ ... + Xn , donde Xi es iid (0, s2). Muestra que para h>0 Cov (St+h, St) = t s2, y por lo tanto St no es estacionario debil.

  20. Ejemplos de Procesos Estocásticos (cont) E6: Procesos RUIDO BLANCO Una secuencia de variables aleatorias . . . . 1 2 3 4 k

  21. Dependencia: Ergodicidad Queremos permitir tanta dependencia como la Ley de los Grandes Números (LGN) nos deje. Estacionareidad no es suficiente como el siguiente ejemplo muestra: E7: Sea {Ut} una secuencia de variables iid uniformemente distribuidas en [0, 1] y sea Z una variable N(0,1) independiente de {Ut}. Defina Yt=Z+Ut . Por lo tanto Yt es estacionaria (por qué?), pero El problema es que hay demasiada dependencia en la secuencia {Yt}. De hecho la correlación entre Y1 y Yt es siempre positiva para cualquier valor de t.

  22. Ergodicidad en la Media Objectivo: estimar la media del procesos Necesitamos distinguir entre: 1. Media Vertical (ensemble average) 2. Media Temporal Cual es el estimador más apropiado? La media vertical Problema: Es imposible calcularla de forma eficiente pues solo Contamos con una observación en cada “t”. Bajo que condiciones nos vale con estimar la media temporal? Es la media temporal un estimador insesgado y consistente de la media vertical?

  23. Ergodicidad en la media (cont) Recordad. Condiciones suficientes para la consistencia de un estimador 1. La media temporal es insesgada 2. La varianza de la media temporal convergence a cero

  24. Ergodicidad en media (cont) Un proceso estacionario en covarianzas es ergodico en la media si Una condición suficiente para ergodicidad en la media es Quereis que las sociedades sean ergodicas o no? Interpretad esta condicion en terminos de “justicia”.

  25. Ergodicidad bajo Gausanidad Ergodicidad para los segundos momentos Una condición suficiente para ergodicidad en los segundos momentos Si es un proceso gausiano estacionario, es una condición suficiente para asegurar ergodicidad en todos los momentos

  26. Como vamos a estimar los momentos poblaciones de las series temporales???? • Utilizaremos el metodo de analogia tan usado en los cursos previos de Econometria: • Momentos poblaciones se estiman via momentos muestrales. • Asumiendo estacionareidad y ergodicidad estos estimadores serán consistentes.

  27. Donde Estamos? Considera el Problema de la Prediccion como motivación: Predecir Zt+1 dado el conjunto de información It en el tiempo t. Este teorema es de lo más “bello” de la Econometria. Entiendelo bien, criticalo. El Homework 1 tiene una parte dedicado a él. La esperanza condicional puede ser modelada en una forma paramétrica o en una forma no-paramétrica. En este curso elegiremos la primera. Los modelos parametricos pueden ser lineales o no-lineales. En este curso elegiremos los modelos lineales. Resumiendo los modelos que vamos a estudiar en este curso son modelos parametricos y lineales

  28. Apendice I: Transformaciones (vease el conjunto de notas extra) • Objetivo: Tratar con procesos mas manejables • Transformación logaritimica reduce cierto tipo de heterocedasticidad. Si asumimos que • mt=E(Xt) y V(Xt) = k m2t, • se puede demostrar (por el metodo delta) que la varianza del log es aproximadamente constante: • Tomar dieferencias elimina la tendencia (no muy informativo sobre la naturaleza de la tendencia) • Diferencias del Log = Tasa de Crecimiento

  29. Apendice II: AnalisisGráfico • Objetivo: Descubrir características básicas de los datos • Realiza gráficos de diferentes series económicas en niveles, en logaritmos, en primeras diferencias y en tasas de crecimiento e intente decidir que transformacion hace la serie parece más estacionaria. • Correlograma de las transformacions propuestas previamente. En el capitulo siguiente aprendera a identificar una familia de modelos en base al correlograma. • En la clase del grupo reducido se enseñará a descargarse los datos para el proyecto empírico del curso vía IHS (biblioteca) o FRED. • Recuerde que el movimiento se demuestra andando.

More Related