340 likes | 598 Views
Capítulo 7 Estimación de Parámetros. Estadística Computacional. Algunas consideraciones previas. Conceptos básicos Distribuciones usadas en Inferencia Teoremas relevantes Estimación puntual Estimación por intervalos. Distribuciones usadas en Inferencia.
E N D
Capítulo 7 Estimación de Parámetros Estadística Computacional
Algunas consideraciones previas • Conceptos básicos • Distribuciones usadas en Inferencia • Teoremas relevantes • Estimación puntual • Estimación por intervalos
Distribuciones usadas en Inferencia 1.- Ji-Cuadrado con “n” grados de libertad. Sea X1, X2,...,Xn n v.a. continuas independientes tal que Xi ~ N (0,1) i = 1,n (i.i.d.) ~ donde
donde OBS: 1. 2. 3. TABLA
Distribuciones usadas en Inferencia 2.- t-Student Sea X v.a.c. tal que X ~ N (0,1) Y v.a.c. tal que Y ~ 2(n) Sea~
OBS: 1. 2. 3. TABLA
Distribuciones usadas en Inferencia 3.- F-de Fisher Sea X v.a.c. tal que X ~ 2(n) Y v.a.c. tal que Y ~ 2(m) independientes Sea~
siendo OBS: 1. 2. TABLA
Teoremas Límites • Convergencia en Distribución: • x pto. continuidad • Convergencia en Probabilidad: • >0 • Nota:
Desigualdad de Chebyshev: Sea X v.a. / Entonces Ley débil de los grandes números: suc. de v.a.i.i.d. / entonces:
Teorema Central de Límite: Sea {X} suc. de v.a.i.i.d / finitas. Entonces:
Estimación de Parámetros El objetivo de la estimación de parámetros es proveer de métodos que permitan determinar con cierta precisión, el valor de los parámetros desconocidos de un modelo estadístico a partir de una muestra extraída al azar de una Población. 1. Método de estimación Puntual 2. Método de estimación por Intervalos
Definición de Estimador Un estimador es una regla que nos indica cómo obtener un parámetro de un modelo, basándose en la información contenida en una muestra ( M={ f ( x , ) : modelo ) T : x T (x) = T (X1, X2,...., Xn) T (x) : Estimador de , variable aleatoria, función de la muestra, que no depende del parámetro . (Estadística basada en la Información) ={x : x es una muestra aleatoria} Espacio de Información En lo que sigue = T (X1, X2,...., Xn) estimador de .
Propiedades de los estimadores puntuales Un estimador es una v.a. y todo juicio sobre él, se basará en su ley de Probabilidad, y más específicamente sobre su Esperanza y Varianza. 1. se dice que es insesgado 2. se llama sesgo de 3. se llama error cuadrático medio del estimador 4. se dice que es consistente
Propiedades de los estimadores puntuales 5. Si , decimos que es un estimador insesgado de varianza mínima para . Si todo otro estimador insesgado de , digamos , se verifica que: 6. Sea X1, X2,..., Xnm.a. f ( x , ). Si es: Nota: Si es eficiente
Propiedades de los estimadores puntuales • 7. Sean dos estimadores de . Se llama • eficiencia relativa de a: • es un estimador suficiente si usa toda la información • contenida en la muestra.
Métodos de estimación puntual • Método de Momentos • Método de Máxima Verosimilitud • Método de Mínimos Cuadrados
Momentos (K. Pearson) La idea es simple. Consiste en igualar los momentos de la población y de la muestra
Máxima Verosimilitud • Consideremos X = (X1, X2,..., Xn ) m.a. f ( x , ). Se llama función de verosimilitud a: • Además se define: • función soporte: • función score: El valor (vector) de que maximiza se llama estimador máximo verosimil, i.e. (caso univariado)
Propiedades de los Estimadores Máximo Verosímiles • Los estimadores máximo verosímiles son: • Asintóticamente insesgados • Asintóticamente normales • Asintóticamente eficientes • Invariantes bajo transformaciones biunívocas • Si estimador suficiente, es suficiente
Sea X1, X2,..., Xn m.a. N ( , 2 ). Encontrar el EMV de
En general: := Matriz de Información de Fisher esperada. := Matriz de Información observada en la muestra.
OBS: Caso escalar Se dice que es un estimador eficiente de
Estimación por Intervalos En la práctica, interesa no sólo dar una estimación de un parámetro, sino que además, un intervalo que permita precisar la incertidumbre existente en la estimación. Definición: Sea x m.a. f ( x , ). Sean 1=T1(x), 2=T2(x) dos estadísticas de : T1 T2 x ; P 1 2 = 1 - = Entonces el I = 1 ; 2 se llama intervalo aleatorio de confianza del 100 % para ( 0 < < 1 ).
Estimación por Intervalos Fijado , el problema de determinar 1 y 2 puede resolverse encontrando una variable aleatoria Q(x,) cuya distribución esté totalmente definida, que sea independiente de . La variable Q(x,) se denomina “Cantidad Pivotal” Ejemplo: X1, X2,..., Xn1 N ( 1 ,21) Q(x,)=Q(x,)=
Método de la Cantidad Pivotal 1. Encontrar una cantidad Q. 2. P q1 Q q2 = 1 - = 3. Invertir P 1 2 = , obteniendo así un intervalo I=1 ; 2 de confianza para de nivel 100 %. Observación: Para muestras grandes la v.a. Q siempre existe, ya que si , entonces tiene distribución asintóticamente normal estándar.
Intervalo de Confianza para diferencia de medias Supuesto: Poblaciones Normales P1: X1, X2,..., Xn1 N ( 1 ,21) P2: Y1, Y2,..., Yn2 N ( 2 ,22) ~ ~ ~ ~
Finalmente: Es un Intervalo de confianza de nivel para 1 - 2
Supongamos que Siendo g = n1 + n2 - 2 - grados de libertad
Intervalo de Confianza para 12/22 Recordemos que: ~ ~ ~ donde Se obtiene el intervalo de iguales colas Si ;
Resumen: Intervalos de Confianza Poblaciones Normales Poblaciones no Normales
Parámetro Estadística Distribución Intervalo , conocido N (0,1) , desconocido 1 - 2 1 = 2 1 - 2 1 2 muestra grande N (0,1)