340 likes | 1.01k Views
Regresión lineal simple. Modelo de regresión lineal simple. Variable Dependiente. Error. Constante Beta. Sensibilidad. Variable Independiente. Permite establecer la relación que existe entre dos variables. La pendiente B1 es cero. La pendiente B1 es positiva. La pendiente B1 es negativa.
E N D
Modelo de regresión lineal simple Variable Dependiente Error Constante Beta Sensibilidad Variable Independiente • Permite establecer la relación que existe entre dos variables.
La pendiente B1 es cero La pendiente B1 es positiva La pendiente B1 es negativa Modelo de regresión Lineal simple E(y) Bo X
Método de Regresión Lineal Simple(Mínimos cuadrados) • También llamado mínimos cuadrados • Utilizado para determinar Bo y B1 que minimizan la suma de los cuadrados de las desviaciones entre los valores observados.
Ejercicio • Suponga que un analista toma una muestra aleatorio de 15 expedientes y desea conocer como la edad del deudor afecta el nivel de atraso que experimenta la operación. Los datos se describen a continuación: • Abrir Archivo regresion_lineal.xls • 1. La constante: • 2. Intercepción • 3. La Ecuación Línea • 4. Estime el No. De Atraso que podría experimentar un cliente con edad de 34 años.
Alternativamente • Ruta de acceso: • Herramientas • Análisis de datos (este complemento normalmente no es instalado por lo que se requiere el ajuste sobre necesario) • Regresión
E(y) X SSE 2 2 2 2 2 2 2 2 2 Σ 2 2 2 Según datos utilizados • Suma de cuadrados debido al error (SSE): determina el cuadrado de los errores entre el dato y la estimación con la línea de regresión.
E(y) X SST 2 2 2 2 2 2 2 2 2 Media de y Σ 2 2 2 Según datos utilizados • Suma total de cuadrados: suma de los cuadrados de los errores entre la observación dependiente y el promedio de la variable dependiente.
E(y) X SSR SSE SST SSR Media de y SSR= SST-SSE
E(y) X SST / SSR / SSE SSE SST SSR SST • Estimadores que permiten determinar la bondad del ajuste para la ecuación de regresión. • SSE = 0 ajuste perfecto • Relación por tanto entre SSR y SST sería unitaria.
E(y) SSE SST SST Tendiente a cero X Coeficiente de determinación R2 R2 SSR SSR SST SST • Estimadores que permiten determinar la bondad del ajuste para la ecuación de regresión. • SSE = 0 ajuste perfecto • Relación por tanto entre SSR y SST sería unitaria.
SST / SSR / SSE • Estimadores que permiten determinar la bondad del ajuste para la ecuación de regresión. • SSE = 0 ajuste perfecto • Relación por tanto entre SSR y SST sería unitaria.
Coeficiente de determinación R2 • Permite establecer numéricamente el ajuste entre las variables • R2 cercano a cero significa que “y” no se explica a partir del compramiento de “x” • R2 cercanos o iguales a 1 que y se explica por el comportamiento de “x”
Uso de la Regresión • La relación está basada exclusivamente en los datos analizados. Gráfico • Debe existir juicio del analista para determinar efecto de causa y efecto • Establecimiento de supuestos entorno al modelo • De ser posible fundamentación teórica
E(y) X Coeficiente de determinación R2 Relación Real Línea de Regresión Estimada Mínimo Máximo
Uso de la Regresión • La relación está basada exclusivamente en los datos analizados. Gráfico • Debe existir juicio del analista para determinar efecto de causa y efecto • Establecimiento de supuestos entorno al modelo • De ser posible fundamentación teórica
Uso de la Regresión Predicted Values for New Observations New Obs Fit SE Fit 95% CI 95% PI 1 198422 6471 (184004, 212839) (167735, 229109) Intervalo puntual Intervalo media de las observaciones • Uso de un intervalo de confianza para determinar la probabilidad de que la variable dependiente se comporte según la variable independiente.
Definición • Es el estudio de la forma en que una variable dependiente se relaciona con dos o más variables independientes. Variable Dependiente Error Constante Beta Sensibilidad 1 Variable Independiente 1 Sensibilidad 2 Variable Independiente 2
Mecanismo de Cálculo • Método de mínimos cuadrados • Suma de residuales al cuadrado (desviaciones entre los valores observados de la variable dependiente “y” y los valores estimados de esa variable) • Requiere de cálculos con algebra de matrices.
Multicolinealidad • Define el grado de asociación lineal entre las variables independientes. • Se puede corroborar al calcular el coeficiente de correlación • Coeficiente > 0.70 no son aceptables.