1 / 27

Regresión Lineal Simple

Regresión Lineal Simple. Regresión lineal simple. Etapa exploratoria: gráficos de dispersión Análisis de correlación

kairos
Download Presentation

Regresión Lineal Simple

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Regresión Lineal Simple

  2. Regresión lineal simple • Etapa exploratoria: gráficos de dispersión • Análisis de correlación • En algunos casos, de acuerdo a la naturaleza de las variables y la información disponible, puede suponerse una relación funcional entre dos o más variables, que puede expresarse mediante una expresión matemática. • Considerando dos variables, si denominamos Ya la variable que se supone dependiente, y X a la variable que se postula independiente, resulta familiar utilizar el concepto de función: • “Y es función de X” indica que pueden predecirse los valores que tomará Y de acuerdo a los valores asignados a X. Dicho de otra manera, se puede conocer el comportamiento de Y a través de un modelo que relacione la variación de Y con la variación de X.

  3. Regresión lineal simple • Análisis de regresión: Objetivos • Identificar un modelo funcional que describa cómo se modifica la variable dependiente Y frente a cambios la variable independiente X • Estimar los parámetros del modelo (constantes) a partir de una muestra aleatoria de observaciones en Y y en X • Validar el modelo mediante contrastes de hipótesisque pongan a prueba la bondad de ajuste del mismo • Predecir el valor esperado de la variable dependienteY cuando la variable independienteX toma un valor particular

  4. Regresión lineal simple • Análisis de regresión: Modelo Ordenada al origen Pendiente Error Observación de la variable dependiente Y bajo el i-ésimo valor de X • i-ésimo valor de la variable independiente X • β0 es la ordenada al origen; indica el valor de Y cuando xi=0 • β1es la pendiente de la recta; indica cuánto cambia Y por cada incremento unitario en X. • β1˃ 0 crecimiento de Y por cada incremento unitario en X • β1˂0 disminución de Y por cada incremento unitario en X

  5. Regresión lineal simple yi • β1 = Variabilidad no explicada Variabilidad total Variabilidad explicada por el modelo • β0 0 0 Ordenada al origen Pendiente Error

  6. Ejemplo

  7. Regresión lineal simple • Definición de variables • En un cultivo de trigo se desea cuantificar la relación que hay entre la disponibilidad de N (cantidad de nitrógeno en el suelo en ppm) y la cantidad de nitrógeno en la planta en ppm, relación que se supone lineal. • Biológicamente, se espera que la cantidad de N en las plantas sea explicada, al menos parcialmente, por la cantidad de N en suelo. Es por ello que se define como variable dependiente Y la cantidad de N en la planta y como variable independiente Xel contenido de N del suelo. • Los datos corresponden a 12 parcelas, en las que se registró el contenido de N en el suelo (X) y los valores promedio de N por planta (Y), este último calculado como promedio sobre todas las plantas de la parcela.

  8. Regresión lineal simple • Gráfico de dispersión • Una vez identificadas la variable dependiente Y: Nitrógeno por planta (ppm), y la variable independiente X: Nitrógeno en el suelo (ppm),se graficaron los datos obtenidos en un diagrama de dispersión.

  9. Regresión lineal simple • Estimación de parámetros Para todo conjunto de observaciones obtenidas sobre dos variables, existen potencialmente una infinidad de modelos que permitirían explicar la relación funcional entre ambas variables. Como ya mencionamos, el análisis de regresión lineal simple permite identificar un modelo -una ecuación de la recta en este caso- que describe cómo varía la variable dependiente Y, frente a cambios en la variable independiente X. Para la construcción de dicho modelo es necesaria la estimación de sus parámetrosβ0 yβ1, utilizando la muestra aleatoria de datos disponibles. Ordenada al origen Pendiente Error

  10. Regresión lineal simple • Estimación de parámetros • Se denominan coeficientes de regresión muestrala las estimaciones de β0 y β1, denotadas b0y b1 respectivamente. • Si no hubiese errores aleatorios, cualquier par de puntos (x , y) podría usarse para encontrar los valores de b0y b1. De este modo todas las estimaciones serían idénticas, independiente del par de valores utilizado. • La presencia de errores hace necesaria la aplicación de un método para la estimación, que permita combinar toda la información disponible en la muestra. El método de estimación que aplicaremos utiliza el término de error aleatorio presente en el modelo, y se denomina método de mínimos cuadrados. • Recordemos que el error aleatorio εise define como la distancia del valor observado respecto a la recta, medida sobre el eje de las ordenadas.

  11. Considerando que la sumatoria de los errores aleatorios asociados a los valores originales es cero, este método utiliza la sumatoria de dichos errores elevados al cuadrado. Error aleatorio εi: distancias de los valores observados respecto a la recta, medidas sobre el eje de las ordenadas  • La recta de «mejor ajuste» se define como aquella que posibilita que la sumatoria de los cuadrados de los errores sea lo más pequeña posible.

  12. Regresión lineal simple • Estimación de parámetros Fórmulas para el cálculo de los coeficientes de regresión muestral Coeficientes de regresión muestralcalculados a partir del ejemplo • b1= 0,16 • b0 = 0,76

  13. Regresión lineal simple • Contrastes de hipótesis sobre los parámetros • Se presenta aquí la ecuación de la recta construida con las estimaciones de los parámetros: • Y = 0,76 + 0,16 X • Los contrastes de hipótesis, tanto para β0 como para β1 • se ponen a prueba mediante un test T. • A continuación se presentan las hipótesis nulas y alternativas, así como los estadísticos de las pruebas T, para cada uno de los parámetros estimados.

  14. Regresión lineal simple • Contrastes de hipótesis sobre los parámetros H0: β0= 0 H1: β0 ≠ 0 H0: β1= 0 H1: β1 ≠ 0

  15. Regresión lineal simple • Contrastes de hipótesis sobre los parámetros Los estadísticos aquí calculados se distribuyen como una T con n-2 grados de libertad. En ambos casos, los valores obtenidos para el estadístico T se comparan con el valor de tabla, en función de lo cual se determina el rechazo o no de la H0. Tobs˃ Ttabla→ Rechazo H0 → β0 ≠ 0 De acuerdo al contexto del problema, esta prueba de hipótesis podría carecer de sentido biológico. En este caso, el resultado podría interpretarse de la siguiente manera: aún cuando existan concentraciones prácticamente nulas de N en suelo, las plantas obtendrían nitrógeno proveniente de otras fuentes. Tobs= 9,35 Ttabla= 1,81 H0: β0= 0 H1: β0 ≠ 0 H0: β1= 0 H1: β1 ≠ 0 • Tobs˃ Ttabla→ Rechazo H0 → β1≠ 0 • Esto indica que el modelo explica una parte significativa de la variación en Y en función de las variaciones en X. • Tobs= 13,94 • Ttabla= 1,81

  16. Evaluación de la regresión

  17. Evaluación de la regresión • Para evaluar el valor predictivo del modelo se calcula el coeficiente de determinación, R2. Se analizarán también los residuos obtenidos durante el análisis con el objetivo de corroborar el cumplimiento de los supuestos del modelo. • El resultado del análisis de regresión puede expresarse mediante una tabla de ANAVA (Análisis de la Varianza). Se observa que la variación totalen Y (SCT) puede descomponerse en la variación de los datos explicada por la regresión(SCβ) más la variación no explicada o residual (SCR). Si la variación explicada es sustancialmente mayor que la variación no explicada, el modelo propuesto será bueno para fines predictivos.

  18. yi = Variabilidad no explicada Variabilidad total Variabilidad explicada por el modelo

  19. Evaluación de la regresión • Coeficiente de determinación R2 • Una medida de la capacidad predictiva del modelo es el coeficiente de determinación R2, que relaciona la variación explicada por el modelo (SCβ) con la variación total (SCT). Este coeficiente se calcula entonces como un cociente: • Este coeficiente es a su vez el estimador muestral del parámetro ρ2. El contraste de hipótesis para evaluar la bondad de ajuste del modelo se resuelve mediante un estadístico de distribución F, ya que se trata de un cociente entre dos varianzas (las que a su vez tienen distribución χ2). • SCβ: suma de cuadrados de la regresión, representa la variabilidad explicada por el modelo. • SCT: suma de cuadrados total, representa la variabilidad total. • 0,95 H0: ρ2 = 0 H1: ρ2˃0 • Fobs˃ Ftabla→ Rechazo H0 → ρ2˃0 • Esto indica que una gran proporción (95%) de la variabilidad total es explicada por el modelo. Fobs= 194,32 Ftabla= 4,84

  20. Evaluación de la regresión • Análisis de los residuos • Es necesario tener en cuenta que las pruebas de bondad de ajuste sólo son válidas si se cumplen los supuestos del modelo de regresión: • La esperanza de la distribución de los errores es cero • La varianza de la distribución de los errores es constante • Los errores son variables aleatorias normales e independientes • Recordemos el modelo • Estos supuestos, referidos al término de error εi , pueden resumirse de la siguiente forma: • Para comprobarlos es necesario estudiar los residuos obtenidos al realizar el análisis de regresión, una vez ajustada la recta a los datos observados.

  21. Evaluación de la regresión • Análisis de los residuos • Los supuestos para los errores pueden evaluarse mediante interpretaciones gráficas. Verificar la distribución normal de los errores: Q-Q plot • Verificar la homogeneidad de varianzas:residuos vs. predichos Verificar la independencia de los errores: residuos vs. orden de observación de los datos

  22. Volvamos al ejemplo

  23. Ejemplo de aplicación Se estudió la relación que hay entre la cantidad de nitrógeno en el suelo (X) y la cantidad de nitrógeno en la planta (Y). Se observa la tabla de datos originales, la recta ajustada en el gráfico de dispersión, el valor de R2 y la ecuación con los valores estimados para β0 y β1.

  24. Ejemplo de aplicación • Se realizó el análisis de regresión lineal utilizando el software estadístico Infostat. Se observa a continuación el resultado arrojado por el software. Estos valores de R2 indica que el modelo tiene gran valor predictivo: un 95% de variación en Y puede ser explicada por la variación en X. Ordenada al origen p-valor para las pruebas de hipótesis de los parámetros del modelo Pendiente

  25. Ejemplo de aplicación p-valor para la prueba de hipótesis del parámetro ρ2 Análisis de los residuos Para verificar la distribución normal de los errores se graficaron los residuos vs. los cuantiles de la distribución normal (gráfico Q-Q plot). Se observa que los puntos se alinean sobre la recta, esto indica que la distribución de los errores es normal.

  26. Ejemplo de aplicación • Para verificar la homogeneidad de varianzas se graficaron los valores de los residuos vs. los valores predichos. Se comprueba el supuesto: hay aleatoriedad en la distribución de los puntos e igual cantidad de residuos negativos y positivos. Para verificar la independencia de los errores se graficaron los valores de residuos vs. el orden de observación. También se observa aleatoriedad en la nube de puntos, lo que sugiere ausencia de correlación en la información suministrada.

  27. Conclusiones • Se realizó un análisis de regresión lineal simple para detectar la relación existente entre la cantidad de N en el suelo y la cantidad de N en plantas de trigo en ppm, en parcelas de cultivo. • Se comprobó el cumplimiento de los supuestos relativos a los errores del modelo, analizando los residuos obtenidos. El valor de R2obtenido indica que el modelo posee alto valor predictivo, donde el 95% de la variación de Y= nitrógeno en planta puede ser explicado por la variación en X= nitrógeno en suelo. Finalmente, para realizar predicciones dentro del sistema estudiado, puede utilizarse la ecuación de la recta obtenida en el presente análisis, considerando que las predicciones sólo serán válidas dentro del rango de valores en estudio.

More Related