100 likes | 283 Views
PTR – 5802 - Técnicas de Análise de Dados Aplicadas à Engenharia de Transportes. REGRESSÃO LINEAR MÚLTIPLA. Prof. José Alberto Quintanilha. 04 de maio de 2005. 1. Regressão linear múltipla (2005). Até agora: ajuste linear simples Y = 0 + 1 X +
E N D
PTR – 5802 - Técnicas de Análise de Dados Aplicadas à Engenharia de Transportes REGRESSÃO LINEAR MÚLTIPLA Prof. José Alberto Quintanilha 04 de maio de 2005
1 Regressão linear múltipla (2005) Até agora: ajuste linear simples Y = 0 + 1X + Prática: necessidade de se utilizar maior # de var. independentes para melhorar as estimativas de Y (var. dependente). Exemplo Regressão múltipla como uma seqüência de regressões simples Exame da equação de regressão: Coeficiente de correlação múltipla Desvio-padrão Coeficiente de variação Teste do F seqüencial Critério do F parcial Análise de resíduos Seleção da melhor equação de regressão Todas as possíveis regressões Backward Forward Stepwise
2 Regressão linear múltipla (2005) Exemplo (pág. 616 – Applied Linear Regression – Draper & Smith – 1981- 2nd Ed. – John Wiley) Y: Montante de folhas usadas mensalmente (pounds) X1: temperatura atmosférica média no mês (o.F) X2: número de dias operando no mês Y = 0 + 1X1 + 2X2 + Y X b= (X’X)-1X’Y Matriz de correlação: Y X1 X2 Y 1 -.84 .53 X1 -.84 1 -.21 X2 .53 -.21 1 b0=9.1266 b1=-0.0724 b2=0.2029 Yest=9.1266 – 0,0724 X1+0.2029 X2
3 Regressão linear múltipla (2005) Regressão múltipla como uma seqüência de regressões simples 1- gráfico Y x X1: observar tendência 2- calcular a regressão: Y = 0 + 1X1 + observar gráfico e tabela Yest= 13.6215 – 0,0798 X1 3- adicionar a var X2: Objetivo: relacionar a ”nova variável independente”, com a variação não explicada após a inserção da var X1. Nova variável independente: X2 – X2est = ’0 + ’1X1 + ’ X2est= 22.1685 – 0,0367 X1 Nova variável dependente: Y – Yest
4 Regressão linear múltipla (2005) • Regressão múltipla como uma seqüência de regressões simples • 4- (Y – Yest) = ’ (X2 – X2est) + • Reta passa pela origem (Y – Yest)est =0.2015(X2 – X2est)est Resultado: • Yest=9.1545 – 0,0724 X1+0.2015 X2 • Anteriormente: • Yest=9.1266 – 0,0724 X1+0.2029 X2 • Exame da equação de regressão Quão boa é a equação Y=f(X1,X2)? 1- cálculo de Y = 0 + 1X1 + 2X2 + 2- cálculo de Y – Yest 3- ANOVA
5 Regressão linear múltipla (2005) • Exame da equação de regressão Quanto a entrada de X2 melhorou o modelo? Crtérios para averiguação: 1- R2: [coeficiente de correlação múltipla]2 Y=f(X1) => R2 = 71.44% Y=f(X1, X2) => R2 = 84.89% Nota: R2 maior não implica, necessariamente, em melhor Yest. Exemplo: Resíduo R2 Var na SQ GL QM Regr. 98.23 1,2,3 48.11 9 5.35 98.24 1,2,3,4 47.86 8 5.98 2- s: desvio-padrão se s depois da inclusão da nova variável é menor do que antes, indica que a nova previsão é mais precisa Y=f(X1) => s=0.89 Y=f(X1, X2) => s=0.66
6 Regressão linear múltipla (2005) • Exame da equação de regressão 3- s/Ybarra: coeficiente de variação Y=f(X1) => s/Ybarra = 9.44% Y=f(X1, X2) => s/Ybarra = 7.00% 4- Critério do teste F-seqüencial ANOVA Fonte de GL SQ QM F Variação Regressão/b0 2 54.19 27.09 61.90 b1/b0 1 45.59 45.59 104.16 b2/b0, b1 1 8.59 8.59 19.64 Resíduo 22 9.63 0.44 Total 24 63.82 F(1;22;5%)=4.30 => b2/b0, b1 é altamente significante e deve ficar no modelo
7 Regressão linear múltipla (2005) • Exame da equação de regressão 5- Critério do teste F-parcial (mudo a ordem de entrada: X2X1 ANOVA Fonte de GL SQ QM F Variação Regressão/b0 2 54.19 27.09 61.90 b2/b0 1 18.34 18.34 41.91 b1/b0, b2 1 35.84 35.84 81.89 Resíduo 22 9.63 0.44 Total 24 63.82 Nota: a contribuição de X1 é maior do que a sua contibuição após a entrada deX2 no modelo: b1/b0 F = 104.16 b1/b0, b2 F = 81.89 X1 reduz SQRes mais depressa. 6- Análise de resíduos
8 Regressão linear múltipla (2005) • Seleção da melhor equação de regressão: melhor explicação de Y com a menor quantidade de X’s. Técnicas: • Todas as possíveis regressões todas as regressões com uma var. independente; todas as regressões com duas var. independentes, etc. ordeno, dentro de cada conjunto , pelo valor de R2 b) Eliminação “backward” equação de regressão contendo todas as var.; teste F parcial para todas as var., cada uma sendo considerada como a última a entrar no modelo; o menor valor de F parcial: Fl é comparado com o Fcrítico: se Fl < Fcrítico retiro a var Xl, preparo a equação sem ela e volto ao passo anterior; se Fl > Fcrítico aceito o modelo.
9 Regressão linear múltipla (2005) Técnicas: c) Seleção “forward” seleciono a var. independente mais correlacionada com a Y: por exemplo Y=f(Xi); seleciono a var. Xj mais correlacionada a Y/Xi através do coeficiente de correlação parcial (equivale a encontra a correlação entre Y/Xi e Xj/Xi. d) Regressão “stepwise” A cada entrada de uma variável, é examinada a sua exclusão assim como daquelas já presentes no modelo: F-parcial ou “F to remove” F-seqüencial ou “F to enter” Exercício: stepwise, usando Excel, com os dados das páginas 221 e 222 do livro Applied Multivariate Data Analysis – Vol. I: Regression and Experimental Design – J. D. Jobson, 1991, Springer-Verlag.