1 / 23

Estatística: Aplicação ao Sensoriamento Remoto ANO 2010

Estatística: Aplicação ao Sensoriamento Remoto ANO 2010. Camilo Daleles Rennó camilo@dpi.inpe.br http://www.dpi.inpe.br/~camilo/estatistica/. Regressão Linear Simples. Análise de Regressão.

Download Presentation

Estatística: Aplicação ao Sensoriamento Remoto ANO 2010

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Estatística: Aplicação ao Sensoriamento RemotoANO 2010 Camilo DalelesRennó camilo@dpi.inpe.br http://www.dpi.inpe.br/~camilo/estatistica/

  2. Regressão Linear Simples Análise de Regressão “método estatístico que utiliza a relação entre duas ou mais variáveis de modo que uma variável pode ser estimada (ou predita) a partir da outra ou das outras” relação Neter, J. et al. Applied Linear Statistical Models. McGraw Hill, 1996

  3. P = 4 L Relação funcional x Relação estatística As variáveis podem possuir dois tipos de relações: • Funcional: a relação é expressa por uma fórmula matemática: Y = f(X) Ex: relação entre o perímetro (P) e o lado de um quadrado (L) Todos os pontos caem na curva da relação funcional

  4. Relação funcional x Relação estatística • Estatística:não há uma relação perfeita como no caso da relação funcional. As observações em geral não caem exatamente na curva da relação. Ex: relação entre o peso (P) e a altura (A) de uma pessoa A existência de uma relação estatística entre a variável dependente Y e a variável independente X não implica que Y dependa de X, ou que exista uma relação de causa-efeito entre X e Y.

  5. Y Y Y Y X X X X Medida de Associação r = 0,9 r = 0,3 r = 0 Coeficiente de Correlação (de Pearson) mede o grau de relação linear entre X e Y r = - 0,9

  6. Y Y Y Y ? ? X X X X Coeficiente de Correlação • Interpretações errôneas dos coeficientes de correlação • Um alto coeficiente de correlação nem sempre indica que a equação de regressão estimada está bem ajustada aos dados. Y X

  7. Y Y A Y X X X B Y X Coeficiente de Correlação • Interpretações errôneas dos coeficientes de correlação • Um coeficiente de correlação próximo de zero nem sempre indica que Xe Y não são relacionadas.

  8. Análise de Regressão • Determinar como duas ou mais variáveis se relacionam. • Estimar a função que determina a relação entre as variáveis. • Usar a equação ajustada para prever valores da variável dependente. • Regressão Linear Simples • Yi= 0 + 1Xi + i

  9. i Inclinação populacional Intercepto populacional Erro Aleatório Variável Dependente Variável Independente Modelo de Regressão Linear Simples E(Y) = 0 + 1 X Y 1 Coeficiente angular b0 X

  10. Estimação dos parâmetros Em geral não se conhece os valores de 0, 1e 2 Eles podem ser estimados através de dados obtidos por amostras. O método utilizado na estimação dos parâmetros é o método dos mínimos quadrados, o qual considera os desvios dos Yi de seu valor esperado: i = Yi – (0 + 1 Xi) Em particular, o método dos mínimos quadrados requer que consideremos a soma dos ndesvios quadrados, denotado por Q:

  11. Estimação dos parâmetros De acordo com o método dos mínimos quadrados, os estimadores de 0 e 1 são aqueles, denotados por b0e b1, que tornam mínimo o valor de Q. Derivando Igualando-se essas equações a zero obtém-se os valores b0e b1 que minimizam Q: (resíduo)

  12. Y X Propriedades da equação de regressão 1) 2) é mínima 3) 4) A reta de regressão passa sempre pelo ponto

  13. Assim, os desvios de Yidevem ser calculados em torno de sua própria média estimada , e a soma dos quadrados, denominada soma de quadrados dos resíduos será: Estimação da Variância do Erro (2) A variância dos erros i,, denotada por 2, é um parâmetro do modelo de regressão, e necessita ser estimada. A variância de uma v.a. qualquer é calculada pela soma dos desvios quadráticos dividido pelo no de graus de liberdade. O cálculo da variância 2 é feito da mesma maneira. É importante notar que a variância dos Yi é também 2. Entretanto, cada Yivêm de distribuições de probabilidade diferentes, com diferentes médias dependendo do nível de Xi.

  14. Estimação da Variância do Erro (2) Soma de quadrados dos resíduos (SQRes): A soma dos quadrados dos resíduos tem n – 2 graus de liberdade, pois 2 graus de liberdade foram perdidos por estimar b0 e b1. Portanto, o estimador de 2, denominado de Quadrado Médio do Resíduo (QMRes), é dado pela razão entre a soma dos quadrados dos resíduos e (n – 2): Pode ser demonstrado que:

  15. Y ? X Inferência em Análise de Regressão Considere o modelo: Yi = 0 + 1 Xi+ i  ~ N(0;2)e COV(i,j)= 0 IC para 0 e 1 IC para Ynovo 0 = 0 ? 1 = 0 ? (teste de hipótese) se H0 verdadeira E(t) = 0 se H0 falso E(t) <<<< 0

  16. Yi 0 20 40 60 80 Abordagem da Análise de Variância na Análise de Regressão Y SQTo = SQReg + SQRes Coeficiente de determinação 0  R2  1 Interpretação: R2 mede a fração da variação total de Y explicada pela regressão. X

  17. Abordagem da Análise de Variância na Análise de Regressão se H0 verdadeiro E(F) = 1 se H0 falso E(F) >>>> 1

  18. s s2 valor-P Análise de Regressão no EXCEL OBS: Para regressão linear simples: teste F = teste t bilateral F = t2

  19. Modelos Linearizáveis Modelo Padrão: Yi= 0 + 1Xi + i exponencial potencial logaritmo potência inverso

  20. Resíduo = Análise de Resíduos

  21. Resíduo Padronizado = Análise de Resíduos

  22. “outlier” “ideal” 2não constante não linearidade não independência tempo Análise de Resíduos

  23. Regressão passando pela origem (0 = 0) (R2 pode ser negativo!)

More Related