330 likes | 534 Views
Wykład 16. Inne zagadnienia z prostej regresji liniowej. Łączna estymacja β 0 i β 1. Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności Obszar ufności dla (β 0 , β 1 ) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji).
E N D
Wykład 16 Inne zagadnienia z prostej regresji liniowej
Łączna estymacjaβ0 i β1 • Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności • Obszar ufności dla (β0, β1) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji). • Ponieważ wektor (b0 , b1) ma rozkład dwuwymiarowy normalny, naturalnym obszarem ufności jest elipsa. • My nauczymy się jak skonstruować prostokątny obszar ufności.
Korekta Bonferroniego • Chcemy aby prawdopodobieństwo, że oba przedziały pokrywają odpowiednie parametry było co najmniej .95 • Nasz ``zapas błędu’’ wynosi więc(α =.05) • Połowę zużywamy na β0 (.025) a połowę na β1 (.025) • Konstruujemy 97.5% PU dla β0 • i 97.5%PU dla β1
Korekta Bonferoniego (2) • b1 ± tcs(b1) • b0 ± tcs(b0) • gdzie tc = t(.0125, n-2) • .0125 = (.05)/(2*2)
Nierówność Bonferroniego • Niech Aoznacza zdarzenie, że przedział dla β0 pokrywa β0 a B niech oznacza zdarzenie, że przedział dla β1pokrywa β1 • A’ i B’ oznaczają dopełnienia zdarzeń A i B • Chcemy aby P(A i B) ≥ 0.95.
Nierówność Bonferoniego (2) • P(A i B)=1-P(A’ lub B’) • P(A’ lub B’) • = P(A’)+ P(B’)-P(A’ i B’) • ≤ P(A’)+P(B’) • Tak więc P(A i B)≥ 1 – (P(A’)+P(B’))
Nierówność Bonferroniego (3) • P(A i B)≥ 1-(P(A’)+ P(B’)) • Tak więc jeżeli P(A’)=P(B’)= 05/2, wtedy • 1-(P(A’)+ P(B’)) = 1 – .05 =.95 • Tak więc P(A i B) ≥0.95
.025 .025 <.025 .025
Przedziały ufności dla wartości oczekiwanej Y • Równoczesna estymacja dla wszystkich Xh, stosujemy ``pasmo’’ ufności Workinga-Hotellinga • ± Ws( ) gdzie W2=2F(α; 2, n-2) • Gdy estymujemy tylko w kilku (g) punktach, można stosować korektę Bonferroniego • ± Bs( ) gdzie B=t(α/(2g), n-2)
data a1; alpha= 0.05;n=50; W2=2*finv(1-alpha,2,n-2); W=sqrt(W2); do g=1 to 15 by 1; B=tinv(1-alpha/2/g,n-2); output; end; procprint data=a1; run;
Obs alpha n g W2 W B 1 0.05 50 1 6.38145 2.52615 2.01063 2 0.05 50 2 6.38145 2.52615 2.31390 3 0.05 50 3 6.38145 2.52615 2.48078 4 0.05 50 4 6.38145 2.52615 2.59532
Obs alpha n g W2 W B 1 0.05 20 1 7.10911 2.66629 2.10092 2 0.05 20 2 7.10911 2.66629 2.44501 3 0.05 20 3 7.10911 2.66629 2.63914 4 0.05 20 4 7.10911 2.66629 2.77453
Równoczesne przedziały predykcyjne • Równoczesna predykcja dla kilku(g) punktów Xh, • Można stosować korektę Bonferroniego • ± Bs(pred) • gdzie B=t(α/(2g), n-2)
Regresja przez początek układu współrzędnych • Yi = β1Xi + ξi • Opcja NOINT w PROC REG • Ogólnie niezbyt dobry pomysł • Problemy z R2i innymi statystykami
Błędy pomiarów • Błędy pomiarów dla Y na ogół nie stanowią problemu (wliczają się w zakłócenie losowe), • Błędy pomiarów dla X mogą powodować obciążenie estymatora nachylenia
Wybór wartości X • W mianownikach wzorów na wariancję większości estymatorów występuje Σ(Xi – )2 • Tak, więc staramy się możliwie ``rozrzucić’’ wartości X
Model w formie n równań • Yi = β0 + β1Xi+ ξi • ξisą niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i wariancjiσ2
Model w postaci macierzowej Y= Xβ+ ξ Y = X β+ ξ nx1 nx2 2x1 nx1
Założenia w postaci macierzowej • ξ ~ N(0, σ2I) (rozkład wielowymiarowy normalny)
Równania normalne w postaci macierzowej • XY = (XX)β • Estymator najmniejszych kwadratów • b = (b0, b1) gdzie b = (XX)–1(XY) • Te same wzory są prawdziwe w przypadku regresji wielorakiej (więcej zmiennych objaśniających).
Użyteczne twierdzenie • U ~ N(μ, Σ), wektor wielowymiarowy normalny • V = c + DU, liniowe przekształcenie U • c jest wektorem, D jest macierzą • V ~ N(c+Dμ, DΣD)
Zastosowanie do wektora b • b = (XX)–1(XY) = ((XX)–1X)(Y) • Y ~ N(Xβ, σ2I) • So b ~ N( (XX)–1X(Xβ), σ2 ((XX)–1X)I ((XX)–1X) • b ~ N(β, σ2 (XX)–1)