1 / 47

Wieloczynnikowa analiza wariancji

Wieloczynnikowa analiza wariancji. Analiza wariancji w SAS. Procedura ANOVA ANOVA – Analysis of variance ( Analiza wariancji ) Procedura GLM General Linear Models ( Ogólne modele liniowe ). Model liniowy analizy wariancji. Y ij =  +  i + e ij gdzie :

kelii
Download Presentation

Wieloczynnikowa analiza wariancji

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Wieloczynnikowa analiza wariancji

  2. Analiza wariancji w SAS Procedura ANOVA • ANOVA – Analysis of variance (Analizawariancji) Procedura GLM • General Linear Models (Ogólnemodeleliniowe)

  3. Model liniowy analizy wariancji Yij=  + i + eij gdzie: • Yij – wartość cechy j-tegoobiektu pochodzącego z i-tej grupy; •  – średnia ogólna, obliczona dla całej populacji; • i – efekt i-tej grupy, tj. różnica między średnią dla i-tej grupy i dla całej populacji. Można ten efekt traktować jako przewagę i-tej grupy nad przeciętną dla całej populacji; • eij – błąd losowy, resztowy.

  4. Wartość prognozowana i reszty

  5. Błąd losowy • Błąd losowy jest odchyleniem danej obserwacji od średniej grupy, z jakiej ona pochodzi. • Spowodowany jest zmiennością przypadkową, a ta dotyczy konkretnej obserwacji. • Błąd jest to taka część obserwowanej zmienności, która nie jest wytłumaczona za pomocą modelu.

  6. Czynniki stałe w modelu (Modele stałe) • Z reguły liczba poziomów czynnika stałego jest niewielka. W badaniach uwzględniamy z góry określone poziomy czynnika. • Wnioski odnosimy wyłącznie do tych poziomów czynnika, które zostały uwzględnione w analizie. • Przykładem czynnika stałego może być: płeć, grupa żywieniowa, rasa, rok badań, stado, sezon doju próbnego.

  7. Model stały (Model I) Yij=  + i + eij • i – stały efekt i-tej grupy, tj. różnica między średnią dla i-tej grupy i dla całej populacji. • Można ten efekt traktować jako przewagę i-tej grupy nad przeciętną dla całej populacji;

  8. Czynniki losowe (Modele losowe) • Liczba poziomów czynnika losowego jest zwykle duża. • Badaniom poddany jest losowy podzbiór wszystkich poziomów czynnika. • Wnioski odnosimy do wszystkich poziomów czynnika, nawet tych, które nie zostały uwzględnione w eksperymencie, np. twierdzimy, że rasa wpływ na udział tłuszczu w mleko. • Przykładem czynnika losowego jest efekt matki, ojca, grupy genetycznej, rasy.

  9. Modele losowe (Model II) Yij=  + Ai + eij gdzie: Ai– losowy efekt i-tej grupy, tj. różnica między średnią dla i-tej grupy i dla całej populacji,

  10. Modele stałe a losowe • Różnica między czynnikami stałymi oraz losowymi jest dość płynna, w dużej mierze zależy od postawionego do rozwiązania problemu.

  11. Modele krzyżowe Yijk= + i + j + ()ij + eijk gdzie: ()ij – efekt interakcji pomiędzy czynnikami (poprawka ze względu na interakcję).

  12. Klasyfikacja krzyżowa

  13. Dane – krety

  14. Dwuczynnikowa ANOVA - rezultaty Yijk= + i + j + eijk

  15. Tabela dwuczynnikowej analizy wariancji g – liczba poziomów czynnika F1, b – liczba poziomów czynnika F2

  16. Dwuczynnikowa analiza wariancjiz interakcją Yijk= + i + j + ()ij + eijk

  17. Brak istotnej interakcji

  18. Dwuczynnikowa ANOVA, wysoko istotna interakcja

  19. Wysoko istotna interakcja

  20. Wyłączenie interakcji z modelu • Zaleca się, aby z modelu wyeliminować takie interakcje, które są nieistotne statystycznie. Zwiększa się tym samym siłę działania czynników głównych. Jest to tym bardziej uzasadnione, jeśli: liczba stopni swobody dla błędu jest mniejsza aniżeli 5 oraz średni kwadrat odchyleń dla interakcji podzielony przez wariancję błędu jest mniejszy aniżeli 2.

  21. Model hierarchiczny Yijk=  + i+ (j)i + eijk gdzie: i – efekt stada, (j)i– czynnik zagnieżdżony, np. tj. wpływ ojca.

  22. Przykład zagnieżdżenia • Jest to sytuacja, w której określone poziomy czynnika rozważane są w obrębie czynnika nadrzędnego. np. kozioł czy też tryk kryje samice wyłącznie w wybranych stadach.

  23. Typy sum kwadratów odchyleń • TypeSS1: Modele hierarchiczne, regresja wielomianowa. Istotna jest kolejność czynników. • TypeSS2: W sytuacji, gdy interesują nas efekty główne a interakcje są nieistotne statystycznie. • TypeSS3: Każdy element traktowany jest oddzielnie, indywidualnie. • TypeSS4: Stosowany, gdy istnieją brakujące podklasy. Wszystkie typy sum kwadratów odchyleń są sobie równe dla układów zbalansowanych!

  24. Modele ze zmienną towarzyszącą (regresją) Yijk= + ai+ bj+ (ab)ij + βX1 + eijk gdzie: (ab)ij– efekt interakcji pomiędzy czynnikami (poprawka ze względu na interakcję). βX1 – regresja (zmienna towarzysząca).

  25. Diagnostyka modelu

  26. Diagnostyka modelu • r-kwadrat (R-Square) (R2) = SKM/SKO; Wskaźnik determinacji informuje, w jakim stopniu zmienne niezależne (czynniki) objaśniają zmienność cechy zależnej. Jeżeli wartość jest zbliżona do 0, tzn. że czynniki w żaden sposób nie wyjaśniają zmienności cechy ilościowej. • Średnia - średnia arytmetyczna dla całej populacji. • Pierwiastek (Root) MSE – pierwiastek kwadratowy średniego kwadratu odchyleń dla zmienności wewnątrzgrupowej • Wsp. war (CoeffVar) – wskaźnik zmienności = Root MSE / Mean * 100

  27. Dylemat • Czy masa ciała we wszystkich porach jest zróżnicowana? • Czy są takie pory roku, w których masa ciała jest podobna?

  28. Wykres pudełkowy

  29. Testy a posteriori • W sytuacji, gdy wyniki analizy wariancji dają podstawę do odrzucenia hipotezy zerowej, wykonujemy tzw. testy niezaplanowane, zwane inaczej testami a posteriori. Niedopuszczalne jest stosowanie testu t-Studenta w przypadku większej liczby porównywanych średnich (więcej niż 2), gdyż drastycznie rośnie błąd I rodzaju dla całego doświadczenia. Przy jednej parze błąd ten wynosić może 0,05, ale przy 4 średnich (6 możliwych porównań) prawdopodobieństwo, że się pomylimy wynosi: 1 - 0,956 = 1 - 0,735, czyli aż 0.265.

  30. Testy wielokrotnych porównań (post hoc) • Testy wielokrotnych porównań wykonujemy wtedy, gdy na podstawie analizy wariancji stwierdzimy, iż czynnik wpływa istotnie na badaną cechę!!!!

  31. Grupa średnich jednorodnych • Grupy jednorodne: są to takie grupy średnich, które nie różnią się statystycznie ze sobą. Procedury, które zmierzają do wyróżnienia grup jednorodnych nazywają się procedurami porównań wielokrotnych, procedurami jednoczesnego wnioskowania lub post-hoc. Testy te wykorzystujemy przy analizie wariancji wykonywanej w ramach Modelu I.

  32. Test NIR • [test najmniejszychistotnychróżnic] (LSD [least significant differences]). Jest najstarszym historycznie testem wielokrotnych porównań. Zaproponowany przez Fishera w 1949. Jego idea polega na wyznaczeniu tzw. najmniejszych istotnych różnic i porównaniu ich z różnicami średnich. Jest to test najmniej odporny na wzrost liczby wielokrotnych porównań, ponieważ poziom istotności odnosi się do pojedynczego porównania. W takim przypadku bardzo szybko wzrasta poziom istotności całego eksperymentu. Wobec powyższych test NIR stosowany jest jako test towarzyszący innym testom. • Jeśli bezwzględna wartość różnicy średnich z próby jest większa aniżeli tzw. najmniejsza istotna różnica (NIR), to możemy stwierdzić, iż jest ona istotna statystycznie.

  33. Test Dunnett • Służy do porównania grup doświadczalnych z grupą kontrolną.

  34. Test Duncana • Test Duncana jest oparty na studentyzowanym rozstępie. Poziom istotności dla całego doświadczenia wynosi 1-(1-)n-1. • W sytuacji, gdy n rośnie do nieskończoności poziom ten rośnie do jedności. W związku z czym, przy dużej liczbie porównywanych średnich prawdopodobieństwo popełnienia błędu drastycznie rośnie. • Test ten stosowany jest raczej jako test towarzyszący innym testom. • Test Duncana umożliwia tworzenie grup jednorodnych, czyli takich, pomiędzy którymi nie występują różnice istotne statystycznie na podstawie prób niezależnych.

  35. Kolejność działań przy wykonywaniu testu Duncana: • Porządkujemy rosnąco ciąg uzyskanych średnich arytmetycznych • Wybieramy parę średnich do porównania • Odczytujemy z tabel testu Duncana wartości krytyczne. Uzależnione są one od poziomu istotności, liczby stopni swobody oraz typu rozstępu. Typ rozstępu - liczba wartości średnich zawartych w jednym ciągu pomiędzy porównywanymi średnimi. • Wyliczamy tzw. istotny obszar zmienności: D*Sd D – odczytujemy w zależności od liczby stopni swobody (zmienność wewnątrzgrupowa) oraz typu rozstępu.

  36. Test Duncana cd. • S2w – wariancja dla zmienności wewnątrzgrupowej; ngr – przeciętna liczebność grupy k – liczba grup doświadczalnych, n­i­ – liczebność grupy • Jeżeli |xi - xj| Sd*D0,05 to różnica pomiędzy średnimi jest istotna statystycznie; • Jeżeli |xi - xj| Sd*D0,01 to różnica pomiędzy średnimi jest wysoko istotna statystycznie; • Jeżeli |xi - xj| < Sd*D0,05 to różnica pomiędzy średnimi jest nieistotna statystycznie.

  37. Test Duncana

  38. Test Duncana  Porównywane grupy uporządkowane są malejąco. Średnie, przy których znajduje się ta sama litera stanowią, tzw. grupę średnich jednorodnych, tzn. które nie różnią się ze sobą.

  39. Nanoszenie istotności

  40. Scheffé test • Jest testem najbardziej konserwatywnym, co oznacza, że rzadziej będziemy odrzucać pojedyncze porównania niż w przypadku innych testów. • Test Scheffe zapewnia łączny poziom istotności dla wszystkich porównywanych par. • Test ten doskonale nadaje się nie tylko do porównania par cech, ale również uwzględnia wszelkie kontrasty. • To test najbardziej zachowawczy, gdyż błąd pierwszego rodzaju jest najmniejszy.

  41. Test Scheffé

  42. Test wielokrotnych porównań Tukey’a • Jest oparty o studentyzowany rozkład. Jest to test najbardziej polecany do porównania par średnich. Pozwala on wyznaczać grupy średnich jednorodnych. Występuje w dwóch odmianach: równa liczebność próbek, nierówna liczebność próbek (test Spjotvolla i Stolinea). • Test Tukea jest bardziej konserwatywny aniżeli NIR, lecz mniej niż test Scheffé. Błąd pierwszego rodzaju jest przy tym teście mniejszy aniżeli w przypadku NIR, Duncan,a ponadto gwarantuje on jednakowy poziom istotności dla wszystkich porównywanych par.

  43. Test Tukey

  44. Test Duncana i Scheffé Wykazano różnice istotne między średnią masą ciała samic kontrolowanych jesienią a wszystkimi pozostałymi porami roku. Nie stwierdzono jednak różnic istotnych między zwierzętami odłowionymi wiosną, latem i zimą!

  45. Modyfikujemy kod

  46. Program po zmianach Dopisaliśmy dodatkowe 2 linie pozwalające na porównania przy poziomie istotności równym 0,01 Program zapisujemy i Uruchamiamy

  47. Efekty

More Related