280 likes | 487 Views
Hipotezy statystyczne. Definicja, sformułowanie i weryfikacja. Definicja. Hipotezą statystyczną jest dowolne zdanie orzekające o parametrach populacji lub jej rozkładzie. Prawdziwość hipotezy jest oceniana na podstawie wyników próby losowej .
E N D
Autor: Janusz Górczyński Hipotezy statystyczne Definicja, sformułowanie i weryfikacja
Definicja Hipotezą statystyczną jest dowolne zdanie orzekające o parametrach populacji lub jej rozkładzie. Prawdziwość hipotezy jest oceniana na podstawie wyników próby losowej. Hipoteza statystyczna może orzekać o parametrach populacji i takie hipotezy nazywamy hipotezami parametrycznymi. Pozostałe hipotezy statystyczne (te, które nie dotyczą parametrów), nazywamy hipotezami nieparametrycznymi. .
Hipotezyparametryczne Przykład 1. Interesuje nas wydajność pracy pracowników pewnego zakładu produkcyjnego. Zakładamy, że modelem tej cechy może być zmienna losowa normalna o nieznanych parametrach m i . Przypuszczamy, że średnia wydajność (w populacji) jest równa znanej wartości m0. Tym samym sformułowaliśmy hipotezę statystyczną dotyczącą parametru m:
Hipotezynieparametryczne Przykład 2. W poprzednim przykładzie założyliśmy, że interesująca nas cecha (wydajność pracy pracowników) może być modelowana zmienną losową normalną. Możemy więc sformułować hipotezę dotyczącą rozkładu tej cechy:
Weryfikacjahipotezy Hipoteza statystyczna musi być na podstawie wyników próby zweryfikowana. Testem statystycznym nazywamy regułę postępowania, która każdej możliwej próbie przyporządkowuje decyzję odrzucenia hipotezy lub nie daje podstaw do podjęcia takiej decyzji. Proces weryfikacji hipotezy statystycznej obejmuje z jednej strony jej sformułowanie (jako tzw. hipotezy zerowej), z drugiej strony musimy sformułować hipotezę alternatywną oznaczaną z reguły symbolem H1.
Weryfikacja hipotez statystycznych Rozpatrzmy hipotezę parametryczną z przykładu 1, gdzie wypowiadaliśmy się o możliwej wartości średniej generalnej. Odpowiednią hipotezę zerową i alternatywną możemy zapisać jako: Na podstawie wyników próby losowej chcemy teraz skonstruować taki test statystyczny, który da możliwość podjęcia decyzji co do prawdziwości hipotezy zerowej.
Weryfikacja hipotez statystycznych Przy konstrukcji testu skorzystamy z faktu, że statystyka: ma, przy prawdziwości H0:m=m0, rozkład t-Studenta z liczbą stopni swobody v = n - 1. Załóżmy, że H0:m=m0 jest prawdziwa. Jeżeli tak, to m m0 = 0 oraz (ponieważ ). Tym samym wartość statystyki t powinna niewiele odbiegać od zera (jeżeli H0 jest prawdziwa).
Weryfikacja hipotez statystycznych W sytuacji, gdy wartości statystyki t będą odbiegać od zera dość znacznie, to powinniśmy zacząć wątpić w prawdziwość naszego założenia (że m = m0). Pozostaje do rozstrzygnięcia kwestia, kiedy można uznać, że wyniki naszej próby świadczą przeciwko prawdziwości hipotezy zerowej. Wykorzystamy do tego celu fakt, że dla każdego znajdziemy taką wartość , dla której spełniona jest równość
Weryfikacja hipotez statystycznych Tym samym wartość wyznacza nam obszar krytyczny dla naszej hipotezy H0: Jeżeli wartość empiryczna statystyki t znajdzie się w tym obszarze, to H0musimy odrzucić jako zbyt mało prawdopodobną. Obszar jest obszarem dopuszczalnym dla H0 , mówimy, że wyniki naszej próby nie przeczą hipotezie zerowej. Proszę zauważyć, że nie jest to równoważne zdaniu, że hipoteza zerowa jest prawdziwa! (my jej tylko nie możemy odrzucić).
Błędy weryfikacji Wyniki próby mogą być takie, że uznamy za fałszywą i odrzucimy hipotezę H0, która w rzeczywistości jest prawdziwa. Jest to tzw. błąd I rodzaju, a prawdopodobieństwo jego popełnienia jest równe . Możliwa jest także sytuacja odwrotna: wyniki próby nie pozwoliły na odrzucenie H0 , która w rzeczywistości była fałszywa. Popełniamy wtedy tzw. błąd II rodzaju, a jego prawdopodobieństwo jest równe . Zwiększenie liczebności próby powoduje zmniejszenie prawdopodobieństwa .
Hipoteza o średniej generalnej m Niech zmienna losowa X ma rozkład normalny o nieznanych parametrach m i . Na podstawie n-elementowej próby losowej chcemy zweryfikować hipotezę zerową wobec alternatywy Procedura testowa: 1. Ustalamy poziom istotności 2. Obliczamy wartość empiryczną t-Studenta 3. Odczytujemy z tablic statystycznych wartość krytyczną statystyki
Hipoteza o średniej generalnej m Wnioskowanie: Jeżeli , to H0 odrzucamy na korzyść H1. Jeżeli , to nie mamy podstaw do odrzucenia H0.
Hipoteza o średniej generalnej m Hipoteza może być także weryfikowana przy inaczej skonstruowanej hipotezie alternatywnej ( lub ). Procedura weryfikacyjna przebiega podobnie, zmienia się tylko obszar krytyczny: Alternatywa (jednostronna) Hipoteza zerowa Obszar krytyczny H0 odrzucamy, jeżeli:
Hipoteza o równości dwóch średnich generalnych Niech oraz . Na podstawie odpowiednich prób losowych chcemy zweryfikować hipotezę: wobec Procedura testowa: 1. Ustalamy poziom istotności 2. Obliczamy wartość empiryczną statystyki t-Studenta 3. Odczytujemy z tablic statystycznych wartość krytyczną statystyki
Hipoteza o równości dwóch średnich generalnych Wnioskowanie o prawdziwości wobec Jeżeli , to H0odrzucamy jako zbyt mało prawdopodobną. Jeżeli , to nie mamy podstaw do odrzuceniaH0.
Hipoteza o różnicy średnich generalnych Niech oraz . Na podstawie odpowiednich prób losowych chcemy zweryfikować hipotezę: Hipoteza alternatywna może być jednostronna ( lub ) Procedura testowa przebiega podobnie jak poprzednio, zmieniają się jedynie obszary krytyczne. Hipoteza zerowa Hipotezy alternatywne Obszar krytyczny
Inny sposób weryfikacji hipotezy o równości średnich. NIR Hipoteza przy jest odrzucana wtedy, gdy: Iloczyn nazywamy najmniejszą istotną różnicą (least significant difference) i oznaczamy skrótem NIR (LSD).
Najmniejsza istotna różnica Hipotezę przy alternatywie będziemy odrzucać wtedy, gdy: NIR (LSD) jest taką różnicą wartości danej cechy w dwóch populacjach, którą jeszcze można uznać za losową (przypadkową). Różnice większe od NIR są już spowodowane własnościami danych populacji (nie są przypadkowe).
Test istotności dla frakcji Niech zmienna X ma w populacji rozkład zero-jedynkowy z prawdopodobieństwem sukcesu p. Parametr ten można interpretować jako wskaźnik struktury w populacji. Interesuje nas weryfikacja hipotezy zerowej: wobec Procedura weryfikacyjna wykorzystuje rozkład N(0, 1): 1. Obliczamy gdzie 2. H0 odrzucamy, jeżeli
Test istotności dla różnicy frakcji Rozważmy dwie zmienne zero-jedynkowe z parametrami odpowiednio p1 i p2. Interesuje nas weryfikacja przy alternatywie Niech oraz oznaczają odpowiednio frakcje elementów wyróżnionych w obu próbach. Wiadomo, że Jeżeli jest prawdziwa, to gdziep oznacza wspólną wartość dla obu zmiennych.
Test istotności dla różnicy frakcji Jako ocenę wspólnego prawdopodobieństwa sukcesu dla obu zmiennych przyjmuje się wyrażenie: Ostatecznie statystyka ma rozkład N(0, 1). Hipotezę przy odrzucamy, jeżeli
Test istotności dla wariancji Niech , interesuje nas weryfikacja hipotezy przy alternatywie W praktyce nie formułuje się H1 jako dwustronnej czy lewostronnej, co wynika z faktu, że duża wariancja jest niekorzystna. Weryfikację hipotezy zerowej przeprowadzamy w oparciu o n-elementową próbę wykorzystując fakt, że statystyka ma rozkład z liczbą stopni swobody v = n – 1.
Test istotności dla wariancji Jeżeli prawdziwa jest H0, to statystyka ma rozkład z liczbą stopni swobody v = n - 1. Wnioskowanie: Jeżeli , to H0 odrzucamy na korzyść H1. Jeżeli , to nie mamy podstaw do odrzucenia H0 .
Test istotności dla dwóch wariancji Niech oraz . Na podstawie odpowiednich prób losowych chcemy zweryfikować przy alternatywie Statystyka ma rozkład Fishera-Snedecora z liczbami stopni swobody oraz . .
Test istotności dla dwóch wariancji Jeżeli jest prawdziwa, to również statystyka ma rozkład Fishera-Snedecora z liczbami stopni swobody oraz Z uwagi na konstrukcję tablic statystycznych, które zawierają wartości tylko dla prawostronnego obszaru krytycznego, wartość empiryczną statystyki F budujemy tak, aby była większa od 1 (w liczniku umieszczamy większą wariancję z próby).
Test istotności dla dwóch wariancji Wnioskowanie: 1. Obliczamy wartość empiryczną statystyki 2. Dla ustalonego odczytujemy z tablic wartość krytyczną gdzie u i v są odpowiednio liczbami stopni swobody dla średnich kwadratów w liczniku i mianowniku. 3. Jeżeli , to odrzucamy na korzyść