Przejdź do zawartości

Wieloczynnikowa analiza wariancji

Z Wikipedii, wolnej encyklopedii
To jest stara wersja tej strony, edytowana przez 31.182.200.152 (dyskusja) o 22:00, 9 gru 2018. Może się ona znacząco różnić od aktualnej wersji.

Wieloczynnikowa analiza wariancji jest testem statystycznym służącym ocenie wpływu wielu zmiennych niezależnych (czynników) na wartość rozpatrywanej zmiennej zależnej. Za analizę wieloczynnikową przyjmuje się taką, w której mamy do czynienia z co najmniej dwoma zmiennymi niezależnymi (czynnikami klasyfikującymi).

Założenia

Wyniki uzyskane metodą analizy wieloczynnikowej uznaje się za prawdziwe, o ile spełnione są następujące założenia:

Teoria

Omówmy podstawy analizy wieloczynnikowej na przykładzie 2-czynnikowej analizy wariancji.

Podobnie jak w przypadku analizy jednoczynnikowej, tak i teraz wpływ zmiennych niezależnych na zmienną zależną weryfikowany jest z uwzględnieniem wielu ich poziomów – dla przykładu, zmienna niezależna pn. „satysfakcja pacjenta z terapii lekowej” może być rozpatrywana na 4 poziomach: terapia lekiem I, terapia lekiem II, terapia lekiem III, terapia przy użyciu placebo. Analiza wieloczynnikowa prowadzi zatem do wskazania jak na zmienną zależną wpływają:

  • czynniki klasyfikujące (zmienne niezależne) – oznaczane z reguły wielkimi literami (A, B, C itd.);
  • wzajemne interakcje między czynnikami klasyfikującymi (zmiennymi niezależnymi) – oznaczane poprzez wskazanie współzależnych czynników (AB, AC itd.);
  • poziomy czynników klasyfikujących (zmiennych niezależnych) – oznaczane z reguły małymi literami (a, b, c itd.).

Co istotne, ponieważ wieloczynnikowa analiza wariancji uwzględnia interakcję czynników (zmiennych niezależnych) między sobą – czyni to niezasadnym metodologicznie wielokrotne stosowanie jednoczynnikowych analiz wariancji dla każdego z rozpatrywanych czynników kwalifikujących.

Załóżmy zatem, że spełnione są ww. założenia, a we wszystkich podgrupach wyznaczonych przez czynniki klasyfikujące A (niech tworzy go a-poziomów) i B (niech tworzy go b-poziomów) znajduje się taka sama liczba obserwacji (k).

Układ hipotez zerowych jest następujący:

  • : Czynnik A nie wpływa na zmienną zależną.
  • : Czynnik B nie wpływa na zmienną zależną.
  • : Wzajemna interakcja czynników AB nie wpływa na zmienną zależną.

Dla każdego z czynników A, B (źródeł zmienności) oraz interakcji AB wyznaczany jest osobny zestaw parametrów, na które składają się: liczba stopni swobody (), suma kwadratów odchyleń () oraz średni kwadrat odchyleń (). Parametry te stanowią podstawę do obliczenia wartości statystyki testowej (). Statystyka ma, przy założeniu prawdziwości hipotezy zerowej, rozkład F Snedecora o liczbie stopni swobody odpowiadającej i czynnikowi losowemu (błąd).

Komplet przydatnych wzorów, z uwzględnieniem powyższych uwarunkowań, zestawiono poniżej:

  • liczba stopni swobody: , , , .
  • suma kwadratów odchyleń: , , , .
  • średni kwadrat odchyleń: , , ,.
  • statystyka testowa: , , .
  • wartość krytyczna odczytywana z tablic: , , .

Jeżeli w świetle dokonanych szacunków, przy ustalonej wartości poziomu istotności , odczytana z tablic wartość krytyczna jest mniejsza od wyliczonej wartości statystyki testowej – odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej [1].

Zobacz też

Przypisy

  1. Statystyka od A do Z portal edukacyjny poświęcony statystyce [online], www.statystyka.az.pl [dostęp 2018-01-18] (pol.).