PSY117/454 Statistická analýza dat v psychologii Přednáška 11 Analýza rozptylu Srovnávání více než dvou průměrů If your experiment needs statistics, you ought to have done a better experiment. Ernest Rutherford Omezení t-testu t-test umožňuje srovnání pouze dvou průměrů  Více skupin ( j ) >> mnoho porovnání: j ( j -1)/2 Více srovnání způsobuje strmý růst pravděpodobnosti chyby I. typu  např. při α=0,05 a 20 testech p=0,64 (1 nebo více chyb)  aplikace binomického rozložení  Platí to pro jakýkoli statistický test (zejm. korelace) Je nevhodné provádět velké množství testů na jedněch datech (cca >5)  Zneužití se označuje jako rybaření v datech – capitalizing on chance  Lze kompenzovat korekcí hladiny α (Bonferroniho korekce), avšak za cenu značného snížení síly testu (1-β).  Místo α testujeme na hladině α ’=α/N, kde N je počet prováděných testů. AJ: multiple tests, capitalizing on chance, Bonferroni correction, statistical power Řešení = Analýza rozptylu (ANOVA) Testuje na více skupinách jen jednu hypotézu:  Je někde mezi skupinovými průměry někde rozdíl?  Je mezi Pražáky, Brňáky a Ostraváky rozdíl v průměrné lakotě?  H0: µPražáci = µBrňáci = µOstraváci  Je-li odpověď „ano“ (p <α), pak se můžeme podívat na jednotlivé rozdíly detailněji (post-hoc testy)  Je-li odpověď „ne“ (p >α), pak bychom neměli (rybaření) AJ: ANalysis Of Variance, post-hoc tests (multiple comparisons) 1. terminologická vložka - ANOVA  ANOVA = ANalysis Of Variance = analýza rozptylu  i přes svůj název jde o srovnávání průměrů  ANOVA zjišťuje vztah mezi kategoriální nezávislou a intervalovou závislou.  kategoriální nezávislá = faktor (factor, „-way“)  hodnoty kategoriální nez. = úrovně (level, treatment)  Zjištěný rozdíl = efekt, účinek (effect) Princip ANOVY 1. sk1 sk2 sk3 Celk. sk1 sk2 sk3 Celkem čl1 2 4 6 čl1 0 6 2 čl2 2 4 6 čl2 4 2 10 čl3 2 4 6 čl3 0 6 2 čl4 2 4 6 čl4 4 2 10 čl5 2 4 6 čl5 2 4 6 m 2 4 6 4 m 2 4 6 4 s2 0 0 0 2,9 s2 4,0 4,0 16,0 9,7 MSbg 20 MSbg 20 MSw 0 MSw 8 sk1 sk2 sk3 Celkem F 2,5 čl1 1 4 2 0,95F(2,12) 3,8853 čl2 3 5 5 p 0,1237 čl3 5 1 3 čl4 4 2 1 čl5 2 3 4 m 3 3 3 3 s 2 2,5 2,5 2,5 2,1 MSbg 0 MSw 2,5  rozptyl = MS = mean square  MSwithin : variabilita uvnitř skupin (MSe, error) MSwithin=SSwithin/n – j  MSbetween : s2 spočítaný ze skupinových průměrů, variabilita uvnitř skupiny je ignorována (též MSA)  MSbetween=SSbetween/j -1 Platí-li H0, jaký čekáme vztah mezi Msbetween a Mswithin ? Princip ANOVY – F-test  Čím jsou si průměry podobnější, tím je rozptyl mezi skupinami nižší (MSbetween se blíží 0)  Čím nižší je rozptyl uvnitř skupin (MSwithin se blíží 0), tím průkaznější se průměry mezi skupinami zdají být.  Důležitý je poměr těchto dvou odhadů rozptylu:  Čím vyšší je F-poměr, tím průkaznější jsou rozdíly mezi průměry (rozsah je 0 až ∞ )  F -poměr má jako výběrová statistika F -rozložení within between MS MS F = Fisherovo-Snedecorovo F-rozložení  Podobně jako t -rozložení, je F -rozložení vlastně rodina mnoha rozložení mírně se lišící svým tvarem  Tato rozložení se liší tentokrát dvěma parametry – stupni volnosti  ν1 = počet skupin – 1 : stupně volnosti čitatele - MSbetween  ν2 = počet lidí – počet skupin : stupně volnosti jmenovatele - MSwithin  na pořadí ZÁLEŽÍ http://www.econtools.com/jevons/java/Graphics2D/FDist.html AJ: FUJ: V tabulkách F-rozložení v Hendlovi jsou prohozeny v1 a v2. Princip ANOVY – dělení rozptylu.  Dělení variability (rozptylu) podle zdrojů jako u lineární regrese Xij =µ + αj + eij  Xij = skóre jedince (i-tý jedinec v j-té skupině)  µ = průměr populace  α = vliv příslušnosti ke skupině (vliv úrovně faktoru)  eij= chyba (vše, s čím nepočítáme, individuální prom.) Xij – m = (m – mj ) + (Xij – mj ) odchylka od celkového průměru = odchylka od skupinového průměru + odchylka skupinového průměru od celkového průměru  … odchylky umocněné na druhou = cesta k rozptylu SSTotal = SSBetween (A) + SSWithin(Error) MSTotal; MSError; MSA ijji eXbXbXbaY +++++= −− 112211 ... Velikost účinku (efektu)  Podobně jako u regrese chceme vědět, jaká část rozptylu závislé je vysvětlená nezávislou  Ekvivalentem R 2 je u anovy η2 (eta)  η2=SSBetween/SSTotal  Poněkud přesnější je ω2  Pro konkrétní rozdíl průměrů dCoh = m1-m2/√MSWithin  Velikost účinku je vždy třeba uvádět Předpoklady použití ANOVY  normální rozložení uvnitř skupin  při nj>30 a n1=n2=…=nj je ANOVA robustní  stejné rozptyly uvnitř skupin: homoskedascita  do smax/smin<3 je ANOVA robustní, zváště při n1=n2=…=nj  nezávislost všech pozorování  při opakovaných měřeních je třeba použít ANOVU pro opakovaná měření viz Hendl 343 Post-hoc testy (simultánní porovnávání)  Po (a pouze po) prokázání „nějakých“ rozdílů mezi průměry obvykle chceme vědět, mezi kterými skupinami konkrétně rozdíly jsou: post-hoc testy  Srovnáváme každou skupinu s každou způsobem, který nezpůsobí nárůst α.  Je-li důležité udržet α pod kontrolou, pak je správnou volbou Scheffeho test – volba pro rybaření  Pokud to není tak kritické a máte-li pár kvazi-hypotéz na mysli, pak je volbou Student-Neuman-Keuls (S-N-K)  Extrémně „dajný“ a nepříliš vhodný pro více než 3 skupiny je LSD a proto se nedoporučuje. Další varianty a rozšíření ANOVA  ANOVA pro opakovaná měření (jako párový t-test)  ANOVA s 2 a více faktory (faktoriální ANOVA)  MANOVA – s více závislými proměnnými To vše v SPSS skryto pod GLM – general linear model  Pořadovou (neparametrickou) alternativou ANOVY jsou  Kruskal-Wallis H: H0: Md1=Md2=…=Mdj H1: Md1≠Md2 ≠ … ≠ Mdj  Jonckeheere-Terpstra Test: H1: Md1≤Md2 ≤ … ≤ Mdj AJ: repeated measures ANOVA, two(three..)-way ANOVA,(factorial ANOVA)