1 Normální rozložení a odvozená rozložení Náhodná veličina s normálním rozložením X ~ N(fi, a2) má dominantní postavení v počtu pravděpodobnosti i v matematické statistice. Vyskytuje se v takových situacích, kdy se ke konstantní střední hodnotě fi přičítá velké množství nezávislých náhodných vlivů, které lehce kolísají kolem nuly. Takto vzniklá variabilita je charakterizována konstantou o > 0. Normálně rozdělená náhodná veličina je tedy určena dvěma parametry fi a a2, kde fi je její střední hodnota a a2 je její rozptyl. Speciální případ, kde fi = 0 a a2 = 1 nazýváme standardizované normální rozložení a značíme jej U ~ N(0,1). Příklady: procentové změny v cenách akcií na dobře fungujících trzích (Eugene Cháma, 1960), devizové výplatní poměry měn,... Ze standardizovaného normálního rozložení U lze různými transformacemi odvodit další rozložení, z nichž se seznámíme s Pearsonovým %2—rozložením, Studentovým t—rozložením a Fisher-Snedecorovým F—rozložením. Tato rozložení nacházejí velké uplatnění především v matematické statistice. Definice 1.1 O spojité náhodné veličině X říkáme, že má normální rozložení s parametry fi a a2, když její hustota je dána vzorcem f(x) 1 1 (s-M V c^^/2íi: , x G R. Zkráceně píšeme X ~ N(fi, a2 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 ^=0;o=0.5 - (i=9;o=ll (1=5 G=l V ^(i=3;o=1.25 / (jy0;o=2l\ / V \ -2 0 2 4 6 8 Distribuční funkci normální náhodné veličiny X vyjádříme Vx E R : F(x) = j f (t) dt= j -^e-Í(^)2 dt. — oo —oo Definice 1.2 Náhodnou veličinu U ÍV(0,1) nazýváme standardizovaná normální náhodná veličina. Její hustota má tvar f (u) = 2" , u E R u t2 a distribuční funkce má tvar F(u) = f ^==e~^~ dt. —OO Následující věta uvede vlastnosti normálního rozložení. 1 Věta 1.3 a) Jestliže X ~ N(fi, a2), pak E(X) = /i, D(X) = a2. b) Nechť a, b G R, b ^ 0. Jestliže X ~ iV(/x, či2) a Y = a + 6X, pak Y ~ iV(a + bfi, b2a2). [Lineární transformace normální náhodné veličiny normalitu neporuší.] c) Nechť Xi,.. .Xn jsou stochasticky nezávislé náhodné veličiny, TI TI TI Xt~N(fit,a2), i = l,...n. PakF = E^~^(E^, E *?) i=l i=l i=l [Součet nezávislých normálních náhodných veličin je opět normální náhodná veličina.] d) Nechť X ~ N(fi, a2). Pak U = ^ ~ ÍV(0,1) [Normálni náhodnou veličinu X standardizujeme tak, že od ní odečteme její střední hodnotu a tento rozdíl pak dělíme její směrodatnou odchylkou.] Poznámka 1.4 Distribuční funkce náhodné veličiny U ~ N(0,1) je tabelována ve statistických tabulkách pro u > 0. Jinak se užívá přepočtový vzorec F(—u) = 1 — F(u). Kvantily náhodné veličiny U ~ N(0,1) se značí ua a jsou tabelovány pro a > 0,5. Jinak se užívá přepočtový vzorec Ua Ui—a. Příklad 1.5 Výsledky u přijímací zkoušky na jistou VS jsou normálně rozloženy se střední hodnotou fi = 550 bodů a směrodatnou odchylkou a = 100 bodů. Jaká je pravděpodobnost, že náhodně vybraný uchazeč bude mít aspoň 600 bodů? Řešení Náhodná veličina X udává bodový výsledek náhodně vybraného uchazeče, X ~ iV(550,1002) o P(X > 600) = 1 - P(X < 600) = 1 - P(X < 600) + P(X = 600) = = 1 - P(2£T§Ř < ^ičP) = 1 - P (U < 0, 5) = 1 - F(0, 5) = 1 - 0, 69146 = 0, 31. F(0, 5) je distribuční funkce standardizovaného normálního rozložení v bodě 0,5 - viz. tabulky. Příklad 1.6 Nechť X ~ iV(-l,4). Najděte kvantil K0fl25(X). 2 ř/==*±I~ JV(0,1), #0,025^0=? Řešení í± 2 0,025 = P(X < K0,025(X)) = P(^±± < x°-0252(x)+1 ) = P(U < X°-0252(X)+1 ). Tedy y°'025f)+1 = «0,025 Proto tf0,025 w = 2%,025 "1 = 2- (-^1-0,025) " 1 = "2 • «0,975 - 1 = -2 • 1, 96 - 1 = -4, 92 Nyní budou následovat definice odvozených rozložení (Pearsonovo rozložení, Studentovo rozložení a Fisher-Snedecorovo rozložení) a související příklady. V definicích nepřehlédněte požadavky na nezávislost! Definice 1.7 Nechť Ui,... ,Un jsou stochasticky nezávislé náhodné veličiny, Ui ~ N(0,1), i = 1,...,n. n Pak náhodná veličina V = ^2 Uf ~ X2(^)- i=i Říkáme, že náhodná veličina V má Pearsonovo rozložení "chí kvadrát" a parametr n nazýváme stupně volnosti. (Explicitní tvar hustoty lze nalézt např. v příloze A sbírky: BUDÍKOVÁ,M.-OSECKÝ,P.-MIKOLÁŠ,Š: Teorie pravděpodobnosti a matematická statistika, Sbírka příkladů, Masarykova Univerzita, Brno, (1998).) 0 10 20 30 40 50 60 70 80 Poznámka 1.8 a—kvantil Pearsonova rozložení s n stupni volnosti značíme Xa(n)- Tyto kvantily jsou tabelovány a pro n > 30 užíváme přibližný vztah Xa(n) ~ \{ua + n/2íí ~ l)2 Příklad 1.9 a) Nechť V ~ %2(10). Najděte kvantil Xoi975(10). b) Nechť V ~ %2(3). Najděte kvantil Xoi05(3). Řešení a) xg,975(10)= 20,483. b) xL5(3) = 0,352. 3 Definice 1.10 Nechť U, V jsou stochasticky nezávislé náhodné veličiny, U ~ N(0,1), V ~ X2(n)- Pak náhodná veličina T = —H= ~ t{n). Říkáme, že náhodná veličina T má Studentovo V rozložení s n stupni volnosti. (Explicitní tvar hustoty lze nalézt např. v příloze A sbírky: BUDÍKOVÁ,M.-OSECKÝ,P.-MIKOLÁŠ,Š: Teorie pravděpodobnosti a matematická statistika, Sbírka příkladů, Masarykova Univerzita, Brno, (1998).) Poznámka 1.11 a—kvantil Studentova rozložení s n stupni volnosti značíme ta(n). Tyto kvantily jsou ta-belovány. Pro a < 0, 5 se používá přepočtový vzorec ta(n) = —ti_a(n) a pro distribuční funkci platí vztah F(—x) = 1 — F(x). Příklad 1.12 a) Nechť T ~ í(8). Najděte kvantil í0,g(8). b) Nechť T ~ t(6). Najděte kvantil £0,05(6)- Řešení a) t0i9(8) = 1,3968. b) W6) = -£0,95(6) = -1,9432. Příklad 1.13 Nechť X ~ £(14). Určete konstantu c tak, aby platilo: P{—c < X < c) = 0, 9. Řešení 0, 9 = P(-c < X < c) = F(c) - F(-c) = F(c) - [1 - F(c)} = 2F(c) - 1 Tedy 0, 9 = 2F(c) - 1 =>• F(c) = = 0,95 =>• c = £0,95(14) = 1, 76 1 3 Definice 1.14 Nechť Vi, V2 jsou stochasticky nezávislé náhodné veličiny, V\ ~ X2(^i), V2 ~ X2(n2)-Pak náhodná veličina F = ~ F(n1,n2). Říkáme, že náhodná veličina F má Fisher- Snedecorovo rozložení, kde n\ je počet stupňů volnosti čitatele a n2 je počet stupňů volnosti 4 jmenovatele. (Explicitní tvar hustoty lze nalézt např. v příloze A sbírky: BUDÍKOVÁ,M.-OSECKÝ,P.-MIKOLÁŠ,Š: Teorie pravděpodobnosti a matematická statistika, Sbírka příkladů, Masarykova Univerzita, Brno, (1998).) 0 0.5 1 1.5 2 2.5 3 Poznámka 1.15 a—kvantil Fisher-Snedecorova rozložení se stupni volnosti ni,n2 značíme Fa(rii,n2). Tyto kvantily jsou tabelovány. Pro a < 0, 5 se používá přepočtový vzorec Fa(ni, n2) = f1_a(^2 ni) ■ Příklad 1.16 a) Nechť F ~ F(5,7). Najděte kvantil F0,975(5 , 7). b) Nechť F ~ F(8,6). Najděte kvantil F0,025(8,6). Řešení a) F0,975(5,7) = 5,2852. b) F0,o25(8,6) = ^^ = ^ = 0,215. Příklad 1.17 Nechť X ~ F(5, 8). Určete konstantu c tak, aby platilo: P{X < c) = 0, 05. Řešení 0,05 = P(X 1300) =? Jelikož X1}X2 jsou korelované, nelze užít věty 1.3.c). Abychom mohli užít vět 1.20 a 1.21, musíme nejdříve určit rozložení náhodného vektoru X = (^)-Xľ\ í í 600 \ / 1600 -480 X2 j~ 2 vv 800 ) ' v -480 900 (Pro prvek a12 matice E platí: a12 = a21 = po\o2 = —0,4 • 40 • 30 = —480) ( 0 \ / 1 1 \ Užijeme-li ve větě 1.21 a = I ^ I aB = I ^ J potom transformovaný náhodný vektor (X + X \ P j zůstává normálně rozložený a dle věty 1.20 je normálně rozložená i každá jeho složka. Tedy náhodná veličina Z = X\ + X2 má normální rozložení a pro její parametry platí: E(Z) = E(Xt + X2) = £(Xi) + E(X2) = 600 + 800 = 1400 D{Z) = D{X1 + X2) = D{X1) + D{X2) + 2C(XU X2) = 1600 + 900 - 2 • 480 = 1540 Z ~ iV(1400,1540) P(X1 + X2> 1300) = P(Z > 1300) = 1 - P(Z < 1300) + P(Z = 1300) = = 1 - P(^ffi < 13^m°° = 1 - P(ř/ < -2, 55) = P(ř/ < 2, 55) = 0, 9946. Index X\ + X2 nepoklesne pod 1300 bodů s pravděpodobností 0,9946. 7 2 Základní pojmy matematické statistiky Počet pravděpodobnosti a matematická statistika jsou spolu úzce svázány předmětem svého zkoumání. Při popisování reality respektují působení stochasticky stabilních náhodných vlivů. Na rozdíl od počtu pravděpodobnosti se v matematické statistice setkáváme s větší neznalostí zkoumané reality v tom smyslu, že musíme pracovat ne s jednou pravděpodobností P, ale celou třídou předem přípustných pravděpodobností, aniž bychom věděli, která z nich odpovídá skutečnosti. Na základě pozorování a vyhodnocování statistických údajů se snažíme alespoň přibližně identifikovat tu pravděpodobnostní míru, která odpovídá pravdivé variantě zkoumané reality. Uvažujme urnu s 10-ti koulemi o nichž víme jen to, že jsou buď černé, nebo bílé, ale nevíme, kolik je kterých a do urny se nesmíme podívat. Můžeme jen mnohokrát (s vracením) losovat jednu kouli a na základě výsledků losování odhadnout neznámý počet čerých koulí. Tento odhad bude věrohodný, pokud počet losování bude dostatečně velký. Představme si, že jsme 100-krát losovali jednu kouli (s vracením) a jen v 9-ti případech jsme vylosovali černou kouli. Zdá se být velmi pravděpodobné, že černých koulí je méně, než bílých. Můžeme tvrdit i víc. Kandidáty na neznámý počet černých koulí jsou čísla:l,2,...,9. Nejvěrohodnějším kandidátem se v této situaci jeví číslo 1. Matematická statistika se (mimo jiné) zabývá: a) teorii odhadu, t.j. odhadováním některých parametrů (např. počtu černých koulí v urně). b) teorii testováni hypotéz, (např. testováním hypotézy, že v urně je c černých koulí). Základem obou procedur jsou statistické údaje uspořádané do datových souborů. K tomu, aby zmiňované procedury dávali věrohodné závěry, je třeba, aby losování splňovalo jisté podmínky. Jde tedy o to, jak správně sbírat statistické údaje. S tím souvisí pojem náhodného výběru. Definice 2.1 (i.) Nechť Xi,... ,Xn jsou stochasticky nezávislé náhodné veličiny, které mají všechny stejné rozložení L(ý), tedy X,i ~ L(ů), i = 1,... ,n. Potom říkáme, že X\,... ,Xn je náhodný výběr rozsahu n z rozložení L(ů). Číselné realizace x1}... ,xn uspořádané do sloupcového vektoru představují datový soubor. (ii.) Nechť {Xi, Yi),..., (Xn, Yn) jsou stochasticky nezávislé náhodné vektory, které mají všechny stejné rozložení L2{'d). Potom říkáme, že (Xi,Yi),..., (Xn,Yn) je náhodný výběr rozsahu n z dvourozměrného rozložení L>2(ý). Číselné realizace (x\, y±),..., (xn, yn) uspořádané do matice n x 2 představují dvourozměrný datový soubor. (iii.) Analogicky lze definovat i náhodný výběr rozsahu n z p—rozměrného rozložení Lp(ů), P > 3. (iv.) Libovolná funkce T náhodného výběru, (resp. několika náhodných výběrů) se nazývá statistika. 8 Důsledek 2.2 Nechť Xi,... ,Xn je náhodný výběr z rozložení s distribuční funkcí F(x). Pak pro simultánní distribuční funkce -F*(x) = F*(x\,..., xn) náhodného vektoru {Xi,..., Xn) platí: F*(x)=F(x1)-F(x2)-...-F(xn) Následující definice uvede důležité a často používané statistiky. Znalost těchto statistik, schopnost je používat a správně je interpretovat je v tomto kurzu zcela zásadní!!! Definice 2.3 (i.) Nechť Xi,..., Xn je náhodný výběr, n > 2 — Statistika M = 1 E X{ se nazývá výběrový průměr n i=i n — Statistika S2 = -^—^ E(^« — M)2 se nazývá výběrový rozptyl n i=i — Statistika S = y/S2 se nazývá výběrová směrodatná odchylka — Statistika Fn(x) = ^ • card{i, X,i < x}, x G R se nazývá hodnota výběrové distribuční funkce v bodě x [pro libovolné, ale pevně zvolené reálné číslo x znamená card{i, Xi < x} počet těch realizací veličin náhodného vektoru, které nepřekročí x.] (ii.) Nechť Xu,..., Xini;...; Xpi,..., Xprip je p stochasticky nezávislých náhodných vý- p běrů o rozsazích n\ > 2,...,np > 2,. Celkový rozsah je n = E nj- Označme i=i Mi,..., Mp výběrové průměry a S2,..., S2 výběrové rozptyly jednotlivých výběrů. Nechť Ci,..., cp jsou reálné konstanty, z nichž aspoň jedna je nenulová. p — Statistika E CjMj se nazývá lineární kombinace výběrových průměrů i=i EK-i)s? — Statistika S2 = 3~1 n_p- se nazývá vážený průměr výběrových rozptylů (iii.) Nechť {Xi, Yi),..., {Xn, Yn) je náhodný výběr z dvourozměrného rozložení. Označme TI TI TI Mi = \ E Xt, M2 = I E Yi výběrové průměry, S2 = ^ E(^ " Mi)2, i=l i=l i=l n ^^EK-^f výběrové rozptyly. i=l n — Statistika S12 = E(^« — Mi)(Yi — M2) se nazývá výběrová kovariance n i=i — Statistika Ä12 = E (Xlsm) = Pro 0 í=i se nazývá výběrový koeficient korelace. (Je-li některá z veličin Si, S2 rovna nule, výběrový koeficient korelace se nedefnuje.) [M, S2, S, S12, R12 jsou náhodné veličiny vzniklé transformací náhodného výběru. Až poté, co se náhodný výběr realizuje konkrétními čísly, získáme následně číselné realizace uvedených statistik. Tyto číselné realizace značíme malými písmeny m, s2, s, 512,^12 a odpovídají číselným charakteristikám v popisné statistice s tím rozdílem, že v případě rozptylu, 9 směrodatné odchylky, kovariance a koeficientu korelace je multiplikativní konstanta před sumou ^-j- a ne ^, jak tomu bylo v popisné statistice.] Příklad 2.4 10 x nezávisle na sobě byla měřena jistá neznámá konstanta fi. Výsledky měření jsou: 2; 1,8; 2,1; 2,4; 1,9; 2,1; 2; 1,8; 2,3; 2,2. Tyto výsledky považujeme za realizace náhodného výběru X1}..., X10. Vypočtěte m, s2 a hodnoty výběrové distribuční funkce F10(x). Řešení m „2 ~ xí — -m (2 2,2) = 2,06 i=l n i=l 1 n i(22Tl,82 n m) E(+i - m i=l ,21 ^itÉ ^2 -2m É ^ + É ™2 nm 2mnm + nm2] = ^-[^ xf 2,22 - 10-2,062) = 0,0404 s = Vs2 = ^0,0404 = 0,2011 Pro usnadnění výpočtu F10(x) uspořádáme měření vzestupně: 1,8; 1,8; 1,9; 2; 2; 2,1; 2,1; 2,2; 2,3; 2,4; pro 2,1 < x < 2, 2 pro 2, 2 < x < 2, 3 pro 2,3 < x < 2,4 FioOr) = 0,7 Fio(rr) = 0,8 F10(rr) = 0,9 pro x < 1, 8 : -Fi0(:r) = 0 pro 1,8 < x < 1,9 : Fi0(ar) =0,2 pro 1,9 < x < 2 : F10(x) = 0,3 pro 2 < x < 2,1 : F10(x) = 0,5 Příklad 2.5 U 11 náhodně vybraných aut jisté značky bylo zjišťováno jejich stáří v letech (náhodná veličina X) a cena v korunách (náhodná veličina Y). Výsledky jsou v následující tabulce: pro x > 2,4 : F10(x) = 1 X 5 4 6 5 5 5 6 6 2 7 7 Y 85 103 70 82 89 98 66 95 169 70 48 Vypočtěte a interpretujte r\2. Řešení ni\ = m2 = „2 _ i(5 + 4 + ... + 7) = 5,28 ^-(85+ ... + 48) = 88,63 n-l E Xi nm 42 + . ^(852 + 1032 72 - 11 -5,282) . + 482 - 11 • 8í S12 i=l n n-l % n n i=i i=i ^(5 • 85 + 4 • 103 + ... + 7 • 48 - 11 • 5,2 10 v S\S2 -40,89 . + 7 • 4Í -0,92 63) = 2,02 ,632) = 970,85 -40,89 /27J2V970,85 Mezi náhodnými veličinami X a Y existuje silná nepřímá lineární závislost: Čím starší auto, tím nižší cena. 10 Poznámka 2.6 V řešení předchozích příkladů byl použit výpočetní tvar pro rozptyl a kovarianci: n n S^^hiEXf-nM2] Sl2 = ^-l[ZXtYt-nM1M2] □ i=l i=l V následující větě budou uvedeny důležité vlastnosti často užívaných statistik. Vlastnosti uvedené v 1. odstavci budou odvozeny ve cvičení. Věta 2.7 1. ) Nechť Xi,... ,Xn je náhodný výběr z rozložení se střední hodnotou p, s rozptylem a2 a distribuční funkcí F(x). Potom platí: E(M) = p D(M) = n > 2 E(S2) = a2 pro pevné x G R : E[Fn(x)] = F (x), D[Fn(x)} = F(a)(1~F(a)) 2. ) Nechť Xu,..., Xini;..Xpi,..., Xprip je p stochasticky nezávislých náhodných vý- běrů se středními hodnotami fii,..., fip a stejným rozptylem a2 pro všech p výběrů. p Označme celkový rozsah n = ^2 rij. Dále nechť c1;... ,cp jsou reálné konstanty, z nichž aspoň jedna je nenulová. Potom platí: E(£cJMJ) = £cJpJ E(S2)=a2 3. ) Nechť (Xi, Yi),..., (Xn, Yn) je náhodný výběr z dvourozměrného rozložení s kovari- anci ai2 a koeficientem korelace p. Potom platí: E{Si2) = ai2, avšak E(Ri2) p (aproximace je vhodná pro n > 30) Poznámka 2.8 Metody matematické statistiky velmi často slouží k vyhodnocování výsledků pokusů. Aby tyto výsledky byli správně vyhodnoceny, je důležité pokusy správně naplánovat. Uvedeme nej základnější typy uspořádání pokusu. a) Jednoduché pozorování: náhodná veličina X je pozorována za týchž podmínek. Tuto situaci charakterizuje jeden náhodný výběr Xi,... ,Xn. b) Dvojné pozorování: náhodná veličina X je pozorována za dvojích různých podmínek. Setkáváme se s dvěma odlišnými strategiemi uspořádání takovéhoto pokusu: — Dvouvýběrové porovnávání: Tuto situaci charakterizují dva nezávislé náhodné výběry Xu,..., Xini; X2i,..., X2ri2, které mohou být s různými rozsahy. — Párové porovnávání: Tuto situaci charakterizuje jeden náhodný výběr (Xu, Xi2),..., (Xni, Xn2) z dvourozměrného rozložení. V tomto případě přecházíme k rozdílovému náhodnému výběru Zi,..., Zn; kde Zi = Xu — Xi2, i = 1,2,... ,n. Takto přejdeme k jednoduchému pozorování. 11 c) Mnohonásobné pozorovaní: náhodná veličina X je pozorována za p > 3 různých podmínek. Setkáváme se s dvěma odlišnými strategiemi uspořádání takovéhoto pokusu: — Mnohovýběrové porovnávání: Tuto situaci charakterizuje p nezávislých náhodných výběrů Xu,...,Xini;...; Xpi,...,Xprip, které mohou být s různými rozsahy. — Blokové porovnávání: Tuto situaci charakterizuje jeden náhodný výběr (Xu,..., Xip),..., (Ä"„i,..., Xnp) z p—rozměrného rozložení. 12 3 Bodové a intervalové odhady parametrů a parametrických funkcí Uvažujme náhodný výběr X1}... ,Xn ~ L(ů), přičemž parametr ů tohoto rozložení L je pro nás pozorovatele neznámá konstanta. Ovšem informace o této neznáme konstantě je ukryta a náhodnými vlivy " zamaskována" v našem náhodném výběru. Úkolem bodových i intervalových odhadů je tuto neznámou konstantu odhalit. Bodový odhad spočívá v nahrazení neznáme hodnoty parametru ů takovou statistikou T = T(Xi,... ,Xn), jejíž číselné realizace jsou "dostatečně blízko"neznámému parametru ů. Jinou možností je sestrojit interval (D,H), který s velkou (a předem uživatelem stanovenou) pravděpodobností pokrývá neznámý parametr ů. Meze tohoto intervalu jsou statistikami náhodného výběru, tedy D = D(Xi,..., Xn), H = H(Xi,..., Xn). Definice 3.1 Nechť Xi,..., Xn je náhodný výběr z rozložení L(ů). Množina všech přípustných hodnot, jichž může parametr ů nabývat, se nazývá parametrický prostor a značí se 0. Libovolná funkce h(ů) se nazývá parametrická funkce. Definice 3.2 Nechť Xi,..., Xn je náhodný výběr z rozložení L(ů), nechť h(ů) je parametrická funkce a nechť T, Tí, T2,... jsou statistiky, (i.) Statistika T je nestranným odhadem parametrické funkce h(ů), jestliže WeO: E(T) = h(ů) [Při nestranném odhadu nedochází k systematickému nadhodnocování, nebo podhodnocování parametru, či parametrické funkce.] (ii.) Nechť T1}T2 jsou dva nestranné odhady téže parametrické funkce h(ů). Řekneme, že odhad Tí je lepši, než odhad T2, jestliže W G 0 : D (Ti) < D(T2) LEPŠI ODHAD (iii.) Posloupnost Ti,T2,... ,Tn,... se nazývá posloupnost asymptoticky nestranných odhadů parametrické funkce h(ů) , jestliže WeO: lim E{Tn) = h(ů) [Když E(T) ^ h(ů), dochází ke zkreslení odhadu a mluvíme o vychýleném odhadu. 13 Pokud se toto zkreslení s rostoucím n zmenšuje, je statistika T asymptoticky nestranným odhadem parametru, či parametrické funkce.] (iv.) Posloupnost Ti, T2,..., Tn,... se nazývá posloupnost konzistentních odhadů parametrické funkce , jestliže konverguje podle pravděpodobnosti k h(ů), t.j. WeO, Ve > 0 : lim P(\Tn - h(ů)\ < e) = 1 [Statistika T je konzistentní, jestliže s rostoucím rozsahem výběru n roste pravděpodobnost, že absolutní odchylka odhadu T od parametrické funkce h(ů) klesne pod libovolně malé e.] 1 2 3 4 5 [Výraz \/ů G 0 : můžete názorně číst "ať je pravda o parametru jakákoliv, platí..."Při prvním čtení definice si na místo parametrické funkce h(ů) dosaďte přímo jen parametr ů.] Definice vyjmenovává žádoucí vlastnosti odhadů, přičemž požadavek na konzistenci odhadu je nejdůležitější. Důsledek 3.3 Z nestrannosti odhadu Tn plyne i asymptotická nestrannost. Platí-li navíc lim D(Tn) = 0, pak z asymptotické nestrannosti plyne konzistence. Tedy: lim E(Tn) = h(ů) A lim D(Tn) = 0, pak Tn je konzistentní odhad parametrické funkce h(ů). Ve 3. kapitole jsem si zavedli statistiky m, S2, Si2, R±2, ■ ■ ■■ Nyní posoudíme, jestli tyto statistiky mají některé ze zmíněných žádoucích vlastností. Věta 3.4 Nechť Xi,... ,Xn je náhodný výběr z rozložení, které má střední hodnotu /i, rozptyl a2 a distribuční funkci F(x). Nechť mn je výběrový průměr, s2 je výběrový rozptyl a Fn(x) je hodnota výběrová distribuční funkce pro libovolné pevně dané x. Potom platí: 1. — mn je nestranným odhadem parametru fi. [Tedy V/x G R : E(mn) = /j] — S2 je nestranným odhadem parametru a2. [Tedy Vo" > 0 : E(S2) = a2] — Fn(x) je nestranným odhadem F{x) pro libovolné pevně dané x G R. [Tedy ViGR: E(Fn(x)) = F(x)] 14 2. — Mi,..., Mn,... je posloupnost konzistentních odhadů parametru /i. — S2,...,S2,...]e posloupnost konzistentních odhadů parametru a2. — Fi(x),... ,Fn(x),... je posloupnost konzistentních odhadů F(x) pro libovolné pevně dané x G R. Poznámka 3.5 Výběrová směrodatná odchylka S není !! nestranným odhadem parametru o s jedinou výjimkou, kdy má S degenerované rozložení, tedy kdy je rovna konstantě. [Kdyby S byla nestranným odhadem parametru a, pak E(S) = u. Potom D(S) = E(S2) — (E(S))2 = a2 —a2 = 0. Nulový rozptyl ukazuje na degenerované rozložení.] Věta 3.6 Nechť (Xi, Yi),..., (Xn, Yn) je náhodný výběr z dvourozměrného rozložení s kovariancí o"12. Potom výběrová kovariance S12 je nestranným odhadem parametru o"12. [Tedy Vl-a [Je skoro jisté, že náhodný interval obsahuje bod h(ů).] (ii.) Interval (D, 00) se nazývá 100(1 — a)% (levostranný) interval spolehlivosti pro h(ů), jestliže WeO: P(D < h(ů)) > 1 - a (iii.) Interval (—oo,H) se nazývá 100(1 — a)% (pravostranný) interval spolehlivosti pro h(ů), jestliže WeO: P(h{ů) l-a (iv.) Číslo a se nazývá riziko [volíme jej zpravidla blízké nule, nejčastěji 0,05; 0,01; 0,1], číslo (1 — a) se nazývá spolehlivost. Statistiku D nazýváme dolní odhad, statistiku H nazýváme horní odhad. Poznámka 3.8 Volba oboustranného, levostranného, nebo pravostranného intervalu závisí na konkrétní situaci. Např. oboustranný interval spolehlivosti použije konstruktér, kterého zajímá dolní i horní hranice pro skutečnou délku fi nějaké součástky. Levostranný interval spolehlivosti použije výkupčí drahých kovů, který potřebuje znát dolní mez pro skutečný obsah zlata 15 /i v kupovaném slitku. Pravostranný interval spolehlivosti použije chemik, který potřebuje znát horní mez pro obsah nečistot fi v analyzovaném vzorku. Poznámka 3.9 Postup při konstrukci intervalu spolehlivosti 1. Nalezneme statistiku V, která je nestranným bodovým odhadem parametrické funkce h(ů). 2. Nalezneme tzv. pivotovu statistiku W, která je monotónní funkcí bodového odhadu V, je monotónní funkcí h(ů), její rozložení je známé a na h(ů) nezávislé. Nalezneme její kvantily wa/2 a Wi_a/2 tak, že platí: V$ G 0 : P(wa/2 < W < wi_a/2) > 1 - a. 3. Nerovnost wa/2 < W < Wi_a/2 převedeme ekvivalentními úpravami na nerovnost D < h(ů) < H. 4. Statistiky D a, H nahradíme jejich číselnými realizacemi d a, h a, získáme tak 100(1— o)% empirický interval spolehlivosti pro h(ů), který pokrývá h(ů) s pravděpodobností a-lespoň 1 — a. Poznámka 3.10 Jestliže 100 x nezávisle na sobě uskutečníme náhodný výber z rozložení se střední hodnotou fi a pokaždé sestrojíme 95% empirický interval spolehlivosti pro /i, pak přibližně v 95-ti případech bude ležet parametr fi v intervalech spolehlivosti a asi v 5-ti případech interval spolehlivosti fi nepokryje. Postup při konstrukci intervalu spolehlivosti si ukážeme na následujícím příkladě. Příklad 3.11 Nechť Xi,..., Xn je náhodný výběr z normálního rozložení N(fi, a2), kde n > 2 a numerická hodnota parametru o je známá. Sestrojte 100(1 — o)% interval spolehlivosti pro parametr fi. Řešení 1. Nestranným bodovým odhadem V parametru fi je statistika i=l \E(M) = fi, D(M) = ^- a lineární kombinace nezávislého náhodného vektoru zachovává normalitu.] 16 2. Vhodnou pivotovou statistikou W pro naše zadání je W = U = Ma ^ ~ N(0,1) -t/n Kvantily wa/2, Wi_a/2 jsou v tomto případě kvantily normálního standardizovaného rozložení, tedy ua/2 = —«i-a/2 a Wi-a/2- Proto W G 0 : 1 - a < P(ua/2 < U < tíi_a/2). 3. Uvedenou nerovnost budeme ekvivalentně upravovat tak, abychom odhadovaný parametr fi osamostatnili uprostřed nerovnosti. 1 - a < P{ua/2 < U < Ux-a/2) = P{M---= ■ Ux-a/2 < /i < M + —= ■ 1ti_a/2). \/n \/n D H 4. Pokud bychom měli reálná data, tak bychom pokračovali dosazením konkrétních čísel do odvozených odhadů. V případě levo- nebo pravostranného intervalu spolehlivosti se riziko a nepůlí, ale zůstává soustředěné jenom na jednom okraji rozložení. Tak v předchozím příkladě by byl levostranný interval spolehlivosti tvaru (D, oo) = (M — ^ • oo) pravostranný interval spolehlivosti tvaru (—oo,H) = (—oo,M + -^= • iti_a). Ua/2 0 Ui-a/2 ua Ui_a Příklad 3.12 Na základě náhodného výběru rozsahu 10 z rozložení iV(/x; 0, 04) byla vypočtena realizace výběrového průměru m = 2, 06. Najděte 95% empirický interval spolehlivosti pro parametr /x, a to a) oboustranný, b) levostranný, c) pravostranný. Řešení a = 0,2; n = 10; m = 2, 06; a = 0, 05; Wi_a/2 = «0,975 = ^ 96! = Mo,95 = 1, 64 ad a) ~ď^~m - ^ • Ul_a/2 = 2, 06 - ^ • 1,96 = 1, 94 h = m+^- u^a/2 = 2, 06 + ^§ • 1, 96 = 2,18 P(l,94 < /i < 2,18) > 0,95 Tedy /x G (1,94; 2,18) s pravděpodobností alespoň 0,95. ad b) J^m - ^ • Ul_a = 2, 06 - ^§ • 1, 64 = 1, 96 P(l,96 < /i) > 0,95 Tedy /i > 1,96 s pravděpodobností alespoň 0,95. 17 ad c) ~h^~m + ^ • Ul_a = 2, 06 + ^§ • 1, 64 = 2,16 P(/x < 2,16) > 0,95 Tedy /i < 2,16 s pravděpodobností alespoň 0,95. Poznámka 3.13 Nechť (d, h) je 100(1 — a)% empirický interval spolehlivosti pro parametrickou funkci h(ů). Označme A = h — d. Číslo A nazýváme šířka intervalu spolehlivosti. a) Při konstantním riziku a klesá šířka A s rostoucím rozsahem výběru n. b) Při konstantním rozsahu n klesá šířka A s rostoucím rizikem a. Příklad 3.14 Nechť Xi,... ,Xn je náhodný výběr z N(fi,a2), kde a2 známe. Jaký musí být minimální rozsah výběru, aby šířka 100(1 — a)% empirického intervalu spolehlivosti pro parametr fi nepřekročila číslo 51 Řešení Požadujeme, aby šířka int. spol A < ô. Tedy 5 >A = h - d = m + ■ wi_a/2 - (m - ■ wi_a/2) = ^ • wi_a/2 y/ň > t ■ Ui-a/2 Za rozsah výběru volíme nejmenší přirozené číslo, které vyhovuje poslední nerovnosti. Příklad 3.15 V příkladu 3.12 a) se uživateli zdá 95% interval spolehlivosti pro fi (1,94; 2,18) příliš široký. Přál by si, aby šířka tohoto intervalu nepřesáhla číslo 0,16 a riziko a zvětšovat nechce. Co byste navrhli? Řešení Šířku intervalu ovlivníme změnou rozsahu výběru n. 6 = 0,16, n =?, cr = 0,2, «0,975 = 1, 96 > ^2ul-a,2 _ 4-0,04-l,962 _ 94 nl — s2 ~ 0,162 — ^jU-1 Pro n = 25 jsou požadavky uživatele splněny. 18 4 Uvod do testování hypotéz Častým úkolem statistika je na základě dat ověřit předpoklady o parametrech, nebo typu rozložení, z něhož pochází náhodný výběr. Takovému tvrzení se říká nulová hypotéza a stanovujeme ji předem, bez přihlédnutí ke konkrétním datům. Obvykle vyjadřuje dosavadní představy o určité skutečnosti, nebo odráží dosavadní stav poznání v dané oblasti. Nesouhlas s nulovou hypotézou vyjadřuje alternativní hypotéza, která je formulována tak, aby mohla platit jenom jedna z těchto dvou hypotéz. Pravdivost alternativní hypotézy by znamenala objevení nějakých nových skutečností, nebo zásadnější změnu v dosavadních představách. Např. výzkumník by chtěl na základě dat prověřit tezi (nový objev), že pasivní kouření škodí zdraví. Jako nulovou hypotézu tedy položí tvrzení, že pasivní kouření neškodí zdraví a proti nulové hypotéze postaví alternativní, že pasivní kouření škodí zdraví. Testováním hypotéz se myslí rozhodovací postup, při kterém se na základě náhodného výběru provede rozhodnutí, zda nulovou hypotézu nezamítám, nebo zda ji zamítám ve prospěch alternativní hypotézy. Definice 4.1 Nechť Xi,..., Xn je náhodný výběr z rozložení L(ů), kde parametr i?£0 neznáme, nechť h(ů) je parametrická funkce a c G R je konstanta. (i.) H0 : h(ů) = c proti Hx : h(ů) Ý c Tvrzení Hq : h(ů) = c se nazývá jednoduchá nulová hypotéza, tvrzení H\ : h(ů) ^ c se nazývá složená oboustranná alternativní hypotéza. (ii.) H0 : h(ů) > c proti H1 : h(ů) < c Tvrzení Hq : h(ů) > c se nazývá složená pravostranná nulová hypotéza, tvrzení H\ : h(ů) < c se nazývá složená levostranná alternativní hypotéza. (iii.) H0 : h(ů) c Tvrzení H0 : h(ů) < c se nazývá složená levostranná nulová hypotéza, tvrzení H\ : h(ů) > c se nazývá složená pravostranná alternativní hypotéza. Testováním H0 proti H\ rozumíme rozhodovací pravidlo, které na základě náhodného výběru Xi,..., Xn zamítne, či nezamítne platnost Hq. Definice 4.2 Při testování Hq proti H\ se můžeme dopustit jedné ze dvou druhů chyb: Chyba prvního druhu, jejíž pravděpodobnost značíme a znamená, že Hq zamítneme, přestože platí. Chyba druhého druhu, jejíž pravděpodobnost značíme (3 znamená, že Hq nezamítneme, i když neplatí. 19 Hq nezamítáme Hq zamítáme Hq platí správné rozhodnutí P(H0 nezamítám\H0 platí) = 1 — a chyba prvního druhu P(H0 zamítám\H0 platí) = a Hq neplatí chyba druhého druhu P(Hq nezamítám\Hq neplatí) = (3 správné rozhodnutí P(Hq zamítám\Hq neplatí) = 1-/3 Pravděpodobnost chyby prvního druhu a nazýváme hladina významností testu. Číslo 1—/3 označuje pravděpodobnost jevu, že nepravdivou hypotézu Hq správně zamítneme. Toto číslo nazýváme síla testu. [Statistikovým přáním je, aby síla testu 1 — /3 byla co největší a hladina a významnosti testu byla co nej menší. Bohužel s klesajícím a roste (3 a síla testu slábne. Vžitý postup je takový, že se nejdříve zvolí nízké a a mezi různými testovacími postupy (pokud jich existuje víc) se volí takový, který minimalizuje /3, tedy maximalizuje sílu testu.] □ Ilustrace chyb I. a II. druhu: H0: pacient je zdravý, H\. pacient je nemocný. Předpokládejme nejdříve, že pacient je ve skutečnosti zdravý, tedy Hq platí. Lékař to však nemůže vědět, proto pacienta vyšetří. Mohou nastat dvě možnosti: •Nic nenajde a prohlásí pacienta za zdravého - pak je vše v pořádku a žádná chyba nena- StcllcL. •Lékaři se po důkladném vyšetření něco nelíbí a prohlásí pacienta za nemocného - pak se dopouští chyby I. druhu (bude se léčit zdravý pacient). Toto riziko a nesprávného rozhodnutí volíme malé. Předpokládejme nyní, že pacient je ve skutečnosti nemocný, tedy Hq neplatí a platí H\. Lékař to však nemůže vědět, proto pacienta vyšetří. Opět mohou nastat dvě možnosti: •Lékař po důkladném vyšetření něco závažného najde a prohlásí pacienta za nemocného -pak je vše v pořádku a žádná chyba nenastala. •Lékař nic nenajde a prohlásí pacienta za zdravého - pak se dopouští chyby II. druhu (nebude se léčit nemocný pacient). Toto riziko (3 souvisí s nastavenou hodnotou a. Pokud lékař nechce riskovat "léčbu zdravého pacienta"(tedy nastaví malé a), pak bude mít tendenci skoro každého pacienta ujišťovat, že je zdravý a tím omezí zbytečné případy léčení zdravých pacientů. Důsledkem ale je, že i nemocného pacienta dost možná označí za zdravého. Poznámka 4.3 Testování Hq proti H\ na hladině významnosti a je možno provádět třemi způsoby: a) pomocí kritického oboru, b) pomocí intervalů spolehlivosti, c) pomocí p—hodnoty. Zásadní je porozumět testování pomocí kritického oboru. Ostatní postupy pak lze snadno odvodit. Definice 4.4 Nechť Xi,..., Xn je náhodný výběr. Nechť číselná realizace statistiky T0 = Tq(X1} ..., Xn) rozhoduje o tom, jestli Hq zamítneme, nebo nezamítneme. Potom T0 nazýváme testovým 20 kritériem (testovou statistikou). Množinu všech hodnot, které může testové kritérium nabýt, rozložíme na dvě podmnožiny. Podmnožinu W, která obsahuje ty hodnoty testového kritéria, které vedou k zamítnutí testované hypotézy Hq nazýváme kritický obor. Podmnožinu V, která obsahuje ty hodnoty testového kritéria, které nevedou k zamítnutí testované hypotézy Hq nazýváme obor nezamítnutí nulové hypotézy. Tyto dva obory jsou odděleny kritickými hodnotami, které lze pro danou hladinu a nalézt ve statistických tabulkách. [Testové kritérium považujeme za ukazatel rozporu mezi testovanou hypotézou a reálnými daty, přičemž kritický obor představuje oblast, ve které je pro nás tento rozpor už nepřijatelný.] Jestliže číselná realizace £0 testového kritéria T0 padne do kritického oboru W, pak Hq zamítáme na hladině a ve prospěch alternativní hypotézy H\ a znamená to skutečné vyvrácení Hq. Jestliže číselná realizace to testového kritéria To padne do oboru nezamítnutí V, pak Hq nezamítáme na hladině a, což neznamená, že hypotéza Hq platí, ale jen to, že nemáme důvod ji zamítnout. Pravděpodobnosti chyb prvního a druhého druhu zapíšeme následovně: P{Tq eW\H0 platí) = a P(Tq e platí) = /3 Poznámka 4.5 Uveďme si, které hodnoty testového kritéria vzhledem k typu alternativní hypotézy svědčí v její prospěch a podle toho stanovme kritický obor. Ten zpravidla vychází (pro kritéria, které budeme používat): Wi= (tmin, Ka/2{T)) U (-říi-a/2(T),ímaa;) pro oboustr. alternativu h{ů) Ý c W2 = {Ki-a(T),tmax) pro pravostr. alternativu h(ů) > c W% = (tmin, Ka(T)) pro levostr. alternativu h(ů) < c , kde tmin je označením pro minimální hodnotu, kterou může testové kritérium To nabýt, t max Je označením pro maximální hodnotu, kterou může testové kritérium T0 nabýt a Ka(T) je a-kvantil testového kritéria T0. Doporučený postup testování Hq proti H\\ • Stanovíme nulovou hypotézu a alternativní hypotézu. Přitom je vhodné zvolit jako alternativní hypotézu ten předpoklad, jehož přijetí znamená "pokrok v poznání"a mělo by k němu dojít jen s malým rizikem omylu. • Zvolíme hladinu významnosti a. Obvykle volíme a = 0,05, méně často 0,1; nebo 0,01. • Najdeme vhodné testové kritérium (pivotovu náh. veličinu) a na základě zjištěných dat vypočítáme jeho realizaci. 21 • Stanovíme kritický obor. • Jestliže realizace testového kritéria náleží do kritického oboru, nulovou hypotézu zamítáme na hladině významnosti a. V opačném případě nulovou hypotézu nezamítáme na hladině významnosti a. Nyní přejdeme k testování hypotéz pomocí intervalů spolehlivosti. Volba vhodné pivotové statistiky při konstrukci intervalů spolehlivosti a volba testového kritéria spolu souvisí a tuto souvislost předvedeme na příkladech (ve cvičení). Věta 4.6 Nechť (d,h) je empirický interval spolehlivosti pro parametrickou funkci h(ů). Pokryje-li tento interval konstantu c, pak H0 nezamítáme na hladině a, v opačném případě H0 zamítáme na hladině a. 1. Pro test proti oboustranné alternativě H\ : h(ý) ^ c sestrojíme oboustranný interval spolehlivosti (d,h). 2. Pro test proti levostranné alternativě H\ : h(ů) < c sestrojíme pravostranný interval spolehlivosti (—oo,h). 3. Pro test proti pravostranné alternativě H\ : h(ů) > c sestrojíme levostranný interval spolehlivosti (d, oo). Volba levostranného, resp. pravostranného intervalu spolehlivosti v bodech 2., 3. je vázaná na tvar běžně používaných pivotových statistik. Většina statistických balíků při testování hypotéz na vstupu nepožaduje zadání rizika a, ale místo toho na výstupu vypisuje tzv. p—hodnotu, jejíž podstata je obdobná hladině významnosti a. Obecněji podává více informací o výsledku testu. Definice 4.7 p—hodnota udává nej nižší možnou hladinu významnosti, při které lze na základě realizace testové statistiky nulovou hypotézu zamítnout. Věta 4.8 Testujeme-li nulovou hypotézu na hladině a, pak pro rozhodnutí o nulové hypotéze platí: Je-li p—hodnota p < a, pak Hq zamítáme. [Tedy realizace testové statistiky, pro kterou byla p—hodnota spočtena, náleží do kritického oboru odpovídajícího hladině a.] Je-li p—hodnota p > a, pak H0 nezamítáme. [Tedy realizace testové statistiky, pro kterou byla p—hodnota spočtena, nenáleží do kritického oboru, odpovídajícího hladině a.] Podle typu alternativní hypotézy volíme způsob výpočtu p—hodnoty: p = 2min{P(To < to),P(To > to)} Pro oboustr. alternativu h(ů) ^ c p = P(Tq > íq) pro pravostr. alternativu h(ů) > c p = P(Tq < íq) pro levostr. alternativu h(ů) < c 22 [Nejdříve si rozmyslete, jak vypadá kritický obor pro levo-, resp. pravo- resp. oboustrannou alternativu, až poté Vám věta dá smysl.] 23 5 Parametrické úlohy o jednom náhodném výběru z normálního rozložení Mnoho náhodných veličin, s kterými se v praxi setkáváme, se řídí normálním rozložením. Pomocí cenrální limitní věty můžeme za poměrně obecných podmínek aproximovat i jiná rozložení normálním rozložením. Proto je velmi důležité věnovat pozornost právě výběrům z normálního rozložení. Normální rozložení je charakterizováno dvěma parametry, střední hodnotou fi a rozptylem a2. Budeme tedy řešit úlohy, týkající se těchto parametrů. Tyto úlohy spočívají v konstrukci odhadů a testování hypotéz. Následující věta uvede rozložení běžně užívaných testových kritérií pro testy pro jeden náhodný výběr z normálního rozložení. Nechť Xi,..., Xn je náhodný výběr z normálního rozložení N(fi, a2). Potom platí: 1. Výběrový průměr M = Xi a výběrový rozptyl S2 = —M)2 jsou stochasticky Věta 5.1 n n i=l i=l nezávislé. 2. U = ^ ~ N(0,1), tedy M ~ N([i, [Pivotová statistika U slouží k řešení úloh o /i, když a2 známe.] [Pivotová statistika K slouží k řešení úloh o a2, když fi neznáme.] 4. T = ^~t(n-l) \/íi [Pivotová statistika T slouží k řešení úloh o /i, když a2 neznáme.] [Tato pivotová statistika slouží k řešení úloh o a2, když fi známe.] 24 tv (0,1) Ua 0 Ua/2 0 Ul-a/2 o Ux-a F(u1,u2) 0Fa(v1,v2) 0fq/2(í/i,í/2) F1_a/2(v1,v2) 0 fi_q(í/i,í/2) uQ = -ui_Q ta(v) = -h-a(v) Fa{v1,v2) = Fi_alV2Vi) Příklad 5.2 Hmotnost balíčku krystalového cukru se řídí normálním rozložením N(1002g, 64 g2). Kontrola náhodně vybírá 9 balíčků z jedné série a zjišťuje, zda jejich průměrná hmotnost je aspoň 999 g. Pokud ne, podnik musí zaplatit pokutu. Jaká je pravděpodobnost, že podnik bude muset pokutu zaplatit? Řešení Xi,... ,X9 ~ iV(1002, 64), M ~ iV(1002, f), P(M < 999) =? P(M < 999) = P(M^§p < 999y|02) = P(ř/ < ^) = 1 - $(§) = 1 - $(1,125) = 1 - 0,87076 = 0,12924. 9 25 Pravděpodobnost, že podnik bude platit pokutu je přibližně 12,9%. Častým úkolem statistika je odvodit intervaly spolehlivosti pro neznámé parametry. V případě normálního rozložení se jedná o parametry fi a a2. Mohou tedy nastat čtyři situace: hledáme interval spolehlivosti 1. pro /i, když a2 známe; 2. pro a2, když fi neznáme; 3. pro /i, když xí/2(n-i) levostranný int. spol. (d, oo) = ^j"'1^^ , oo pravostranný int. spol. (—oo,h) = ( — oo (n-i)s 3. Interval spolehlivosti pro /i, když a2 neznáme odvozujeme z pivotové statistiky T = ~ t(n — 1). Potom meze jsou pro: \/íi oboustranný int. spol. (d, h) = (m — ^= • t1_a/2(n — 1) , m + ^= • ti_a/2( levostranný int. spol. (d, oo) = (rri — • ti_a(n — 1) , oo) pravostranný int. spol. (—oo,h) = (—oo , m + -4= • ti_a{n — 1 26 4. Interval spolehlivosti pro a2, když fi známe odvozujeme z pivotové statistiky n ——2-~ X2(n)- Potom meze jsou pro: oboustranný int. spol. (d, h) X{_a/2(n) ' X2a/2(n) E levostranný int. spol. (d, oo) = | ^—, oo E (xi-n? pravostranný int. spol. (—oo,h) = I —oo , 1-1 Příklad 5.4 lOkrát nezávisle na sobě byla změřena určitá konstanta fi. Výsledky měření byly: 2 1,8 2,1 2,4 1,9 2,1 2 1,8 2,3 2,2 Tyto výsledky považujeme za číselné realizace náhodného výběru Xi,... ,Xn z rozloženi N(fi,a2), kde parametry /i, a2 neznáme. Najděte 95% interval spolehlivosti pro parametr /x, a to a) oboustranný, b) levostranný, c) pravostranný. Řešení Jedná se o interval spolehlivosti pro /i, když a2 neznáme. K odvození mezí využijeme statistiku T = ^ ~ t{n - 1), jejíž a—kvantily nalezneme v tabulkách. n = 10 a = 0,05 h-a/2{n - 1) = í0,975(9) = 2,2622 íi_a(n-l) =í0,95(9) = 1,8331 m = 2, 06 s2 = 0,0404 s = 0,2011 ad a^ d = m - ^ • íi_a/2(Ti - 1) = 2, 06 - ^2il • 2, 2622 = 1,92 h = m+^- ti_a/2(n - 1) = 2, 06 + ^ • 2, 2622 = 2, 20 1, 92 < fi < 2, 2 s pravděpodobností aspoň 0,95 ad b) d = m - ^ • t^n - 1) = 2, 06 - 2^11 • 1, 8331 = 1, 94 1, 94 < p s pravděpodobností aspoň 0,95 ad c) h = m+^- ti_a/2(n - 1) = 2, 06 + »1 • 1, 8331 = 2,18 fi < 2,18 s pravděpodobností aspoň 0,95 Dosud jsme se věnovali intervalům spolehlivosti pro parametry normálního rozložení, nyní se budeme věnovat testování hypotéz o parametrech fi a a2. Budeme se věnovat testování pomocí kritického oboru, další způsoby testování lze lehce odvodit. 27 Definice 5.5 Nechť Xi,..., Xn je náhodný výběr z N(fi, a2), kde a2 známe. Nechť n > 2 a c je konstanta. Test iJo : /i = c proti iJi : //^c (resp. iJi : fi < c resp. iJi : /i > c) se nazývá z-test. Nechť Xi,...,Xn je náhodný výběr z N(fi,a2), kde o"2 neznáme. Nechť n > 2 a c je konstanta. Test iJo : ^ = c proti iJi : //^c (resp. iJi : fi < c resp. iJi : /i > c) se nazývá jednovýběrový t-test. Nechť Xi,...,Xn je náhodný výběr z N(fi,a2), kde /i neznáme. Nechť n > 2 a c je konstanta. Test Hq : a2 = c proti iJi : a2 ^ c (resp. H\ : a2 < c resp. H\ : a2 > c) se nazývá test o rozptylu. Poznámka 5.6 Volba vhodného testovacího kritéria pro zvolený test je obdobná volbě vhodné pivotové náhodné veličiny v 5.3, tedy pro z-test volím testovací kritérium To odvozené ze statistiky U, pro t-test ze statistiky T a pro test o rozptylu ze statistiky K. Pozor na dvojsmyslnost písmena T. Obecně značí To jakékoliv testovací kritérium, v případě t-testu značí T statistiku se Studentovým rozložením. Tedy můžeme psát T0 = U, T0 = T, T0 = K za předpokladu, že Hq platí. Věta 5.7 Nechť Xu ..., Xn ~ N(/i, a2) , c G R, n > 2 1. V případě z-testu se na hladině a nulová hypotéza Hq zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium T0 = realizuje v oboru W, kde pro oboustrannou alternativu H\ : fi ^ c je W = (—oo, —«1-^/2} U(Mi-a/2) °°) pro levostrannou alternativu H\ : fi < c je W = (—00, —Ui-a) pro pravostrannou alternativu H\\ fi > c ]eW = (iti_a, 00) 2. V případě t-testu se na hladině a nulová hypotéza Hq zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium Tq = realizuje v oboru W, kde \/řr pro oboustrannou alt. Hľ : fi ^ c ]eW = (—00, — ri_a/2(^ — 1)} U(^i-a/2(n — 1); pro levostrannou alt. H\ : fi < c je W = (—00, —ti-a(n — 1)} pro pravostrannou alt. H\ : fi > c je W = (íi_a(n — 1), 00) 3. V případě testu o rozptylu se na hladině a nulová hypotéza Hq zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium T0 = í"-1)5 realizuje v oboru W, kde pro oboustrannou alt. H\ : a2 7^ c je = (0, X^/2(n ~~ 1)) U(Xi-a/2(n ~~ 1)' 00) pro levostrannou alt. H\ : a2 < c je H7 = (0, %2 (n — 1)} pro pravostrannou alt. H\ : a2 > c je W = (Xi-a(n ~ 1)> 00) Příklad 5.8 Podle údajů na obalu čokolády by její čistá hmotnost měla být 125 g. Výrobce dostal několik stížností od kupujících, ve kterých tvrdili, že hmotnost čokolád je nižší, než deklarovaných 125 g. Z tohoto důvodu oddělení kontroly náhodně vybralo 50 čokolád a zjistilo, 28 že jejich průměrná hmotnost je 122 g a směrodatná odchylka 8,6 g. Za předpokladu, že hmotnost čokolád se řídí normálním rozložením, můžeme na hladině významnosti a = 0, 01 považovat stížnosti kupujících za oprávněné? Řešení Xi,... ,X50 ~ N(fi,a2). Testujeme H0 : fi = 125 proti levostranné alternativní hypotéze Hi : fi < 125. Parametr a2 neznáme, tedy úloha vede na jednovýběrový t-test. Testovací kritérium je To = \/řT Jeho číselná realizace je í0 = 122^625 = —2 , 46 6 7. Kritický obor je w = (—oo (-oo; -2,4049} íi_a(n- 1)) = (-oo, -í0,99(49)} Protože íq G w, Hq zamítáme na hladině významnosti 0,01. Stížnosti kupujících lze považovat za oprávněné s rizikem omylu nejvýše 1%. Máme- li jeden náhodný výběr z dvourozměrného normálního rozložení, můžeme jej převést na výběr z jednorozměrného normálního rozložení a poté můžeme pro intervaly spolehlivosti i pro testování hypotéz použít dosud odvozené postupy. Poznámka 5.9 o jednom výběru z dvourozměrného normálního rozložení Nechť (£),...,(£) ~JV2(®, c;-)), n > 2. Pomocí lineární transformace převedeme náhodný vektor (y) na skalární náhodnou veličinu Z = (X - Y) ~ JV((/i! - /i2), K2 - 2a12 + a2)) 2o-i2 (To Zi,..., Zn je z normálního rozložení Označíme fi = fi± — fi2 & Nyní náš náhodný výběr (Xx — Yí),..., (Xn — Y„ N(fi,a2) a říkáme mu rozdílový náhodný výběr. Věta 5.10 (y") ~ N2 (^(^l), c^cti)) i n - ^ a rozptylová matice E není známa. % empirického intervalu spolehlivosti pro parametrickou funkci fi = jjl2 Nechť (£),... Meze 100(1 jsou: d = m ■7= a/2(n - 1) h = m+ ^ • íi_a/2(n - 1) Příklad 5.11 Dvěma různými laboratorními metodami se zjišťoval obsah chemické látky v roztoku (údaje jsou v procentech). Bylo vybráno 5 vzorků: číslo vzorku 1 2 3 4 5 1. metoda 2,3 1,9 2,1 2,4 2,6 2. metoda 2,4 2,0 2,0 2,3 2,5 Za předpoklac. U, ŽG delt cl jsou z dourozměrného normálního rozložení, sestrojte 90% empirický interval spolehlivosti pro rozdíl středních hodnot výsledků obou metod. Řešení Přejdeme k rozdílovému náhodnému výběru, kde: zx = -0,1 z2 = -0,1 z3 = 0,1 z4 = 0,1 25 = 0,1 29 m 0,02 0,012 0,109545 n 5 ŕi_a/2(n-l)=ŕ0,95(4) = 2,131* d h m m 4j -*l-a/2(ra 0,02 0,02 0,109545 0,109545 V5 - 2,131í • 2,131í -0,0844 0,1244 S pravděpodobností alespoň 0,95 platí —0, 0844 < fi < 0,1244 Dennice 5.12 Nechť (í),..., (í;) ~ N2 ((-), C;-)) , n > 2. Test Hq : fii — fi2 = 0 proti Hi : fii — fi2 ^ 0 se nazývá párový t-test. Přechodem k rozdílovému náhodnému výběru převedeme párový t-test na jednovýběrový t-test. Příklad 5.13 V následující tabulce jsou údaje o výnosnosti dosažené 12-ti náhodně vybranými firmami Dři investování do mezinárodního podnikání [X) a do domácího podnikaní (Y): číslo firmy 1 2 3 4 5 6 7 8 9 10 11 12 X 10 12 14 12 12 17 9 15 9 11 7 15 Y 11 14 15 11 13 16 10 13 11 17 9 19 Výnosnost je vyjádřena v procentech a představuje podíl na zisku vložených investic za rok. Za předpokladu, že data pocházejí z dvourozměrného normálního rozložení na hladině významnosti 0,1 testujte hypotézu, že neexistuje rozdíl mezi investováním do domácího a do mezinárodního podnikání. Test proveďte pomocí a) intervalu spolehlivosti, b) pomocí kritického oboru. Řešení Nejdříve přejdeme k rozdílovému náhodnému výběru Z i = X,i výběrových charakteristik pak jsou m = —1, 33, s2 = 4, 78 Testujeme hypotézu Hq : fi = 0 proti H\ : fi ^ 0, budeme potřebovat kvantil £0.95(11) = 1, 7959 ad a) d = m- ^ • íi_a/2(n - 1) = -1,3 h = m+ ^ • íi_a/2(n - 1) = -1, 3 Yh 1 .12. Realizace '4,78 1,7959 1,7959 -2,4677 -0,1989 •Protože 0 ^ (—2,4677 , —0,1989), H0 zamítáme na hladině významnosti 0,1. ad b) Testovací kritérium je T0 M-c s ■ \/ři Jeho číselná realizace ie ín = 1/^=° = —2,11085. \/l2 Kritický obor je W = (-00, -íi-a/2(^ - 1)) U (ti-a/2(n ~ 1) = (-00, -1,7959) U (1,7959, 00) •Protože í0 £ W, Hq zamítáme na hladině významnosti 0,1. 00 30 6 Parametrické úlohy o dvou nezávislých náhodných výběrech z normálního rozložení. Vycházíme ze situace, kdy máme dva nezávislé náhodné výběry; první je z rozložení N(fii, af) a druhý je z rozložení N(fi2, řr|). Našim úkolem bude konstruovat intervaly spo- 2 lehlivosti pro parametrickou funkci fii—fi2, či ^ a testovat o těchto parametrických funkcích hypotézy. Nyní si uvedeme větu o rozložení statistik odvozených z výběrových průměrů a výběrových rozptylů těchto dvou výběrů. Věta 6.1 Nechť Xu,..., Xlni je náhodný výběr z normálního rozložení N(fi1} af) a X21,..., X2ri2 je na něm nezávislý náhodný výběr z normálního rozložení N(fi2, a%), přičemž n\ >2,n2> 2. Označme Mi,M2 výběrové průměry, S2, S2 výběrové rozptyly a S,2 = ^f^"^ vážený průměr výběrových rozptylů. Potom platí: 1. Statistiky (M1 - M2) a S2 jsou stochasticky nezávislé. 2 JJ _ (Mi-M2)-(^i-^2) [Pivotová statistika U slouží k řešení úloh o fii — fi2, když a2, a2 známe.] V "1 ~^ »2 3. Jestliže o\ = a2 =: a2, pak Ty (ni+n2 —2)5^ 2/ i o\ ^ = v g2 ; ~ X [ni + n2-2) [Pivotová statistika K slouží k řešení úloh o společném neznámém rozptylu a2.] 4. Jestliže o\ = a2 =: a2, pak *v "l^"2 [Pivotová statistika T slouží k řešení úloh o fiľ — fi2, když a2, o\ neznáme, ale víme, že jsou shodné.] 5. F = ^tM ~ F(ni — 1, n2-l) [Pivotová statistika slouží k řešení úloh o 2,n2> 2. Uvažujme 100(1 — a) procentní empirický interval spolehlivosti. 1. Interval spolehlivosti pro ^ — fi2, když a2, o\ známe odvozujeme z pivotové statis- tiky u = (Mi-MjQ-On-^) _ N^ ^ potom meze jsQU pro; — H—2- "1 "2 oboustr. (d, /i) = I m1 - m2 - J ^ + ■ Wi_a/2 , m1 - m2 + J ^ + _| . Ml ,2 „2 levostr. (d, oo) = ( mi - m2 - \j ^ + ^ • , oo pravostr. (-oo, h) = ^-oo , mx - m2 + sj^ + • 2. Interval spolehlivosti pro společný neznámý rozptyl a2 odvozujeme z pivotové statistiky K = (ni+^2-2)s» ^ %2(ni + n2 — 2). Potom meze jsou pro: oboustr (d h) - I (»i+"2-2)^ (m+n2-2)^ oboustr. - ^X2_a/2(ni+n2_2) , x2/2(ni+n2_2) levostr. (d,oo) = > 00 pravostr. (-oo, h) = (-oo , ^T+^-l, 3. Interval spolehlivosti pro ^ — fi2, když a2, o\ neznáme, ale víme, že jsou shodné odvozujeme z pivotové statistiky T = (Ml~M2)~(^i~^2) ^ £^ _|_ n2 _ 2)# Potom meze jsou pro: oboustr. (d,h) = (m1 - m2 - s*^/^ + ^ • íi_a/2(ni + n2 - 2) , mi - m2 + s*\f^~+^-2- h-a/2{ni + n2 - 2)) levostr. (d, oo) = (mi - m2 - s*^J± + ± ■ íi_a(ni + n2 - 2) , oo) pravostr. (-oo,/i) = (-oo , m1-m2 + st^ + ^- íi-afai + n2 - 2)) 4. Interval spolehlivosti pro podíl rozptylů o\jo\ odvozujeme z pivotové statistiky s/s F = gi/gi ~ -^(^í — 1)^2 — !)• Potom meze jsou pro: oboustr. (d,fc) = T) , ^'^j^ levostr. (d, oo) = (Fl_a$Xn*-i) > 00 pravostr. (—oo,h) = I — oo Fa(ni-l,n2-l) Poznámka 6.3 Není-li v bodě 3. předchozí věty splněn požadavek shody rozptylů, lze sestrojit alespoň 32 přibližný 100(1 — a)% interval spolehlivosti pro pi — fi2. V tomto případě má statistika T přibližně rozložení t(v), kde pro počet stupňů volnosti v platí: (sVui + si n2) z/ = —---—-7T-,—tt tzv. Welchova aproximace tli-1 Íl2—1 Není-li z/ celé číslo, použijeme lineární interpolaci. Příklad 6.4 Ve dvou nádržích se zkoumal obsah chlóru (v g/l). Z první nádrže bylo odebráno 25 vzorků, z druhé nádrže 10 vzorků. Byly vypočteny realizace výběrových průměrů a rozptylů: mi = 34,48, m2 = 35,59, sf = 1,7482, s\ = 1,7121 Hodnoty zjištěné z odebraných vzorků považujeme za realizace dvou nezávislých náhodných výběrů z rozložení N(fii,a2) a iV(/i2,(j2). Sestrojte 95% empirický interval spolehlivosti pro rozdíl středních hodnot fii — /x2. Řešení Jedná se o interval spolehlivosti pro pí — fi2, když o"2, o\ neznáme, ale víme, že jsou shodné. Interval spolehlivosti odvozujeme z pivotové statistiky T = (Mi-MsM/^) ^ í(ni + n2 _ 2). Budeme potřebovat kvantil ri-a/2(rii + n2 — 2) = £0,975 (33) = 2, 035 y y D y y o o ť^i_~\~(tio_l^s^ 24 1 74S2 I 0 1 7121 a realizaci váženého průměru výběrových rozptylu s$ =--n +n _2— = —~—33^-= 1,7384.__ Potom meze jsou : d = mi - m2 - s*yj± + ± • íi-a/2(ni + n2 - 2) = = 34,48 - 35, 59 - VI, 7384 • J± + ^ • 2, 035 = -2,114 h = m1- m2 + s*^J^ + ti-a/2{ni + n2 - 2) = = 34,48 - 35, 59 + VI, 7384 • ^ + ^ • 2,035 = -0,106 Zjistili jsme, že p,\ — fi2 G (—2,114 g/l , —0,106 g/l) s pravděpodobností aspoň 0,95. Příklad 6.5 V příkladě 6.4 nyní předpokládejme, že dané dva náhodné výběry pocházejí z rozložení N(fii,af) a N([i2,a%). Sestrojte 95% empirický interval spolehlivosti pro podíl rozptylů. Řešení Jedná se o interval spolehlivosti pro podíl rozptylů o\/o\. Interval spolehlivosti odvozujeme z pivotové statistiky F = Š$í~F(n1-l,n2-l). Budeme potřebovat kvantil Pi_a/2(íii — l,n2 — 1) = F0,972(24,9) = 3,6142 a Fapin! - l,n2 - 1) = P0,o25(24,9) = Fo97l{9j24) = 2^ 33 Potom meze jsou : d =---- = ... = 0, 28 „2 1.2 h = _Sí'S2_ = = 9 76 " Fa/2(m-l,n2-l) ••• Z>'° Tedy P (af jo\ E (0,28 ; 2,76)) > 0,95 Definice 6.6 Nechť Xu,..., Xini je náhodný výběr z normálního rozložení iV(//i, af) a X2i,..., X2ri2 Je na něm nezávislý náhodný výběr z normálního rozložení N(fi2,a2). Nechť n1>2, n2 > 2 a c je konstanta. (i.) Předpokládejme, že c) se nazývá dvouvýběrový z-test. (ii.) Předpokládejme, že o\^o\ neznáme, ale vime, že o\ = o\. Test Hq : fii — fi2 = c proti Hi : fii — fi2 ^ c (resp. Hi : fii — fi2 < c resp. Hi : fii — fi2 > c) se nazývá dvouvýběrový t-test. 2 2 2 2 (iii.) Test Hq : = 1 proti H\ : ^ ^ 1 (resp. H\ : ^ < 1 resp. H\ : ^ > 1) se nazývá F-test. Poznámka 6.7 Volba vhodného testovacího kritéria pro zvolený test je stejná, jako volba vhodné pivotové náhodné veličiny v 6.2, tedy pro dvouvýběrový z-test volím jako testovací kritérium T0 statistiku U, pro dvouvýběrový t-test volím statistiku T a pro F-test volím statistiku F. Věta 6.8 Nechť Xu,..., Xlni je náhodný výběr z normálního rozložení N(fi1} af) a X21,..., X2ri2 je na něm nezávislý náhodný výběr z normálního rozložení ív(/í2, of)- Nechť n1>2, n2 > 2 a c je konstanta. 1. V případě dvouvýběrového z-testu se na hladině a nulová hypotéza Hq zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium T0 = MV0M\C realizuje v oboru W, kde pro oboustr. H\ pro levostr. H\ pro pravostr. H\ fl1- fi2^c je W = (-00, -Wi_a/2) U(Mi-a/2' oo) /i2 c je W = (tíi-a, oo) 2. V případě dvouvýběrového t-testu se na hladině a nulová hypotéza Hq zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium 34 T0 = Myf2~c realizuje v oboru W, kde pro ob. Hx : fix - fi2 c Je W = (-°°, -*i-a/2(wi + n2 - 2)} U(íi_a/2(ni + n2 - 2), oo) pro lev. Hi : fii — fi2 < c je W = (—oo, — ri-a(^i + n2 — 2)} pro pra. H\ : /ii — /i2 > c je = (ri-a(^i + ^2 — 2), oo) 3. V případě F-testu se na hladině a nulová hypotéza Hq zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium s2/s2 T0 = 1\ 2 realizuje v oboru W, kde pro ob. Hi pro lev. Hi pro prav. H\ aj/al ±1 je W = (0, Ta/2(m - 1, n2 - 1)} U(^i-a/2(ni - 1, n2 - 1), oo) aj/al < 1 je W = (0, Fa(m - 1, n2 - 1)} °í/°2 > 1 je W = (Ti_a(ni - l,n2 - 1), oo) Příklad 6.9 V restauraci "U bílého koníčka" měřili ve 20 případech čas obsluhy zákazníka. Výsledky jsou v minutách: 6, 8, 11, 4, 7, 6, 10, 6, 9, 8, 5, 12, 13, 10, 9, 8, 7, 11, 10, 5. V restauraci "Zlatý lev"bylo dané pozorování uskutečněno v 15 případech s těmito výsledky: 9, 11, 10, 7, 6, 4, 8, 13, 5, 15, 8, 5, 6, 8 ,7. Za předpokladu, že uvedené hodnoty pocházejí ze dvou normálních rozložení, na hladině významnosti 0,05 testujte hypotézu, že střední hodnoty doby obsluhy jsou v obou restauracích stejné. Řešení Řešení: Na hladině významnosti 0,05 testujeme nulovou hypotézu H0 : pí — /i2 = 0 proti oboustranné alternativě H0 : pí — /i2 7^ 0. Jedná se o dvouvýběrový t-test. Předpokladem tohoto testuje však shoda rozptylů, kterou musíme nejdříve ověřit. K tomu užijeme F-test. mi = 8,25; m2 = 8,13; s\ = 6, 307; s| = 9,41; _ (ni-l)S2 + (n2-l)Sf _ 19.6,307+14.9,41 _ 7 fi9o b* ~ m+n2-2 ~ 19+14 ~ 0ZÓ_ Na hladině významnosti 0,05 tedy nejdříve testujeme hypotézu •H0:$ = l proti Hx : $ + 1. Testové kritérium je T0 = ? jeho realizace je t0 = |^ = 0,6702. Kritický obor je W = (0, Fa/2(ni - 1, n2 - 1)} U<*i-a/2(ni - 1,n2 - 1), 00) = (0, To,o25(19,14))U(^0,975(19,14), 00) = <°> Tb^ki9))U(2,8607, 00) = (0, 0, 3778} U(2, 8607, 00) to (jL W, tedy H0 o zhodě rozptylů nezamítám na hladině významnosti 0,05 a mohu pokračovat t-testem. •H0 : /íx — /í2 = 0 proti H\ : /ix — /i2 7^ 0 Testové kritérium je T0 = Ml7M2~c , jeho realizace je t0 = 8'25~8;13 , = 0,124 Kritický obor je W = (-00, -íi_a/2(ni + n2 - 2)} U(íi_a/2(ni + n2 - 2), 00) = 35 = (-oo, -ío,975(33)}U(čo,972(33), oo) = (-oo, -2, 035} U(2, 035 , oo) Protože íq (jL w, Hq nezamítáme na hladině významnosti 0,05. [Tedy není důvod pochybovat o tom, že v obou restauracích obsluhují stejně rychle.] 36 7 Parametrické úlohy o jednom náhodném výběru a dvou nezávislých náhodných výběrech z alternativního rozložení Věta 7.1 Nechť Xi,... ,Xn je náhodný výběr z alternativního rozložení A(ů) a nechť je splněna n podmínka nů(l — ů) > 9. Nechť M = - X,i je výběrový průměr. Pak statistika n i=i U = /mii^m) ~ ^(0) !)• čteme: statistika ř7 má asymptoticky normální standardizované v n rozložení. Potom meze 100(1 — a)% asymptotického empirického intervalu spolehlivosti pro parametr ů alternativního rozložení jsou: j / m(l—m) d = m- Kn ;Mi_a/2 7 i I mil—m) h = m+ yj \ Poznámka 7.2 Je důležité uvědomit si interpretaci průměru M. Náhodná veličina X,i nabývá pouze dvě n hodnoty: jedničky a nuly, kde jednička znamená, že nastal úspěch. Potom Xi znamená i=i n počet úspěchů v n nezávislých pokusech a - Xi je tedy relativní četnost úspěchů. Re- n i=i lativní četnost úspěchů je statistika, která odhaduje parametr pravděpodobnosti úspěchu ů. Příklad 7.3 Oddělení marketingu podniku chce odhadnout, jaký podíl na trhu s výrobky, které podnik vyrábí, má konkurence. Náhodným výběrem 100 spotřebitelů jsme zjistili, že 34 z nich používá výrobky konkurence, zbytek výrobky podniku. Určete 95%-ní interval spolehlivosti pro podíl konkurenčních výrobků na trhu. Řešení Nechť Xi je náhodná veličina, která nabývá hodnotu 1, když i—tá osoba používá výrobek konkurence, a hodnotu 0 jinak.; i = 1,2,..., 100. Potom Xi ~ A(ů) a X\,..., Xn je náhodný výběr z alternativního rozložení. Našim úkolem je určit interval spolehlivosti pro parametr ů tohoto rozložení. n = 100 m = ^ Wi_a/2 = «0,975 = X> 96 Podmínka aproximace normálním rozložením je nů(l — ů) > 9. Jelikož parametr ů není znám, nahradíme ho odhadem m. 100.0, 34.0, 66 = 22,44 > 9. Tedy pro odhad m je podmínka splněna. Potom: d = 0, 34 - ^Z0'3^'66 • 1, 96 = 0, 2472 h = 0, 34 + ^Z0'3^'66 • 1, 96 = 0,4328 Tedy 0, 2472 < ů < 0,4328 s pravděpodobností přibližně 0,95. 37 [$ je pravděpodobnost, že náhodně vybraná osoba bude užívat výrobek konkurence, tato pravděpodobnost je z intervalu (0,2472; 0,4328). Tomuto intervalu můžeme věřit na přibližných 95%.] Věta 7.4 Nechť Xi,... ,Xn je náhodný výběr z A(ů), c G (0,1), M je výběrový průměr a nechť je splněna podmínka nů(l -ů)>9. Na asymptotické hladině významnosti a se nulová hypotéza Hq : ů = c zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium T0 = Ycir-c) realizuJe v oboru W, kde v c nc pro oboustrannou alternativu H\ pro levostrannou alternativu H\ pro pravostrannou alternativu iJi d^c je W = (-00, -Ui_a/2) U(Mi-a/2' 00) ů < c je W = (—OO, — líi_a) ů > c je W = {ui-a, oo) [Platí-li ÄQ, pak T0 « ÍV(0,1).] Poznámka 7.5 Testovací kritérium je odvozeno z Moivre-Laplaceovy věty. Při platné Hq je To = £7 = -r== «N(0,1) Poznámka 7.6 Statistiky, z nichž jsme odvozovali intervalové odhady a testovací kritérium v předchozí větě, nejsou stejné. Testování hypotézy pomocí buď testovacího kritéria, nebo intervalu spolehlivosti, nemusí nutně vést ke stejnému závěru. Příklad 7.7 Deklarovaná pravděpodobnost vyrobení zmetku při výrobě určité součástky je ů = 0,01. Bylo náhodně vybráno 1000 výrobků a zjistilo se, že mezi nimi je 16 zmetků. Na asymptotické hladině významnosti 0,05 testujte hypotézu Hq : ů = 0, 01 proti H\ : $ ^ 0, 01. Řešení Podmínka aproximace normálním rozložením nů(l — ů) > 9 je při neznámém ů nahrazena podmínkami nm(l — m) > 9 a nc(l — c) > 9 1000 • ^ ' Tom = 15>744 > 9 a 1000 • 0,01 • 0,99 = 9,9 > 9 , tedy aproximace normálním rozložením je možná. -JJ>__o 01 Realizace testového kriteria je to = 1y°0°010'99 = 1, 90 7 V 'íooó Kritický obor je W = (—oo, — Ui_a/2) U(Mi-a/2) eso) = (—oo; —1, 96) |J(1, 96; oo). Protože 1,907 ^ w, Hq nezamítáme na asymptotické hladině významnosti 0,05. [Tedy není na základě naměřených hodnot důvod pochybovat o tom, že pravděpodobnost vyrobení zmetku je 0,01.] Věta 7.8 Nechť Xn,..., X\ni je náhodný výběr z alternativního rozložení A(ůi) a X2±,..., X2ri2 je na něm nezávislý náhodný výběr z A(Ů2). Nechť je splněna podmínka niůi(\—ůi) > 9, i = 1, 2. 38 Nechť Mi, M2 jsou výběrové průměry. Pak statistika u= (M1-M2)-(ů1-ů2) _ N,Q ^ /Mi(I-Mi) , M2(l-M2)" ~ V "1 "2 Potom meze 100(1 — «)%—ního asymptotického empirického intervalu spolehlivosti pro parametrickou funkci ůi — ů2 jsou: rl — m m /toi(I-toi) . to2(1-to2) d-mi- m2 - ý---+----Mi_a/2 i, _ „_ „_ i /mi(l-mi) . m2(l-m2) h-m1- m2 + ^---+----ui_a/2 Příklad 7.9 Management supermarketu vyhlásil týden slev a sledoval, zda toto vyhlášení má vliv na podíl větších nákupů (nad 500 Kč). Na základě náhodného výběru 200 zákazníků v týdnu bez slev bylo zjištěno 97 velkých nákupů, zatímco v týdnu se slevou z 300 náhodně vybraných zákazníků učinilo velký nákup 162 zákazníků. Sestrojte 95% asymptotický interval spolehlivosti pro rozdíl pravděpodobností uskutečnění většího nákupu v týdnu bez slevy a v týdnu se slevou. Řešení Zavedeme náhodnou veličinu Xi^, která bude nabývat hodnoty 1, když v týdnu bez slevy i—tý náhodně vybraný zákazník uskuteční větší nákup a hodnoty 0 jinak, i = 1,..., 200. Náhodné veličiny Xi^i,... ,Xi^oo tvoří náhodný výběr z rozložení A(ůi). Dále zavedeme náhodnou veličinu X2i, která bude nabývat hodnoty 1, když v týdnu se slevou i—tý náhodně vybraný zákazník uskuteční větší nákup a hodnoty 0 jinak, i = 1,..., 300. Náhodné veličiny X2jl,..., X2j3oo tvoří náhodný výběr z rozložení A($2) a Je na předchozím výběru nezávislý. rii = 200, n2 = 300, mi = J^, m2 = |§§- V podmínkách aproximace normálním rozložením ^^(1 — ůA > 9, i = 1,2 neznáme parametry ůi, $2, ale můžeme je nahradit odhady nii a m2. Tedy podmínky jsou splněny: 200 • i) • Wo = 49>955 > 9? 300 • 1 • Wo = 74>52 > 9- Meze 100(1 — a)% asymptotického empirického intervalu spolehlivosti pro parametrickou funkci ůi — ů2 tedy jsou: d = nii — m2 - y /mi(l-mi) \f "i 1 m2(l-m2) , r ' 1 n2 97 162 , / 200 l 200 ) 162 /-, 162 \ 1 300 l 300) 200 300 ' V 200 ' 300 h = nii — m2 + 1 /mi(l-mi) V «i ■ ra2(l—ra2) ri2 97 162 , . / 200 l 200 J 162 /-, 162 \ i 300 l 3001 200 300 ^ ' / 200 ' 300 Ul-a/2 = ,96 = -0,1443 ,96 = 0,0343 Zjistili jsme tedy, že s pravděpodobností přibližně 0,95 je parametrická funkce ůi-ů2e (-0,1443 , 0,0343). Věta 7.10 Nechť ..., Xini je náhodný výběr z alternativního rozložení A(ůi) a X2i,..., X2n2 je na něm nezávislý náhodný výběr z A($2), Mi, M2 jsou výběrové průměry. Nechť je splněna podmínka ^^(1 — ůA > 9; i = 1, 2. 39 Na asymptotické hladině významnosti a se nulová hypotéza H0 : ůi — ů2 prospěch alternativní hypotézy H\, když se testovací kritérium Tn = (m1-m2)-c ^ realizuje v oboru W, kde /Ml(l-Ml) , M2(l-M2) V nl n2 pro oboustrannou alternativu H\ : ů\ pro levostrannou alternativu H\ : ů\ pro pravostrannou alternativu H\ : ůi c zamítá ve ů2^c je W = (-00, -Wi_a/2} U(Ml-a/2) °°) ů2 < c ]eW = (—00, — ui-a) ů2 > c ]eW {Ul- 00 [Platí-li H0, pak T0 « ÍV(0,1).] Poznámka 7.11 Je-li speciálně H0 : ůi — ů2 = 0, tedy c = 0, pak vhodnějším testovacím kritériem je M1-M2 /M.(l-M.)(^ + ^) Platí-li iJ0, pak T0 « ÍV(0,1). kde M* n1M1+n2M2 ni+112 Příklad 7.12 Pro údaje z příkladu 7.9 testujte na asymptotické hladině významnosti 0,05 hypotézu, že týden se slevami nezvýší pravděpodobnost uskutečnění většího nákupu. Řešení Testujeme hypotézu Hq : ů\ — ů2 = 0 proti levostranné alternativě H\ : ů\ — ů2 < 0 na asymptotické hladině významnosti 0,05. m = 200, n2 = 300, mi = fô, m2 = ±§, m, = ^2 = ^ ^ Podmínky aproximace normálním rozložením byly ověřeny v příkladu 7.9. ad a) Testování pomocí intervalu spolehlivosti: Pro levostrannou alternativu použijeme pravostranný interval spolehlivosti: h — m m J- /rai(l-mi) . m2(l-m2) h - mi - m2 + y ni + na / 97 /-, 97 \ 162 /-, I62T . i 200 200 J 1 300 l 300 j 1 V 200 300 ' _ _97_ _ 162 14/ 200 2007 1 300 V 3007 1 aAX. _ n no 200 300 ' V 200 300 ' -L)^0 ' Protože číslo c = 0 je obsaženo v intervalu(—oo ; 0, 02), H0 nezamítáme na asymptotické hladině významnosti 0,05, tedy slevy nemají vliv na podíl větších nákupů. ad b) Testování pomocí kritického oboru: Testové kritérium je: T0 = Ml'Mž kde M„ - niMl+n2Mž 200 97 I 300 162 m _ zuu 200+ouu 300 _n ~~ 200+300 ~~ U' 010 97 162 t0 = / 200 3n? = -1,2058 v/0,518(l-0,518)(2i5+3Í5) Kritický obor je: W = (-00 , -ui_a) = (-00 , -u0:95) = (-oo , -1,645). ni+n2 40 Protože to W, H0 nezamítáme na asymptotické hladině významnosti 0,05. 41 8 Analýza rozptylu jednoduchého třídění Problematiku uvedeme dvěma příklady. Zajímá nás, jestli je produktivita manuálního pracovníka (vyjádřená počtem vyrobených kusů) ovlivněna denní dobou (ráno, dopoledne, odpoledne, večer, v noci). Nebo jestli je doba kojení (vyjádřená počtem týdnů) ovlivněna vzděláním matky (vzdělání základní, středoškolské, vysokoškolské). Obecně analýza rozptylu řeší problém, jestli má náhodná veličina nominálního typu (faktor A) vliv na náhodnou veličinu X intervalového, či poměrového typu. V prvním příkladě se náhodná veličina A - "denní doba"- realizuje pěti hodnotami, říkáme, že faktor A má 5 úrovní. Obdobně v druhém příkladě má faktor "vzdělání matky"3 úrovně. Abychom zjistili, jestli má faktor A vliv na náhodnou veličinu X, pořídíme pro každou úroveň i faktoru A příslušných rti nezávislých pozorování náhodné veličiny X. Tedy nabývali faktor A právě r úrovní, pak ke každé úrovni přiřadíme jeden náhodný výběr a dále požadujeme, aby těchto r výběrů bylo navzájem stochasticky nezávislých: faktor A Náhodný výběr úroveň 1 Xu,...,Xlni ~ iV(/i1)(72) úroveň 2 X21, ■ ■ .,X2n2 ~ N(fi2,a2) úroveň r Xri,..., Xrrir ~ N(fir, a2) Pokud faktor A nemá vliv na náhodnou veličinu X, pak by střední hodnoty /x2, • • •, fJ.r měli být stejné. Tedy testujeme na hladině a hypotézu: Hq : fii = fi2 = ... = fir proti alternativní hypotéze Hi : Aspoň jedna dvojice středních hodnot se liší. Všimněte si, že nabývá-li faktor A právě dvou hodnot, jedná se vlastně o dvouvýběrový t—test na hladině a. (Je věk ovlivněn pohlavím?) S tím souvisí otázka, jestli by hypotézu Hq nešlo testovat pomocí separátních dvou-výběrových í-testů, každý na hladině a? Pokud by alespoň jedna dvojice zamítla rovnost středních hodnot, pak bychom nulovou hypotézu o rovnosti všech středních hodnot zamítli a současně bychom věděli, které dvojice se liší. Tento postup ovšem nesplňuje podmínku, že pravděpodobnost chyby prvního druhu má být nejvýše a. (Chyba by byla podstatně větší.) Metoda ANOVA (Analysis of variance), kterou si uvedeme, danou podmínku splňuje. Tato metoda slouží k testování Hq o shodě středních hodnot. Neslouží tedy k porovnávání rozptylů, jak by se mohlo zdát z názvu. Rozklad (analýza) rozptylů je pouze prostředkem k rozhodnutí o Hq o shodě středních hodnot. Zamítneme-li na hladině a nulovou hypotézu, pak nás dále zajímá, které dvojice středních hodnot se od sebe liší. K tomu slouží metody mnohonásobného porovnávání např. Scheffého, nebo Tukeyova metoda. Než přejdeme k samotnému testování, uvedeme si označení obvyklé pro analýzu rozptylu. Označení 8.1 42 n = rii celkový rozsah všech r výběrů í=i rii Mi. = — Y] Xa výběrový průměr v ž—tém výběru Tli .—i. r rii M.. = - E E Xij celkový průměr všech r výběrů n í=ij=i r rii St = E Yjfóij — M..)2 celkový součet čtverců í=ij=i (statistika St má fT = n—l stupňů volnosti) r Sa = E n« ' (Mi. — M.)2 meziskupinový součet čtverců (statistika Sa má f a = r — 1 stupňů volnosti) 8=1 Se = E ĚC^ý' — ^í-)2 vnitroskupinový, neboli reziduálni součet čtverců i=ij=i (statistika Se má fE = n~r stupňů volnosti) i.O 0.8 0.6 M- 0.2 0,0 -0,2 -0,4 nm IV v _ Poznámka 8.2 •Statistika St charakterizuje celkovou variabilitu všech pozorování X^ kolem společného průměru M.., tedy až na koeficient ^-j- představuje rozptyl náhodné veličiny X. •Statistika Sa charakterizuje variabilitu mezi jednotlivými r výběry, tedy charakterizuje vliv faktoru A. •Statistika Se charakterizuje variabilitu uvnitř jednotlivých výběrů způsobenou náhodnými vlivy, tedy nevysvětlenou faktorem A. Ke každé sumě čtverců určujeme tzv. stupně volnosti, dané počtem veličin, které jsou 43 v rámci sumy nezávislé. Uvážíme-li statistiku St, pak n pozorováním odpovídá n sčítanců sumy. Ovšem tyto sčítance nejsou zcela libovolné - musí vyhovovat vedlejší podmínce ^2 ~Ž2(Xíj — M.) = 0. Proto St niá f t = n — 1 stupňů volnosti. Obdobně statistika S a niá í=ij=i r r pozorování, které musí vyhovovat vedlejší podmínce ^nj(Mj. — M.) = 0. Proto Sa niá f a = r — 1 stupňů volnosti. Pro počet stupňů volnosti statistiky Se platí vztah j e = f t — f a- (Plyne ze vztahu St = Sa + Se, který bude uveden v následující větě.) Tedy Je = n — t■ Věta 8.3 Vzhledem k označení 9.1 platí: 1. ) ST = Sa + Se- 2. ) S2 = kde S2 je vážený průměr výběrových rozptylů. 3. ) ff -X\n-r). [E(^) = a2] 4. ) Veličiny a jsou stochasticky nezávislé. Platí-li Hq : fii = fi2 = . . . = fJ>r pak 5. ) ~ x\r ~ I)- \E{fz\) = o2 platí-li Hq] 8.4 Testování hypotézy o shodě středních hodnot Testujeme na hladině a hypotézu: Hq : fii = fi2 = ■ ■ ■ = fJ>r proti alternativní hypotéze H\ : Aspoň jedna dvojice středních hodnot se liší. Pro náhodnou veličinu X^, i = 1,..., r; j = 1,..., n,i platí: X^ ~ iV(/ij, a2). Proto Xíj můžeme zapsat také jako: kde Bij jsou stochasticky nezávislé náhodné veličiny s rozložením ÍV(0, a2) fi je část střední hodnoty X společná všem r vyšetřovaným náhodným výběrům cti je efekt faktoru A na úrovni i. (Parametry /lad; jsou neznámé a požadujeme platnost reparametrizační rovnice r Y^n^í = 0) i=l Nulová hypotéza platí, když na faktoru A nezáleží. Můžeme ji tedy přepsat do tvaru Hq : Cí\ = «2 = • • • = Cír = 0 Při platné Hq potom pro X^ platí: X-ij /x ~t~ Bij 44 fi3 = M + ofe -I* fi\ = /i + aí\ 1 2 3 Ho neplatí 2 H0 platí Statistika Mj. je bodovým odhadem střední hodnoty /ij Statistika M., je bodovým odhadem střední hodnoty fi Statistika M«. — M., je bodovým odhadem efektu = /x Samotné rozhodování o nulové hypotéze je založeno na porovnání průměrných čtverců Sa/f a a Se/Í'e, jejichž střední hodnoty jsou při platné nulové hypotéze stejné a testovací statistika Fa = s^/fE 86 Fisher-Snedocerovým rozložením F(fA,fE)- Proti testované nulové hypotéze svědčí zejména případ, kdy se statistiky Mg. hodně liší od M... Proto na platnost, či neplatnost nulové hypotézy ukazuje statistika S a (variabilita mezi výběry); statistika Se slouží k odhadu rozptylu a2 a současně dává měřítko pro hodnocení velikosti variability mezi výběry. Proto nulovou hypotézu o shodě středních hodnot (tedy o nevýznamnosti faktoru A) zamítáme na hladině a, když: Sa/Ía > Fi_a(r -l,n Se/f e Je zvykem zapisovat výsledky výpočtů do tabulky analýzy rozptylu jednoduchého třídění. Zdroj variability součet čtverců stupně volnosti průměrný součet čtverců testová statistika faktor SA f a = r - 1 Sa/Ía p Sa/Ía rA~ SE/f e rezidua Se fE = n-r Se/f e celkový St fT = n-l Jestliže jsme zamítli nulovou hypotézu na hladině a, znamená to, že se aspoň jedna dvojice středních hodnot liší. Takovéto dvojice můžeme identifikovat pomocí metod mnohonásobného porovnávání. 8.5 Tukeyova metoda Tato metoda je vhodná pro vyvážené třídění, kdy rozsahy všech výběrů jsou stejné, tedy když p := ni = ri2 = ■ ■ ■ = nr. Testujeme na hladině a hypotézu: Hq : /ifc = f^i proti alternativní hypotéze Ex : /xfc Ý Vi Hypotézu o rovnosti fik = fJ>i zamítáme na hladině a, když 45 \Mk.-Mh\ >qi-a(r,n-r)^, kde hodnoty gi_a(r, n — r) jsou tabelované a nazýváme je kvantíly studentizovaného rozpětí. Tímto postupem vyznačíme všechny dvojice k,l, pro něž se střední hodnoty fik, fii na hladině a liší. 8.6 Scheffého metoda Tuto metodu užijeme, jsou-li rozsahy r výběrů různé. Testujeme na hladině a hypotézu: Ho : //fc = fJ-i proti alternativní hypotéze Hi: /xfc Hypotézu o rovnosti = //; zamítáme na hladině a, když \Mk. -Ml.\>S*xl(r-l)(— + -) Fx_a(r -l,n-r) Může nastat situace, že hypotézu H0 : fiľ = /x2 = • • • = yUr jsme zamítli a přesto metody mnohonásobného porovnávání nenašly významný rozdíl u žádné dvojice středních hodnot. Pak je významně rozdílná některá složitější kombinace středních hodnot, tzv. kontrast. Připomeňme si nyní předpoklady analýzy rozptylu a dále si uvedeme testy těchto předpokladů. 8.7 Předpoklady analýzy rozptylu Vzhledem k zavedenému značení požadujeme, aby náhodné výběry splňovali následující vlastnosti: 1. ) Normalita: Xa,..., Xirii ~ N(fii, a2), i = 1,..., r. 2. ) Nezávislost: Jednotlivé náhodné výběry jsou navzájem nezávislé. 3. ) Homoskedasticita: Rozptyly jednotlivých výběrů jsou shodné, tedy a2 := a\ = . . . = a2 Normalita je buď známa ze zkušeností, nebo užijeme již zmíněné testy normality. (Celkově analýza rozptylu není příliš citlivá na porušení normality.) Nezávislost výběrů musí vyplývat z organizace pokusu. Zbývá ověřit homoskedasticitu, tedy testovat hypotézu, že rozptyly jsou pro všech r porovnávaných výběrů stejné. K tomu slouží následující testy: 8.8 Levenův test Levenův test je vlastně analýzou rozptylu jednoduchého třídění formálně provedenou na veličinách \X^ — Mj.|. Na hladině a testujeme hypotézu: H0 : o\ = o\ = ... = a2 := a2 proti alternativní hypotéze Hi : Aspoň jedna dvojice rozptylů se liší. 46 Označme Z^ = \Xíj — Mj.|. Potom v souladu se značením ANOVA je n i Mzí = — ^2 Zíj průměr odchylek v i—tém výběru ni j=i r rii Mz = - ^2 ^2 Zíj celkový průměr odchylek n í=ij=i r Sza = ^2 ni ' ÍM-zí — Mz)2 meziskupinový součet čtverců r rii Sze = ^2 Y2(Zij — Mzí)2 vnitroskupinový součet čtverců í=ij=i Platí-li hypotéza o shodě rozptylů, pak statistika Sza/(t - 1) Fza = -z—77-\ ~F(r-l,n- r) SzE/{n - r) Nulovou hypotézu o shodě rozptylů zamítáme na hladině a, když Fza > Fi-a(r — l,n — r). 8.9 Bartlettův test Bartlettův test shody rozptylů lze použít tehdy, když rozsahy všech výběrů jsou alespoň 7. Jeho nevýhodou je značná citlivost vůči porušení předpokladů normality pro jednotlivé výběry. Platí-li hypotéza o shodě rozptylů, pak statistika B = ^((n-r)\nS2-J2( \ i=i n,, -l)\xiS2\ « x2(r - 1), kde C 1 3(r-l) rii-1 n-r^j ^=E^t(^-m,)2 3 = 1 S* = 77^7 Y^{n'i ~ = 77^7 i=l Nulovou hypotézu o shodě rozptylů zamítáme na hladině a, když B > x\-Ár ~ !)• 8.10 Shrnutí závěrem Postup při analýze rozptylu jednoduchého třídění: 1. ) Ověříme předpoklady ANOVY; pro ověření homoskedasticity užijeme Levenův test, nebo Bartlettův test. 2. ) Pomocí tabulky analýzy rozptylu rozhodneme o nulové hypotéze o shodě středních hodnot. 3. ) Byla-li hypotéza o shodě středních hodnot zamítnuta, užijeme metody mnohoná- sobného porovnávání, abychom identifikovali ty dvojice, které způsobili zamítnutí hypotézy o shodě středních hodnot. K tomu můžeme užít Tukeyovu metodu, nebo Scheffeho metodu. 47 Příklad 8.11 U čtyř odrůd brambor (označených římskými číslicemi) se zjišťovala celková hmotnost brambor vyrostlých vždy z jednoho trsu. Výsledky v kg jsou v následující tabulce: odrůda hmotnost I. 0,9 0,8 0,6 0,9 II. 1,3 1,0 1,3 III. 1,3 1,5 1,6 1,1 1,5 IV. 1,1 1,2 1,0 Na hladině významnosti 5% testujte hypotézu, že střední hodnota hmotnosi trsu nezávisí na odrůdě. Zamítnete-li nulovou hypotézu, zjistěte, které dvojice odrůd se liší na hladině významnosti 0,05. Řešení Data považujeme za realizace čtyř nezávislých náhodných výběrů ze čtyř normálních rozložení se stejným rozptylem. Tedy Xn,..., XiHi ~ N(fii,a2); i = 1,2,3,4. Testujeme hypotézu, že všechny čtyři střední hodnoty jsou stejné, tedy: Hq : fiľ = fi2 = = proti alternativní hypotéze Hi : Aspoň jedna dvojice středních hodnot se liší. Určíme realizace potřebných statistik: ni\. = 0, 8; m2. = 1,2; m3. = 1,4; m4. = 1,1; m- = 1,14 Se = 0, 3; Sa = 0, 816; St = 1,116 a dále r = 4; n = 15 Zdroj variability souč. čtverců stupně volnosti prům. souč. čtverců testová statistika faktor SA = 0,816 f a = t — 1 = 3 Sa/S = 0,272 Fa — sa/ía — 9 97 ĽA Se/íe rezidua Se = 0,3 f e = n - r = U Se/11 = 0,02727 celkový ST = 1,116 fT = n - 1 = 14 Kritický oborjeW/ = (^95(3,11); 00) = (3, 59; 00). Realizace testové statistiky 9,97 G W, proto Hq o shodě středních hodnot zamítáme na hladině a. Nyní pomocí Scheffého metody zjistíme, které dvojice odrůd se liší na hladině a = 0, 05. Srovnávané odrůdy Rozdíly \Mk. - Mi.\ Pravá strana nerovnosti I, II. 0,4 0,41 L, III. 0,67* 0,36 I, IV. 0,3 0,41 II., III. 0,2 0,40 II., IV. 0,1 0,44 III., IV. 0,3 0,40 Na hladině významnosti 0,05 se liší odrůdy I. a III. (Hvězdičkou v tabulce je vyznačena dvojice, kde rozdíl |Mfc. — Mi\ je významný. 48 9 Jednoduchá lineární regrese V této kapitole se budeme věnovat studiu závislostí mezi proměnnými. Příkladem takových závislostí může být vztah mezi nabídkou a poptávkou; vztah mezi příjmy a výdaji; cenou, jako funkcí více proměnných; produktivitou, jako funkcí více proměnných a pod. Ve fyzice a v matematice často pracujeme s deterministickou závislostí popsanou funkcí y = f (x), kde ke každé hodnotě definičního oboru nezávislé proměnné x existuje právě jedna hodnota y závisle proměnná. V ekonomické praxi je takováto závislost velmi vzácná. Běžně se setkáváme se závislostí, která je stochastická, tedy kde ke každé hodnotě nezávislé proměnné x existuje celé rozložení pravděpodobnosti hodnot závislé proměnné Y. To znamená, že hodnotu Y nelze předvídat přesně - je ovlivněna náhodnými vlivy. Regresní analýza se zabývá těmito stochastickými závislostmi. Jejím úkolem je a) jednak určení typu funkce, která danou závislost popisuje, b) a dále pro zvolenou funkci odhadnout její parametry. ad a) Při určení typu funkce vycházíme jednak z logického rozboru situace (např. ze známé ekonomické teorie), nebo se hledanou závislost snažíme odhadnout z dvourozměrného tečkového diagramu. (Toto lze pouze tehdy, když vysvětlovaná (závislá) proměnná je funkcí jen jedné vysvětlující (nezávislé) proměnné.) Uveďme si často užívané typy regresních funkcí: • regresní přímka: E(Y\x) = /3q + fi\x • regresní parabola: E(Y\x) = /30 + (3±x + (32x2 • regresní polynom p-tého stupně: E(Y\x) = /3q + fi\x + ... + +/3pxp • regresní hyperbola: E(Y\x) = /30 + • regresní logaritmická funkce: E(Y\x) = /3q + fli \nx Všechny uvedené typy jsou příklady jednoduché lineární regresní funkce. (O lineární regresní funkci mluvíme tehdy, když tato funkce je lineární vzhledem k parametrům /30, f31} /32,.... Jednoduchá je tehdy, když závislá proměnná je vysvětlovaná jednou nezávislou proměnnou. Pokud vysvětlujících proměnných je více, mu víme o vícenásobné regresi.) ad b) Neznámé parametry /30, f31} (32,... odhadujeme na základě znalosti n dvojic hodnot (xi, yi),..., (xn, yn). U lineárních modelů se k nalezení odhadů parametrů nejčastěji užívá metoda nejmenších čtverců. 49 9.1 Specifikace klasického modelu jednoduché lineární regrese Model sestává z regresní rovnice a základních předpokladů. Uveďme si nejdříve rovnici: •Y = Po + fiifi(x) + ... + Ppfp(x) + e, kde: Y je závisle proměnná náhodná veličina, je pozorovatelná x je nezávisle proměnná nenáhodná veličina, je pozorovatelná e je náhodná odchylka, která zahrnuje působení náhodných vlivů, je nepozorovatelná Po + Pifi(%) + ... + Ppfp{x) je teoretická regresní funkce s neznámými parametry Po, Pi,... ,PP Pro n pozorování regresní rovnici přepíšeme: Ví = Po + Pifi(xi) + • • • + Ppfp{xi) + ex yí = Po + Pifi(xi) + • • • + Ppfp{xí) + Si yn = Po + Plfl(Xn) + • • • + Ppfp(Xn) + £n i = l,...,n jsou indexy objektů, na nichž byla náhodná veličina pozorována, nebo v případě časových řad představuje i časový okamžik, kdy bylo pozorování učiněno. •Předpoklady kladené na náhodné odchylky Si, i = 1,..., n a) E{sí) = 0 [odchylky nejsou systematické] b) D{sí) = u2 > 0 [všechna pozorování jsou se stejnou přesností] c) c(si,Sj) = 0 pro i ý j [mezi odchylkami není žádný lineární vztah] d) Si ~ N(0, a2) [odchylky jsou normálně rozložené] Příklady porušení některých předpokladů ukazují následující dva obrázky. V prvním případě je porušen předpoklad b), mluvíme pak o heteroskedasticitě náhodných odchylek; v druhém případě je porušen předpoklad c), mluvíme pak o autokorelaci náhodných odchylek. pozorování dvojic(x,y) 5 10_15 20_25 Heteroskedasticita 45 50 5 10 15 20_25 Autokorelace Další obrázky ukazují příklady slabé a silné lineární závislosti při splněných předpokladech: 50 Slabá lineární závislost 5 10_15 20_25 Slabá závislost 45 50 45 50 Poté, co je model specifikován je potřeba odhadnout jeho neznámé parametry /30, fli..., /3P 9.2 Odhady regresních parametrů a související označení bo, bi,..., bp odhady regresních parametrů /3q, f3±,..., /3P bo + bifi(x) + ... + bpfp{x) empirická (odhadnutá) regresní funkce ýi = bo + bifi(xi) + ... + bpfp(xi) regresní odhad i-té hodnoty náhodné veličiny Y z% = Vi- Ví i=i i=i „2 _ SE n—p—1 n i-té reziduum reziduálni součet čtverců odhad rozptylu a2 S r = ^2(ýi — rri2)2; m2 = - Y y i regresní součet čtverců í=i n í=l ID i=l St St celkový součet čtverců [platí St = Sr + Se] index determinace [ ID2 G (0,1) ] [Index determinace udává, jaká část variability náhodné veličiny Y je vysvětlena regresním modelem; čím blíže je ID2 k 1, tím lépe model data vystihuje.] 51 9.3 Metoda nejmenších čtverců Metodou nejmenších čtverců hledáme odhady bo, b±,..., bp regresních parametrů /3q, fli,..., /3P tak, aby součet druhých mocnin reziduí byl co nej menší. Tedy n n S(f30,f31,... ,f3p) = Y,e] = E \y% ~ (A) + (3ifi(xí) + • • • + Ppfp(xi))]2 min i=l i=l Naším úkolem je tedy najít minimum funkce S(/3q, fli,..., /3P), která závisí jen na neznámých parametrech regresního modelu. (Víme, že v bodech extrému funkce více proměnných jsou parciální derivace - podle všech parametrů - rovny nule). Postup je tedy následující: 1. Určíme derivace S(/3q, fli,..., /3P) podle všech regresních parametrů. 2. Položíme tyto derivace rovny nule. Tím dostáváme soustavu n rovnic o n neznámých. Tuto soustavu nazýváme systém normálních rovnic. 3. Řešením systému normálních rovnic získáme hledané odhady b0, b1}..., bp regresních parametrů /30, f31}..., /3P. Systém normálních rovnic má pak tvar: A)£i + AE/i + + ••• + PpEÍp = Em A)EA + ä E f! + AE/1/2 + ••• + PpZfifp = Evifi PoEfp + äľ/p/i + AE/p/2 + ••• + PpEfp = Zvifp kde symbol E znamená E a symbol E f j znamená E fj(xi)- Takové /30, f31}..., /3P, které řeší systém normálních rovnic, označíme b0, b1}..., bp. Příklad 9.4 Pro regresní přímku určete odhady bo,bi koeficientů /3q,/3i. Řešení Odhady b0, bľ regresních koeficientů přímky získáme ze soustavy rovnic: n n n bo E1 + hYjXi = E Vi i=l i=l i=l n n n boExí + bľ E x1 = E Víxí i=l i=l i=l Řešením soustavy je n n n n n n n E Vi E x1 - E xi E y%x% n E y%x% -Ľ^E^ 7 i=l i=l i = l i=l 7 i=l i=l i = l bo = -;-r-9- &i i ĺ t i ĺ \ TI f TI ^ n E x1 - E xi) n E x\ - E xi 1=1 \i = l J 1 = 1 \i=l Odhad regresní přímky je tedy ý = b0 + b\X. 52 (Uvědomte si, že b0, bi jsou náhodné veličiny; jsou závislé na realizacích (xi} í/j), zatímco parametry /3q, f3± jsou konstanty.) 9.5 Maticový zápis klasického modelu lineární regrese a jeho řešení •Model: y,t = (30 + ä/iO^) + • • • + PPfP(xi) + eh i = l,...,n můžeme zapsat v maticovém tvaru: X/3 f yi\ ( i ... fP(x1) \ ( P0\ V2 1 fl(x2) ••• fp(x2l) ä tedy £2 Užíváme názvy: y vektor pozorování vysvětlované veličiny Y X regresní matice [předpoklad o hodnosti: h(X) (3 vektor regresních parametrů e vektor náhodných odchylek •Předpoklady modelu pak lze zapsat: p + 1 < n] e ~ Jak jsme již uvedli v 10.3, odhady bo,bi,... ,bp regresních parametrů /3q, f3±,..., /3P získáme řešením systému normálních rovnic. Tento systém i odhady parametrů lze vyjádřit v maticovém zápisu následovně: X'X/3 = X'y systém normálních rovnic b = (X'X)_1X/y odhad vektoru (3 získaný metodou nejmenších. čtverců ý = Xb vektor regresních odhadů e = y — ý vektor reziduí 9.6 Vlastnosti odhadu b = (X'X)_1X'y 1. odhad b je lineární; je lineární funkcí náhodného vektoru y 2. odhad b je nestranný; platí E(h) = (3 3. odhad b má varianční matici var h = čt^X'X)-1 4. odhad b ~ Np+i((3, čt^X'X)-1); normalita plyne z e ~ iVn(0,a-2I) a vlastnosti 1. 5. odhad b je nejlepší lineární nestranný odhad vektoru (3. (Odhad b je BLUE - Best Linear Unbiased Estimator) Poznámka 9.7 Vlastnost 5. je známá jako Gaussova-Markovova věta. To, že odhad b je nejlepší znamená, že má "nejmenší"možnou varianční matici, přesněji: 53 rozdíl varianční matice libovolného jiného nestranného odhadu vektoru (3 a varianční matice odhadu b je matice pozitivně semidefinitní. Známe-li rozložení nějaké vhodné pivotové náhodné veličiny, můžeme provádět běžné statistické procedury. Nás by zajímali intervaly spolehlivosti a testy pro jednotlivé složky vektoru (3. Rozložení odhadu b známe. Ovšem parametr a, který vystupuje ve varianční matici, je neznámý. Proto potřebujeme získat alespoň jeho odhad a dále odhady rozptylů pro jednotlivé složky vektoru b. / var{po) cov{po,bi) ... cov{pQ,bp) ^ cov(bi,bo) var{pi) ... cov(bi,bp) Varianční matice var b tr2(X'X) ycot;(6p,6o) cov(bp,bi) ... var(bp) j Je tedy zřejmé, že rozptyly D(bj), j = 0,1,..., p jsou diagonální prvky matice a2(X.'30 1 Připomeňme si z 9.2, že s2 = n^?_1 je bodovým odhadem parametru a2. Potom je s2(X'X)_1 odhadem varianční matice var b a diagonální prvky matice s2(X'X)_1 jsou odhady rozptylů D(bj). Obvykle se užívá následující označení : Vjj j—tý diagonální prvek matice (X'X)_1 sbj = s ' směrodatná chyba odhadu bj 9.8 Intervaly spolehlivosti pro regresní parametry Statistika Tj = h] ^ má rozložení t(n — p — 1) pro j = 0,1,... ,p. Proto 100(1 — «)%-ní interval spolehlivosti pro f3j má meze: bj ± s^Xx^^^in — p — 1) 9.9 Testování významnosti regresních parametrů (dílčí t—testy) Na hladině a pro j = 0,1,... ,p testujeme: H0 : f3j = 0 proti Hx : fy ^ 0. [Nulová hypotéza tvrdí, že vektor y vůbec nezávisí na j—tém sloupci regresní matice X. Zamítnutí hypotézy Hq znamená, že odhadnutý parametr je statisticky významný a má smysl ho v modelu uvažovat.] Testová statistika Tj = — má rozložení t(n — p — 1), pokud Hq platí. Kritický obor: W = (—oo; — ti_a/2(n — p — 1)) u (ti-a/2(n — P — 1); oo) 9.10 Testování významnosti modelu jako celku (celkový F-test) Na hladině a testujeme: H0: (/31;/32,...,/3p) = (0,0,...,0) proti Hx: (fy, fo,..., (5P) ^ (0, 0,..., 0). [Nulová hypotéza tvrdí, že postačující je model s konstantou, tedy Y = fy + e. Pokud Hq nezamítneme, znamená to, že regresní koeficienty fy, fy,..., fy můžeme z modelu vypustit a tedy že byl použit nevhodný model.] Testová statistika: F = g^^-p-i) ~ F(Pin ~ P ~ 1)? P°kud Hq platí. Kritický obor: W = (Fi-a(p, n — p — 1); oo) 54 Výsledky F—testu se obvykle zapisují ve formě tabulky rozptylu: zdroj variability součet čtverců stupně volnosti průměrný součet čtverců testová statistika model Sr P Sr/p Sr/p Ss/in-p-l) rezidua Se n — p — 1 SE/(n - p - 1) celkový St n — 1 Příklad 9.11 U šesti obchodníků byla zjišťována poptávka po určitém druhu zboží loni (veličina X v kusech) a letos (veličina Y v kusech). číslo, obchodníka 1 2 3 4 5 6 poptávka loni (X) 20 60 70 100 150 260 poptávka letos (Y) 50 60 60 120 230 320 a) Orientačně ověřte předpoklad, že data pocházejí z dvourozměrného normálního rozložení. b) Předpokládejte, že závislost letošní poptávky na loňské lze vystihnout regresní přímkou. Sestavte regresní matici, vypočtěte odhady regresních parametrů a napište rovnici regresní přímky. Interpretujte parametry regresní přímky. c) Najděte odhad rozptylu, vypočtěte index determinace a interpretujte ho. d) Najděte 95% intervaly spolehlivosti pro regresní parametry. e) Na hladině významnosti 0,05 proveďte celkový F-test. f) Na hladině významnosti 0,05 proveďte dílčí t-testy. g) Vypočtěte regresní odhad letošní poptávky při loňské poptávce 110 kusů. h) Nakreslete dvourozměrný tečkový diagram s proloženou regresní přímkou. Řešení viz. Studijní materiály 55 10 Uvod do korelační analýzy Při zpracování dat se velmi často setkáváme s úkolem zjistit, zda dvě náhodné veličiny jsou nezávislé. V případě, že nezávislost vyloučíme, pak nás následně zajímá intenzita závislosti těchto dvou náhodných veličin. Zkoumáme-li závislost náhodných veličin intervalového, či poměrového typu, hovoříme o korelační analýze. [Regresní analýza a korelační analýza řeší příbuzné úlohy. V případě regrese jde o závislost náhodné veličiny na jedné, nebo několika veličinách; v případě korelace jde o sílu vzájemné závislosti dvou "rovnocenných"veličin.] V této přednášce se budeme věnovat pouze lineární závislosti a uvedené testy budou předpokládat normalitu náhodných výběrů. Poznámka 10.1 V definici 9.12 v prvním semestru byl zaveden koeficient korelace a dále byly uvedeny i jeho vlastnosti. Připomeneme jeho vlastnosti: 1. R(X,Y) = Pro VWňVW) > 0 2. R(X,X) = 1 pro D(X) Ý 0 3. R(X, Y) = R(Y, X) 4. -1 < R(X,Y) <1 5. R(X, Y) = 1, pak exist. konstanty a, b G R, b > 0 takové, že P (Y = a + bX) = 1, R(X, Y) = —1, pak exist. konstanty a, b G R, b < 0 takové, že P (Y = a + bX) = 1, 6. R(a + bX,c + dY) = sgn(bd)R(X, Y) 7. Jsou-li náhodné veličiny X, Y stochasticky nezávislé, pak R(X, Y) = 0. (Opačná implikace obecně neplatí!) Je tedy zřejmé, že pokud je mezi náhodnými veličinami lineární závislost, pak koeficient korelace je vhodný ukazatel intenzity tohoto lineárního vztahu. Čím je hodnota \R(X, Y)\ blíže k 1, tím těsnější je lineární závislost mezi náhodnými veličinami X, Y. Kladné hodnoty korelačního koeficientu odpovídají přímé lineární závislosti (k velkým hodnotám jedné z veličin očekáváme spíše velké hodnoty druhé náhodné veličiny); záporné hodnoty korelačního koeficientu odpovídají nepřímé lineární závislosti (k velkým hodnotám jedné z veličin očekáváme spíše malé hodnoty druhé náhodné veličiny). Jsou-li náhodné veličiny nezávislé, pak koeficint korelace je roven 0. (Nulový může být i při některých nelineárních závislostech.) Je obvyklé značit koeficient korelace R(X, Y) řeckým znakem p. (Stejně, jako obvykle fi používáme pro E(X) a a2 pro D(X)). Určit koeficient korelace většinou nejde přímo, jelikož obvykle není známé simultánní rozložení náhodného vektoru (X,Y). Proto jej musíme odhadnout z náhodného výběru. Definice 10.2 Uvažujme náhodný výběr (y^1), • • •, (yn) z rozložení, kterým se řídí náhodný vektor (y). 56 Nechť Mi, M2 jsou výběrové průměry, n n SI = Z(Xi - Mi)2; S2^ Z(Yi ~ M2f jsou výběrové rozptyly a i=l i=l n Si2 = ^2(Xi — Mi)(Yi — M2) je výběrová kovariance. Potom R12 = c 12c pro Si • ^ > 0 Dl • D2 se nazývá výběrový koeficient korelace. Je-li některá z veličin d\, S*2 rovna nule, výběrový koeficient korelace se nedefinuje. Poznámka 10.3 n Výběrovou kovarianci lze upravit na tvar S12 = ^2 XíYí — -^^MiM2 n i=i n n Výběrový koeficient korelace lze upravit na tvar J?i2 =■ 1=1 (T,XÍ-nMl)(Y, y?-nMl) i—l i—l Poznámka 10.4 Výběrový koeficient korelace Ri2 není nestranným odhadem koeficientu korelace R(X, Y), je odhadem vychýleným. Pro n > 30 je toto vychýlení zanedbatelné. Vlastnosti výběrového koeficientu korelace Rí2 jsou analogické vlastnostem koeficientu korelace R(X,Y). Je ale obtížné správně interpretovat hodnotu výběrového koeficientu korelace, pokud jsou v datovém souboru odlehlé hodnoty. Proto kdykoliv je to možné, je potřeba sledovat dvojrozměrný tečkový diagram. Ten také může naznačit i jinou, než lineární závislost - v tomto případě korelační koeficient není vhodným ukazatelem závislosti. Nakonec je potřeba zdůraznit, že korelační koeficient měří sílu vzájemné závislosti, která ale nutně nemusí být příčinná. Jeho hodnota může naznačovat, že obě proměnné jsou simultánně ovlivněny nějakou třetí proměnnou. V dalším textu budeme předpokládat, že náhodné výběry (y1), • • •, (yn) pochází z dvourozměrného normálního rozložení. Věta 10.5 Nechť náhodný vektor X, Y má dvourozměrné normální rozložení. Pak náhodné veličiny X a Y jsou stochasticky nezávislé právě tehdy, když koeficient korelace g = R(X, Y) = 0. [Obecně z nekorelovanosti nezávislost neplyne. Ovšem v případě dvourozměrného normálního rozložení je nekorelovanost a nezávislost ekvivalentní.] Věta 10.6 Necht (y*), - • •, \ y) Je náhodný výběr z dvourozměrného normálního rozloženi a necht g = 0. Potom statistika T = Rí2y^2 V1 ~ R12 57 má Studentovo rozložení t(n — 2). Statistiku T z předchozí věty lze užít k testování nezávislosti náhodných veličin X, Y, pocházejících z dvourozměrného normálního rozložení. Z věty 10.5 víme, že jsou-li X, Y nekorelované, pak jsou také nezávislé. Věta 10.7 Pro výběr z dvourozměrného normálního rozložení se na hladině a nulová hypotéza Hq : g = 0 zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium pro oboustr. alt. Hi : g ^ 0 je W = (—oo, — ti_a/2{n — 2)} \J(ti_a/2{n — 2), oo) pro levostr. alt. H\ : g < 0 je W = (—oo, — ti_a(n — 2)} pro pravostr. alt. H\ : g > 0 je H7 = (íi_a(n — 2), oo) Příklad 10.8 Máme k dispozici výsledky testů ze dvou předmětů zjištěné u osmi náhodně vybraných studentů určitého oboru. 1 2 3 4 5 6 7 8 80 50 36 58 42 60 56 68 65 60 35 39 48 44 48 61 Na hladině významnosti 0,05 testujte hypotézu, že výsledky obou testů nejsou kladně korelované. Viz. studijní materiály Dosud jsme testovali nezávislost prostřednictvím hypotézy Hq : g = 0. Nyní nás bude zajímat, jak velká (těsná) je případná lineární závislost; k tomu užijeme testy o výběrovém korelačním koeficientu. Tyto testy používají Fisherovu ^-transformaci výběrového korelačního koeficientu R12. Řešení Věta 10.9 Nechť (y1), • • •, (y") Je náhodný výběr z dvourozměrného normálního rozložení s koeficientem korelace R(X, Y) = g. Statistika se nazývá Físherova z-transformace a má střední hodnotu a rozptyl: (S rostoucím n hodnota výrazu 2(n-\) klesá. Např pro p — 1 a n — 31 má uvedený výraz hodnotu 1/60=0,01667. Asymptotická statistika v 10.12 tento výraz zanedbává.) Věta 10.10 Nechť (y1), • • •, (y™)> íí > 10 je náhodný výběr z dvourozměrného normálního rozložení s 58 koeficientem korelace g. Nechť R12 je výběrový koeficient korelace, nechť Z = | ln je jeho Fisherova ^-transformace a nechť c G (—1,1) je daná konstanta. Na asymptotické hladině a se nulová hypotéza Hq : g = c zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium ; ln l + e g^C je W = (-OO, -Wl_a/2} {JiUt-a/2, Oo) g > c je = 00) ř/ = —-—^2("~1} realizuje v oboru VP, kde pro oboustr. alt. H\ pro levostr. alt. H\ pro pravostr. alt. H\ Příklad 10.11 U 600 vzorků rudy byl stanoven obsah železa dvěma analytickými metodami s výběrovým koeficientem korelace 0,85. V literatuře se uvádí, že koeficient korelace těchto dvou metod má být 0,9. Na asymptotické hladině významnosti 0,05 testujte hypotézu Hq : g = 0, 9 proti H\ : g 7^ 0, 9. Řešení Viz. studijní materiály Pomocí asymptotické statistiky U lze odvodit meze asymptotického intervalu spolehlivosti pro parametr g. Nejdříve se odvodí meze intervalu spolehlivosti pro konstantu ^ ln -Potom se takto odvozené meze transformují na meze intervalu spolehlivosti pro parametr g, a to pomocí hyperbolického tangens. Věta 10.12 Nechť platí předpoklady věty 10.9. Potom pro meze 100(1 — a)%—ního asymptotického intervalu spolehlivosti •pro výraz | ln platí: \ ln G Í^Z — U^-^ , Z + s pravděpodobností přibližně 1 — a. •pro parametr g platí: g G í tgh(Z — "l^2) , tgh(Z + -7=^)) s pravděpodobností přibližně 1 — a. 59 Poznámka 10.13 tgh(rr) = gl^g-I pro x E R. (Na kalkulačkách s funkcemi je obvykle tlačítko hyp, které lze kombinovat s dalšími goniometrickými funkcemi.) Příklad 10.14 Pracovník personálního oddělení určité firmy zkoumá, zda existuje vztah mezi počtem dní absence za rok (veličina Y) a věkem pracovníka (veličina X). Proto náhodně vybral údaje o 10 pracovnících. pracovník 1 2 3 4 5 6 7 8 9 10 X 27 61 37 23 46 58 29 36 64 40 Y 15 6 10 18 9 7 14 11 5 8 Za předpokladu, že uvedené údaje tvoří číselné realizace náhodného výběru rozsahu 10 z dvourozměrného normálního rozložení, vypočtěte výběrový korelační koeficient a na hladině významnosti 0,05 testujte hypotézu, že X a Y jsou nezávislé náhodné veličiny. Sestrojte 95% asymptotický interval spolehlivosti pro skutečný korelační koeficient g. Řešení Viz. studijní materiály Poznámka 10.15 Máme-li dva výběrové koeficienty korelace Ri2, R*2, odpovídající dvěma nezávislým dvourozměrným normálním výběrům, může nás zajímat, jestli jsou koeficienty g, g* stejné. Tomuto úkolu se věnuje následující věta. Věta 10.16 Nechť jsou dány dva nezávislé náhodné výběry o rozsazích n a n* z dvourozměrných normálních rozložení s koeficienty korelace g, g*. Označme Ri2,R*2 výběrové koeficienty korelace, Z, Z* jejich Fisherovy ^-transformace. Na asymptotické hladině a se nulová hypotéza Hq : g = g* zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium U = , f= realizuje v oboru W, kde pro oboustr. alt. H\ : g 7^ g* je W = (—00, —Ui-a/2) U(Mi-a/2, 00) pro levostr. alt. H\ : g < g* je W = (—00, —Ui-a) pro pravostr. alt. H\ : g > g* je W = {ui-a, 00) Příklad 10.17 Lékařský výzkum se zabýval sledováním koncentrací látek A a B v moči pacientů trpících určitou ledvinovou chorobou. U 100 zdravých jedinců činil výběrový korelační koeficient mezi koncentracemi obou látek 0,65 a u 142 osob trpících zmíněnou chorobou byl 0,37. Na asymptotické hladině významnosti 0,05 testujte hypotézu, že korelační koeficienty v obou skupinách se neliší. Řešení Viz studijní materiály 60 11 Testování nezávislosti nominálních a ordinálních náhodných veličin Nominální náhodné veličiny se realizují čísly, která představují pouze číselné kódy pro sledovanou vlastnost. Např. "rodinný stav" (svobodná, vdaná, rozvedená, ovdovělá) je nominální náhodná veličina, která nabývá čtyř variant. "Způsob platby"(převodem, poukázkou, hotově) je také nominální náhodná veličina. Tedy jediná možná obsahová interpretace nominálních veličin je u relace rovnosti. (Je realizace rovna zvolenému kódu, nebo není?) V první části této kapitoly se budeme věnovat testům nezávislosti nominálních náhodných veličin; pokud testy nezávislost zamítnou, bude nás zajímat síla (těsnost) případné závislosti. Ordinální náhodné veličiny se realizují čísly u nichž kromě relace rovnosti je smysluplná i relace uspořádání. Např. školní klasifikace (známky 1, 2, 3, 4, 5) představuje větší, nebo menší znalosti zkoušených. Přitom ale nelze říct, že jedničkář je "o dva lepší"než trojkař a trojkař je "o dva lepší"než pětkař. K testování nezávislosti ordinálních náhodných veličin slouží Spearmanův koeficint pořadové korelace, který zároveň slouží k měření síly závislosti. Tímto se budeme zabývat v druhé části této kapitoly. Testování nezávislosti nominálních náhodných veličin Definice 11.1 Nechť X, Y jsou nominální náhodné veličiny, kde X nabývá varianty rrpj,..., X[r] a Y nabývá varianty y^,... ,y[s]. Uvažujme náhodný výběr (y*), • • •, (yn) z rozložení, kterým se řídí náhodný vektor (y). Označme rijk simultánní absolutní četnost dvojice variant (x[j],y[k])- Tabulka obsahující tyto simultánní absolutní četnosti se nazývá kontingenční tabulka. ym ■ • y\s\ rij. X[1] nu . ■ nls nh X[r] nrl . Tlrs nr. ■ n.s n Četnosti rij. = E njk, n-k = E njk se nazývají marginální četnosti. k=i j=i Věta 11.2 Uvažujme nulovou hypotézu: Hq : X,Y jsou stochasticky nezávislé náhodné veličiny proti alternativní hypotéze Hi : X,Y nejsou stochasticky nezávislé náhodné veličiny. Platí-li Hq, pak testovací kritérium r s í nj.n.k\2 K = zZzZ [n]kn_^r} - X2((r -l)(s- 1)). j=l k=l 61 [Říkáme, že K má asymptoticky \2 rozložení s (r — l)(s — 1) stupni volnosti.] Hypotézu o nezávislosti veličin X, Y zamítáme na asymptotické hladině významnosti a, když realizace K > Xi-a((r~ l)(s— !))• Tedy kritický obor W = (Xi-a((r~ l)(s — !))> °°)-Poznámka 11.3 Rozložení statistiky K lze aproximovat Pearsonovým rozložením %2((r — l)(s — 1)), pokud pro výraz 3 platí: alespoň v 80% případů je nj^'fc > 5 a ve zbylých nejvýše 20% případů je nj^'fc > 2. Nejsou-li podmínky dobré aproximace splněny, doporučuje se slučování některých variant. Poznámka 11.4 s r Označme pjk = P(X = x{j] A Y = y[k]) pj. = ]T pjk p.k = ]T pjk k=i j=i Veličiny X &Y jsou nezávislé právě tehdy, když platí multiplikativní vztah pjk = pj. ■ p.k. Testovací kritérium pro nulovou hypotézu o nezávislosti veličin X a,Y vychází z myšlenky, že rozdíl absolutních četností rijk a očekávaných teoretických četností za předpokladu nezávislosti n ■ pjk = n ■ p j. ■ p.k by měl být "velmi malý". Jelikož marginální pravděpodobnostní funkce pj., p.k obvykle nejsou známé, odhadujeme je prostřednictvím marginálních absolutních četností: pj. = ^- a p.k = Proto očekávané teoretické četnosti n ■ p j. ■ p.k. lze odhadnout četnostmi n ■ — ■ — = rir n'k. Ve prospěch alternativy tedy svědčí velký rozdíl mezi hodnotami rijk a odhady očekávaných teoretických četností nj n"'fc. Proto je kritický obor soustředěn na pravém konci Pearsonova rozložení. r s Při určení počtu stupňů volnosti si musíme uvědomit, že dvojitá suma ^2 ^2 má sice r • s j=ik=i r sčítanců, ale obě marginální pravděpodobnostní funkce jsou vázány vztahem ^2 pj. = 1 a s ^2 P-k = 1- Tedy v první sumě máme celkem r — 1 nezávislých sčítanců a v druhé sumě k=l máme celkem s — 1 nezávislých sčítanců. Dvojitá suma má tedy (r — 1) • (s — 1) nezávislých sčítanců. □ Definice 11.5 Intenzitu závislosti nominálních náhodných veličin X, Y měří Cramérův koeficient V = / , K , kde m = minír, sj. \l n(m—1) ' L ) J Cramérův koeficient je monotónní funkcí statistiky K a nabývá hodnot z intervalu (0,1). Pro V G (0; 0,1} mluvíme o zanedbatelné závislosti. Pro V G (0,1; 0, 3} mluvíme o slabé závislosti. Pro V G (0, 3; 0, 7} mluvíme o střední závislosti. Pro VE (0, 7; 1} mluvíme o silné závislosti. Příklad 11.6 V sociologickém průzkumu byl z uchazečů o studium na vysokých školách pořízen náhodný výběr rozsahu 360. Mimo jiné se zjišťovala sociální skupina, ze které uchazeč pochází a typ školy, na kterou se hlásí. Výsledky jsou zaznamenány v kontingenční tabulce: 62 Sociální skupina I II III IV n3. Typ školy rijk univerzitní 50 30 10 50 140 technický 30 50 20 10 110 ekonomický 10 20 30 50 110 90 100 60 110 360 Na asymptotické hladině významnosti 0,05 testujte hypotézu o nezávislosti typu školy a sociální skupiny. Vypočtěte Cramérův koeficient. Řešení Nejprve vypočteme všech 12 odhadů teoretických četností: n\.n.\ n 140-90 360 = 35 ni.n.2 n 140-100 360 = 38, 9 ni.n.3 n 140-60 360 = 23, 3 ni.ti.4 n 140-110 360 = 42, 8 n2.n.1 n _ 110-90 360 = 27,5 n2.n.2 n _ 110-100 360 = 30, 6 n2.n.3 n _ 110-60 360 = 18, 3 n2.n.4 n _ 110-110 360 = 33, 6 n3.n.i n _ 110-90 360 = 27,5 n3.n.2 n _ 110-100 360 = 30, 6 n3.n.3 n _ 110-60 360 = 18, 3 n3.n.4 n _ 110-110 360 = 33, 6 Podmínky aproximace Pearsonovým rozložením jsou tedy splněny - všechny odhady teoretických četností převyšují číslo 5. •Nyní určíme realizaci testovacího kritéria: _ \^ \^ {nJk--+r—) _ (50-35)2 (30-38,9)2 (50-33,6)2 _ 7fi R/| J\ — 2^ nj-n-k — 35 i" 38ig i" • • • i" 336 —10,04 j=l k=l n •Kritický obor: W = 5; c + d> 2±£. Příklad 11.10 U 125 uchazečů o studium na jistou fakultu byl hodnocen dojem, jakým zapůsobili na komisi u ústní přijímací zkoušky. Na asymptotické hladině významnosti 0,05 testujte hypotézu, že přijetí na fakultu nezávisí na dojmu u přijímací zkoušky. dojem dobrý špatný n3. přijetí rijk ano 17 11 28 ne 39 58 97 n.k 56 69 125 Řešení Nejdříve ověříme splnění podmínek aproximace Pearsonovým rozložením: a + 6 = 28 > 5; 97 = c + d > Í2±£Í = 56/3 = 18, 66. Podmínky jsou tedy splněny. •Nyní určíme realizaci testového kritéria: n(qrf-bc)2 _ 125(17-58-ll-39)2 28-97-56-69 K (a+V)(c+d)(a+c)(b+d) •Kriticky obor: W = (xL5(l), oo) = 3,6953 (3,841; oo 64 Protože testová statistika se nerealizuje v kritickém oboru, nulovou hypotézu o nezávislosti "přijetí"a "dojmu"nezamítáme na asymptotické hladině významnosti 0,05. Poznámka 11.11 Jiný přístup k hodnocení čtyřpolních tabulek vychází z následující představy. Určitý pokus provádíme za dvojích okolností a může skončit úspěchem, nebo neúspěchem. Lze jej tedy popsat čtyřpolní tabulkou, kde náhodná veličina X nabývá dvou hodnot: úspěch - neúspěch; a náhodná veličina Y nabývá dvou hodnot: nastala okolnost I - nastala okolnost II. Okolnost I II n j. Výsledek pokusu rijk úspěch a b a + b neúspěch c d c + d a + c b + d n Poměr úspěchů k neúspěchům, neboli "šance"za okolnosti I je tedy - a za okolnosti II je 2- Nemá-li okolnost vliv na výsledek pokusu, pak podíl šancí za zmíněných dvou okolností a ■f by měl být "blízko"jedné. d Definice 11.12 Uvažujme čtyřpolní tabulku. Statistiku OR = t = nazýváme podíl šancí. d Konstantu op = PllP22 nazýváme teoretický podíl šancí. " P12P21 J J L Poznámka 11.13 Jsou-li veličiny X, Y nezávislé, pak pjk = Pj.p.k- Tedy v případě nezávislosti vychází teoretický podíl šancí op = 1. Závislost veličin bude tím větší, čím více se bude op vzdalovat od jedné. Uvědomme si ale, že op G (0,oo), tedy hodnoty op jsou kolem bodu 1 rozmístěny nesymetricky. Proto se užívají logaritmické podíly šancí ln op a ln OR. Věta 11.14 Uvažujme čtyřpolní tabulku pro dvě nominální náhodné veličiny X, Y. Statistika U = ^or-^°p « N(0,1). Na asymptotické hladině a se nulová hypotéza Hq : ln op = 0 [je ekvivalentní s tím, že X,Y jsou stoch. nezávislé] zamítá ve prospěch alternativní hypotézy Hi, když se testovací kritérium U ln or pro oboustr. alt. H\ pro levostr. alt. H\ pro pravostr. alt. H\ realizuje v oboru W, kde -Ul-a) oo : ln op ý 0 je W = (—oo, : ln op < 0 je W = (—oo, : ln op > 0 je W = oo) □ Je potřeba si uvědomit, že ln op > 0 právě tehdy, když "šance: úspěch k neúspěchu"je větší za okolnosti I a ln op < 0 právě tehdy, když "šance: úspěch k neúspěchu"je větší za okolnosti II. 65 Věta 11.15 Uvažujme čtyřpolní tabulku pro dvě nominální náhodné veličiny X, Y. Potom meze 100(1 — «)% asymptotického empirického intervalu spolehlivosti pro teoretický podíl šancí op jsou: d = eInOÄ-VÍ+Í+Í+í«i-a/2 h = elnOH+V/F4+I+iuW2 □ Nulovou hypotézu o nezávislosti X, Y [ekvivalentní s tím, že op = 1] zamítáme, když v asymptotickém intervalu spolehlivosti pro teoretický podíl šancí op hodnota 1 neleží. Příklad 11.16 Pro údaje z příkladu 11.10. vypočtěte a interpretujte podíl šancí, sestrojte asymptotický interval spolehlivosti pro teoretický podíl šancí a s jeho pomocí testujte hypotézu, že přijetí na fakultu nezávisí na dojmu u přijímací zkoušky. Řešení •Podíl šancí O R = g = ±f§ = 2, 298. bc 11-39 ' Realizace statistiky OR nám říká, že poměr "přijetí" ku "nepřijetfje 2, 3x větší u uchazeče, který zapůsobil na komisi dobrým dojmem, než u uchazeče, který zapůsobil špatným dojmem. •Nyní určíme meze 100(1 — a)% asymptotického empirického intervalu spolehlivosti pro teoretický podíl šancí: d = elnOi?-VM + M«W2 = eln2,298-Vl3Ť + 33I + é + é-1'96 = e"0'028 = 0,972 h = elnOi?+VM + ^ + >W2 = gin 2,298+V^ + ^ + é + šr1'96 = e1'692 = 5 , 433 Tedy op G (0,972 ; 5,433) na asymptotické hladině 5%. Jelikož interval (0, 972 ; 5,433) obsahuje číslo 1, na asymptotické hladině významnosti 0,05 nezamítáme hypotézu o nezávislosti dojmu u přijímací zkoušky a přijetí na fakultu. Poznámka 11.17 Popis Fisherova faktoriálového testu přesahuje rámec tohoto kurzu. Poznamenejme ale, že test nezávislosti nominálních veličin X, Y formuluje opět prostřednictvím podílu šancí a proti nulové hypotéze ln op = 0 staví nejen oboustrannou, ale i jednostranné alternativy. Vychází-li p—hodnota pro zvolenou alternativu < a, pak nulovou hypotézu o nezávislosti X, Y zamítáme na hladině významnosti a. Testování nezávislosti ordinálních náhodných veličin Definice 11.18 Nechť X, Y jsou dvě ordinální náhodné veličiny. Uvažujme náhodný výběr (y*), • • •, (yn) ze spojitého rozložení, kterým se řídí náhodný vektor (y). Označme Ri pořadí náhodné veličiny Xi a Qi pořadí náhodné veličiny Yf, i = 1, 2,..., n. Ukazatelem intenzity pořadové závislosti veličin X, Y je statistika a n rs = l~ , 2 .T^-Q.f, n[nz — 1 66 která se nazývá Spearmanův koeficient pořadové korelace. Poznámka 11.19 Spearmanův koeficient r$ nabývá hodnot z intervalu (—1,1). Čím je jeho hodnota bližší 1 (resp. -1), tím je silnější přímá (resp. nepřímá) pořadová závislost veličin X, Y. Čím je jeho hodnota bližší 0, tím je pořadová závislost veličin X, Y slabší. Statistika r s je vlastně obyčejný výběrový koeficient korelace počítaný z pořadí Ri, Qi, místo z původních hodnot náhodných veličin Xi, Yi. Úpravou definičního vztahu z 11.2 speciálně pro Ri a Qi dostaneme vztah z 11.18. Příkladem „dokonalé" přímé pořadové závislosti je např vztah mezi Ri, Qi popsaný tabulkou: Ri i 2 3 4 5 i 2 3 4 5 Příkladem „ dokonalé" bulkou: Ri i 2 3 4 5 5 4 3 2 1 dokonalé" nepřímé pořadové závislosti je např vztah mezi Rí,Qí popsaný ta- Poznámka 11.20 Spearmanův koeficient pořadové korelace lze použít i tehdy, když jsou data intervalového, či poměrového typu. Např. v 10. kapitole všechny testy nezávislosti předpokládali normalitu. Při porušení normality lze užít testy odvozené od Spearmanova koeficientu. Také jsou situace, kdy v náhodném výběru (y*),..., (yn) nelze hodnoty uvedených náhodných veličin přesně stanovit, je k dispozici jen jejich pořadí. Jsou-li pořadí X—ových a Y—ových veličin hodně podobná, svědčí to o jisté závislosti mezi Xi a Y;t. Věta 11.21 Necht X, Y jsou dvě ordinalm náhodne veličiny. Uvažujme náhodný výběr (y1), • z rozložení, kterým se řídí náhodný vektor (y). Testujeme hypotézu H0 : X,Y jsou pořadově nezávislé náhodné veličiny. Na hladině a se nulová hypotéza H0 zamítá ve prospěch alternativní hypotézy H\, testovací kritérium Spearmanův koeficient r g realizuje v oboru W, kde (-1, -rSii_a/2(Ti)) {J(rS,l-a/2( (-1, -rs,i-a(n)) (rs,i-a(n), 1) když se pro oboustr. alt. pro levostr. alt. pro pravostr. alt. Hi : X, Y jsou pořadově závislé Hi : mezi X, Y ex. nepřímá p. závisí. Hi : mezi X, Y ex. přímá p. závisí. je W je W 30. □ a rs,i-a(n) Je tabelovaná kritická hodnota pro daná a = 0, 05 a n = 5, 6, Pro větší výběry jsou k dispozici asymptotické testy, kde testovací kritéria mají při nezávislých pořadích asymptoticky normální, či asymptoticky Studentovo rozložení. Věta 11.22 Nechť platí předpoklady a formulace nulové hypotézy věty 11.21. Nechť n > 30 a nechť platí H0. Pak testovací kritérium rsVn - U0 N(0,1) 67 a kritický obor je W = (—00, —u1_a/2)[J(u1_a/2, 00). Hypotézu o nezávislosti X,Y zamítáme ve prospěch oboustranné alternativy, když realizace Uq G W. Poznámka 11.23 Testové kritérium, které používá sw., má tvar T0 = rS\Ja při platné nulové hypotéze má asymptoticky Studentovo rozložení s {n — 2) stupni volnosti t(n — 2). Toto asymptotické Studentovo rozložení lze použít pro n > 20, tuto podmínku ovšem software neověřuje. Proto pro menší výběry je vhodné použít tabulky pro kritické hodnoty Spearmanova korelačního koeficientu. Příklad 11.24 Dva lékaři hodnotili stav sedmi pacientů po stejném chirurgickém zákroku. Postupovali tak, že nejvyšší pořadí dostal nejtěžší případ. i číslo pacienta 1 2 3 4 5 6 7 Ri hodnocení 1. lékaře 4 1 6 5 3 2 7 Qi hodnocení 2. lékaře 4 2 5 6 1 3 7 Vypočtěte Spearmanův koeficient r$ a na hladině významnosti 0,05 testujte hypotézu, že hodnocení obou lékařů jsou pořadově nezávislá. Řešení Hq : Hodnocení obou lékařů jsou pořadové nezávislá Hi : Hodnocení obou lékařů jsou pořadové závislá •Testovací kritérium je: n rs = l-^^E(Ri-Qi)2 = 1-ť(ťM(4-4)2 + (l-2)2 + ... + (7-7)2} = 0.857 i=i •Kritická hodnota je rs,i-a(n) = r5,0,95(7) = 0, 745 •Kritický obor je W = (-00, -0, 745} (J(0, 745, 00) Jelikož testovací kritérium rsi0,95(7) = 0, 857 G W, nulovou hypotézu o nezávislosti hodnocení obou lékařů zamítáme na hladině významnosti 0,05. 68 12 Neparametrické testy o mediánech Běžně užívané t-testy (jednoduchý, párový, dvoj výběrový), či Analýza rozptylu jednoduchého třídění (tedy zobecněný t-test), formulují nulovou hypotézu pomocí parametrů normálního, či dvourozměrného normálního rozložení. Proto těmto a podobným testům říkáme parametrické testy. Někdy je ale nelze použít s ohledem na porušení předpokladů. Náhodný výběr nemusí být normální, není splněna homogenita rozptylů (u dvouvýběrového t-testu, či u ANOVY), nebo data mají pouze ordinální charakter. V tomto případě mohou pomoct neparametrické testy. Již jejich název naznačuje, že budou formulovat hypotézy bez použití parametrů nějakého rozložení. Pokud jsme se původně zajímali např. o parametr fi normálního rozložení, ale nesplněné předpoklady zabránily použití parametrického testu, můžeme svůj zájem přesunout k mediánu rozložení, z něhož náhodný výběr pochází a testovat hypotézy o mediánu. Takovéto neparametrické testy mají však jednu velkou nevýhodu - síla (tedy schopnost zamítnout nepravdivou nulovou hypotézu) těchto testů je menší, než síla parametrických testů. Proto při možnosti volby volíme raději testy parametrické. Co je příčinou menší síly těchto testů? Je to způsobeno tím, že neparametrické testy „zapomenou" původní hodnoty náhodných výběrů a nahradí je pouze jejich pořadími, či dokonce jen znaménky "+"a nebo znaménky i pořadími zároveň. Právě ztráta části informace obsažené v původním výběru vede k slabší síle neparametrických testů v srovnání s testy parametrickými (ty se snaží využívat veškerou informaci z náhodných výběrů). V tabulce 12.1. je přehled nejčastěji užívaných neparametrických testů včetně jejich předpokladů. V následujícím textu se budeme podrobně věnovat jen dvěma z nich, ostatní testy jsou podrobněji v učebnici Průvodce základními statistickými metodami, 16. kapitola. 69 Jeden výběr a párový výběr ( Analogie parametrického í-testu ) Dva výběry (Analogie parametrického dvouvýběr. í-testu) r > 3 výběrů (Analogie ANOVy jednoduch. třídění) Ho '■ x0,5 = c Znaménkový test •Výběr pochází ze spojitého rozložení Hq : x0j5 - í/0,5 = 0 Dvouvýběrový Wilcoxonův test •Výběry pochází ze spojitých na sobě nezávislých rozložení •hustoty fi(x) a ^(l/) se liší jenom posunutím, tedy rozptyly mají stejné. Hq : mediány všech r rozložení jsou stejné Kruskal-Walisův test •Výběry pochází ze spojitých na sobě nezávislých rozložení •hustoty se liší jenom posunutím, tedy rozptyly mají stejné. Wilcoxonův test •Výběr pochází ze spojitého rozložení •Rozložení musí být symetrické dle mediánu Kolmogorov-Smirnovův test Mediánový test •Výběry pochází ze spojitých na sobě nezávislých rozložení •hustoty fi{x) a f2{y) mohou mít odlišný tvar •Výběry pochází ze spojitých na sobě nezávislých rozložení Tabulka 12.1 Znaménkový test 12.1 Znaménkový test používáme pro testování hypotéz o mediánu rr0,5 proti jednostranné i oboustranným alternativám. Tedy Hq '■ íCo,5 = c proti Hi : x0^ ý °] resp. H\ : rr0,5 > c; resp. H\ : rr0,5 < c Princip testu: Sledujeme, kolik realizací náhodné veličiny X v náhodném výběru rozsahu n je „vpravo" od konstanty c a „vlevo" od ní. Je-li c rovno skutečnému mediánu, pak realizací vpravo od c by mělo být „zhruba" stejně jako realizací vlevo od c. Pokud tomu tak není, pak se zřejmě skutečný medián rr0,5 od c liší, jak je vidět na následujících obrázcích. Do statistiky „vložíme" počet realizací větších, než c. Pokud je c skutečným mediánem, tak tento počet S\ by měl být blízký |. Pokud je hodnota S\ o hodně větší, či o hodně menší, než |, pak můžeme těžko věřit tomu, že c je mediánem a nulovou hypotézu zamítneme. Tedy statistika S\ slouží jako testovací kritérium. Upozorněni: Je-li nějaká hodnota v náhodném výběru přímo rovna hodnotě c, pak ji z výběru odstraníme a teprve snížený počet pozorování označíme n. I , n i I I 4r. f*u£Xo*w>4- » m Statistika G {0,1,..., n}. Pokud realizaci náhodné veličiny Xi vpravo od c budeme považovat za úspěch, pak S% udává počet úspěchů a má binomické rozložení. Při platné nulové hypotéze je pravděpodobnost úspěchu ů = 0, 5 a tedy Sg ~ Bi(n; 0, 5). Jak již bylo řečeno, pozorované hodnoty Sg blízké k ^ jsou v souladu s nulovou hypotézou. Známe-li rozložení, můžeme testovat a díky dostupnosti sw. lze přímo počítat p-hodnotu. (Binomické rozložení není tabelované, tedy bez sw. by bylo potřeba používat tabulky pro kritické hodnoty a pro větší rozsahy odvodit asymptotická testovací kritéria.) Hq : 3?o,5 = c s~z = | •p-hodnota = P( statistika > pozorovaný počet úspěchů s^) H\ : rco,5 > c <í=> S z > § pomocí sw.: 1-IBINOM (počet pozorovaných úspěchů-1;0,5;n) Ho '■ xo,5 = c S~z = 7} "p-hodnota = P( statistika < pozorovaný počet úspěchů S^) H\ : rco,5 < c <í=> S z < § pomocí sw.: IBINOM (počet pozorovaných úspěchů ;0,5;n) Při výpočtu p-hodnoty pro oboustrannou alternativu musíme rozlišit, zda realizace Sg je větší, či menší, než |. Je-li pozorovaná hodnota S\ > | •p-hodnota = 2P( statistika S% > pozorovaný počet úspěchů Sg) Ho : íCo,5 = c ^ 5^ = f pomocí sw.: 2*(l-IBINOM(počet pozorovaných úspěchů-1;0,5;n)) H\ : íCo,5 ^ c 5^ / | Je-li pozorovaná hodnota S\ < | •p-hodnota = 2P( statistika < pozorovaný počet úspěchů S^) pomocí sw.: 2*IBINOM(počet pozorovaných úspěchů;0,5;n) 71 Poznámka 12.2 Velmi častá je párová varianta znaménkového testu. Máme-li např. testovat, že se příjmy manželů X a manželek Y neliší, pak nejdříve původně dvojrozměrný výběr převedeme na jednorozměrný výběr rozdílů v příjmech Z = X — Y. Pokud se opravdu příjmy parnerů neliší, pak medián proměnné Z je roven nule, tedy H0 : Zq^ = 0. Takto koncipovaný párový znaménkový test je implementován v sw. Statistica, který počítá pouze asymptotickou p-hodnotu. Přesnější je tedy použít dlouhého jména, jak uvedeno výše. (Podrobnosti o asymptotické variantě testu jsou v učebnici Průvodce základními statistickými metodami, 16.2.) Dvouvýběrový Wilcoxonův test 12.3 V tabulce 12.1 jsou u dvouvýběrového Wilcoxonova testu následující předpoklady: výběr rozsahu n proměnné X je nezávislý na výběru rozsahu m proměnné Y; oba výběry pochází ze spojitých rozložení a hustoty f\(x) a f2(y) se liší jenom posunutím. Za těchto předpokladů je nulová hypotéza H0 : rr0,5 — ž/o,5 = 0 ekvivalentní s hypotézou, že oba výběry pochází ze stejného rozložení. -0-1—e—1>—-«-*-9—*-•-o—o o—e—6>--■ r\ x p f í- i r í f ř i -(o « £/o,5 Realizace náhodných výběrů: X pořadí Y pořadí 30 5 20 1 33 6 24 2 26 3 28 4 Ti = 14 T2 = 7 p-hodnota je součet pravděpodobností všech těch pořadí z tabulky 12.2 které stejně, nebo více, než pozorované pořadí svědčí proti nulové hypotéze. Tedy p = P(TX > 14) = P(TX = 14) + P(TX = 15) = 1/20 + 1/20 = 0,1 Pokud by hladina testu byla a = 0, 05, pak p > a a Hq nezamítáme na hladině a. Neprokázali jsme, že na hladině 5% je první výběr „posunutý doprava" vzhledem k druhému výběru. □ 73 Pro dostatečně velké rozsahy výběrů (n + m > 12) slouží jako asymptotické testovací kritérium statistika rp n(n+m+l) nm(n+m+l) 12 která má při platné nulové hypotéze (Hq : xq^ = 2/0,5) přibližně normální rozložení. Poznámka 12.5 Test lze použít i když se některé hodnoty ve výběrových souborech a tedy i jejich pořadí opakují. V tomto případě se používá průměrné pořadí a asymptotickou testovou statistiku U je nutno korigovat. Poznámka 12.6 Software Statistica počítá p-hodnotu pomocí ekvivalentního Mann-Whitneyova testu. Přesná p-hodnota je označená „2*lstr.přesné p" a sw. ji nabízí pro malé výběry. Vždy je na výstupu i asymptotická p-hodnota a její výpočet je popsaný v učebni Průvodce základními statistickými metodami, 16.4. Software poskytuje přesnou i asymptotickou p-hodnotu jen pro oboustrannou alternativu. (Pro jednostranné alternativy je potřeba oboustrannou p-hodnotu dělit dvěma, ale pouze, je-li pozorované testové kritérium "na straně"alternativní hypotézy.) 74