Počet pravděpodobnosti jako základ matematické statistiky Pomocí metod popisné statistiky dokážeme přehledně shrnout informace, které se týkají výhradně objektů výběrového souboru. Pokud jsme však data získali na základě dobře navrženého výzkumného plánu, můžeme provádět induktivní úsudky o chování sledovaných proměnných v celém základním souboru. Metody statistické indukce se ovšem opírají o počet pravděpodobnosti. Počet pravděpodobnosti (probability calculus) Je to disciplína, která se zabývá studiem zákonitostí v náhodných pokusech. Matematickými prostředky modeluje situace, v nichž hraje roli náhoda. Pod pojmem náhoda rozumíme působení faktorů, které se živelně mění při různých provedeních téhož pokusu a nepodléhají naší kontrole. Pokusem rozumíme jednorázové uskutečnění konstantně vymezeného souboru definičních podmínek. Předpokládáme, že pokus můžeme mnohonásobně nezávisle opakovat za dodržení definičních podmínek (ostatní podmínky se mohou měnit, proto různá opakování pokusu mohou vést k různým výsledkům). Dále předpokládáme, že opakováním pokusu vzniká opět pokus. Deterministický pokus je takový pokus, jehož každé opakování vede k jedinému možnému výsledku (basic outcome). (Např. zahřívání vody na 100°C při atmosférickém tlaku 1015 hPa vede k varu vody.) Náhodný pokus (random experiment) je takový pokus, jehož každé opakování vede k právě jednomu z více možných výsledků, které jsou vzájemně neslučitelné. (Např. hod kostkou vede k právě jednomu ze šesti možných výsledků.) Zavedení měřitelného prostoru Neprázdnou množinu možných výsledků náhodného pokusu značíme Ω a nazýváme ji základní prostor (sample space). Možné výsledky značíme ω1, ω2, ... Vymezená množina výsledků je náhodný jev (random event), značíme ho symbolem A. Všechny možné náhodné jevy tvoří jevové pole A. Dvojice (Ω, A) se nazývá měřitelný prostor (measurable space). Ω se nazývá jistý jev , ∅ nemožný jev. Vztahy mezi jevy a) A ⊆ B znamená, že jev A má za důsledek jev B. Např. jev A je padnutí dvojky, jev B padnutí sudého čísla. b) A ∪ B znamená nastoupení aspoň jednoho z jevů A, B Např. jev A je padnutí lichého čísla, jev B padnutí šestky, A ∪ B znamená padnutí 1, 3, 5, 6. c) A ∩ B znamená společné nastoupení jevů A, B Např. jev A je padnutí čísla menšího než 3, jev B padnutí sudého čísla, A ∩ B znamená padnutí dvojky. d) A \ B znamená nastoupení jevu A za nenastoupení jevu B Např. A je padnutí lichého čísla většího než 1, B padnutí trojky, A \ B je padnutí pětky. e) A = Ω \ A znamená jev opačný k jevu A Např. A je padnutí sudého čísla menšího než 6, A znamená padnutí lichého čísla nebo šestky. f) A ∩ B = ∅ znamená, že jevy A, B jsou neslučitelné Např. A je padnutí jedničky, B je padnutí sudého čísla. g) ω ∈A znamená, že možný výsledek ω je příznivý nastoupení jevu A. Např. A je padnutí násobku tří, ω je padnutí šestky. Některé vlastnosti operací s jevy a) Pro sjednocení a průnik jevů platí komutativní zákon, který pro dva jevy A, B má tvar: A ∪ B = B ∪ A, A ∩ B = B ∩ A. b) Pro sjednocení a průnik tří jevů A, B, C platí zákon asociativní: A∪ (B ∪ C) = (A∪ B) ∪ C, A ∩ (B ∩ C) = (A ∩ B) ∩ C zákon distributivní: A∪ (B ∩ C) = (A∪ B) ∩ (A ∩ C), A ∩ (B ∪ C) = (A ∩ B) ∪ (A∩ C) c) Pro sjednocení a průnik jevů opačných platí de Morganovy zákony, které pro dva jevy A, B zapíšeme takto: A ∪ B = BA ∩ , BA ∩ = BA ∪ . Příklad: Je dán systém složený ze dvou bloků, který jednorázově použijeme. Nechť jev iA znamená bezporuchovou funkci i-tého bloku, i = 1, 2. Pomocí jevů 21 A,A vyjádřete jevy: a) bezporuchová funkce aspoň jednoho bloku: b) bezporuchová funkce obou bloků: c) porucha aspoň jednoho bloku: d) porucha obou bloků: e) porucha právě jednoho bloku: Řešení: Ad a) 21 AA ∪ Ad b) 21 AA ∩ Ad c) 21 AA ∪ Ad d) 21 AA ∩ Ad e) ( ) ( )2121 AAAA ∩∪∩ Zavedení pravděpodobnostního prostoru Motivace: Provádíme opakovaně nezávisle týž náhodný pokus a v každém pokusu sledujeme nastoupení jevu A, kterému říkáme úspěch. Označme n celkový počet pokusů a N(A) počet těch pokusů, kdy nastal úspěch. S rostoucím n pozorujeme, že relativní četnost úspěchu ( ) n AN se blíží číslu P(A), které považujeme za pravděpodobnost úspěchu. (Tento poznatek je znám jako empirický zákon velkých čísel). Ilustrace empirického zákona velkých čísel Provádíme n nezávislých hodů mincí. Padnutí líce považujeme za úspěch. Budeme sledovat závislost relativní četnosti úspěchu na počtu pokusů. (Počet pokusů volíme 2, 5, 10, 20, 50, 100, 200, 500,1000, 2000.) n 2 5 10 20 50 100 200 500 1000 2000 p 0,5 0,2 0,4 0,6 0,54 0,58 0,5 0,488 0,49 0,4975 -200 0 200 400 600 800 1000 1200 1400 1600 1800 2000 2200 n 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 0,55 0,60 0,65 p Vzniká otázka, jak zavést pravděpodobnost, aby byla „zidealizovaným“ protějškem relativní četnosti. Zdálo by se vhodné zavést pravděpodobnost takto: ( ) ( ) n AN limAP n ∞→ = . Jde o tzv. statistickou definici pravděpodobnosti. Příklad: U 1000 náhodně vybraných voličů byly zjišťovány volební preference. Výsledky máme v tabulce: pohlavíPreferovaná strana žena muž celkem ABC 153 130 283 XYZ 220 194 414 ostatní 157 146 303 celkem 530 470 1000 Pomocí relativních četností odhadněte pravděpodobnosti těchto jevů: a) náhodně vybraný volič je žena, která nepreferuje stranu XYZ, b) náhodně vybraný volič je buď žena nebo jedinec, který preferuje ostatní politické strany. Řešení: ad a) Všech žen je 530, těch, které nepreferují stranu XYZ, je 530 – 220 = 310, tedy odhad pravděpodobnosti daného jevu je 31,0 1000 310 = ad b) Zajímá nás relativní četnost sjednocení dvou jevů, a to jevů B1 … „náhodně vybraný volič je žena“ a B2 … „náhodně vybraný volič preferuje ostatní politické strany“. Z vlastností relativní četnosti plyne ( ) ( ) ( ) ( ) 776,0 1000 776 1000 157 1000 303 1000 530 BBpBpBpBBp 212121 ==−+=∩−+=∪ Z matematického hlediska však statistická definice definice není v pořádku, protože počet pokusů je vždy konečný a nelze se přesvědčit o existenci uvedené limity. Proto ve 30. letech 20. století ruský matematik A. A. Kolmogorov (1903 – 1987) vybudoval axiomatickou teorii pravděpodobnosti. Axiomatická teorie pravděpodobnosti zavádí pravděpodobnost jako funkci, která každému jevu přiřazuje číslo mezi 0 a 1 a přitom je zidealizovaným protějškem relativní četnosti. Má tedy všechny vlastnosti relativní četnosti a kromě toho některé další vlastnosti, které vyplývají z vnitřních potřeb matematické teorie. Pravděpodobností (probability) rozumíme funkci P: A → R, která splňuje následující tři axiómy: každému jevu přiřazuje nezáporné číslo (axióm nezápornosti), jistému jevu přiřazuje číslo 1 (axióm normovanosti), sjednocení neslučitelných jevů přiřazuje součet pravděpodobností těchto jevů (axióm spočetné aditivity). Trojice (Ω, A, P) se nazývá pravděpodobnostní prostor (probability space). Je to matematický model jednorázového provedení náhodného pokusu. Ilustrace pravděpodobnostního prostoru Systém axiómů pravděpodobnosti je: - bezesporný (tj. na každém měřitelném prostoru lze sestrojit pravděpodobnost), - neúplný (tj. na každém měřitelném prostoru lze sestrojit pravděpodobností více). Klasická pravděpodobnost V Kolmogorovově axiomatické definici se nic nepraví o tom, jak na daném měřitelném prostoru konkrétně pravděpodobnost zavést. V případě, že základné prostor je konečný a všechny možné výsledky mají stejnou šanci na uskutečnění, můžeme použít klasickou pravděpodobnost: Klasická pravděpodobnost je funkce, která jevu A přiřazuje číslo )(m )A(m )A(P Ω = , kde m(A) je počet možných výsledků příznivých nastoupení jevu A, m(Ω) je počet všech možných výsledků. Příklad na klasickou pravděpodobnost (s využitím vlastností pravděpodobnosti): V dodávce 100 kusů výrobků nemá požadovaný průměr 10 kusů, požadovanou délku 20 kusů a současně nemá požadovaný průměr i délku 5 kusů. Jaká je pravděpodobnost, že náhodně vybraný výrobek z této dodávky má požadovaný průměr i délku? Řešení: Jev A spočívá v tom, že výrobek má požadovaný průměr a jev B v tom, že výrobek má požadovanou délku. Počítáme P(A ∩ B) = ( )BAP ∪ = 1 – P(A ∪ B ) = 1 – [P(A ) + P(B ) – P(A ∩ B )] = 1 – ( 100 5 100 20 100 10 −+ ) = 0,75. Stochasticky nezávislé jevy (stochastically independent events) Za stochasticky nezávislé považujeme takové jevy, kdy informace o nastoupení jednoho jevu nijak neovlivní šance, s nimiž očekáváme nastoupení druhého jevu. V popisné statistice jsme zavedli četnostní nezávislost dvou množin G1, G2 v daném výběrovém souboru pomocí multiplikativního vztahu ( ) ( ) ( )2121 GpGpGGp =∩ . V počtu pravděpodobnosti řekneme, že jevy A1, A2 ∈ A jsou stochasticky nezávislé, jestliže P(A1 ∩ A2) = P(A1) P(A2). Pro tři jevy budeme požadovat, aby i jevy A1 ∩ A2 a A3 byly stochasticky nezávislé, což vede ke vztahu P(A1 ∩ A2 ∩ A3) = P(A1) P(A2) P(A3). Tak můžeme pokračovat pro libovolný počet jevů, tedy jevy A1, ..., An ∈ A jsou stochasticky nezávislé, jestliže platí systém multiplikativních vztahů: :nji1 ≤<≤∀ P(Ai ∩ Aj) = P(Ai) P(Aj) (dvojmístný multiplikativní vztah) :nkji1 ≤<<≤∀ P(Ai ∩ Aj ∩ Ak) = P(Ai) P(Aj) P(Ak) (trojmístný multiplikativní vztah) M P(A1 ∩ ... ∩ An) = P(A1) ... P(An) (n-místný multiplikativní vztah) Jevy A1, A2, ... ∈ A jsou stochasticky nezávislé, jestliže pro všechna přirozená n ≥ 2jsou stochasticky nezávislé jevy A1, ..., An ∈ A. Lze ukázat, že - jev nemožný resp. jev jistý a libovolný jev jsou stochasticky nezávislé jevy, - jestliže v posloupnosti stochasticky nezávislých jevů nahradíme libovolný počet jevů jevy opačnými, stochastická nezávislost se neporuší, - průniky a sjednocení stochasticky nezávislých jevů jsou stochasticky nezávislé. Příklad na stochasticky nezávislé jevy: Nechť A1, A2, A3 jsou stochasticky nezávislé jevy, P(A1) = 1/4, P(A2) = 1/3, P(A3) = 1/2. Jaká je pravděpodobnost, že a) nastane právě jeden z jevů A1, A2, A3, b) nastanou právě dva z jevů A1, A2, A3, c) nastanou nejvýše dva z jevů A1, A2, A3 ? Řešení: ad a) ( ) ( ) ( )( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 24 11 24 632 2 1 3 2 4 3 2 1 3 1 4 3 2 1 3 2 4 1 2 1 3 1 1 4 1 1 2 1 1 3 1 4 1 1 2 1 1 3 1 1 4 1 APAPAPAPAPAPAPAPAP AAAAAAAAAP 321321321 321321321 = ++ =⋅⋅+⋅⋅+⋅⋅= =⋅      −⋅      −+      −⋅⋅      −+      −⋅      −⋅= =++= =∩∩∪∩∩∪∩∩ ad b) ( ) ( ) ( ) ( ) 24 6 )A(P)A(PAPAPAP)A(PAP)A(P)A(P 321321321 =++ ad c) 1-P(A1) P(A2) P(A3) = 24 23 Binomické rozložení pravděpodobností (binomial distribution) Nezávisle opakujeme týž náhodný pokus. Nechť jev Ai znamená úspěch v i-tém pokusu, přičemž P(Ai) = ϑ , i = 1, 2, ..., n. Pravděpodobnost, že v prvních n pokusech úspěch nastane právě x-krát ( nx0 ≤≤ ): ( ) ( ) xnx n 1 x n xP − ϑ−ϑ      = . K výpočtu v systému STATISTICA slouží funkce Binom(x; ϑ; n) Pravděpodobnost, že v prvních n pokusech úspěch nastane nejvýše x1-krát ( nx0 1 ≤≤ ): ( ) ( ) ( ) ( )∑= =+++ 1x 0x n1nnn xPxP1P0P K . K výpočtu v systému STATISTICA slouží funkce IBinom(x1; ϑ ; n) Pravděpodobnost, že v prvních n pokusech úspěch nastane aspoň x0-krát ( nx0 0 ≤≤ ): ( ) ( ) ( ) ( )∑= =++++ n xx nn0n0n 0 xPnP1xPxP K . Výpočet lze provést takto: 1 - IBinom(x0 - 1; ϑ ; n) Pravděpodobnost, že v prvních n pokusech úspěch nastane aspoň x0-krát a nejvýše x1-krát: ( ) ( ) ( ) ( )∑= =++++ 1 0 x xx n1n0n0n xPxP1xPxP K . Výpočet lze provést takto: IBinom(x1; ϑ ; n) - IBinom(x0 - 1; ϑ ; n) Příklad na binomické rozložení pravděpodobností: Firma se účastní čtyř nezávislých výběrových řízení. Pravděpodobnost, že uspěje v kterémkoliv z nich, je pro všechny konkurzy stejná a je rovna 0,7. Jaká je pravděpodobnost, že firma uspěje a) právě 2x b) aspoň 2x c) nejvýše 2x? Řešení: Počet pokusů n = 4, pravděpodobnost úspěchu ϑ = 0,7 ad a) ( ) 2646,03,07,0 2 4 2P 22 4 =      = ad b) ( ) ( ) ( ) 9163,07,0 4 4 3,07,0 3 4 3,07,0 2 4 4P3P2P 4322 444 =      +      +      =++ ad c) ( ) ( ) ( ) 3483,03,07,0 2 4 3,07,0 1 4 3,0 0 4 2P1P0P 2234 444 =      +⋅      +      =++ Výpočet pomocí systému STATISTICA: Otevřeme nový datový soubor se třemi proměnnými P1, P2, P3 a o jednom případu. Do Dlouhého jména proměnné P1 napíšeme =Binom(2;0,7;4) Do Dlouhého jména proměnné P2 napíšeme =1-IBinom(1;0,7;4) Do Dlouhého jména proměnné P3 napíšeme =IBinom(2;0,7;4) Dostaneme tabulku: 1 P1 2 P2 3 P3 1 0,2646 0,9163 0,3483 Podmíněná pravděpodobnost (conditional probability) Opakovaně nezávisle provádíme týž náhodný pokus a sledujeme nastoupení jevu A v těch pokusech, v nichž nastoupil jev H. Podmíněnou relativní četnost A za podmínky H jsme v popisné statistice zavedli vztahem ( ) ( ) ( )Hp HAp H/Ap ∩ = (za předpokladu, že p(H) > 0). Tato podmíněná relativní četnost se s rostoucím počtem pokusů ustaluje kolem konstanty ( ) ( ) ( )HP HAP H/AP ∩ = , kterou považujeme za podmíněnou pravděpodobnost jevu A za podmínky H. Ilustrace podmíněné pravděpodobnosti Příklad na podmíněnou pravděpodobnost: Jaká je pravděpodobnost, že při hodu kostkou padlo sudé číslo, je-li známo, že padlo číslo menší než 5? Řešení: { }61 ,, ωω=Ω K , A … padlo sudé číslo, { }642 ,,A ωωω= , H … padlo číslo menší než 5, { }4321 ,,,H ωωωω= , { }42 ,HA ωω=∩ ( ) ( ) ( ) 2 1 6 4 6 2 HP HAP H/AP == ∩ = Vlastnosti podmíněné pravděpodobnosti Je zřejmé, že jevy A1, A2 jsou stochasticky nezávislé, právě když P(A1/A2) = P(A1) a právě když P(A2/A1) = P(A2). Okamžitě z definice plyne: P(A1 ∩ A2) = P(A1) P(A2/A1) pro P(A1) > 0, P(A1 ∩ A2) = P(A2) P(A1/A2) pro P(A2) > 0. Tento multiplikativní vztah lze zobecnit ve větu o násobení pravděpodobností: P(A1 ∩ A2 ∩ ... ∩ An) = P(A1) P(A2/A1) P(A3/A1 ∩ A2) ... P(An/A1∩ ... ∩ An-1) pro P(A1 ∩ ... ∩ An-1) ≠ 0. Příklad na větu o násobení pravděpodobností: Ze sady 32 karet náhodně vytahujeme po jedné kartě, kterou nikdy nevracíme zpět. Jaká je pravděpodobnost, že eso se objeví až ve 4. tahu? Řešení: Ai … v i-tém tahu nebylo vybráno eso, i = 1, 2, 3, 4 ( ) ( ) ( ) ( ) ( ) 0911,0 29 4 30 26 31 27 32 28 AAA/APAA/APA/APAPAAAAP 32142131214321 =⋅⋅⋅= =∩∩∩=∩∩∩ Eso se objeví až ve 4. tahu s pravděpodobností 0,0911. Vzorec pro úplnou pravděpodobnost a Bayesův vzorec (Formula of total probability and Bayes’ formula) Jestliže H1, …, Hn ∈ A jsou jevy, které tvoří rozklad jistého jevu (tj. jsou neslučitelné a jejich sjednocením je celý základní prostor – říkáme, že tvoří úplný systém hypotéz), pak pravděpodobnost libovolného jevu A ∈ A lze vypočítat pomocí vzorce pro úplnou pravděpodobnost: ( ) )P(A/H)P(HAP i n 1i i∑= = . Ilustrace vzorce pro úplnou pravděpodobnost Podmíněnou pravděpodobnost libovolné hypotézy za podmínky, že nastal jev A - tzv. aposteriorní pravděpodobnost P(Hk/A) - lze vypočítat pomocí Bayesova vzorce: ( ) P(A) )P(A/H)P(H A/HP kk k = . (Původní pravděpodobnost P(Hk) se nazývá apriorní pravděpodobnost). Thomas Bayes (1702 – 1761): Anglický kněz a matematik Příklad na Bayesův vzorec: Pravděpodobnost výskytu vrozené vývojové vady v populaci je 0,015. Na výskyt této vývojové vady má vliv jistý rizikový faktor. U matek, jimž se narodilo dítě s touto vadou, se rizikový faktor vyskytoval v 2,5 % případů, zatímco u matek, které porodily zdravé dítě, se tento faktor vyskytoval pouze v 0,1 % případů. Vypočtěte pravděpodobnost, že matka, která je nositelkou rizikového faktoru, porodí dítě s vadou. Řešení: H1 … dítě má vrozenou vývojovou vadu H2 … dítě nemá vrozenou vývojovou vadu A … matka je nositelkou rizikového faktoru P(H1) = 0,015, P(H2) = 0,985 P(A/H1) = 0,025, P(A/H2) = 0,001 ( ) ( ) ( ) ( ) ( ) ( ) ( ) 276,0 001,0985,0025,0015,0 025,0015,0 H/APHPH/APHP H/APHP A/HP 2211 11 1 = ⋅+⋅ ⋅ = + = Srovnáme-li apriorní pravděpodobnost P(H1) = 0,015 s aposteriorní pravděpodobností P(H1/A) = 0,276, vidíme, že závažnost rizikového faktoru pro výskyt vrozené vývojové vady je velká. Využití Bayesova vzorce v medicíně při hodnocení kvality diagnostického testu Předpokládáme, že máme dvě skupiny objektů – jedna skupina objektů splňuje nějakou podmínku (pozitivní případy), druhá skupina nikoliv (negativní případy). Provedeme diagnostický test, který objekt označí buď jako pozitivní nebo jako negativní. Zavedeme následující označení: jev H … objekt je pozitivní jev H … objekt je negativní jev A … test označí objekt za pozitivní jev A … test označí objekt za negativní Apriorní pravděpodobnost P(H) se nazývá prevalence a vyjadřuje pravděpodobnost výskytu pozitivních objektů v souboru všech objektů. Podmíněná pravděpodobnost P(A/H)se nazývá senzitivita a vyjadřuje pravděpodobnost, že test dá kladný výsledek u pozitivního objektu. Podmíněná pravděpodobnost P(A /H )se nazývá specificita a vyjadřuje pravděpodobnost, že test dá záporný výsledek u negativního objektu. Podmíněná pravděpodobnost P(A /H)se nazývá falešná negativita a vyjadřuje pravděpodobnost, že test dá záporný výsledek u pozitivního objektu. Podmíněná pravděpodobnost PA/H )se nazývá falešná pozitivita a vyjadřuje pravděpodobnost, že test dá kladný výsledek u negativního objektu. Aposteriorní pravděpodobnost P(H/A) se nazývá prediktivní hodnota pozitivního testu a vyjadřuje pravděpodobnost, že objekt je skutečně pozitivní, když test dopadl pozitivně. Aposteriorní pravděpodobnost P(H /A ) se nazývá prediktivní hodnota negativního testu a vyjadřuje pravděpodobnost, že objekt je skutečně negativní, když test dopadl negativně. Uvedené podmíněné pravděpodobnosti neznáme, můžeme je pouze odhadnout pomocí výsledků testu, které zapíšeme do kontingenční tabulky: podmínkavýsledek testu H (pozitivní) H (negativní) celkem A (pozitivní) a b a+b A (negativní) c d c+d celkem a+c b+d n Odhad senzitivity: ( ) ca a TPFH/AP + == ) (true positive fraction – relativní četnost správně klasifikovaných pozitivních případů). Odhad specificity: ( ) db d TNFH/AP + == ) (true negative fraction – relativní četnost správně klasifikovaných negativních případů). Odhad falešné negativity: ( ) ca c FNFH/AP + == ) (false negative fraction – relativní četnost nesprávně klasifikovaných pozitivních případů). Odhad falešné pozitivity: ( ) db b FPFH/AP + == ) (false positive fraction – relativní četnost nesprávně klasifikovaných negativních případů). Je okamžitě zřejmé, že TPF + FNF = 1, TNF + FPF =1. Odhady prediktivních hodnot pozitivního a negativního testu počítáme podle Bayesova vzorce. ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )( )TNF1HPTPFHP TPFHP H/APHPH/APHP H/APHP PVVA/HP −+⋅ ⋅ = + == )) ) ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )( ) ( )( ) ( )( )TPF1HPTNFHP1 TNFHP1 H/APHPH/APHP H/APHP PVNA/HP −+⋅− ⋅− = + == )) ) ) Vidíme, že praktický význam diagnostického testu záleží na prevalenci P(H), odhadu senzitivity TPF a odhadu specificity TNF. Tyto charakteristiky jsou tedy plně určeny prediktivními hodnotami PVV a PVN. Příklad: Použijeme diagnostický test u předpovědi nemoci, která má prevalenci 1 % (tj. pravděpodobnost výskytu této nemoci v celé populaci je 0,01). Je známo, že tento test má 95 % senzitivitu (tj. s pravděpodobností 0,95 dá kladný výsledek u nemocného jedince ) a 95 % specificitu (tj. s pravděpodobností 0,95 dá záporný výsledek u zdravého jedince). Vypočtěte odhad prediktivní hodnoty pozitivního testu a negativního testu. Řešení: Odhad prediktivní hodnoty pozitivního testu: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )( ) 161,0 05,099,095,001,0 95,001,0 TNF1HPTPFHP TPFHP H/APHPH/APHP H/APHP PVVA/HP = ⋅+⋅ ⋅ = −+⋅ ⋅ = + == )) ) ) Znamená to, že jenom 16 % těch jedinců, u nichž vyšel test pozitivně, je skutečně nemocných danou chorobou, zatímco 84 % jedinců, kteří měli test pozitivní, chorobu nemá. Odhad prediktivní hodnoty negativního testu: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )( ) ( )( ) ( )( ) 999,0 05,001,095,099,0 95,099,0 TPF1HPTNFHP1 TNFHP1 H/APHPH/APHP H/APHP PVNA/HP = ⋅+⋅ ⋅ = −+⋅− ⋅− = + == )) ) ) Znamená to, že 99,9 % těch jedinců, u nichž vyšel test negativně, uvedenou chorobu skutečně nemá.