Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Matematika III – 8. týden Pravděpodobnost a náhodné veličiny Jan Slovák Masarykova univerzita Fakulta informatiky 7. 11. – 11. 11. 2016 Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Obsah přednášky 1 Literatura 2 Pravděpodobnost 3 Náhodné veličiny 4 Pravděpodobnostní funkce a hustoty Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Plán přednášky 1 Literatura 2 Pravděpodobnost 3 Náhodné veličiny 4 Pravděpodobnostní funkce a hustoty Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Kde je dobré číst? Karel Zvára, Josef Štěpán, Pravděpodobnost a matematická pravděpodobnost statistika, Matfyzpress, 2006, 230pp. J. Slovák, M. Panák, M. Bulant, Matematika drsně a svižně, Muni Press, Brno 2013, v+773 s., elektronická edice www.math.muni.cz/Matematika_drsne_svizne Marie Budíková, Štěpán Mikoláš, Pavel Osecký, Teorie pravděpodobnosti a matematická statistika (sbírka příkladů), Masarykova univerzita, 3. vydání, 2004, 117 stran, ISBN 80-210-3313-4. Marie Budíková, Tomáš Lerch, Štěpán Mikoláš, Základní statistické metody, Masarykova univerzita, 2005, 170 stran, ISBN 80-210-3886-1. Riley, K.F., Hobson, M.P., Bence, S.J. Mathematical Methods for Physics and Engineering, second edition, Cambridge University Press, Cambridge 2004, ISBN 0 521 89067 5, xxiii + 1232 pp. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Plán přednášky 1 Literatura 2 Pravděpodobnost 3 Náhodné veličiny 4 Pravděpodobnostní funkce a hustoty Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Připomeneme (a trochu zobecníme) pojmy a výsledky z druhé přednášky prvního semestru. Definition (Náhodné jevy) Budeme pracovat s neprázdnou pevně zvolenou množinou Ω všech možných výsledků, kterou nazýváme základní prostor. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Připomeneme (a trochu zobecníme) pojmy a výsledky z druhé přednášky prvního semestru. Definition (Náhodné jevy) Budeme pracovat s neprázdnou pevně zvolenou množinou Ω všech možných výsledků, kterou nazýváme základní prostor. Prvky ω ∈ Ω představují jednotlivé možné výsledky. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Připomeneme (a trochu zobecníme) pojmy a výsledky z druhé přednášky prvního semestru. Definition (Náhodné jevy) Budeme pracovat s neprázdnou pevně zvolenou množinou Ω všech možných výsledků, kterou nazýváme základní prostor. Prvky ω ∈ Ω představují jednotlivé možné výsledky. Systém podmnožin A základního prostoru se nazývá jevové pole a jeho prvky se nazývají jevy, jestliže Ω ∈ A, tj. základní prostor, je jevem, je-li A, B ∈ A, pak A \ B ∈ A, tj. pro každé dva jevy je jevem i jejich množinový rozdíl, je-li Ai ∈ A, i ∈ I nejvýše spočetný systém jevů, pak také jejich sjednocení je jevem, tj. ∪i∈I Ai ∈ A. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Komplement Ac = Ω \ A jevu A je jevem, který nazýváme opačný jev k jevu A. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Komplement Ac = Ω \ A jevu A je jevem, který nazýváme opačný jev k jevu A. Průnik dvou jevů opět jevem, protože pro každé dvě podmnožiny A, B ⊂ Ω platí A \ (Ω \ B) = A ∩ B. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Komplement Ac = Ω \ A jevu A je jevem, který nazýváme opačný jev k jevu A. Průnik dvou jevů opět jevem, protože pro každé dvě podmnožiny A, B ⊂ Ω platí A \ (Ω \ B) = A ∩ B. Jevové pole je tedy systém podmnožin základního prostoru uzavřený na konečné průniky, spočetná sjednocení a množinové rozdíly. Jednotlivé množiny A ∈ A nazýváme náhodné jevy (vzhledem k A). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Terminologie připomíná souvislosti s popisem skutečných jevů a jejich statistickým popisem: celý základní prostor Ω se nazývá jistý jev, prázdná podmnožina ∅ ∈ A se nazývá nemožný jev, Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Terminologie připomíná souvislosti s popisem skutečných jevů a jejich statistickým popisem: celý základní prostor Ω se nazývá jistý jev, prázdná podmnožina ∅ ∈ A se nazývá nemožný jev, jednoprvkové podmnožiny {ω} ∈ Ω se nazývají elementární jevy, Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Terminologie připomíná souvislosti s popisem skutečných jevů a jejich statistickým popisem: celý základní prostor Ω se nazývá jistý jev, prázdná podmnožina ∅ ∈ A se nazývá nemožný jev, jednoprvkové podmnožiny {ω} ∈ Ω se nazývají elementární jevy, společné nastoupení jevů Ai , i ∈ I, odpovídá jevu ∩i∈I Ai , nastoupení alespoň jednoho z jevů Ai , i ∈ I, odpovídá jevu ∪i∈I Ai , Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Terminologie připomíná souvislosti s popisem skutečných jevů a jejich statistickým popisem: celý základní prostor Ω se nazývá jistý jev, prázdná podmnožina ∅ ∈ A se nazývá nemožný jev, jednoprvkové podmnožiny {ω} ∈ Ω se nazývají elementární jevy, společné nastoupení jevů Ai , i ∈ I, odpovídá jevu ∩i∈I Ai , nastoupení alespoň jednoho z jevů Ai , i ∈ I, odpovídá jevu ∪i∈I Ai , A, B ∈ A jsou neslučitelné jevy, je-li A ∩ B = ∅, Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Terminologie připomíná souvislosti s popisem skutečných jevů a jejich statistickým popisem: celý základní prostor Ω se nazývá jistý jev, prázdná podmnožina ∅ ∈ A se nazývá nemožný jev, jednoprvkové podmnožiny {ω} ∈ Ω se nazývají elementární jevy, společné nastoupení jevů Ai , i ∈ I, odpovídá jevu ∩i∈I Ai , nastoupení alespoň jednoho z jevů Ai , i ∈ I, odpovídá jevu ∪i∈I Ai , A, B ∈ A jsou neslučitelné jevy, je-li A ∩ B = ∅, jev A má za důsledek jev B, když A ⊂ B, Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Terminologie připomíná souvislosti s popisem skutečných jevů a jejich statistickým popisem: celý základní prostor Ω se nazývá jistý jev, prázdná podmnožina ∅ ∈ A se nazývá nemožný jev, jednoprvkové podmnožiny {ω} ∈ Ω se nazývají elementární jevy, společné nastoupení jevů Ai , i ∈ I, odpovídá jevu ∩i∈I Ai , nastoupení alespoň jednoho z jevů Ai , i ∈ I, odpovídá jevu ∪i∈I Ai , A, B ∈ A jsou neslučitelné jevy, je-li A ∩ B = ∅, jev A má za důsledek jev B, když A ⊂ B, je-li A ∈ A, pak se jev B = Ω \ A nazývá opačný jev k jevu A, píšeme B = Ac. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Definition (Pravděpodobnost) Pravděpodobnostní prostor je jevové pole A podmnožin (konečného) základního prostoru Ω, na kterém je definována skalární funkce P : A → R s následujícími vlastnosti: je nezáporná, tj. P(A) ≥ 0 pro všechny jevy A, je aditivní, tj. P(∪i∈I Ai ) = i∈I P(Ai ), pro každý nejvýše spočetný systém po dvou disjunktních jevů, pravděpodobnost jistého jevu je 1. Funkci P nazýváme pravděpodobností na jevovém poli (Ω, A). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Definition (Pravděpodobnost) Pravděpodobnostní prostor je jevové pole A podmnožin (konečného) základního prostoru Ω, na kterém je definována skalární funkce P : A → R s následujícími vlastnosti: je nezáporná, tj. P(A) ≥ 0 pro všechny jevy A, je aditivní, tj. P(∪i∈I Ai ) = i∈I P(Ai ), pro každý nejvýše spočetný systém po dvou disjunktních jevů, pravděpodobnost jistého jevu je 1. Funkci P nazýváme pravděpodobností na jevovém poli (Ω, A). Důsledky Pro všechny jevy platí P(Ac) = 1 − P(A). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Definition (Pravděpodobnost) Pravděpodobnostní prostor je jevové pole A podmnožin (konečného) základního prostoru Ω, na kterém je definována skalární funkce P : A → R s následujícími vlastnosti: je nezáporná, tj. P(A) ≥ 0 pro všechny jevy A, je aditivní, tj. P(∪i∈I Ai ) = i∈I P(Ai ), pro každý nejvýše spočetný systém po dvou disjunktních jevů, pravděpodobnost jistého jevu je 1. Funkci P nazýváme pravděpodobností na jevovém poli (Ω, A). Důsledky Pro všechny jevy platí P(Ac) = 1 − P(A). Additivnost platí pro jakýkoliv spočetný počet neslučitelných jevů Ai ⊂ Ω, i ∈ I, tj. P(∪i∈I Ai ) = i∈I P(Ai ), kdykoliv je Ai ∩ Aj = ∅, i = j, i, j ∈ I. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Připomeňme si klasickou konečnou pravděpodobnost. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Připomeňme si klasickou konečnou pravděpodobnost. Definition Nechť Ω je konečný základní prostor a nechť jevové pole A je právě systém všech podmnožin v Ω. Klasická pravděpodobnost je pravděpodobnostní prostor (Ω, A, P) s pravděpodobnostní funkcí P : A → R, P(A) = |A| |Ω| . Zjevně takto zadaná funkce skutečně definuje pravděpodobnost. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Peterburgský paradox (Bernoulli, 1738) Typický příklad klasické pravděpodobnosti jsou jevy související s házením mincí. Představme si následující pravidla kasina: Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Peterburgský paradox (Bernoulli, 1738) Typický příklad klasické pravděpodobnosti jsou jevy související s házením mincí. Představme si následující pravidla kasina: Návštěvník zaplatí vklad C a poté hází mincí. Je-li T počet hodů potřebných k první hlavě, pak obdrží výhru 2T . Jaká je „fér hodnota“ pro vklad C? Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Peterburgský paradox (Bernoulli, 1738) Typický příklad klasické pravděpodobnosti jsou jevy související s házením mincí. Představme si následující pravidla kasina: Návštěvník zaplatí vklad C a poté hází mincí. Je-li T počet hodů potřebných k první hlavě, pak obdrží výhru 2T . Jaká je „fér hodnota“ pro vklad C? Pravděpodobnost, že padne hlava je u férové mince 1/2, je proto P(T = k) = 2−k. Pravděpodobnost, že po nějakém konečném počtu hodů hra skončí je dána součtem ∞ k=1 2−k = 1. Proto je pravděpodobnost jevu, že stále padá orel nulová. Sečteme-li všechny pravděpodobnosti výsledků vynásobených výhrami 2k, dostaneme ∞ 1 1 = ∞. Zdá se proto, že se vyplatí vložit i velký vklad. . . Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Peterburgský paradox (Bernoulli, 1738) Typický příklad klasické pravděpodobnosti jsou jevy související s házením mincí. Představme si následující pravidla kasina: Návštěvník zaplatí vklad C a poté hází mincí. Je-li T počet hodů potřebných k první hlavě, pak obdrží výhru 2T . Jaká je „fér hodnota“ pro vklad C? Pravděpodobnost, že padne hlava je u férové mince 1/2, je proto P(T = k) = 2−k. Pravděpodobnost, že po nějakém konečném počtu hodů hra skončí je dána součtem ∞ k=1 2−k = 1. Proto je pravděpodobnost jevu, že stále padá orel nulová. Sečteme-li všechny pravděpodobnosti výsledků vynásobených výhrami 2k, dostaneme ∞ 1 1 = ∞. Zdá se proto, že se vyplatí vložit i velký vklad. . . Ve skutečnosti simulací hry zjistíme, že nezávisle na počtu pokusů se prakticky všechny výhry budou pohybovat v rozmezí T do 6. Důvodem je, že vysoké výhry jsou velice nepravděpodobné a proto je při reálných úvahách nelze brát vážně. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Podmíněná pravděpodobnost Obvyklé je také klást dotazy s dodatečnou podmínkou. Např. „jaká je pravděpodobnost, že při hodu dvěmi kostkami padly dvě pětky, je-li součet hodnot deset?“. Připomeneme, že formalizovat takové úvahy umíme následovně. Definition Nechť H je jev s nenulovou pravděpodobností v jevovém poli A v pravděpodobnostním prostoru (Ω, A, P). Podmíněná pravděpodobnost P(A|H) jevu A ∈ A vzhledem k hypotéze H je definována vztahem P(A|H) = P(A ∩ H) P(H) . Definice odpovídá požadavku, že jevy A a H nastanou zároveň, za předpokladu, že A nastal s pravděpodobností P(A ∩ H)/P(A). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Podmíněná pravděpodobnost Obvyklé je také klást dotazy s dodatečnou podmínkou. Např. „jaká je pravděpodobnost, že při hodu dvěmi kostkami padly dvě pětky, je-li součet hodnot deset?“. Připomeneme, že formalizovat takové úvahy umíme následovně. Definition Nechť H je jev s nenulovou pravděpodobností v jevovém poli A v pravděpodobnostním prostoru (Ω, A, P). Podmíněná pravděpodobnost P(A|H) jevu A ∈ A vzhledem k hypotéze H je definována vztahem P(A|H) = P(A ∩ H) P(H) . Definice odpovídá požadavku, že jevy A a H nastanou zároveň, za předpokladu, že A nastal s pravděpodobností P(A ∩ H)/P(A). Je také vidět přímo z definice, hypotéza H a jev A jsou nezávislé tehdy a jen tehdy, je-li P(A) = P(A|H). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Bayesovy věty Přepsáním formule pro podmíněnou pravděpodobnost dostáváme P(A ∩ B) = P(B ∩ A) = P(A)P(B|A) = P(B)P(A|B). Theorem (Bayesovy věty) Pro pravděpodobnost jevů A a B platí 1 P(A|B) = P(A)P(B|A) P(B) . 2 P(A|B) = P(A)P(B|A) P(A)P(B|A)+P(A )P(B|A ) . Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Bayesovy věty Přepsáním formule pro podmíněnou pravděpodobnost dostáváme P(A ∩ B) = P(B ∩ A) = P(A)P(B|A) = P(B)P(A|B). Theorem (Bayesovy věty) Pro pravděpodobnost jevů A a B platí 1 P(A|B) = P(A)P(B|A) P(B) . 2 P(A|B) = P(A)P(B|A) P(A)P(B|A)+P(A )P(B|A ) . Důkaz. První tvrzení je přepsáním předchozí formule, druhé z prvého plyne doszením P(B) = P(A)P(B|A) + P(A )P(B|A ). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Příklad – testování Předpokládejme, že předpokladem přijetí studentů na univerzitu jsou testy způsobilosti ke studiu. Inteligentní osoba v něm má 99% úspěšnost. Zároveň předpokládejme, že úspěšnost neinteligentních osob je 0.5%. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Příklad – testování Předpokládejme, že předpokladem přijetí studentů na univerzitu jsou testy způsobilosti ke studiu. Inteligentní osoba v něm má 99% úspěšnost. Zároveň předpokládejme, že úspěšnost neinteligentních osob je 0.5%. S jakou pravděpodobností je náhodně vybraný student/ka univerzity inteligentní, jestliže je v populaci je p promile inteligentních osob (tj. p osob z tisíce považujeme za inteligentní). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Příklad – testování Předpokládejme, že předpokladem přijetí studentů na univerzitu jsou testy způsobilosti ke studiu. Inteligentní osoba v něm má 99% úspěšnost. Zároveň předpokládejme, že úspěšnost neinteligentních osob je 0.5%. S jakou pravděpodobností je náhodně vybraný student/ka univerzity inteligentní, jestliže je v populaci je p promile inteligentních osob (tj. p osob z tisíce považujeme za inteligentní). Označme A jev, že je daná osoba je inteligentní, a B jev, že prošla testem. Dle Bayesovy věty je hledaná pravděpodobnost P(A|B) = p/1000 · 99/100 p/1000 · 99/100 + (1000 − p)/1000 · 5/1000 Jestliže zvolíme za p nějaké konkrétní četnosti, dostaneme příslušné očekávatelné spolehlivosti testu. V následující tabulce je spočten výsledek pro několik p: Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty p 500 100 10 1 0.1 P(A|B) 0.99 0,96 0.67 0.17 0.02 Pokud stejné číselné zadání použijeme pro screening některé nemoci, řekněme HIV pozitivity, dostáváme hrozné výsledky! Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Výsledek asi neodpovídá naší intuici a může se zdát šokující ve vztahu k použití takovýchto testů. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Výsledek asi neodpovídá naší intuici a může se zdát šokující ve vztahu k použití takovýchto testů. Evidentně prostý výběr náhodné osoby a použití jediného testu, byť velmi citlivého, specifického a účinného, nejsou vhodné ani na otestování skutečného stavu populace, ani na preventivní vyšetření jednotlivců, pokud nemáme další podpůrné informace a lepší nástroje. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Výsledek asi neodpovídá naší intuici a může se zdát šokující ve vztahu k použití takovýchto testů. Evidentně prostý výběr náhodné osoby a použití jediného testu, byť velmi citlivého, specifického a účinného, nejsou vhodné ani na otestování skutečného stavu populace, ani na preventivní vyšetření jednotlivců, pokud nemáme další podpůrné informace a lepší nástroje. Právě matematická statistika dává nástroje na kvalifikovanější postupy v medicínské i průmyslové diagnostice, ekonomických modelech, vyhodnocování experimentálních dat atd. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Plán přednášky 1 Literatura 2 Pravděpodobnost 3 Náhodné veličiny 4 Pravděpodobnostní funkce a hustoty Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Vraťme se k jednoduchému a názornému příkladu statistik kolem výsledků studentů1 v daném předmětu. Je a není podobný klasické pravděpodobnosti a s ní související statistice při házení kostkou. 1 Myslíme samozřejmě na „studenty a studentky“, pro zestručnění textu ale používám podobně jako v legislativních textech bezpohlavní označní „student“ Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Vraťme se k jednoduchému a názornému příkladu statistik kolem výsledků studentů1 v daném předmětu. Je a není podobný klasické pravděpodobnosti a s ní související statistice při házení kostkou. Na jedné straně jsme připustili pouze konečný počet možných bodových hodnocení (celá čísla od 0 do 20), zároveň ale není patrně vhodné představovat si výsledky jednotlivých studentů jako analogii nezávislého házení kostkou (to by byla skutečně divně vedená přednáška). 1 Myslíme samozřejmě na „studenty a studentky“, pro zestručnění textu ale používám podobně jako v legislativních textech bezpohlavní označní „student“ Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Vraťme se k jednoduchému a názornému příkladu statistik kolem výsledků studentů1 v daném předmětu. Je a není podobný klasické pravděpodobnosti a s ní související statistice při házení kostkou. Na jedné straně jsme připustili pouze konečný počet možných bodových hodnocení (celá čísla od 0 do 20), zároveň ale není patrně vhodné představovat si výsledky jednotlivých studentů jako analogii nezávislého házení kostkou (to by byla skutečně divně vedená přednáška). Místo toho máme na základním prostoru Ω všech studentů definovánu funkci bodového ohodnocení X : Ω → R. Je to typický příklad náhodné veličiny. S každou náhodnou veličinou potřebujeme umět pracovat s vhodnou množinou jevů. Zpravidla požadujeme, abychom mohli pracovat s pravděpodobnostmi příslušnosti hodnoty X do předem zadaného intervalu. 1 Myslíme samozřejmě na „studenty a studentky“, pro zestručnění textu ale používám podobně jako v legislativních textech bezpohlavní označní „student“ Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Na prostoru Rk uvažujme nejmenší jevové pole B obsahující všechny k–rozměrné intervaly. Množinám v B říkáme Borelovské množiny na Rk. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Na prostoru Rk uvažujme nejmenší jevové pole B obsahující všechny k–rozměrné intervaly. Množinám v B říkáme Borelovské množiny na Rk. Definition (Náhodné veličiny a distribuční funkce) Náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) je taková funkce X : Ω → R, že vzor X−1(B) patří do A pro každou Borelovskou množinu B ∈ B na R. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Na prostoru Rk uvažujme nejmenší jevové pole B obsahující všechny k–rozměrné intervaly. Množinám v B říkáme Borelovské množiny na Rk. Definition (Náhodné veličiny a distribuční funkce) Náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) je taková funkce X : Ω → R, že vzor X−1(B) patří do A pro každou Borelovskou množinu B ∈ B na R. Náhodný vektor (X1, . . . , Xk) na (Ω, A, P) je k–tice náhodných veličin. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Definice náhodné veličiny zajišťuje, že pro všechny −∞ ≤ a ≤ b ≤ ∞ existuje pravděpodobnost P(a ≤ X < b), kde používáme stručné značení pro jev A = (ω ∈ Ω; a ≤ X(ω) < b)). Definition Distribuční funkcí náhodné veličiny X je funkce F : R → R definovaná pro všechny x ∈ R vztahem F(x) = P(X < x). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Definice náhodné veličiny zajišťuje, že pro všechny −∞ ≤ a ≤ b ≤ ∞ existuje pravděpodobnost P(a ≤ X < b), kde používáme stručné značení pro jev A = (ω ∈ Ω; a ≤ X(ω) < b)). Definition Distribuční funkcí náhodné veličiny X je funkce F : R → R definovaná pro všechny x ∈ R vztahem F(x) = P(X < x). Distribuční funkcí náhodného vektoru (X1, . . . , Xk) je funkce F : Rk → R definovaná pro všechny (x1, . . . , xk) ∈ Rk vztahem F(x) = P(X1 < x1 ∧ · · · ∧ Xk < xk). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Diskrétní náhodné veličiny Předpokládejme, že pro náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) nabývá jen konečně mnoha hodnot x1, x2, . . . , xn ∈ R. Pak existuje tzv. pravděpodobnostní funkce f (x) taková, že f (x) = P(X = xi ) x = xi 0 jinak. Evidentně n 1 f (xi ) = 1. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Diskrétní náhodné veličiny Předpokládejme, že pro náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) nabývá jen konečně mnoha hodnot x1, x2, . . . , xn ∈ R. Pak existuje tzv. pravděpodobnostní funkce f (x) taková, že f (x) = P(X = xi ) x = xi 0 jinak. Evidentně n 1 f (xi ) = 1. Takové náhodné veličině se říká diskrétní. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Diskrétní náhodné veličiny Předpokládejme, že pro náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) nabývá jen konečně mnoha hodnot x1, x2, . . . , xn ∈ R. Pak existuje tzv. pravděpodobnostní funkce f (x) taková, že f (x) = P(X = xi ) x = xi 0 jinak. Evidentně n 1 f (xi ) = 1. Takové náhodné veličině se říká diskrétní. Každá náhodná veličina definovaná pro klasickou pravděpodobnost je diskrétní. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Diskrétní náhodné veličiny Předpokládejme, že pro náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) nabývá jen konečně mnoha hodnot x1, x2, . . . , xn ∈ R. Pak existuje tzv. pravděpodobnostní funkce f (x) taková, že f (x) = P(X = xi ) x = xi 0 jinak. Evidentně n 1 f (xi ) = 1. Takové náhodné veličině se říká diskrétní. Každá náhodná veličina definovaná pro klasickou pravděpodobnost je diskrétní. Obdobně lze definici pravděpodobnostní funkce rozšířit na veličiny se spočetně mnoha hodnotami (pracujeme pak s absolutně konvergentními nekonečnými řadami :-) Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Spojité náhodné veličiny I když hodnoty náhodné veličiny X nejsou diskrétní, můžeme postupovat podobně s užitím nástrojů diferenciálního a integrálního počtu. Intuitivně lze uvažovat takto: hustotu f (x) pravděpodobnosti pro X si představíme jako P(x ≤ X < x + dx) = f (x)dx. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Spojité náhodné veličiny I když hodnoty náhodné veličiny X nejsou diskrétní, můžeme postupovat podobně s užitím nástrojů diferenciálního a integrálního počtu. Intuitivně lze uvažovat takto: hustotu f (x) pravděpodobnosti pro X si představíme jako P(x ≤ X < x + dx) = f (x)dx. To znamená, že chceme pro −∞ ≤ a ≤ b ≤ ∞ P(a ≤ X < b) = b a f (x)dx. (∗) Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Spojité náhodné veličiny I když hodnoty náhodné veličiny X nejsou diskrétní, můžeme postupovat podobně s užitím nástrojů diferenciálního a integrálního počtu. Intuitivně lze uvažovat takto: hustotu f (x) pravděpodobnosti pro X si představíme jako P(x ≤ X < x + dx) = f (x)dx. To znamená, že chceme pro −∞ ≤ a ≤ b ≤ ∞ P(a ≤ X < b) = b a f (x)dx. (∗) Definition Náhodná veličina X, pro kterou existuje její hustota pravděpodobnosti splňující (∗), se nazývá spojitá. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Theorem Pro každou náhodnou veličinu X má její dstribuční funkce F : R → [0, 1] následující vlastnosti 1 F je neklesající funkce; 2 F má v každém bodě x ∈ R limitu zleva i limitu zprava; 3 F je zleva spojitá; 4 v nevlastních bodech má F limity lim x→∞ F(x) = 1, lim x→−∞ F(x) = 0; (1) 5 pravděpodobnost, že X nabývá právě hodnotu x je dána P(X = x) = lim y→x+ F(y) − F(x). (2) 6 Distribuční funkce náhodné veličiny má vždy nejvýše spočetně mnoho bodů nespojitosti. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Důkaz věty je založený na pozorování vyplývajícím vcelku jednoduše z axiomů pravděpodobnosti: Theorem Uvažme pravděpodobnostní prostor (Ω, A, P) a neklesající řetězec jevů A1 ⊂ A2 ⊂ . . . . Pak platí P ∞ i=1 Ai = lim i→∞ P(Ai ). Pokud je naopak A1 ⊃ A2 ⊃ A3 ⊃ . . . , potom platí P ∞ i=1 Ai = lim i→∞ P(Ai ). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Plán přednášky 1 Literatura 2 Pravděpodobnost 3 Náhodné veličiny 4 Pravděpodobnostní funkce a hustoty Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Diskrétní náhodné veličiny Jestliže náhodná veličina X na pravděpodobnostním prostoru (Ω, A, P) nabývá jen konečně nebo spočetně mnoha hodnot x1, x2, · · · ∈ R, pak existuje pravděpodobnostní funkce f (x) taková, že f (x) = P(X = xi ) x = xi 0 jinak. Spojité náhodné veličiny Hustota f (x) pravděpodobnosti pro náhodnou veličinu X je funkce splňující pro −∞ ≤ a ≤ b ≤ ∞ P(a < X < b) = b a f (x)dx. (∗) Náhodná veličina X, pro kterou existuje její hustota pravděpodobnosti splňující (∗), se nazývá spojitá. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Degenerované a alternativní rozdělení. Degenerované rozdělení D(µ) odpovídá konstantní hodnotě X = µ. Distribuční funkce FX a pravděpodobnostní funkce fX jsou tedy rovny FX (t) = 0 t ≤ µ 1 t > µ fX (t) = 1 t = µ 0 jinak . Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Degenerované a alternativní rozdělení. Degenerované rozdělení D(µ) odpovídá konstantní hodnotě X = µ. Distribuční funkce FX a pravděpodobnostní funkce fX jsou tedy rovny FX (t) = 0 t ≤ µ 1 t > µ fX (t) = 1 t = µ 0 jinak . Alternativní rozdělení A(p) popisuje pokus s pouze dvěma možnými výsledky, kterým budeme říkat zdar a nezdar. Náhodné veličině X pro určitost přiřadíme hodnotu 0 pro nezdar a 1 pro zdar. Pokud má zdar pravděpodobnost p, pak nezdar musí mít pravděpodobnost 1 − p. Jsou tedy distribuční a pravděpodobnostní funkce tvaru: FX (t) =    0 t ≤ 0 1 − p 0 < t ≤ 1 1 t > 1 fX (t) =    p t = 1 1 − p t = 0 0 jinak . Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Binomické rozdělení Bi(n, p) odpovídá n–krát nezávisle opakovanému pokusu popsanému alternativním rozdělením, přičemž naše náhodná veličina měří počet zdarů. Je tedy zjevné, že pravděpodobnostní funkce bude mít nenulové hodnoty právě v celých číslech 0, . . . , n odpovídajícím celkovému počtu úspěchů v pokusech (a nezáleží nám na pořadí). Je tedy fX (t) = n t pt(1 − p)1−t t ∈ {0, 1, . . . , n} 0 jinak . Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Na obrázku jsou pravděpodobnostní funkce pro Bi(50, 0.2), Bi(50, 0.5) a Bi(50, 0.9). Rozdělení pravděpodobnosti dobře odpovídá intuici, že nejvíce výsledků bude blízko u hodnoty np: Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty S binomickým rozdělením se potkáváme velice často v praktických úlohách. Jednou z nich je popis náhodné veličiny, která popisuje počet X předmětů v jedné zvolené příhrádek z n možných, do nichž jsme náhodně rozdělili r předmětů. Umístění kteréhokoliv předmětu do pevně zvolené přihrádky má pravděpodobnost 1/n (každá z nich je stejně pravděpodobná). Zjevně tedy bude pro jakýkoliv počet k = 0, . . . , r P(X = k) = r k 1 n k 1 − 1 n r−k = r k (n − 1)r−k nr , jde proto o rozložení X typu Bi(r, 1/n). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Jestliže nám bude vzrůstat počet přihrádek n společně s počtem předmětů rn tak, že v průměru nám na každou přihrádku bude připadat (přibližně) stejný počet prvků λ, můžeme dobře vyjádřit chování našeho rozdělení veličin Xn při limitním přechodu n → ∞: Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Jestliže nám bude vzrůstat počet přihrádek n společně s počtem předmětů rn tak, že v průměru nám na každou přihrádku bude připadat (přibližně) stejný počet prvků λ, můžeme dobře vyjádřit chování našeho rozdělení veličin Xn při limitním přechodu n → ∞: lim n→∞ P(Xn = k) = lim n→∞ rn k (n − 1)rn−k nrn = lim n→∞ rn(rn − 1) . . . (rn − k + 1) (n − 1)k 1 k! 1 − 1 n rn = λk k! lim n→∞ 1 + −rn n rn rn = λk k! e−λ protože obecně funkce (1 + x/n)n konvergují stejnoměrně k funkci ex na každém omezeném intervalu v R. To dává Poissonovo rozdělení Po(λ). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Poissonovo rozdělení Poissonovo rozdělení Po(λ) popisuje např. události, které se vyskytují náhodně v čase a přitom pravděpodobnost výskytu v následujícím časovém intervalu o jednotkové délce nezávisí na předchozí historii a je rovna stále stejné hodnotě λ. V praxi jsou takové procesy spojeny např. s poruchovostí strojů a zařízení. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Poissonovo rozdělení Poissonovo rozdělení Po(λ) popisuje např. události, které se vyskytují náhodně v čase a přitom pravděpodobnost výskytu v následujícím časovém intervalu o jednotkové délce nezávisí na předchozí historii a je rovna stále stejné hodnotě λ. V praxi jsou takové procesy spojeny např. s poruchovostí strojů a zařízení. Theorem (Poissonova věta) Jsou-li Xn ∼ Bi(n, pn) a limn→∞ n · pn = λ je konečná, pak lim n→∞ P(Xn = k) = P(X = k), kde X ∼ Po(λ). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Příklady spojitých rozdělení Nejjednodušší je tzv. rovnoměrné rozdělení. Jestliže chceme, aby pravděpodobnost každé hodnoty v předem daném intervalu (a, b) ⊂ R byla stejná, pak hustota fX našeho rozdělení náhodné veličiny X má být konstantní. Pak ovšem jsou pro libovolná reálná čísla −∞ < a < b < ∞ jen jediné možné hodnoty fX (t) =    0 t ≤ a 1 b−a t ∈ (a, b) 0 t ≥ b, FX (t) =    0 t ≤ a t−a b−a t ∈ (a, b) 1 t ≥ b. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Exponenciální rozdělení ex(λ) je dalším rozdělením, které je snadno určeno požadovanými vlastnostmi náhodné veličiny. Předpokládejme, že sledujeme výskyt náhodného jevu tak, že výskyty v nepřekrývajících se intervalech jsou nezávislé. Je-li tedy P(t) pravděpodobnost, že jev nenastane během intervalu délky t, pak nutně P(t + s) = P(t)P(s) pro všechna t, s > 0. Předpokládejme navíc diferencovatelnost funkce P a P(0) = 1. Pak ln P(t + s) = ln P(t) + ln P(s). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Exponenciální rozdělení ex(λ) je dalším rozdělením, které je snadno určeno požadovanými vlastnostmi náhodné veličiny. Předpokládejme, že sledujeme výskyt náhodného jevu tak, že výskyty v nepřekrývajících se intervalech jsou nezávislé. Je-li tedy P(t) pravděpodobnost, že jev nenastane během intervalu délky t, pak nutně P(t + s) = P(t)P(s) pro všechna t, s > 0. Předpokládejme navíc diferencovatelnost funkce P a P(0) = 1. Pak ln P(t + s) = ln P(t) + ln P(s). Limitním přechodem: lim s→0+ ln P(t + s) − ln P(t) s = (ln P) (0) = −λ. Odtud vyplývá diferenciální rovnice (ln P(t)) = −λ. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Odtud dostáváme ln P(t) = −λt + C a počáteční podmínka dává jediné řešení P(t) = e−λt . Všimněme si, že z definice našich objektů vyplývá, že λ > 0. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Odtud dostáváme ln P(t) = −λt + C a počáteční podmínka dává jediné řešení P(t) = e−λt . Všimněme si, že z definice našich objektů vyplývá, že λ > 0. Uvažme náhodnou veličinu X udávající okamžik, kdy náš jev poprvé nastane. Zřejmě tedy je distribuční funkce rozdělení pro X dána FX (t) = 1 − P(t) = 1 − e−λt t > 0 0 t ≤ 0. Je vidět, že je to rostoucí funkce s hodnotami mezi nulou a jedničkou a správnými limitami v ±∞. Hustotu tohoto rozdělení dostaneme derivováním distribuční funkce, tj. fX = λe−λt t > 0 0 t ≤ 0. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Normální rozdělení je ze všech nejdůležitější. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Normální rozdělení je ze všech nejdůležitější. Jestliže v binomiálním rozdělení zachováme konstatní úspěšnost p, ale budeme přidávat počet pokusů n, bude pravděpodobnostní funkce kupodivu pořád mít podobný tvar (i když jiné rozměry). Na obrázku při rostoucím n se budou vynesené bodové hodnoty slévat do křivky, pro hodnoty Bi(500, 0.5) a Bi(5000, 0.5) je výsledek vidět na obrázku níže. Třetí křivka na obrázku je grafem funkce f (x) = e−x2/2. Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Hledáme-li podobné spojité rozdělení, potřebovali bychom spočíst b a e−x2/2 dx což není pomocí elementárních funkcí možné. Je však docela snadné ověřit (výpočtem Rn e−(x2+y2)/2 dxdy), že příslušný nevlastní integrál konverguje k hodnotě ∞ −∞ e−x2/2 dx = √ 2π. Odtud vyplývá, že možná hustota rozdělení náhodného rozdělení může být fX (x) = 1 √ 2π e−x2/2 . Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Hledáme-li podobné spojité rozdělení, potřebovali bychom spočíst b a e−x2/2 dx což není pomocí elementárních funkcí možné. Je však docela snadné ověřit (výpočtem Rn e−(x2+y2)/2 dxdy), že příslušný nevlastní integrál konverguje k hodnotě ∞ −∞ e−x2/2 dx = √ 2π. Odtud vyplývá, že možná hustota rozdělení náhodného rozdělení může být fX (x) = 1 √ 2π e−x2/2 . Rozdělení s touto hustotou se nazývá normální rozdělení N(0, 1). Příslušnou distribuční funkci FX (x) = 1 √ 2π x −∞ e−x2/2 dx nelze vyjádřit pomocí elementárních funkcí, přesto se s ní numericky běžně počítá (pomocí tabulek nebo softwarových aplikací). Literatura Pravděpodobnost Náhodné veličiny Pravděpodobnostní funkce a hustoty Hledáme-li podobné spojité rozdělení, potřebovali bychom spočíst b a e−x2/2 dx což není pomocí elementárních funkcí možné. Je však docela snadné ověřit (výpočtem Rn e−(x2+y2)/2 dxdy), že příslušný nevlastní integrál konverguje k hodnotě ∞ −∞ e−x2/2 dx = √ 2π. Odtud vyplývá, že možná hustota rozdělení náhodného rozdělení může být fX (x) = 1 √ 2π e−x2/2 . Rozdělení s touto hustotou se nazývá normální rozdělení N(0, 1). Příslušnou distribuční funkci FX (x) = 1 √ 2π x −∞ e−x2/2 dx nelze vyjádřit pomocí elementárních funkcí, přesto se s ní numericky běžně počítá (pomocí tabulek nebo softwarových aplikací). Hustotě fX se také často říká Gaussova křivka.