Základy matematiky a statistiky pro humanitní obory II Vojtěch Kovář Fakulta informatiky, Masarykova univerzita Botanická 68a, 602 00 Brno, Czech Republic xkovar3@fi.muni.cz část 5 Vojtěch Kovář (FI MU Brno) PLIN004 část 5 1 / 17 Obsah přednášky Obsah přednášky Podmíněná pravděpodobnost Nezávislé jevy Bayesův vzorec „Paradoxy” N-gramové modely Vojtěch Kovář (FI MU Brno) PLIN004 část 5 2 / 17 Podmíněná pravděpodobnost Podmíněná pravděpodobnost Podmíněná pravděpodobnost ▶ Často víme něco, co pravděpodobnost ovlivní ▶ Pravděpodobnost jevu A za předpokladu, že nastal jev B ▶ značíme P(A|B) ▶ hodnotu jevu B známe, vyčíslujeme pravděpodobnost jevu A ▶ např. pravděpodobnost deště ve 12 hodin, pokud pršelo v 11:30 ▶ např. pravděpodobnost, že součet dvou hodů kostkou bude 8, pokud první výsledek byl 3 Vojtěch Kovář (FI MU Brno) PLIN004 část 5 3 / 17 Podmíněná pravděpodobnost Podmíněná pravděpodobnost Podmíněná pravděpodobnost ▶ Pravděpodobnost jevu A za předpokladu, že nastal jev B ▶ např. pravděpodobnost deště zítra v poledne za předpokladu, že dnes skončíme o 10 minut dřív ▶ např. pravděpodobnost, že člověk je bezdomovec, pokud má vousy delší než 5 cm ▶ např. pravděpodobnost, že chci napsat „zblázním” za předpokladu, že předchozí dvě slova byla „já se” ▶ → jevy A a B mohou, ale nemusí mít kauzální souvislost Vojtěch Kovář (FI MU Brno) PLIN004 část 5 4 / 17 Podmíněná pravděpodobnost Podmíněná pravděpodobnost Podmíněná pravděpodobnost ▶ Definice podmíněné pravděpodobnosti ▶ P(A|B) = P(A, B)/P(B) ▶ kde P(A, B) je pravděpodobnost, že jevy A a B nastanou současně Vojtěch Kovář (FI MU Brno) PLIN004 část 5 5 / 17 Nezávislé jevy Nezávislé jevy Nezávislé jevy ▶ Jevy A a B jsou nezávislé, pokud ▶ to, jestli nastal jev B, neovlivní pravděpodobnost jevu A ▶ a naopak ▶ P(A|B) = P(A) ∧ P(B|A) = P(B) ▶ Pro nezávislé jevy platí ▶ P(A, B) = P(A) ∗ P(B) ▶ pozor: platí pouze pro nezávislé jevy ▶ Reálné jevy nebývají téměř nikdy dokonale nezávislé ▶ přesto nezávislost často předpokládáme ▶ abychom byli schopni snadněji vyčíslit pravděpodobnosti Vojtěch Kovář (FI MU Brno) PLIN004 část 5 6 / 17 Bayesův vzorec Bayesův vzorec Bayesův vzorec ▶ Převod mezi podmíněnými pravděpodobnostmi ▶ P(A|B) = P(B|A)∗P(A) P(B) ▶ Důkaz ▶ P(A|B) = P(A, B)/P(B) ▶ P(B|A) = P(B, A)/P(A) ▶ P(A|B) ∗ P(B) = P(A, B) = P(B|A) ∗ P(A) Vojtěch Kovář (FI MU Brno) PLIN004 část 5 7 / 17 „Paradoxy” Příklad 1 „Paradoxy”: Aplikace Bayesova vzorce – I ▶ Mějme následující soutěž ▶ troje dveře, za jedněmi z nich je výhra ▶ moderátor, který ví, kde je výhra ▶ vybereme si dveře 1 ▶ moderátor soutěže otevře dveře 3 ▶ za nimi výhra není ▶ nyní máme možnost svou volbu změnit ▶ Vyplatí se změnit volbu a vybrat dveře 2? Vojtěch Kovář (FI MU Brno) PLIN004 část 5 8 / 17 „Paradoxy” Příklad 1 „Paradoxy”: Aplikace Bayesova vzorce – I (2) ▶ Označme si události následovně ▶ V1, V2, V3: výhra je za dveřmi 1, 2 nebo 3 ▶ X: moderátor otevřel dveře 3 ▶ (předpokládáme, že v případě, že výhra je za dveřmi, které jsme si vybrali, se moderátor rozhoduje náhodně) ▶ Vyjádřeme pravděpodobnosti ▶ P(V1) = P(V2) = P(V3) = 1/3 ▶ P(X|V1) = 1/2 ▶ (vybrali jsme správně, moderátor rozhoduje náhodně) ▶ P(X|V2) = 1 ▶ (vybrali jsme špatně, moderátor má jedinou možnost) ▶ P(X|V3) = 0 ▶ (moderátor nevybere dveře s cenou) Vojtěch Kovář (FI MU Brno) PLIN004 část 5 9 / 17 „Paradoxy” Příklad 1 „Paradoxy”: Aplikace Bayesova vzorce – I (3) ▶ Spočteme podmíněné pravděpodobnosti pro událost X ▶ P(V1|X) = P(X|V1)∗P(V1) P(X) = 1 2 ∗1 3 1 2 = 1/3 ▶ P(V2|X) = P(X|V2)∗P(V2) P(X) = 1∗1 3 1 2 = 2/3 ▶ P(V3|X) = P(X|V3)∗P(V3) P(X) = 0∗1 3 1 2 = 0 ▶ Jak to? ▶ otevření dveří moderátorem ve 2/3 případů určí správné dveře ▶ (ve 2/3 případů si vybereme na začátku špatně) ▶ představme si variantu hry, kdy máme 1000 dveří a moderátor otevírá 998 Vojtěch Kovář (FI MU Brno) PLIN004 část 5 10 / 17 „Paradoxy” Příklad 1 Zajímavosti ▶ Pouze 13 % lidí změní svou původní volbu ▶ a při opakování pokusu se chovají stále stejně ▶ Obdobný pokus s holuby ▶ holubi se během 30 dní naučili téměř vždy změnit původní volbu ▶ (zdroj a více informací viz Wikipedia: Monty Hall problem) Vojtěch Kovář (FI MU Brno) PLIN004 část 5 11 / 17 „Paradoxy” Příklad 2 „Paradoxy”: Aplikace Bayesova vzorce – II ▶ Testování drog mezi zaměstnanci ▶ Mějme k dispozici test, který odhalí požití drogy na 99 % ▶ je pozitivní v 99 % případů, kdy zkoumaný požil drogu ▶ je negativní v 99 % případů, kdy zkoumaný nepožil drogu ▶ Dále dejme tomu, že 0,5 % zaměstnanců skutečně požilo drogu ▶ Záměr vedení firmy ▶ otestovat všechny zaměstnance ▶ propustit ty, kteří budou mít pozitivní test ▶ Je tento záměr správný? ▶ Kolik procent propuštěných bude propuštěno neoprávněně? Vojtěch Kovář (FI MU Brno) PLIN004 část 5 12 / 17 „Paradoxy” Příklad 2 „Paradoxy”: Aplikace Bayesova vzorce – II (2) ▶ Označme události ▶ D: testovaný zaměstnanec požil drogu ▶ N: testovaný zaměstnanec nepožil drogu ▶ pos: test zaměstnance je pozitivní ▶ neg: test zaměstnance je negativní ▶ Vyjádřeme známé pravděpodobnosti ▶ P(D) = 0, 005 ▶ P(N) = 0, 995 ▶ P(pos|D) = 0, 99 („true positive”) ▶ P(pos|N) = 0, 01 („false positive”) ▶ P(pos) = P(pos, D) + P(pos, N) = P(pos|D) ∗ P(D) + P(pos|N) ∗ P(N) = 0, 99 ∗ 0, 005 + 0, 01 ∗ 0, 995 = 0, 0149 Vojtěch Kovář (FI MU Brno) PLIN004 část 5 13 / 17 „Paradoxy” Příklad 2 „Paradoxy”: Aplikace Bayesova vzorce – II (3) ▶ Chceme zjistit P(D|pos) ▶ pravděpodobnost, že zaměstnanec požil drogu za předpokladu, že má pozitivní test ▶ P(D|pos) = P(pos|D)∗P(D) P(pos) ▶ = 0,99∗0,005 0,0149 ▶ P(D|pos) = 0, 3322 ▶ z 1000 zaměstnanců: ▶ 15 propustíme, 5 požilo, 10 nepožilo ▶ Kde je problém? ▶ úspěšnost 99 % rozhodně není málo Vojtěch Kovář (FI MU Brno) PLIN004 část 5 14 / 17 „Paradoxy” Příklad 3 „Paradoxy”: Aplikace Bayesova vzorce – III ▶ Morfologické značkování nejednoznačných slov ▶ např. „jak” ▶ 80 % výskytů v textu je spojka ▶ 20 % výskytů v textu je podstatné jméno ▶ Cíl ▶ chceme maximalizovat podíl správně označkovaných výskytů ▶ bez dalších informací (např. o kontextu) ▶ Otázky ▶ jaký je optimální postup? ▶ jaké úspěšnosti značkování lze takto dosáhnout? Vojtěch Kovář (FI MU Brno) PLIN004 část 5 15 / 17 „Paradoxy” Závěry Závěry ▶ Přemýšlejme nad čísly a nad tím, co znamenají ▶ i 99 % může být hodně málo ▶ V jednoduchosti je síla ▶ i zdánlivě hloupý postup může být optimální ▶ je třeba domýšlet věci do důsledků Vojtěch Kovář (FI MU Brno) PLIN004 část 5 16 / 17 N-gramové modely N-gramové jazykové modely ▶ N-gramový jazykový model ▶ „hádáme další slovo” (značku) na základě předchozích ▶ P(wn|w1, ..., wn−1) ▶ z dat odvodíme pravděpodobnostní rozložení všech možných wn ▶ Použití ▶ strojový překlad, morfologické značkování, rozpoznávání řeči... ▶ Problémy ▶ pro N > 4 často řídká data ▶ vzdálené závislosti: „Snědl jsem velkou zelenou ...” ▶ Data sparseness – pro slova, která se vyskytují méně často, není dost dat → špatný model Vojtěch Kovář (FI MU Brno) PLIN004 část 5 17 / 17