Třída rozdělení (a, b, 0) Definice Nechť pN(k) = P(N = k) je pravděpodobnostní funkce diskrétní náhodné veličiny N. Řekneme, že je členem třídy rozdělení (a, b, 0), jestliže existují reálné konstanty a a b takové, že platí pN(k) pN(k − 1) = a + b k pro k = 1, 2, 3, . . . (1) • pravděpodobnost pN(0) dopočítáme z ∞ k=0 pN(k) = 1 • do třídy rozdělení (a, b, 0) patří právě Poissonovo rozdělení, negativně binomické a binomické rozdělení • Pro Poissonovo rozdělení je a = 0 a b = λ. • Pro binomické je a = − p 1−p < 0 a b = (n + 1) p 1−p . • Pro NeBi je a = 1 − p > 0 a b = (m − 1)(1 − p). • pro konkrétní datový soubor s velkým množstvím pozorování lze určit vhodný model pomocí formule (1) • formuli přepíšeme do tvaru pN(k) pN(k − 1) · k = ak + b, k = 1, 2, 3, . . . (2) • podíl pN (k) pN (k−1) odhadneme na základě pozorovaných četností nk a nk−1 hodnot k a k − 1 pN(k) pN(k − 1) · k = nk nk−1 · k. (3) • graf procházející body k, k · nk nk−1 by měl přibližně vykazovat lineární průběh • podle směrnice a dané přímky zvolíme vhodný model nulová směrnice → Poissonovo rozdělení záporná směrnice → binomické rozdělení kladná směrnice → negativně binomické rozdělení Třída rozdělení (a, b, 1) • rozdělení třídy (a, b, 0) často nepopisují adekvátně data, s nimiž se v praxi setkáváme Hlavní příčina: • rozdělení třídy (a, b, 0) nejsou s to vystihnout tvar dat v jistých částech rozdělení, zejména hodnotu v nule. • budeme se věnovat rozložení pravděpodobnosti v nule (pravděpodobnost, že nenastane žádná pojistná událost během stanoveného časového období) – např. u pojištění odpovědnosti, majetku aj. je pravděpodobnost v nule největší • úpravou pravděpodobnosti v nule lze třídu rozdělení (a, b, 0) rozšířit na třídu (a, b, 1) Definice Nechť pN(k) je pravděpodobnostní funkce diskrétní náhodné veličiny N. Řekneme, že je členem třídy rozdělení (a, b, 1) za předpokladu, že existují konstanty a, b ∈ R takové, že pN(k) pN(k − 1) = a + b k pro k = 2, 3, . . . (4) • ∞ k=1 pN(k) může nabývat libovolných hodnot na (0, 1 , zbývající pravděpodobnost je v k = 0, jelikož pN(0) + ∞ k=1 pN(k) = 1 U třídy (a, b, 1) rozlišujeme dvě podtřídy pN(0) = 0 . . . rozdělení useknuté v nule s pT N (k) pN(0) > 0 . . . rozdělení modifikované v nule s pM N (k) 1. Rozdělení modifikovaná v nule lze na ně pohlížet jako na směs rozdělení třídy (a, b, 0) a degenerovaného rozdělení se všemi pravděpodobnostmi soustředěnými v nule • GN(s) = ∞ k=0 pN(k) · sk je generující funkce rozdělení třídy (a, b, 0) GM N (s) = ∞ k=0 pM N (k) · sk je generující funkce příslušného v nule modifikovaného rozdělení třídy (a, b, 1) • platí, že pM N (k) = c·pN(k) pro k = 1, 2, . . . ; c ∈ R+ a pM N (0) je libovolně zvolené z intervalu (0, 1). Musíme vypočítat hodnotu c. • potom GM N (s) = pM N (0) + ∞ k=1 pM N (k) · sk = = pM N (0) + c · ∞ k=1 pN(k) · sk = = pM N (0) + c · GN(s) − pN(0) (5) • z platnosti GM N (1) = GN(1) = 1 plyne 1 = pM N (0)+c · 1− pN(0) • odtud c = 1−pM N (0) 1−pN (0) • tudíž pM N (k) = 1 − pM N (0) 1 − pN(0) · pN(k) pro k = 1, 2, . . . (6) • dostaneme generující funkci modifikovaného rozdělení GM N (s) = pM N (0) + c · GN(s) − pN(0) = = pM N (0) + 1 − pM N (0) 1 − pN(0) · GN(s) − pN(0) = = pM N (0) − pN(0) 1 − pN(0) + 1 − pM N (0) 1 − pN(0) · GN(s) = = pM N (0) − 1 + 1 − pN(0) 1 − pN(0) + 1 − pM N (0) 1 − pN(0) · GN(s) = = 1 − 1 − pM N (0) 1 − pN(0) + 1 − pM N (0) 1 − pN(0) · GN(s) (7) 2. Rozdělení useknutá v nule lze chápat jako speciální typ v nule modifikovaného rozdělení s hodnotou pM N (0) = 0 • GT N (s) je generující funkce v nule useknutého rozdělení • potom z (6), (7) a pM N (0) = 0 získáme pT N (k) = pN(k) 1 − pN(0) pro k = 1, 2, . . . , (8) GT N (s) = GN(s) − pN(0) 1 − pN(0) (9) a) rozšířené useknuté negativně binomické (ETNB) rozdělení množina možných hodnot parametru m je rozšířena z m > 0 na m > −1, přičemž m = 0 Pravděpodobnostní funkce: pT N (k) = (k+m−1 k )·(1−p)k p−m−1 , k = 1, 2, . . . ; p ∈ (0, 1), 0, jinak, (10) resp. pT N (k) =    (k+m−1 k )· β 1+β k (1+β)m−1 = k = 1, 2, . . . ; = (k+m−1)·...·(m+1)·m k!·((1+β)m−1) · β 1+β k , β = 1−p p > 0, 0, jinak. (11) b) logaritmické rozdělení • je limitním případem ETNB rozdělení pro m → 0 • neexistuje k němu odpovídající rozdělení ve třídě (a, b, 0) Pravděpodobnostní funkce: pT N (k) = −(1−p)k k·ln(p) , k = 1, 2, . . . ; p ∈ (0, 1), 0, jinak, (12) resp. pT N (k) = βk k(1+β)k ln(1+β) , k = 1, 2, . . . ; β = 1−p p > 0, 0, jinak. (13) Opět lze dokázat že další taková rozdělení neexistují. Další třídy čítacích rozdělení vytvoříme pomocí dvou operací – Skládání – Míšení (směsi) K tomu budeme potřebovat některé nástroje z teorie pravděpodobnosti. Diskrétní náhodné proměnné Nechť X je diskrétní náhodná proměnná (náhodná veličina), tedy funkce X : Ω → {x1, x2, ...} ⊆ R, kde {x1, x2, ...} je diskrétní podmnožina R. Pravděpodobnostní funkci náhodné veličiny X označíme jako f (x) = P(X = x). Definice 2.1. Distribuční funkce náhodné veličiny X je F(x) = P(X ≤ x). Připomeňme si ještě definici nezávislosti dvou jevů. Definice 2.2. Jevy A, B ⊆ Ω jsou nezávislé, jestliže P(A) = P(A ∩ B) P(B) , tedy P(A ∩ B) = P(A)P(B). Jinak řečeno nastal-li jev B, nezmění to pravděpodobnost jevu A. Definice 2.3. Diskrétní náhodné veličiny X a Y jsou nezávislé, jestliže jevy {X = x} a {Y = y} jsou nezávislé pro všechna x a y. Jinými slovy, znalost hodnoty X nedává žádnou informaci o hodnotě Y . Závislost a nezávislost náhodných veličin Lemma 2.4. Nechť X a Y jsou nezávislé náhodné veličiny. Potom E(XY ) = E(X)E(Y ). Opak obecně neplatí. Definice 2.5. Říkáme, že náhodné veličiny X a Y jsou nekorelované, jestliže platí: E(XY ) = E(X)E(Y ). Věta 2.6. Nechť X a Y jsou náhodné veličiny. Pak — Var(aX) = a2 Var(X) pro a ∈ R. — Jsou-li X a Y nekorelované (speciálně nezávislé) náhodné veličiny, pak Var(X + Y ) = Var(X) + Var(Y ). Definice 2.7. Kovariance náhodných veličin X a Y je definována jako cov(X, Y ) = E [(X − E(X))(Y − E(Y ))] . Korelační koeficient X a Y je ρ(X, Y ) = cov(X, Y ) Var(X)Var(Y ) . Platí: ρ(X, Y ) = 0 ⇔ E(XY ) = E(X)E(Y ) ⇔ cov(X, Y ) = 0 a cov(X, Y ) = E(XY ) − E(X)E(Y ). Dále je |ρ(X, Y )| ≤ 1. Jak ověřit nezávislost dvou daných náhodných veličin? Definice k tomu většinou vhodná není. Definice 2.8. Nechť X a Y jsou diskrétní náhodné veličiny (na stejném pravděpodobnostním prostoru). Sdružená distribuční funkce X a Y je definovaná vztahem FX,Y (x, y) = P(X ≤ x ∧ Y ≤ y). Definice 2.9. Sdružená pravděpodobnostní funkce: fX,Y : R2 → [0, 1] je definovaná vztahem fX,Y (x, y) = P(X = x ∧ Y = y). Analogicky se definuje sdružená pravděpodobnostní funkce pro více náhodných veličin. Následující lemma dává dobře ověřitelné kriterium nezávislosti. Lemma 2.10. Diskrétní náhodné veličiny X a Y jsou nezávislé právě tehdy, když fX,Y (x, y) = fX (x)fY (y) pro všechna x, y ∈ R. Ze znalosti sdružené pravděpodobnostní funkce fX,Y můžeme vypočítat marginální pravděpodobnostní funkce fX a fY . Máme fX (x) = P(X = x) = P( y ({X = x} ∩ {Y = y})) = y P(X = x ∧ Y = y) = y fX,Y (x, y). Příklad 2.11. Nechť X : Ω → {1, 2, 3}a Y : Ω → {−1, 0, 2} jsou náhodné veličiny a sdružená pravděpodobnostní funkce je dána tabulkou: y = −1 y = 0 y = 2 fX x = 1 1 18 3 18 2 18 6 18 x = 2 2 18 0 3 18 5 18 x = 3 0 4 18 3 18 7 18 fY 3 18 7 18 8 18 18 18 Jsou X a Y nezávislé? Zřejmě ne, v tom případě by řádky tabulky musely být násobkem jeden druhého. Vypočteme kovarianci těchto dvou náhodných veličin. Máme XY : Ω → {−1, 0, −2, −3, 2, 4, 6} . Dále E(X) = 6 18 + 10 18 + 21 18 = 37 18 , E(Y ) = 13 18 a E(XY ) = −1 1 18 + 2 2 18 − 2 2 18 + 4 3 18 + 6 3 18 = 29 18 Celkem tedy cov(X, Y ) = E(XY )−E(X)E(Y ) = 29 18 − 481 324 = 522 − 481 324 = 41 324 . Podmíněná pravděpodobnost a podmíněné očekávání Připoměňme definici podmíněné pravděpodobnosti pro jevy, P(A | B) = P(A ∩ B) P(B) . V modelech pojistné a finanční matematiky je obvykle pravděpodobnost podmíněná informací, kterou máme v danou chvíli. Formálně to zachycuje následující definice. Definice 2.12. Podmíněná pravděpodobnostní funkce náhodné veličiny Y za podmínky X = x, kterou budeme označovat fY |X (. | x), je definována jako fY |X (y | x) = P(Y = y | X = x), pro každé x takové, že P(X = x) > 0. Z definice máme P(Y = y | X = x) = P(Y = y ∧ X = x) P(X = x) = fX,Y (x, y) fX (x) , tedy fY |X (y | x) = fX,Y (x, y) fX (x) , což je analogický vztah jako platí pro podmíněné pravděpodobnosti jevů. V předchozím příkladu máme pro x = 1 fY |X (y | 1) ∼ 1 6 , 3 6 , 2 6 = fX,Y fX . Víme-li, že X = x, pak Y má novou pravděpodobnostní funkci fY |X (y | x) jakožto funkci y (x je pevné). Očekávání vůči této funkci je podmíněné očekávání Y za podmínky X = x, které označíme Ψ(x) = E(Y | X = x). Definice 2.13. Funkce (tj. náhodná veličina) Ψ(x) = E(Y | X = x) se nazývá podmíněné očekávání Y při znalosti X. V minulém příkladu je: Ψ(1) = 1 6 (−1) + 3 6 0 + 2 6 2 = 1 2 , Ψ(2) = −2 5 + 6 5 = 4 5 a Ψ(3) = 6 7 . Věta 2.14. (O celkovém očekávání). Pro podmíněné očekávání Ψ(x) = E(Y | X = x) platí E(Ψ(x)) = E(Y ), tedy E(Y ) = E(E(Y |X)). • Opravdu, střední hodnotu náhodné veličiny E(Y |X) lze vypočítat E E(Y |X) = x E(Y |X = x) · fX (x) = = x y y · fY |X (y|x) · fX (x) = = y y x fY |X (y|x) · fX (x) = = y y · fY (y) = E(Y ) (14)