Náhodná proměnná

obor hodnot = všechny možné případy

  • konečný/spočetný = diskrétní NP
  • nespočetný (reálné hodnoty) = spojitá NP

(rozlišovat NP versus hodnota NP)

kategorizací (zavedením tříd, binů) lze se spojitou NP pracovat jako s diskrétní (histogram)

curse of dimensionality - malé obsazení tříd

v případě spojitých náhod. proměnných (obor reálných čísel) zavádíme hustotu pravděpodobnosti

$$f(x)=lim_{dx\rightarrow 0} \frac{P(x \leq \xi \lt x+dx)}{dx} $$
  • je nenulová, ale může být >1
  • lze rozšířit i na diskrétní proměnné (KO:jak?)

příklad kvantové mechaniky : spektrum energií může být zčásti diskrétní, zčásti spojité

výhodné popsání distribuční funkcí $F(x)=P(\xi < x)$

  • neklesajici, od 0 do 1
In [10]:
%matplotlib inline
from matplotlib import pyplot as pl
from scipy import stats 
import numpy as np
x=np.r_[-5:5:0.02]
pl.plot(x,stats.t(4).pdf(x))
pl.plot(x,stats.t(4).cdf(x))
pl.grid()
pl.legend(["hustota prst.","distrib. fce"],loc=2)
ok=pl.title("t-rozdeleni")

funkce (= transformace) NP

  • přenos z intervalů původní proměnné do nové proměnné
  • je-li transformace $y=h(x)$ vzájemně jednoznačná

pro hustotu g(y) v nové proměnné

$$ g(y)=f(x) \frac{dx}{dy} =\frac{f(x)}{\left|\ h'(x)\ \right|} = \frac{f(h^{-1}(y))}{\left|\ h'(h_i(y))\ \right|} $$

$h^{-1}$ je inverzní k $h$

v případě více proměnných (náhodný vektor)

$$F(x_1, x_2, ... x_n) = P(\xi_1 \lt x_1 \wedge \xi_2 \lt x_2 \wedge ... \xi_n \lt x_n)$$

souvisí s hustotou NP analogicky s 1-D případem

některé proměnné lze "odintegrovat" (tzv. marginalizace)

zbude-li jediná proměnná, jde o marginální rozdělení (projekce do daného směru)

$$F_{\xi_1}(x_1)=F_\xi (x_1, \infty, ... , \infty)$$

fixování jedné komponenty (či více) vytváří řez rozdělovací funkce (podmíněné rozdělení)

(nutno ji normovat pomocí marginálního rozdělení)

$$f_p(x_1, x_2, ... | \xi_n=x_{0}) =\frac{f(x_1, x_2, ..., x_{n0})}{f_{\xi_n}(x_{n0})}$$
  • nezávislost komponent
$$F_\xi(x_1,x_2) = F_{\xi_1}(x_1) F_{\xi_2}(x_2)$$