Obměníme ještě úlohu pro ML odhad z normálně rozdělených NP: uvažujme proměnné s odlišnými nejistotami (směrod. odchylkami) a budeme hledat (společnou) střední hodnotu. Může jít o skládání měření z různě velkých vzorků téže populace, kde očekáváme stejný výsledek, ale větším vzorkům přikládáme logicky větší váhu.

Jednotlivé NP mají hustotu pravděp. danou $$f_i(y_i)=\frac{1}{\sqrt{2\pi}\sigma_i} \exp \left[-\frac{(y_i-\mu)^2}{2\sigma_i^2}\right],$$ kde ovšem rozlišujeme $y_i$ jako výsledky měření (NP) a $\sigma_i$ jako hodnoty nejistot dané předem (kladná reálná čísla). Hledanou veličinou je $\mu$.

Pak logaritmus věrohodnosti vychází $$\ln L({\mathbf y}, {\mathbf \sigma}|\mu) =\sum_{i=1}^n \ln f_\xi(y_i|\mu, \sigma) = \sum_{i=1}^n \left[-\ln(\sqrt{2\pi}\sigma_i) -\frac{(y_i-\mu)^2}{2\sigma_i^2}\right] = $$ $$ =- n\ln(\sqrt{2\pi})-\sum_{i=1}^n \ln(\sigma_i) - \sum_{i=1}^n \frac{(y_i-\mu)^2}{2\sigma_i^2}$$

Stejně jako předtím podmínka pro maximum $$\frac{\partial \ln L({\mathbf y}|\mu)}{\partial \mu}= \sum_{i=1}^n \frac{y_i-\mu}{\sigma_i^2} = 0,$$ a druhá derivace $$\frac{\partial^2 \ln L({\mathbf y}|\mu)}{\partial \mu^2}=-\sum_{i=1}^n \frac{1}{\sigma_i^2}.$$

Z první rovnice dostaneme $$\hat\mu=\sigma_\mu^2\sum_{i=1}^n \frac{y_i^2}{\sigma_i^2},$$ kde $$\sigma_\mu^2= \left[\sum_{i=1}^n \frac{1}{\sigma_i^2}\right]^{-1}$$ je rozptyl odhadu $\hat\mu$ získaný z druhé derivace $\ln L$ (určujeme nyní je jeden parametr, tedy není potřeba invertovat matici).

Výsledek je totožný jako při hledání optimální (lépe řečeno efektivní, tedy s nejmenším rozptylem) kombinace 2 proměnných (iterativně lze vzorec snadno zobecnit na více NP), nebylo ale nutné předpokládat normální rozdělení NP.

Binomické rozdělení

Ještě jsme si neukázali, že podobně jako u spojitých NP lze aplikovat ML metodu i na diskrétní proměnné. Vezměme si třeba NP s binomickým rozdělením $$P(l|M,p)={{M}\choose{l}} p^l (1-p)^{M-l},$$ pak $L=\prod_{i=1}^n P(l_i|M,p)$, po zlogaritmování

$$ \ln L({\mathbf l}|M,p) =\sum_{i=1}^n \ln {{M}\choose{l_i}} + l_i \ln p + (M-l_i) \ln(1-p)$$

Extrém podle $p$ nalezneme z rovnice $$\frac{\partial \ln L({\mathbf l}|M,p)}{\partial p}= \frac{1}{p} \sum_{i=1}^n l_i - \frac{1}{1-p} \sum_{i=1}^n (M-l_i)=0$$ $$\bar l (1-p)=(M-\bar l)p\ \to \ \hat{p}=\frac{\sum_{i=1}^n l_i}{n\ M}$$

Nejistota $\hat p$ pak vychází z druhé derivace $$\frac{\partial^2 \ln L({\mathbf l}|M,p)}{\partial p^2} = -\frac{1}{p^2} \sum_{i=1}^n l_i - \frac{1}{(1-p)^2} \sum_{i=1}^n (M-l_i) = - \frac{\sum_{i=1}^n l_i (1-2p) + n\ M p^2}{p^2\ (1-p)^2},$$ po záměně $\sum_{i=1}^n l_i = n\ M\ \hat p$ je $$\sigma_p^2 = -\left[\frac{\partial^2 \ln L({\mathbf l}|M,p)}{\partial p^2} \right]^{-1}= \frac{{\hat p}^2 (1-{\hat p})^2}{n\ M\ \hat p (1-2\hat p) + n\ M {\hat p}^2 } = \frac{{\hat p}^2 (1-{\hat p})^2}{n\ M\ \hat p (1-\hat p) } = \frac{{\hat p} (1-{\hat p})}{n\ M}$$

To je vcelku intuitivní výsledek, pokud rozptyl jedné proměnné je $M\ p (1-p)$ a pravděpodobnost le M-krát menší: $\hat p=\bar l/M$.