Osnova přednášky Vícenásobná lineární regrese 1. Popis modelu 2. Specifika modelu vícenásobné lineární regrese 2.1. Kroky před provedením regresní analýzy 2.2. Sedm hlavních předpokladů modelu 2.3. Ověřování předpokladů modelu 2.4. Posouzení vlivu nezávisle proměnných veličin v modelu 2.5. Pravidla pro stanovení počtu pozorování v závislosti na počtu prediktorů 3. Dvě hlavní metody při provádění vícenásobné lineární regrese 3.1. Metoda ENTER 3.2. Metoda STEPWISE 3.3. Postup při budování modelu vícenásobné lineární regrese 4. Příklad Model Yi = β0 + β1Xil + ... + βpXip+ εi, i = 1, ..., n lze formálně ztotožnit s lineárním regresním modelem z přednášky „Jednoduchá lineární regrese“: Yi = β0 + β1 f1(xi) + ... + βp fp(xi) + εi, i = 1, ..., n, kde položíme f1(xi) = xi1, ..., fp(xi) = xip, i = 1,..., n. Dostáváme tedy maticový tvar Y = Xβ + ε, kde regresní matice           = np1n p111 xx1 xx1 K KKKK K X , přičemž h(X) = p+1 < n a ε ~ Nn(0, σ2 I). Všechny výsledky uvedené v přednášce „Jednoduchá lineární regrese“ zůstávají v platnosti. Příklady vícenásobné regrese Lékaře zajímá, jak krevní tak Y závisí na věku pacienta X1, na jeho BMI X2 a na množství vypitého alkoholu X3. Majitele realitní kanceláře zajímá, jak cena bytu Y závisí na velikosti bytu X1, na počtu pokojů X2, vzdálenosti bytu od centra města X3 a existenci vlastního parkovacího místa X4 (1 – ano, 0 – ne). Pěstitele brambor zajímá, jak výnos Y jisté odrůdy brambor závisí na množství dodaného hnojiva X1, na množství srážek X2 ve vegetačním období a na teplotě půdy X3. Ekonoma zajímá, jak výdaje domácnosti za potraviny a nápoje Y závisí na čistém příjmu domácnosti X1 a na počtu členů domácnosti X2. Příklad: Při zkoumání závislosti hodinové výkonnosti dělníka (veličina Y – v kusech) na jeho věku (veličina X1 – v letech) a době zapracovanosti (veličina X2 – v letech) byly u 10 náhodně vybraných dělníků zjištěny tyto údaje: Y 67 65 75 66 77 84 69 60 70 66 X1 43 40 49 46 41 41 48 34 32 42 X2 6 8 14 14 8 12 16 1 5 7 Najděte regresní matici a vektor regresních parametrů. Řešení:                                 = 7421 5321 1341 16481 12411 8411 14461 14491 8401 6431 X           β β β = 2 1 0 β 2. Specifika modelu vícenásobné lineární regrese 2.1. Kroky před prováděním vícenásobné lineární regrese a) Musíme prozkoumat, zda naše data splňují předpoklady pro regresní analýzu. b) Pokud je nesplňují, posoudíme, jak vážné je porušení těchto předpokladů. c) Je-li porušení předpokladů vážné, musíme s daty provést některé operace, abychom porušení předpokladů odstranili (nebo aspoň zmírnili). 2.2. Sedm hlavních předpokladů regresní analýzy 1. Závisle proměnná Y musí být proměnná aspoň intervalového typu. (Pokud není, musíme použít logistickou regresi.) 2. Nezávisle proměnné X1, ..., Xp jsou rovněž aspoň intervalového typu. Mohou to být i proměnné alternativní. 3. Nezávisle proměnné by neměly být mezi sebou příliš vysoce korelovány. Pokud v datech existuje multikolinearita, výsledky regrese jsou nespolehlivé. Vysoká multikolinearita zvyšuje pravděpodobnost, že důležitá nezávisle proměnná bude shledána statisticky nevýznamná a bude vyřazena z modelu. 4. V datech nesmějí být odlehlé či extrémní hodnoty, neboť na ty je regresní analýza citlivá. Odlehlé hodnoty mohou vážně narušit kvalitu odhadů regresních parametrů. 5. Proměnné musejí být v lineárním vztahu. Vícenásobná lineární regrese je založena Pearsonově korelačním koeficientu, takže neexistence linearity způsobuje, že i důležité vztahy mezi proměnnými, pokud nejsou lineární, zůstanou neodhaleny. 6. Proměnné mají normální rozložení. Význam tohoto předpokladu ustupuje do pozadí, máme-li dostatečně velký datový soubor, kde se již uplatňuje působení centrální limitní věty. 7. Proměnné vykazují homoskedasticitu, tedy homogenitu rozptylu. (Opakem homoskedasticity je heteroskedasticita.) 2.3. Ověřování předpokladů modelu Ověřování normality: - jednorozměrná: použijeme např. N-P plot a S-W test či Lilieforsův test. - vícerozměrná: sestrojíme graf závislosti reziduí na predikovaných hodnotách. Tečky by měly být rovnoměrně rozptýleny po obou stranách vodorovné osy. 62 64 66 68 70 72 74 76 Predikované hodnoty -10 -8 -6 -4 -2 0 2 4 6 8 10 12 Rezidua Odhalení multikolinearity: - Vysoké absolutní hodnoty výběrových korelačních koeficientů nezávisle proměnných (orientačně > 0,75). - Velké rozdíly mezi párovými a parciálními korelačními koeficienty. - Celkový F-test je významný, ale dílčí t-testy nikoliv. Informace o multikolinearitě poskytuje koeficientu VIF (Variance inflation factor). Má-li koeficient VIF hodnotu 1, pak příslušná nezávisle proměnná není korelovaná s ostatními nezávisle proměnnými, jestliže 1 < VIF < 5, pak existuje mírná korelace, pro VIF > 5 vysoká korelace a pro VIF > 10 extrémní multikolinearita. Užitečný je též ukazatel tolerance. Hodnoty pod 0,2 svědčí o multikolinearitě. Odstranění multikolinearity: - Je-li multikolinearita způsobena silnou lineární závislostí dvou proměnných, vypustíme jednu z nich z analýzy. Tím se nedopustíme žádné závažné chyby, neboť když máme dvě vysoce vzájemně korelované proměnné, velmi často to znamená, že obě indikují podobný jev. Tím, že jednu z těchto proměnných z regresního modelu vyřadíme, nijak jej neoslabíme. - Je-li multikolinearita zapříčiněna vzájemnou korelovaností několika proměnných, nabízí se řešení zkombinovat je do jedné nové proměnné. Tu vytvoříme např. s pomocí analýzy hlavních komponent. Příklad: Při zkoumání závislosti hodinové výkonnosti dělníka (veličina Y – v kusech) na jeho věku (veličina X1 – v letech) a době zapracovanosti (veličina X2 – v letech) byly u 10 náhodně vybraných dělníků zjištěny tyto údaje: Y 67 65 75 66 77 84 69 60 70 66 X1 43 40 49 46 41 41 48 34 32 42 X2 6 8 14 14 8 12 16 1 5 7 Posuďte pomocí koeficientu VIF a ukazatelu tolerance, zda proměnné věk a doba zapracovanosti mohou způsobit multikolinearitu v modelu ε+β+β+β= 22110 xxY . Řešení: Efekt Toler. Rozptyl Infl fak R^2 Y Beta v Y Parciál. Y Semipar. Y t Y p "X1" "X2" 0,282545 3,539258 0,717455 -0,550937 -0,328630 -0,292850 -0,920604 0,387883 0,282545 3,539258 0,717455 0,920415 0,502564 0,489246 1,537994 0,167937 Koeficient VIF je 3,54, ukazatel tolerance je větší než 0,2, tedy mezi věkem a dobou zapracovanosti existuje jen mírná korelace. Odhalení nelinearity vztahů: Pomocí tečkového diagramu prozkoumáme závislost reziduí na hodnotách závisle proměnné veličiny Y. Pokud tečky vytvoří nelineární obrazec, pak buď jedna z nezávisle proměnných nebo kombinace nezávisle proměnných mají nelineární vztah se závisle proměnnou veličinou Y. Tento graf nám také pomůže odhalit případnou heteroskedasticitu v datech. Odstranění nelinearity vztahů: Doporučuje se ty proměnné, u nichž jsme detekovali nelinearitu, transformovat pomocí logaritmické nebo odmocninové transformace. Pokud tento postup nepomůže, musíme použít nelineární regresi. Odhalení odlehlých hodnot: Použijeme krabicové grafy nebo pravidlo 3 sigma. Odlehlé hodnoty mají velký vliv na kvalitu odhadu regresních parametrů. Způsoby řešení problému odlehlých hodnot: Ověříme, zda při zadávání hodnot dané proměnné nedošlo k překlepu; proměnnou transformujeme; upravíme hodnotu odlehlého případu; odstraníme případy s odlehlou hodnotou; proměnnou vymažeme. 2.4. Posouzení vlivu jednotlivých nezávisle proměnných v modelu Chceme-li porovnávat vliv, jaký mají proměnné x1, ..., xp v modelu Y = Xβ + ε, můžeme spočítat tzv. standardizované regresní parametry, kterým se také říká B-koeficienty (nebo také beta koeficienty). Zavedeme proto standardizované veličiny j j x xij ij Y Yi i s mx v, s mY Z − = − = , j = 1, ..., p, i = 1, ..., n a vytvoříme regresní model s těmito standardizovanými proměnnými. Odhady regresních parametrů v tomto novém modelu jsou B-koeficienty, které pak vyjadřují intenzitu vlivu jednotlivých nezávisle proměnných veličin na veličinu Y. V sytému STATISTICA jsou B-koeficienty značeny b*. Graficky lze absolutní hodnoty standardizovaných regresních parametrů (nebo absolutní hodnoty testových statistik dílčích t-testů) znázornit pomocí Paretových grafů. Paretův graf t-hodnot koeficienů; sv=7 Proměnná: Y: vykon delnika Sigma-omezená parametrizace ,9206035 1,537994 p=,05 t-hodnota (koeficienty; absolutní hodnota) "X1" "X2" ,9206035 1,537994 Paretův graf standardizovaných koeficientů Proměnná: Y: vykon delnika Sigma-omezená parametrizace ,5509366 ,9204152 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 Standardizované koeficienty (absolutní hodnota) "X1" "X2" ,5509366 2.5. Pravidla pro stanovení počtu pozorování v závislosti na počtu prediktorů a)Pokud nás přednostně zajímá variabilita vysvětlená modelem (tj. index determinace), mělo by platit n ≥ 50 + 8p. Např. pro 4 prediktory bychom měli mít aspoň 82 pozorování. b)Zajímají-li nás odhady regresních parametrů (tj. jde nám především o predikci), mělo by platit n ≥ 104 + p. Např. pro 4 prediktory bychom měli mít aspoň 108 pozorování. c)Nejnižší možný poměr proměnná/počet případů je 1:5. V tom případě ale platí silný požadavek na normalitu – rozložení reziduí by mělo být normální. Při čtyřech prediktorech bychom měli mít aspoň 20 pozorování. Příklad: Při zkoumání závislosti hodinové výkonnosti dělníka (veličina Y – v kusech) na jeho věku (veličina X1 – v letech) a době zapracovanosti (veličina X2 – v letech) byly u 10 náhodně vybraných dělníků zjištěny tyto údaje: Y 67 65 75 66 77 84 69 60 70 66 X1 43 40 49 46 41 41 48 34 32 42 X2 6 8 14 14 8 12 16 1 5 7 Posuďte vliv věku a doby zapracovanosti na výkon dělníka pomocí odhadů standardizovaných regresních parametrů a interpretujte nestandardizované odhady regresních parametrů. Řešení: Výsledky regrese se závislou proměnnou : Y (vykony delniku.sta) R= ,54005243 R2= ,29165662 Upravené R2= ,08927280 F(2,7)=1,4411 p<,29913 Směrod. chyba odhadu : 6,6491 N=10 b* Sm.chyba z b* b Sm.chyba z b t(7) p-hodn. Abs.člen X1 X2 86,74217 25,32397 3,425299 0,011056 -0,550937 0,598452 -0,70031 0,76071 -0,920604 0,387883 0,920415 0,598452 1,35062 0,87817 1,537994 0,167937 Odhady standardizovaných regresních parametrů jsou uvedeny ve sloupci b* . Pro věk má tento parametr hodnotu -0,5509 a pro dobu zapracovanosti 0,9204. V absolutní hodnotě je vyšší parametr pro dobu zapracovanosti, tedy tato proměnná má vyšší vliv na výkon než věk. Odhad konstanty je 86,74, což znamená, že dělníka s věkem 0 a dobou zapracovanosti 0 by hodinový výkon byl 86,74. Odhad parametru pro věk je -0,7, tedy při konstantní době zapracovanosti by se při zvýšení věku o rok výkon snížil o 0,7. Odhad parametru pro dobu zapracovanosti je 1,35, což znamená, že při konstantním věku by se při zvýšení doby zapracovanosti o rok zvýšil výkon o 1,35. Příklad řešený v systému R Při zkoumání závislosti hodinové výkonnosti dělníka (veličina Y – v kusech) na jeho věku (veličina X1 – v letech) a době zapracovanosti (veličina X2 – v letech) byly u 10 náhodně vybraných dělníků zjištěny tyto údaje: Y 67 65 75 66 77 84 69 60 70 66 X1 43 40 49 46 41 41 48 34 32 42 X2 6 8 14 14 8 12 16 1 5 7 Úkolem je provést v systému R regresní analýzu modelu Y = β 0 + β1x1 + β2x2. Data jsou uložena v souboru vykony_delniku.txt. Načtení dat a pojmenování proměnných: data<-read.delim('vykony delniku.txt',sep=' ', header=T) Y<-data$Y X1<-data$X1 X2<-data$X2 Výpočet korelační matice: cor(data) Y X1 X2 Y 1.000000 0.2286800 0.4537570 X1 0.228680 1.0000000 0.8470271 X2 0.453757 0.8470271 1.0000000 Vytvoření modelu a jeho výstup: vystup1<-lm(Y~X1+X2) > summary(vystup1) Call: lm(formula = Y ~ X1 + X2) Residuals: Min 1Q Median 3Q Max -7.4367 -4.4717 -0.9345 3.3150 9.7630 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 86.7422 25.3240 3.425 0.0111 * X1 -0.7003 0.7607 -0.921 0.3879 X2 1.3506 0.8782 1.538 0.1679 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 6.649 on 7 degrees of freedom Multiple R-squared: 0.2917, Adjusted R-squared: 0.08927 F-statistic: 1.441 on 2 and 7 DF, p-value: 0.2991 Ověření předpokladů modelu: par(mfrow=c(2,2)) plot(vystup1) Testování normality reziduí: shapiro.test(vystup1$residuals) Shapiro-Wilk normality test data: vystup1$residuals W = 0.9355, p-value = 0.5041 Provedení Durbinova – Watsonova testu autokorelovanosti reziduí: durbinWatsonTest(vystup1) lag Autocorrelation D-W Statistic p-value 1 -0.1974273 2.376259 0.446 Alternative hypothesis: rho != 0 Výpočet koeficientu VIF: library(car) vif(vystup1) X1 X2 3.539258 3.539258 Pro posouzení vlivu jednotlivých nezávisle proměnných v modelu vytvoříme standardizovaná data: sdata<-scale(data) Pojmenujeme jednotlivé standardizované proměnné: sY<-sdata[,1] sX1<-sdata[,2] sX2<-sdata[,3] Vytvoříme model se standardizovanými proměnnými a podíváme se na jeho výstup: svystup1<-lm(sY~sX1+sX2) summary(svystup1) Call: lm(formula = sY ~ sX1 + sX2) Residuals: Min 1Q Median 3Q Max -1.0674 -0.6418 -0.1341 0.4758 1.4012 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -1.118e-15 3.018e-01 0.000 1.000 sX1 -5.509e-01 5.985e-01 -0.921 0.388 sX2 9.204e-01 5.985e-01 1.538 0.168 Residual standard error: 0.9543 on 7 degrees of freedom Multiple R-squared: 0.2917, Adjusted R-squared: 0.08927 F-statistic: 1.441 on 2 and 7 DF, p-value: 0.2991 3. Dvě hlavní metody při provádění mnohonásobné lineární regrese 3.1. Metoda ENTER Tato metoda je standardní metoda, do modelu vstupují všechny nezávisle proměnné najednou. Metodu ENTER použijeme v případě, - kdy chceme popsat, jak velký podíl rozptylu závisle proměnné veličiny Y je vysvětlen nezávisle proměnnými veličinami X1, …, Xp (zajímá nás index determinace), - kdy chceme zjistit, jak velký vliv má každá z nezávisle proměnných na proměnnou závislou při kontrole vlivu působení ostatních proměnných (interpretujeme nestandardizované odhady regresních parametrů), - kdy nás zajímá, jaká je relativní důležitost každé z nezávisle proměnných (posuzujeme standardizované odhady regresních parametrů). 3.2. Metoda STEPWISE Metoda STEPWISE (postupná regrese) je metoda nalezení „nejlepšího“ modelu (co nejmenší počet nezávisle proměnných veličin, co nejkvalitněší predikce). Uživatel nekontroluje pořadí proměnných, jak postupně vstupují do modelu, to provádí samotný program, který pracuje podle jistého algoritmu. Používá se ve dvou variantách – dopředná (forward) a zpětná (backward). Při metodě forward se prediktory postupně přidávají, při metodě backward se nejdříve zařadí všechny prediktory a pak se postupně odebírají. Pořadí vkládání nezávisle proměnných je důležité, neboť může vést k různým odhadům jejich důležitosti v modelu. Proto je při mnohonásobné regresi vždy nutné si dobře rozmyslet, jakou metodu vkládání proměnných zvolíme. Princip postupné regrese spočívá v tom, že regresní model je budován krok po kroku tak, že v každém kroku zkoumáme všechny prediktory a zjišťujeme, který z nich nejlépe vystihuje variabilitu závisle proměnné veličiny. Zařazování prediktoru do modelu či jeho vylučování se děje pomocí sekvenčních F-testů. Sekvenční F-test je založen na statistice F, která je podílem přírůstku regresního součtu čtverců při zařazení daného prediktoru do modelu a reziduálního součtu čtverců. Jestliže je tato statistika větší než hodnota zvaná „F to enter“ (česky „F na zahrnutí“, ve STATISTICE implicitně 1 pro dopřednou metodu, 11 pro zpětnou), je prediktor zařazen. Je-li statistika F menší než hodnota zvaná „F to remove“ (česky „F na vyjmutí“, ve STATISTICE implicitně 0 pro dopřednou metodu, 10 pro zpětnou), je již dříve zařazený prediktor z modelu vyloučen. Po vybrání proměnných do modelu jsou odhadnuty parametry lineární regresní funkce a kvalita regrese je posouzena indexem determinace. Do modelu se postupně přidávají další proměnné, pokud se zvyšuje podíl vysvětlené variability hodnot veličiny Y. 3.3. Postup při budování modelu vícenásobné lineární regrese Metoda ENTER 1. Ověříme předpoklady modelu: normalitu, homoskedasticitu, prozkoumáme existenci případné multikolinearity, prověříme linearitu vztahů, detekujeme případná vybočující pozorování. 2. V modelu Yi = β0 + β1xil + ... + βpxip + εi, i = l, ..., n získáme bodové a intervalové odhady regresních parametrů β0, βl, ..., βp, index determinace, odhad rozptylu. Provedeme dílčí t-testy a celkový F-test. Vliv jednotlivých proměnných posoudíme pomocí B-koeficientů. 3. Z modelu vyloučíme ty nezávisle proměnné, pro něž byly dílčí t-testy nevýznamné a odhadneme parametry výsledného modelu. 4. Provedeme reziduální analýzu. Metoda STEPWISE 1. Ověření předpokladů modelu. 2. Zvolíme dopřednou nebo zpětnou metodu Stepwise, nastavíme hladinu významnosti, hodnoty F na zahrnutí a F na vyjmutí (nebo ponecháme implicitně nastavené hodnoty 0,05, 1, 0. 3. Pro výsledný model provedeme reziduální analýzu. 4. Příklad: U 15 žen ve věkové kategorii 20 – 50 let byly zjištěny tyto údaje: tělesná hmotnost (v kg – závisle proměnná veličina Y), tělesná výška (v cm – nezávisle proměnná veličina neboli regresor X1), věk (v letech, regresor X2): 1 Y 2 X1 3 X2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 52,2 147,3 45 53,1 149,9 25 54,4 152,4 39 55,8 154,9 43 57,1 157,5 35 58,5 160,0 38 59,9 162,6 36 61,2 165,1 47 63,0 167,6 34 64,4 170,2 23 66,2 172,7 37 68,0 175,3 42 69,8 177,8 32 72,1 180,3 49 74,4 182,9 26 Zajímá nás, jakou hmotnost u ženy můžeme očekávat, jestliže známe její výšku a věk Řešení: Sestavíme regresní model Yi = β0 + β1xil + β2xi2 + εi, i = 1, ..., 15. Nejprve sestrojíme dvourozměrné tečkové diagramy vyjadřující závislost Y na X1, X2.¨ Závislost hmotnosti na výšce 145 150 155 160 165 170 175 180 185 X1 50 52 54 56 58 60 62 64 66 68 70 72 74 76 Y Závislost hmotnosti na věku 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 52 X2 50 52 54 56 58 60 62 64 66 68 70 72 74 76 Y Dále spočteme koeficienty korelace mezi hmotností a výškou: rYX1 = 0,9955 mezi hmotností a věkem: rYX2 = -0,108 mezi výškou a věkem: rX1X2 = -0,109 Vidíme, že korelace mezi hmotností a výškou je přímá a velmi silná, avšak mezi hmotností a věkem či mezi výškou a věkem je nepřímá a jen slabá. Metodou nejmenších čtverců získáme odhady regresních parametrů. Výsledky regrese se závislou proměnnou : Y (Tabulka1) R= ,99549503 R2= ,99101036 Upravené R2= ,98951208 F(2,12)=661,43 p<,00000 Směrod. chyba odhadu : ,71983 N=15 b* Sm.chyba z b* b Sm.chyba z b t(12) p-hodn. Abs.člen X1 X2 -39,7220 3,051469 -13,0174 0,000000 0,995574 0,027535 0,6160 0,017038 36,1565 0,000000 0,000729 0,027535 0,0006 0,024510 0,0265 0,979327 Empirická regresní funkce má tvar Y ) = -39,722 + 0,616x1 + 0,0006x2. Variabilita proměnné Y je z 99,1 % vysvětlená zvoleným regresním modelem. Pro α = 0,05 je celkový F-test významný, dílčí t-testy pro β0 a β1 rovněž, avšak parametr β2 je nevýznamný. Podíváme-li se na beta koeficienty, vidíme, že největší vliv má proměnná X1. Sestavíme tedy nový model Yi = β0 + β2xi1 + εi, i = 1, ..., 15. Metodou nejmenších čtverců opět získáme odhady regresních parametrů. Výsledky regrese se závislou proměnnou : Y (Tabulka1) R= ,99549477 R2= ,99100983 Upravené R2= ,99031828 F(1,13)=1433,0 p<,00000 Směrod. chyba odhadu : ,69161 N=15 b* Sm.chyba z b* b Sm.chyba z b t(13) p-hodn. Abs.člen X1 -39,6901 2,692492 -14,7410 0,000000 0,995495 0,026297 0,6160 0,016272 37,8553 0,000000 Nyní má empirická regresní funkce tvar Y ) = -39,6901 + 0,616x1, model jako celek je významný a nezávisle proměnná X1 rovněž. Adjustovaný index determinace je 0,9903, což je větší než adjustovaný index determinace 0,9895 v původním modelu. Pro kontrolu kvality regrese porovnáme zjištěné a predikované hodnoty veličiny Y. 1 skutečnost 2 predikce 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 52,2 51,1 53,1 52,6 54,4 54,2 55,8 55,8 57,1 57,3 58,5 58,9 59,9 60,4 61,2 62,0 63,0 63,6 64,4 65,1 66,2 66,7 68,0 68,3 69,8 69,8 72,1 71,4 74,4 73,0 Tečkový diagram naměřených a predikovaných hodnot: 50 52 54 56 58 60 62 64 66 68 70 72 74 predikce 50 52 54 56 58 60 62 64 66 68 70 72 74 76 skutečnost Provedeme-li krokovou dopřednou metodu, skončí hned v 1. kroku a vybere X1. Provedeme-li krokovou zpětnou metodu, skončí také v 1. kroku a vyloučí proměnnou X2.