VIK004 Strojové učení jaro­2006 Přehled učiva ke kolokviu Je zapotřebí znát principy a významy níže uvedených pojmů, jejich aplikovatelnost na automatizované získávání znalostí, výhody a nevýhody různých probraných typů algoritmů, jak se algoritmy učí a testují. Nevyžaduje se matematický základ probrané látky. Otázky kolokvia jsou založeny výhradně na látce probrané na přednáškách. Výukové materiály (soubory *.pdf) poskytnuté prostřednictvím IS-MU obsahují řadu kapitol a částí, které v předmětu VIK004 probírány nebyly a nebudou zkoušeny (zejména matematické popisy a dále detaily na přednáškách nezmiňované). 1. Strojové učení indukce, dedukce, abdukce; generalisace; data, informace, znalost, vzájemný hierarchický vztah; klasifikace; typy representace znalosti, výhody a nevýhody; representace dat, možnost vzájemného převodu; trénování a testování; Occamova (Ockhamova) břitva; relevantní a nerelevantní atributy trénovacích příkladů; množství trénovacích příkladů; přeučení a generalisace; vliv různých vlastností a parametrů na učení 2. Rozhodovací stromy entropie, generování stromů z příkladů, převod stromů na pravidla 3. Metoda nejbližšího souseda podobnost; vzdálenost a její stanovení; porovnávání; 1-NN, k-NN; princip učení a klasifikace 4. Genetické algoritmy simulace darwinovské evoluce; populace, generace, křížení, mutace, diversita, funkce přizpůsobení; kódování a dekódování genů a chromosomů; optimalisace; výběr jedinců pro vytvoření další generace 5. Naivní Bayes apriorní a aposteriorní pravděpodobnosti; hypotézy; podmíněné pravděpodobnosti; výhoda a nevýhoda "naivity"; princip aplikace na klasifikaci a filtraci textových dokumentů, přednosti a nedostatky algoritmu 6. Perceptron princip umělého lineárního perceptronu, váhy, vstupy, výstup, trénování; representace binárních logických a booleovských funkcí, vliv linearity přenosové funkce na nemožnost representace určitých funkcí (XOR); důvod spojování lineárních perceptronů do sítě; sigmoida, nelineární perceptron, důvody jeho zavedení 7. Umělá neuronová síť spojování nelineárních perceptronů do sítě, architektura dopředné sítě (vrstvy); vlastnosti sítí z nelineárních jednotek; princip trénování (vliv chyby na výstupu); aplikační možnosti (representace funkcí, klasifikace) Příklad otázky (Q) a odpovědi (A): Q: Co je to apriorní pravděpodobnost a k čemu se u Bayesova naivního klasifikátoru používá? A: Jde o pravděpodobnost platnosti každé z uvažovaných hypotéz (např. v závislosti na četnosti výskytu jednotlivých témat dokumentů, které se mají automaticky do daných témat klasifikovat) bez ohledu na disponibilní tréninková data, tj. nepodmíněná pravděpodobnost. Používá se na zesílení či zeslabení aposteriorních pravděpodobností počítaných "naivně" z tréninkových dat za předpokladu jejich postupného náležení do jednotlivých uvažovaných hypotéz.