FI:PV021 Neural Networks - Informace o předmětu
PV021 Neural Networks
Fakulta informatikypodzim 2022
- Rozsah
- 2/0/2. 4 kr. (plus ukončení). Doporučované ukončení: zk. Jiná možná ukončení: k.
- Vyučující
- doc. RNDr. Tomáš Brázdil, Ph.D. (přednášející)
Mgr. Tomáš Foltýnek, Ph.D. (pomocník)
Mgr. Matej Gallo (pomocník)
Mgr. Adam Bajger (pomocník)
Mgr. Adam Ivora (pomocník)
Mgr. Andrej Kubanda (pomocník)
Mgr. Tomáš Repák (pomocník)
Mgr. Petr Zelina (pomocník) - Garance
- doc. RNDr. Tomáš Brázdil, Ph.D.
Katedra strojového učení a zpracování dat – Fakulta informatiky
Kontaktní osoba: doc. RNDr. Tomáš Brázdil, Ph.D.
Dodavatelské pracoviště: Katedra strojového učení a zpracování dat – Fakulta informatiky - Rozvrh
- Čt 8:00–9:50 D3, kromě Čt 3. 11. ; a Čt 3. 11. 8:00–9:50 A318
- Předpoklady
- Recommended: knowledge corresponding to the courses MB102 and MB103.
- Omezení zápisu do předmětu
- Předmět je nabízen i studentům mimo mateřské obory.
- Mateřské obory/plány
- předmět má 75 mateřských oborů, zobrazit
- Cíle předmětu
- Introduction to neural networks.
- Výstupy z učení
- At the end of the course student will have a comprehensive knowledge of neural networks and related areas of machine learning. Will be able to independently learn and explain neural networks problems. Will be able to solve practical problems using neural networks techniques, both independently and as a part of a team. Will be able to critically interpret third party neural-networks based solutions.
- Osnova
- Basics of machine learning and pattern recognition: classification and regression problems; cluster analysis; supervised and unsupervised learning; simple examples
- Perceptron: biological motivation; geometry
- Linear models: least squares (pseudoinverse, gradient descent, Widrow-Hoff rule); connection with Bayes classifier; connection with maximum likelihood; regularization; bias-variance decomposition
- Multilayer neural networks: multilayer perceptron; loss functions; backpropagation
- Practical considerations: basic data preparation; practical techniques for improving backpropagation; bias & variance tradeoff; overfitting; feature selection; applications
- Hopfield network: Hebb's rule; energy; capacity
- Deep learning: restricted Boltzmann machines (sampling, maximum-likelihood learning, contrastive divergence learning); learning in deep neural networks (vanishing gradient, pretraining with autoencoders, deep belief networks)
- Convolutional networks
- Recurrent networks: Elman and Jordan networks, LSTM
- Clustering: density estimation; self-organizing maps
- Project: Software implementation of particular models and their simple applications.
- Literatura
- doporučená literatura
- GOODFELLOW, Ian, Yoshua BENGIO a Aaron COURVILLE. Deep Learning. MIT Press, 2016. info
- Výukové metody
- Theoretical lectures, group project
- Metody hodnocení
- Lectures, class discussion, projects. Several midterm progress reports on the respective projects, one final project presentation plus oral examination.
- Vyučovací jazyk
- Angličtina
- Další komentáře
- Studijní materiály
Předmět je vyučován každoročně. - Nachází se v prerekvizitách jiných předmětů
- Statistika zápisu (podzim 2022, nejnovější)
- Permalink: https://is.muni.cz/predmet/fi/podzim2022/PV021