FI:PV021 Neural Networks - Informace o předmětu
PV021 Neural Networks
Fakulta informatikypodzim 2024
- Rozsah
- 2/0/2. 4 kr. (plus ukončení). Doporučované ukončení: zk. Jiná možná ukončení: k.
Vyučováno kontaktně - Vyučující
- doc. RNDr. Tomáš Brázdil, Ph.D. (přednášející)
Mgr. Tomáš Foltýnek, Ph.D. (pomocník)
Mgr. Matej Gallo (pomocník)
Mgr. Adam Bajger (pomocník)
Mgr. Adam Ivora (pomocník)
Mgr. Petr Zelina (pomocník)
Bc. Jaroslav Kubín (pomocník)
Bc. Jozef Kraus (pomocník)
Lukáš Lejdar (pomocník)
Bc. Andrej Šimurka (pomocník) - Garance
- doc. RNDr. Tomáš Brázdil, Ph.D.
Katedra strojového učení a zpracování dat – Fakulta informatiky
Kontaktní osoba: doc. RNDr. Tomáš Brázdil, Ph.D.
Dodavatelské pracoviště: Katedra strojového učení a zpracování dat – Fakulta informatiky - Rozvrh
- Út 24. 9. až Út 17. 12. Út 8:00–9:50 D2
- Předpoklady
- Recommended: knowledge corresponding to the courses IB031, MB152, and MB153.
- Omezení zápisu do předmětu
- Předmět je nabízen i studentům mimo mateřské obory.
- Mateřské obory/plány
- předmět má 37 mateřských oborů, zobrazit
- Cíle předmětu
- Introduction to neural networks.
- Výstupy z učení
- At the end of the course student will have a comprehensive knowledge of neural networks and related areas of machine learning. Will be able to independently learn and explain neural networks problems. Will be able to solve practical problems using neural networks techniques, both independently and as a part of a team. Will be able to critically interpret third party neural-networks based solutions.
- Osnova
- Basics of machine learning and pattern recognition: classification and regression problems; supervised and unsupervised learning; simple examples
- Perceptron: biological motivation; geometry
- Linear models: least squares (gradient descent, Widrow-Hoff rule); connection with maximum likelihood
- Multilayer neural networks: multilayer perceptron; loss functions; backpropagation
- Practical considerations: basic data preparation; practical techniques for learning optimization; overfitting & regularization; feature selection; applications
- Deep learning: learning in deep neural networks (vanishing gradient, pretraining with autoencoders)
- Convolutional networks
- Recurrent networks: Elman and Jordan networks, LSTM
- Transformer networks
- Literatura
- doporučená literatura
- GOODFELLOW, Ian, Yoshua BENGIO a Aaron COURVILLE. Deep Learning. MIT Press, 2016. info
- neurčeno
- ŠÍMA, Jiří a Roman NERUDA. Teoretické otázky neuronových sítí. Vyd. 1. Praha: Matfyzpress, 1996, 390 s. ISBN 80-85863-18-9. info
- Výukové metody
- Theoretical lectures, group project
- Metody hodnocení
- Lectures, class discussion, projects. Oral examination.
- Vyučovací jazyk
- Angličtina
- Další komentáře
- Studijní materiály
Předmět je vyučován každoročně. - Nachází se v prerekvizitách jiných předmětů
- Statistika zápisu (nejnovější)
- Permalink: https://is.muni.cz/predmet/fi/podzim2024/PV021