Neurális hálózatok
VIMIJV07 | Szabadon választható | Kredit: 4
A tantárgy célkitűzése
A tárgy oktatói
A tantárgy részletes tematikája
Algoritmikusan nehezen megoldható feladatok. A tanulás szerepe a feladatmegoldásokban. Gépi tanulás alapjai. Felügyelt tanulás. (2 óra)
Tanuláson alapuló elosztott párhuzamos számító rendszerek, neurális hálózatok: Az elemi neuron (perceptron, adaline) felépítése, képességei és a megfelelő felügyelt tanítási algoritmusok. Hibakorrekciós eljárások (gradiens módszerek). (3 óra)
Egy- és többrétegű előrecsatolt neurális hálózat, az előre csatolt hálózatok tanítása: backpropagation algoritmus, Levenberg-Marquardt-eljárás, bactracking line search alapú optimalizáció. (3 óra)
A MLP konstrukciójával kapcsolatos kérdések: képesség, méret, tanítópontok száma, felhasználása, leállási feltétel, regularizáció, korai leállás regularizációs hatásának értelmezése stb. (3 óra)
Bázisfüggvényes hálók (RBF) felépítése és konstrukciójuk kérdései: képesség, tanítás, stb. Hálók működésének értelmezése, regularizáció szerepe, MLP-vel történő összehasonlítás. (2 óra)
Kernel módszerek: alapötletük, kernel függvények. Szupport vektor gépek (SVM). Konstrukció, osztályozásra és regresszióra (gyengített és gyengítés nélküli változatok). Működésük, viselkedésük értelmezése, optimalizálási feladataik analízise, Lagrange duális optimalizáció értelmezése. SVM-ek gyakorlati megvalósításának kérdései, SMO eljárással a tanítás implementációja. (8 óra)
A statisztikus tanuláselmélet (SLT) alapjai: kockázat, tapasztalati kockázat, torzítás - variancia dilemma, VC elmélet alapjai, empirikus kockázatminimalizálás konzisztenciája. AZ SLT és az SVM kapcsolata. (2 óra)
Neurális hálók tanításának statisztikai értelmezése, ML és MAP becslésre történő visszavezetése. Direkt regularizációk fajtái Tikhonov, Lasso, L0 analízise, valamint implementációs kérdései. (2 óra)
Szekvenciális és visszacsatolt neurális hálózatok: lokális és globális visszacsatolást tartalmazó hálózatok. Dinamikus neurális rendszerek és tanításuk: Dinamikus backpropagation, Temporal BP, BPTT, RTRL, előre csatolt szekvenciális hálózatoknál regresszorvektor választásának kérdése torzítás-variancia dilemma szempontjai mentén. (6 óra)
Hosszú távú emlékezet kialakításának problémája, szekvenciális hálók tanításának problémái, ezek lehetséges kezelése. Echo State Network, Long / Short Term Memory (LSTM) alapelve, felépítése, működése, transformer architektúrák motivációja, alkalmazási lehetőségeik, konstrukciójuk gyakorlati nehézségei. (4 óra)
Mély hálók motivációja, illetve új architekturális elemeik (nemlinearitások, dropout, batch normalization, skip connection, residual block, stb.). Konstrukciók fő kérdései, főbb problémáik kompenzálása: adat előfeldolgozás, súly inicializáció, adat augmentáció, tudás transzfer alapú konstrukciójuk. (4 óra)
Mély hálók optimalizálási eljárásai: BFGS, L-BFGS, CG, adaptív gradiens módszerek (Adagrad, RMSProp, Adadelta, AdaptiveMomentum), momentumos gradiens módszerek (Polyak, Nesterov momentum). Ezek működésének szemléltetése, korlátjaik, hatásosságuk. Optimalizációs eljárások összevetése. (5 óra)
2D/ 3D konvolúciós neurális hálózatok motivációja, felépítése: konvolúciós réteg, transzponált konvolúció, pooling operátorok. Egyszerűbb alkalmazási példák ismertetése. Népszerűbb CNN metamodellek (VGG, Inception, Resnet, DenseNet, CapsNet) áttekintése. (5 óra)
Konvolúciós neurális hálók alkalmazása: szemantikus szegmentálás, objektum lokalizáció és detekció, objektum szegmentálás problémakörökre. R-CNN, Fast R-CNN, Faster R-CNN, YOLO, SSD, SegNet. (3 óra)
Konvolúciós neurális hálók támadhatósága, működésük magyarázata, interpretáció kérdései: LRP, Lime. (2 óra)
A neurális hálózatok gyakorlati alkalmazásainál felmerülő problémák és azok megoldási lehetőségei. (1 óra)