Gépi tanulás
VIMIMA27 | Mérnökinformatikus MSc | Félév: 1 | Kredit: 5
A tantárgy célkitűzése
A tantárgy az intelligens rendszerek egyik alapvető
képességének, a tanulásnak a gépi megvalósítási lehetőségeivel foglalkozik.
Bemutatja a gépi tanulás fajtáit, összefoglalja a gépi tanulás elméleti
alapjait, és részletesen elemzi a legfontosabb tanuló rendszer architektúrákat.
A tárgy a gépi tanulást egységes valószínűségi keretbe helyezve vizsgálja,
amelynek során érinti a matematikai, filozófiai és programozási aspektusokat
is. Az elméleti alapok bemutatásán túl a tárgy célja, hogy fejlessze a
gyakorlati problémamegoldó készséget. Mindezt az egységes tárgyalásmód
alkalmazásával és komplex alkalmazási példák bemutatásával éri el. A tárgy
keretében elsajátított módszerek megalapozásként és háttérként szolgálnak
kutatási és fejlesztési feladatok megoldásához.
A tárgy oktatói
Antal Péter
docens
tárgyfelelős

Alekszejenkó Levente
tudományos segédmunkatárs

Antal Mátyás
doktorandusz

Marosi Márk
doktorandusz
A tantárgy részletes tematikája
Az előadások részletes tematikája:
- Bayesi valószínűségelméleti alapfogalmak. Valószínűség, prior, likelihood, posterior. Maximum likelihood (ML), maximum a posteriori (MAP), teljesen bayesi következtetés, modellátlagolás. A teljesen bayesi következtetés nehézségei (példák, mikor van analitikus megoldás). Konjugált priorok (példák, hol használjuk őket).
- Gépi tanulási alapfogalmak. Generatív és diszkriminatív modellek, diszkriminatív függvények a gépi tanulásban (példák). Bias-variancia dekompozíció, alultanulás, túltanulás, regularizáció. Gyakran használt veszteségfüggvények és regularizációs sémák valószínűségelméleti származtatása. Kiértékelés (CV, AUC, AUPR).
- Regresszió. Alapfeladat, a lineáris regresszió valószínűségi modellje, ML és MAP becslés, ezekre az analitikus formulák levezetése, a megoldás menete, numerikus szempontok. Teljesen bayesi következtetés. Nem lineáris kiterjesztések: bázisfüggvények alkalmazása, gyakran használt bázisfüggvények.
- Klasszifikáció. Alapfeladat, a logisztikus regresszió valószínűségi modellje. Perceptron származtatása a Bayes-tétel felhasználásával, ML és MAP becslés, az iteratív formulák levezetése (szigmoid függvény, gradiens), a megoldás menete, numerikus szempontok.
- Neurális hálózatok. MLP architektúra, ML és MAP becslés, a backpropagation algoritmus levezetése. Neurális modellekben használt aktivációs függvények, a regularizáció módjai. Konvolúciós és visszacsatolt architektúrák, az ezekben használt rétegtípusok, példa alkalmazások.
- Optimalizáció neurális modellekben. Az optimalizáció nehézségei, analitikus és numerikus szempontok. Optimalizációs algoritmusok alapelvei (batch, momentum, adaptív learning rate, magasabb rendű módszerek). Nevezetes algoritmusok.
- Variációs módszerek. Közelítő bayesi következtetés, ELBO+KL dekompozíció, a variációs módszerek alapelve. BBVI, sztochasztikus gradiens-alapú optimalizáció. Reparametrizációs trükk, VAE. Adversarial training ötlete, GAN architektúrák alapelve.
- Kernel gépek. Alapötlet, a kernel trükk lényege, gyakran használt kernel függvények. Szupportvektor-gép, veszteségfüggvény (hinge loss) és regularizáció. A duális probléma levezetése a Lagrange-módszerrel. Geometriai interpretáció, maximális margó.
- Dimenzió-redukció. Főkomponens-analízis: alapötlet, veszteségfüggvény, minimalizálása a Lagrange-módszerrel. Geometriai interpretáció. Kernel PCA.
- EM algoritmus és klaszterezés. Maximum likelihood becslés nehézségei rejtett változók esetén. Az EM algoritmus levezetése. Gauss keverék-eloszlás, használata klaszterezésben. EM Gauss-keverékekre (az E- és M-lépések származtatása). K-means algoritmus. Spektrális klaszterezés alapötlete, a diszkrét Laplace-operátor tulajdonságai.
- MCMC. Az MCMC módszerek alapelve. Markov-láncok tulajdonságai. Az egyensúlyi eloszlás létezésének elégséges feltétele. Metropolis, Metropolis-Hastings algoritmus. Gibbs-mintavétel, konjugált priorok. Példa: bayesi lineáris regresszió Gibbs mintavétellel.
- Modellek kombinációja. Bootstrap, bagging, az átlagos hiba alakulása. Exponenciális loss tulajdonságai, összehasonlítása egyéb veszteségfüggvényekkel. Az exponenciális loss minimalizálása gyenge osztályozók lineáris kombinációjával. AdaBoost algoritmus.
- Aktív tanulás. A K-karú rabló probléma, exploration vs. exploitation tradeoff. Regret definíciója, ennek alakulása különböző stratégiák esetében. Thompson-mintavétel, UCB1 algoritmus, a felső korlát bizonyítása. MCTS algoritmus és modern kiterjesztései (AlphaZero).
- Federált tanulás. Alapötlet, kihívások. Nevezetes algoritmusok: federated averaging, FedProx. A federált tanulás valószínűségi megközelítései. Federált modellek kiértékelése
- Bayesi gondolkodásmód. Maximum likelihood becslés, poszterior számítás konjugált modellekben.
- Lineáris modellek. Regresszió, klasszifikáció bayesi modelljei, poszterior és prediktív eloszlás kiszámítása, az implementáció numerikus stabilitása.
- Neurális hálózatok. MLP, konvolúciós hálózatok implementációja PyTorch/Tensorflow alapon, optimalizáció, prediktív teljesítmény kiértékelése.
- Variációs következtetés. Következtetés nem-konjugált modellekben, generatív modellezés variációs autoenkóderrel.
- MCMC. Gibbs-mintavétel hierarchikus modellekben, idősori elemzés, changepoint-modellek.
- Szupportvektor-gépek. Osztályozás szupportvektor-gépekkel, kernel-számítás, prediktív teljesítmény kiértékelése, hiperparaméter-optimalizáció keresztkiértékeléssel.
- Aktív/megerősítéses tanulás. K-karú rablók, következtetés Thompson-mintavétellel, UCB-típusú algoritmusokkal.