1. Databegränsade situationer
- Relevanta icke-linjära transformationer
- Kernel-tricket och kernel-regression
- Samband med Support Vector Machine
- Slumpmässiga särdrag (features) och neuronnät
- Few-shot lärande
2. Implementeringsfrågor och strategier i djupa neuronnät
- Icke-konvexa problem, gradientsökning och bakåtpropagering,
- Träningsfrågeställningar för djupa neurala nätverk, försvinnande och exploderande gradientproblem
- Träning i att använda olika optimeringsmetoder, t.ex. stokastiska gradientmetoder, RMSprop, AdaDelta, Adam, Dropout, dataförstärkning, etc.
- Obalanserade dataproblem och användbara trick, såsom dataförstärkning
- Korsvalideringstekniker och modelloptimering för att bemöta överanpassning, exempelvis rutnätssökning, slumpmässig sökning, k-fold, stratifierat k-fold, drop-out, bias-variansavvägning för modelluppföljning.
3. Strukturerade djupa neuronnät
- AlexNet, VGG-16, U-Net, ResNet, DenseNet, SciNet, etc.
4. Generativa modeller.
- Implicita och explicita modeller
- Generativa rivaliserande (adversarial) nätverk (GAN)
- Avkodare, såsom variational auto-encoder (VAE), denoising auto-encoder
- DC GAN, Cycle GAN
- Normaliserade flödesmodeller och likelihood-beräkning
- Verkliga NVP- och Glow-modeller
- Blandade strömningsmodeller med expectation-maximization och gradientsökning
5. Djupa neuronnät för dynamiska signaler
- Rekursiva neuronnät (RNN), t.ex. LSTM, reservoir computing,
- Gömda Markovmodeller (HMM)
- HMM baserad på normaliserad strömning
- Uppmärksamhetsmekanismen
6. Inkrementellt lärande, överföringslärande
- Lärande utan att glömma, inkrementellt lärande
- Överföringslärande via förträning, överföringslärande med GAN
