Introduktion och motivation
Översikt över motiverande tillämpningar, bra och dåliga
Kursplanering och hemuppgiftsstruktur
Genomgång av lärande och modellering: Maskininlärning i ett grafikrenderingssystem
Exempel: Near Neighbor-klassificering
Parametrar och hyperparametrar
Träning, validering och testning
Partitionering av data: Exklusion, bootstrap, K-fold CV, LOOCV, etc.
Resultatmetrik: Förvirringssystem, korrekthet, precision och täckning
Övervakad inlärning 1
Probabilistisk klassificering och regression
Inkludera begrepp om risker vid klassificering och regression
Bayesiansk klassificering: Linjär diskriminantanalys
Bayesiansk klassificering: Kvadratisk diskriminantanalys
Bayesiansk klassificering: Naiv Bayes
Övervakad inlärning 2
Parameterskattning
Minstakvadratregression
Normering: LASSO ridge regression,
Bayesiansk regression
Logistisk regression
Oövervakat lärande 1
Vad är oövervakat lärande?
Dimensionens förbannelse
Principalkomponentanalys
Multidimensionell skalning
Översikt över K-means
Oövervakat lärande 2
Hierarkisk klustring
Densitetbaserad klustring
Avvikelsedetektion, avvikare (isoleringsskog)
Gaussiska blandade modeller
Deterministisk eller sannolikhetsteoretisk klustring
Arbeta med tidsserier
Motiverande exempel
Transformation mellan tids- och frekvensplan
Autoregressiv modellering
Autoregressiv modellering av rörligt medelvärde
Datarepresentation och utformning av särdrag
Utveckling av särdrag
Urval av särdrag
Samordnad optimering av särdragsutveckling och - klassificering
Pipeline för maskininlärning
AutoML-verktyg
Fallgropar med standardmetoder
Utökning och andra datatrick
Ansvar för utvecklaren och användaren
Tolka modeller för att motivera beslut
Korrelation och orsakssamband: maskininlärning är inte magiskt
Fördjupning: Förstärkningsinlärning (RL)
Översikt av tillämpningar inom förstärkningsinlärning
Grunderna för förstärkningsinlärning
Q-inlärning
