Kursen börjar med modellanpassning, inferens och prediktion för enkla och multipla linjära regressionsmodeller. Särskild uppmärksamhet ägnas åt diagnostiska strategier som är viktiga komponenter för bra modellpassning. Ytterligare ämnen inkluderar transformer och viktningar för att korrigera modellbrister, multikollinearitet -problemet, variabelselektion och modellbyggnadsteknik. Senare i kursen presenteras några generella strategier för regressionsmodellering med särskild inriktning på de generaliserade linjära modellerna (GLM) med hjälp av exemplen med binära och andra kategoriska responsvariabler.
Eftersom insamling av högdimensionella data, med storleksordningen mycket större än vad som krävs för den klassiska regressionsteorin, är numera en regel snarare än undantag (t.ex. inom informationsteknologi, finans, genetik och astrofysik, för att bara nämna några), presenteras regression metoder som tillgodoser sådan data. Tyngdpunkten ligger på regulariseringsmetoder (Ridge, Lasso- och Elastic-Net regression), liksom metoder som använder härledda inmatningsriktningar (principalkomponentsregression och partiell minsta-kvadrat) som gör det möjligt att dämpa statistisk variation i högdimensionella skattnings- och prediktions problem.
Ett antal statistiska inlärningsmetoder med fokus på datorbaserade/datorintensiva algoritmer presenteras från regressionsperspektivet.
Datorbaserade projekt reella dataproblem utgör en viktig lärandeaktivitet.