61
Resampling Methods Cross-validation, Bootstrapping Marek Petrik 2/21/2017 Some of the figures in this presentation are taken from ”An Introduction to Statistical Learning, with applications in R” (Springer, 2013) with permission from the authors: G. James, D. Wien, T. Hastie and R. Tibshirani

Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

  • Upload
    ngonhi

  • View
    220

  • Download
    2

Embed Size (px)

Citation preview

Page 1: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Resampling MethodsCross-validation, Bootstrapping

Marek Petrik

2/21/2017

Some of the figures in this presentation are taken from ”An Introduction to Statistical Learning, with applications in R”(Springer, 2013) with permission from the authors: G. James, D. Wi�en, T. Hastie and R. Tibshirani

Page 2: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

So Far in ML

I Regression vs classificationI Linear regressionI Logistic regressionI Linear discriminant analysis, QDAI Maximum likelihood

Page 3: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Discriminative vs Generative Models

I Discriminative modelsI Estimate conditional models Pr[Y | X]I Linear regressionI Logistic regression

I Generative modelsI Estimate joint probability Pr[Y,X] = Pr[Y | X] Pr[X]I Estimates not only probability of labels but also the featuresI Once model is fit, can be used to generate dataI LDA, QDA, Naive Bayes

Page 4: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Logistic Regression

Y =

{1 if default

0 otherwise

Linear regression Logistic regression

0 500 1000 1500 2000 2500

0.0

0.2

0.4

0.6

0.8

1.0

Balance

Pro

ba

bili

ty o

f D

efa

ult

| | || | ||| ||| || | ||| || || | || | || || ||| | | | ||| || || || || ||| || | ||| || ||| ||| || ||| |||| | ||| ||| | || | || | || || | ||| | || ||| || || | || | ||| || | ||| || ||| | ||| || || ||| | ||

|

|| ||| || || | |||| | || || | ||| || || || | || | | | |

|

||| | ||| |||| | || || ||| || ||| || |

|

| || |

|

| |

|

|| || ||| | || || ||| | || || || || |||| | ||

|

|

|

| ||| | || || || || ||| || |

|

|| | ||| | | ||| ||| || | || | | || || ||| || || | || || |||||||| || || | || | |||| | || || || || | || ||| || |||

|

|||

|

| | |

|

| | |||||

|

|| || || || || || ||| | || || |||| || | | ||| ||| | | | || || || || | ||

|

| | || || || ||| || | ||| ||| | ||| |||| | || |

||

| || ||| | | | ||| ||| | || | | |||| | || | ||||| || | ||| || || || |

|

| || || | ||||| | | || || | |||| | ||| | ||| | | ||| | | ||| || ||| | || ||||

|

| || |

|

| || || | || | | | || || | || || ||| |||| |||

|

| |||

|

|| | | || ||| | || ||| || || | ||| || | || || || |||| | ||| | | ||| || ||| | ||| |||| |

|

||| || | | ||

|

| || || |||| ||| ||| | | || | || || ||| ||| ||| | ||| || | || ||| || | | ||| || || ||| ||

|

| || || || | || || || || || || |||| ||

|

| |||| | | | ||| || |||| || |

|

||| | ||| ||| || || | || || || || |||| || | | ||| | |||| | |

|

||| | ||||| || || | || || || | ||| || || |

|

|||| |||| | | || || || || | || || |||| | | ||| |

|

|| || | | |||| || || || | |||| || || || || ||| || || | || | | || || | || || ||

|

|| | ||| | ||| |

|

|||||| | | ||| || | || || | | ||| | | | | || ||| | | |||| | ||

|

|| | || |

|

| ||| || | ||| | || || ||

|

| || | || | | || | || || | | |

|

| |||

|

||| | || || || | | | || || ||

|

|| || | | ||| | |||| || ||| || || || || || ||| ||| | ||| | | |||| || ||| | | ||

|

|| | | || ||| || | ||| || ||| || || || | || || || || ||

|

|| || |

||

|| | || ||| |||| | |||

|

| || | | ||| || | ||| ||| | || | | | ||| || || || | ||| || | ||| || || ||

|

|| | ||

|

|| | | || ||| || ||| ||| | || ||| |||| | || | | || |||| |

|

|| || | || ||| || | || || | || | ||| | || ||| || || || || | || || | || || || || | || | |||| | ||| | || || | || || || || ||| || | | || | ||| ||| | ||| | | |||

|

|

|

|||| || | | || | ||| ||| || | ||| || | | | |||| |

|

||| | || ||| | || |||| || | || || | | || || ||| ||| | ||| || || || || | |

|

|

|

|| || | ||| ||||| | | | ||| | | ||| || || || || || | |

|

||

|

|||| ||| |

|

| ||| |

|

||| ||| | ||||| | || || || || | | || || || || || ||| ||| | || | ||

|

||| | ||| || | ||| | |||| || | | || |||| | || || || || || | |

|

||| | | || |||| | || || | |

|

|| | || | || |||| | ||

|

| || || ||| || | | ||| || || ||

|

|| || ||| ||| || || || ||| || || ||| || | | | ||| || || ||||| || | ||| | || | |

|

| || || |

|

| || | | || || | ||||| || | || || || || || | || || || | ||

|

|| ||| || || || ||| | || |||| | | || || || | |

|

|| | || || ||| | ||| || ||| | | ||| ||| || || ||| || ||| || || ||||

|

|||

|

||| | || || || |

|

| || || ||| ||| || | |||

|

||| || || ||| || |

|

|| || || | ||| || | || | || |

|

| || ||| | | ||| || ||| | || | || | || | | || || || | || || | |||

|

|

|

|||| | || | | || | || | ||| | ||| | || | || || || || ||| || |||| || | ||| || || || || | ||

|

||| || | |

|

| | ||| | || || ||||| ||| ||| |

|

|| | ||| ||| ||| | ||

|

|| | || || ||| || | |

|

| | || ||||| ||| | || || ||| || || ||

|

|| | |

|

||| || | || | || | | ||||| | || ||| || |||

|

|| | | |||| | | || | || | |||| | | | | | ||| | |||

|

|||| || ||| || ||

|

||| || |

|

|| | || || || | || | |||||| |

|

|| |

|

||| | | || ||| |

|

| | ||| ||||| ||| | | || || || |

|

| || | ||| || || || || | | ||| || | | | ||| | || || || |||| || |

|

| || | ||| | | || ||| || | | ||| | | ||| | | ||| ||| ||| | |

|

| || | ||| || ||| | || |

|

| ||| | || ||| |||

|

||| | | || || || |||| ||| | ||| ||| ||| || || ||| | ||| |||| | || ||| | || || | || ||| || || || || || || | || || || |||| || || || ||| |

|

|| || || ||| ||

|

|| | ||| | || ||| | || | | | ||| | || || || | ||| |||| || | || || | | |||| | || ||| || | ||| ||| || | || | | | ||| ||

|

| ||| | || | | | |

|

|||| || || | ||| | || |||||| || || || ||| ||| | || ||| | |||| ||| | || || |

|

| || | || || || || || ||| | || || || || | ||| || | || ||| || || |||| ||

|

|| | ||| || || || || | | ||| ||| ||| || ||| |||| ||||| |

|

|||| | | || |||| ||| ||| || || ||| || || || || ||||| ||| | || || | || | ||| ||| |

|

| ||| || || || || || || |||| || |||| || || |

|

||| || || || || | |||

|

|| ||| | ||| || ||| || ||||| ||| | | || |||| || || | ||| || | || ||| | | ||||| | ||| ||| || | | | | || | | || || || | || |||| | ||

|

| || || || || || || || | | || || | | || | ||| ||| | | ||| ||

|

|| ||| || ||| || | || || ||| |||| | ||| || || ||| | | | ||| || | ||| |||| || || |||| || | || | ||| || | || | ||| || || || || ||| || |||| ||| || ||||| | || || |

|

|| || | ||| || ||

|

|| | | |||| | ||| ||| ||| || || || ||| || || || | || || || ||| | | ||||

|

|| | |||| || || ||

|

| || | |

|

|| || | |||| || | ||| ||| | || || || | || | | ||

|

|| || |

|

|| | ||| || |||| ||| || |

|

|| | || ||

|

|| | | || | || ||| ||| || | || |

|

| || ||| | |||| |||| || | ||||| | | |

|

|| ||| ||||

|

||| | || || ||| || | ||| | || || | || || || | ||| || |

|

|| || || | || ||

|

| || ||| ||

|

| || | | ||

|

|| || | || |

|

|| |||| | ||||| | | || | | |||||| || ||| ||| || || |||| | | || |||| || ||

|

| |

|

||| ||

|

| || | |

|

|| || | || | | |||| || | | || | | || || || || || | || ||| | | |||| | |

|

| || || || || || || ||| | | || || ||| || | |||| | || ||| | |||| |||||

|

| | |

|

| | ||| | |||| | || || || || || || | || | || | | | || || | || | |||| | || | || || | ||| | || || ||| || || |||

|

| || ||| | || | || || || ||| | || |||| || | || | ||

|

| | ||| ||| || | |||

|

|| ||| || || || | | || | ||| | || ||| | ||

|

|| || | || | | || ||| | |||| || || | || ||||| || ||| || || || ||| ||| ||| | ||| || ||| ||| || || | ||| |

|

|| |

|

| ||||| | || ||| || || || || | ||| || || | | | ||| | || ||| ||| ||| |||| ||| ||| || || | || | |

|

| || | ||| ||| || || || ||| || ||| | || || | | || | || || || | || | ||| | || || || ||| ||| || || | || | ||

|

| || ||| || || ||| || | ||| || | || |

|

| || | ||| ||| || ||| | ||| || || | | ||| | ||

|

| | || | | |

|

|| | ||| || || | | ||| | | ||| | | || || |||| | || ||

|

|| | | || | | | ||

|

| ||| | | || | || ||| || || | ||| | ||| || |||| | ||| ||| || | || || ||| ||| | ||| ||| ||||| |||| ||| | | |||| ||

|

| |||| | || | |

|

||| ||| || || ||

|

|| |

|

|

|

||| ||| | |||| || ||| | || ||| | | || ||| ||

|

| ||| || |||| || | || | || || | | |||| || | |||

|

||||| || | |||| ||

|

| ||| || |

|

|| || || ||||| | | ||| | ||| | || | ||| || | || | || | | || |||

|

| || |||| ||| | | |

|

| || |||

|

|| || | || | ||||| | | ||| || || | | ||| || || | | | | || ||| | |||| | | || | |||| || | ||| | || |||| | | || ||| ||

|

|| || | || | | || | ||| ||| || || | | || || | || || ||| || || || | | | || | |||| | | || || ||| |

|

|| || | || || || || | ||| | || || || | ||| | || ||| ||

|

|| || || ||

|

| || ||| || || | |

|

| || | | || | ||| | || || ||| || |||| || || | ||

|

|| || || || | | |||

|

|| || | ||| || ||| || | | || |||| | | || ||| |

|

| | |

|

| || | ||| || | | ||| || | || ||| || | | || | | ||| | || | | ||| || ||| | ||| || ||

|

|| || ||| ||| || || ||| || |

||

|| |

|

| | || | || || | ||| || | ||| | | | || | || | || | | |||| | ||| | ||| ||| ||| || | ||| || || || | || |||| | | |||| ||| | | | |||| |

|

|

|

| || || |||| | || |

|

|| || || | |||

| |

| ||| ||| | || | | | |||

|

| ||| | ||| || || || || || | ||| || | || ||| ||| | | || |||| | |||||

|

| || | ||| ||| || || | | ||||| ||| | || || || ||| | ||| || | | || | || || |||| || | ||| | ||| | || || || | || ||| ||| ||| || | ||| | || ||| || || ||| || || | |||| || ||| || ||| | ||| ||| | || | || || || ||| | || ||| | || | || ||| | | ||| | |

|

| | ||||| | ||

|

|| |

|

|||| || |||||

|

|| | | || |||| | || || ||

|

|| ||| || || || ||| |||| || ||| | |||| | | |

|

| | | |||| || ||| | ||| | | || || |

|

|| | || | || | |

|

| | |

|

||| | || | ||| || || || ||| |||| || || ||| || || |||

|

| | | || | || ||| || | ||| ||| || || | ||| || | || || || ||| || ||| | || | || | || || ||| | || ||||| | |

|

|| | | | |||| || ||| || || || || | | || |

|

||| | || || ||| || | || |||

|

|| || ||| | | ||| ||| | || || || || || || | | | ||| | || | | || || | | || ||| || ||| | || || | |||| || || ||| || |

|

|| | || | | || ||| |||| | || | | || ||| | || || || |||| || ||| ||| || || || || || | ||| ||| |||| | |

|

| ||| | ||| ||| || || || |||| || | ||||| | || | ||||| | ||

|

| | || || ||| || | |||| | ||| | || ||| ||| | | || |

|

|| ||| ||

|

| || | ||| || || || |||| || ||

|

||| | || |||| || | || ||| || || | || | || | || || ||| |||| ||| |

|

||| ||| || | || || || | || || | | ||| || || | ||| ||| | ||| ||| |||| | || | || || ||| | || || ||| |

|

|| | ||| ||| | || || || || | || | | ||| || | ||| | || || || || | | || | | || | | |||| || ||| | | || || || ||| || || | |

|

| | ||| || || || |

|

| || || |||

|

| | || |||| ||| | || | ||| || | || | || ||| | || || || || |||||| || | || || | ||| ||| | | || | | || || ||| | ||| || ||||| | || ||| | ||| |||| | || | || ||| ||

|

|||||| | ||| || | || || || ||| || || || || | | || | ||

|

|| || || || ||| | ||| ||| ||| || || || || | || || ||

|

||| | || || || | ||| | || || | || ||| | || || ||

|

| | || | ||| || || | | ||| | || | |||| |||| || || | || | | ||| | || | | |||| || | |||| | || || | || || | ||| || || | ||| || | || ||| |||

|

| || || |||| || || |||| | ||| |||| | |||| |||| || |

|

|| | || | | || | | |

|

| ||||| | |||||| | || | | || || || || | || ||| || | || || || |

|

|

|

| ||| | || | ||| ||| |||| |

|

|| || || || || | | || | ||| | | | ||

|

|| || | || | |||| | ||

|

| || |||| || | ||||| || || | ||| | | ||| ||| | || |||| ||| |

|

| |||| || | ||

|

|| || | |||| | || ||||| | || | ||| | | || || | | | || ||| ||| || | | || | ||

|

|| ||| |

|

| | || || |||| |

|

|| | ||| | || || | ||| || || ||| | || || | ||| || || | || | || |||| || ||| ||| ||| || | ||| | || || | |||

| |

||| || || || | || |||| | |||| || ||| || || | ||| ||

|

| || || ||| || || | | ||| | || | |||| ||

|

|| ||| || | || | | | || | ||| | |

|

| || || || | || || || | ||| || ||| || ||

|

| || | |||| |||

|

| ||| || || | || |

|

| || ||| || | || || |||| || | ||| | || | || | ||| | || | || ||||| |

|

|| | || || | | | ||| | || ||||

|

|

|

| | | | |||| ||| |||| |||| | | | ||| | || | || || | || | |||| | || | | ||| || |

|

||||

|

| ||| | ||| ||

|

| || || ||| ||| || |||| ||| |

|

||| || | ||

|

||| | | || ||| | || |||| || | || ||| || || | ||| | ||| || |||

|

|| ||| || ||| | | || || | || | ||| | || | | || | ||| |||| || || ||||| | ||| | || || || || | || | ||||

|

|| ||| || ||| | | || || | ||| |||| | |

|

|| | | ||| || ||

|

| || || || |

|

| | | || | || ||| ||| | | | || || || |||

|

| || || ||||| | | || ||

|

||

|

|| | || || | ||| || | || | ||| |

|

|| | || | |||

|

|| | |||| || ||| | ||| | | ||| || | || || || | | || |||| ||

|

| || | || || | || ||| | ||| ||| ||| | ||| | || | ||| ||||| | | | ||

|

| | | || | ||| || || ||

|

| || |||| | ||| | |||| || | | ||| || | ||

|

|| | | ||||| | || ||| || || || ||| |||| |||

|

| | | ||| |||| | || |||| | || | | || || | | || || || | ||||| ||| |||

|

|| ||| ||| ||

|

| | || | || ||||| ||| || || || || | ||| || | | | | ||

|

| ||| | || || | | || ||| || |||| ||| || | | ||| | ||| | || || || | || | || | || || | || |

|

| || || |||| ||||| | || | || | || |||| | || | || || |||| | | ||| ||

|

| || || || ||| || || | ||||| || || | ||| || |||| | || ||| ||| || || | |||| || | ||| ||| || | ||| | | || | || || | | || | | || | || |

|

|

|

||| | | ||| ||| || | || | || ||| | |

|

| ||| || || | | || ||| | | | || | || ||| || | || || | || || || || || || || ||| | || || || | || ||||

|

| ||| ||| |

|

| ||| | || | | ||||| | ||| || || || ||| || | ||| | || || ||| || | || | |

|

| |

|

||| ||||| | |||| || || ||| || | || | || ||| | ||

|

| | ||| | ||| | |||| || || | |||| | | ||

|

||| | | || | | ||| || | ||| || ||| || || ||| ||| ||| | || | | | || || ||| || | ||| |||| || || ||| | ||| |||| ||||| || ||| || || | | ||| || || || |||| ||| ||

|

||| ||| ||| | || | ||| | || | | || ||| | || || ||| | || | ||| || | | || ||| | ||| | || || || |||| | | ||

|

||||| || | | || || || ||||| | ||| || ||| ||| | || || || | | || || ||| || | |

|

|| | || |||| || ||

|

|| || | | || | | ||

|

|

|

|

|

|| || | || || ||

|

| || || || || | || ||| | || | | ||| | || || |||| |||| || | ||

|

| || || | || || ||| | | || ||| || || || | | | ||||

|

|| ||| ||| || || || | || || || | | || | || | ||| | || ||| || | || ||| || | || || || || ||| ||| | | ||| | || | || || || || | |||| || || | || || ||| | || | |||| | || | || | | | || || | || || ||| | | ||| |||| | ||| || | || ||| | || | ||| || ||| || || || ||| || | || || || | || |||| || | || || || ||| || || ||| | | | || | | | || |||

|

|| || || ||||| || | |||| |

|

| | | || | | | |||||| ||| || | | ||| | ||| | ||| |||| | | | | || |||| | ||

|

| ||

|

| | || || ||| || || ||| || | || || | ||| || || || || || || | || | ||| ||

|

|| | | || || | || ||| ||| || |

|

|| |||| | || | || || | | || | |||| || ||| || | | || | || | || || ||

|

| | || | |||| | || || | || |||| |||| | || | |||

|

|||| | ||| || | | |

|

| | || |||

|

| ||| |||| | | || | | ||| || | | || | | || | || | || |

|

||| || ||| | |

|

||| || ||| ||| ||| ||

|

|| | || || |||| ||| | || || | ||| || | ||

|

||

|

| |

| |

|| ||||| || | || | ||

|

| || ||| || |

|

|| | ||

|

| |||| || | || | ||| | ||| ||| || || || || || |||| | ||| | ||| |||

|

| || || | | || ||| || | || ||| || ||||| | |||

|

|| |||| | ||| | |||| |||| || || || | ||| | ||| ||| || | || | | || ||| || ||| | | | || ||| | | | || || | | || || || || || | ||| | ||| ||| | || | ||| || | || | || || | ||| ||| || || || | ||||| | ||

|

|| |||| || ||| ||| | |||

|

|| || | | ||| | | |

|

| | || | || || ||| || || || | || | || || || | | | ||| |||| || | || ||| | || || | | |

|

|| || || || || ||||| | | || || ||| | | ||| | ||| ||| | | |

|

||

|

| | ||| || || ||| || || || || || || | ||||| || | || || | || || || | | ||| || || | ||| || | | ||| ||| ||| |

|

||| || ||| || |

|

||| || | || ||| || ||| ||| | || | ||| ||| || ||| ||| || | | | || || | || || | | | ||| | | || || || | || | | ||

|

|| | || || || || ||| | || |||| || || || | | ||| | || | ||| | || || | ||

|

| |||

|

| || || || | |||| || ||| | || ||||

|

||| | || ||

|

| |||

|

| | || | ||||| ||| || || || | | | ||| | | || |||| || | ||||| ||| ||| | |||| | | || ||| || || || |||| || || | || ||| || |||| |||| | | | ||

|

|| ||| ||| || | || | || |||| |||| | || ||| ||| ||||||| || ||| | || | || ||| | | | || || |||| || || || | || | |

|

| || || || | || ||||

|

| || ||| | | || ||| || | ||| | | | |

|

||| | | |||| || || || || | || | ||| | || | ||| |

|

| || | || || ||| | || | | || | |||| || || ||| | || ||| ||| |

|

| || ||| || | ||| | || | || | ||| ||| || || |||| || | || ||| | || | ||| || || |||| ||| || |

|

||||

|

| ||||| ||| |

|

| | || ||| | |

|

|| | || ||||| | ||| || | |

|

| || || ||

|

||| || | | |||||| |

|

|||| | || ||

|

|| | |

|

|||| | |

|

| | || || | ||| || | ||

|

| | ||| || ||| || ||| || || | | || ||| | || ||| | || |||| ||||| || | ||||| | | || || ||| | ||| | || || |

|

|| || ||| || || ||| | || || || | || |||| || || | | |||| | | | ||

|

|| | | || ||| | | | | || ||| || || ||| ||| || | || || ||| ||| ||| ||| || || || | | | || | | || ||| | || || ||| ||| || || | | ||| ||| || |||| | | || | || | || || ||| | | || || | ||| || ||| | || |

|

||

|

| ||| || || |

|

|| || ||| ||| | || || |

|

|| || | ||| ||| || | |||| | || || ||| || ||||| || || | || ||

|

|| |||| | || || || || | || | ||| || | |

|

| |||| ||| |

|

| ||| || ||| | ||| || | | |

|

| |||||| |

|

| | || |||| || ||| || || || | || |||||

|

|

|

| | ||| ||| | | || | | ||| | || | | ||| |

|

| |||| ||| || || | ||| | | | ||

0 500 1000 1500 2000 25000.0

0.2

0.4

0.6

0.8

1.0

Balance

Pro

ba

bili

ty o

f D

efa

ult

| | || | ||| ||| || | ||| || || | || | || || ||| | | | ||| || || || || ||| || | ||| || ||| ||| || ||| |||| | ||| ||| | || | || | || || | ||| | || ||| || || | || | ||| || | ||| || ||| | ||| || || ||| | ||

|

|| ||| || || | |||| | || || | ||| || || || | || | | | |

|

||| | ||| |||| | || || ||| || ||| || |

|

| || |

|

| |

|

|| || ||| | || || ||| | || || || || |||| | ||

|

|

|

| ||| | || || || || ||| || |

|

|| | ||| | | ||| ||| || | || | | || || ||| || || | || || |||||||| || || | || | |||| | || || || || | || ||| || |||

|

|||

|

| | |

|

| | |||||

|

|| || || || || || ||| | || || |||| || | | ||| ||| | | | || || || || | ||

|

| | || || || ||| || | ||| ||| | ||| |||| | || |

||

| || ||| | | | ||| ||| | || | | |||| | || | ||||| || | ||| || || || |

|

| || || | ||||| | | || || | |||| | ||| | ||| | | ||| | | ||| || ||| | || ||||

|

| || |

|

| || || | || | | | || || | || || ||| |||| |||

|

| |||

|

|| | | || ||| | || ||| || || | ||| || | || || || |||| | ||| | | ||| || ||| | ||| |||| |

|

||| || | | ||

|

| || || |||| ||| ||| | | || | || || ||| ||| ||| | ||| || | || ||| || | | ||| || || ||| ||

|

| || || || | || || || || || || |||| ||

|

| |||| | | | ||| || |||| || |

|

||| | ||| ||| || || | || || || || |||| || | | ||| | |||| | |

|

||| | ||||| || || | || || || | ||| || || |

|

|||| |||| | | || || || || | || || |||| | | ||| |

|

|| || | | |||| || || || | |||| || || || || ||| || || | || | | || || | || || ||

|

|| | ||| | ||| |

|

|||||| | | ||| || | || || | | ||| | | | | || ||| | | |||| | ||

|

|| | || |

|

| ||| || | ||| | || || ||

|

| || | || | | || | || || | | |

|

| |||

|

||| | || || || | | | || || ||

|

|| || | | ||| | |||| || ||| || || || || || ||| ||| | ||| | | |||| || ||| | | ||

|

|| | | || ||| || | ||| || ||| || || || | || || || || ||

|

|| || |

||

|| | || ||| |||| | |||

|

| || | | ||| || | ||| ||| | || | | | ||| || || || | ||| || | ||| || || ||

|

|| | ||

|

|| | | || ||| || ||| ||| | || ||| |||| | || | | || |||| |

|

|| || | || ||| || | || || | || | ||| | || ||| || || || || | || || | || || || || | || | |||| | ||| | || || | || || || || ||| || | | || | ||| ||| | ||| | | |||

|

|

|

|||| || | | || | ||| ||| || | ||| || | | | |||| |

|

||| | || ||| | || |||| || | || || | | || || ||| ||| | ||| || || || || | |

|

|

|

|| || | ||| ||||| | | | ||| | | ||| || || || || || | |

|

||

|

|||| ||| |

|

| ||| |

|

||| ||| | ||||| | || || || || | | || || || || || ||| ||| | || | ||

|

||| | ||| || | ||| | |||| || | | || |||| | || || || || || | |

|

||| | | || |||| | || || | |

|

|| | || | || |||| | ||

|

| || || ||| || | | ||| || || ||

|

|| || ||| ||| || || || ||| || || ||| || | | | ||| || || ||||| || | ||| | || | |

|

| || || |

|

| || | | || || | ||||| || | || || || || || | || || || | ||

|

|| ||| || || || ||| | || |||| | | || || || | |

|

|| | || || ||| | ||| || ||| | | ||| ||| || || ||| || ||| || || ||||

|

|||

|

||| | || || || |

|

| || || ||| ||| || | |||

|

||| || || ||| || |

|

|| || || | ||| || | || | || |

|

| || ||| | | ||| || ||| | || | || | || | | || || || | || || | |||

|

|

|

|||| | || | | || | || | ||| | ||| | || | || || || || ||| || |||| || | ||| || || || || | ||

|

||| || | |

|

| | ||| | || || ||||| ||| ||| |

|

|| | ||| ||| ||| | ||

|

|| | || || ||| || | |

|

| | || ||||| ||| | || || ||| || || ||

|

|| | |

|

||| || | || | || | | ||||| | || ||| || |||

|

|| | | |||| | | || | || | |||| | | | | | ||| | |||

|

|||| || ||| || ||

|

||| || |

|

|| | || || || | || | |||||| |

|

|| |

|

||| | | || ||| |

|

| | ||| ||||| ||| | | || || || |

|

| || | ||| || || || || | | ||| || | | | ||| | || || || |||| || |

|

| || | ||| | | || ||| || | | ||| | | ||| | | ||| ||| ||| | |

|

| || | ||| || ||| | || |

|

| ||| | || ||| |||

|

||| | | || || || |||| ||| | ||| ||| ||| || || ||| | ||| |||| | || ||| | || || | || ||| || || || || || || | || || || |||| || || || ||| |

|

|| || || ||| ||

|

|| | ||| | || ||| | || | | | ||| | || || || | ||| |||| || | || || | | |||| | || ||| || | ||| ||| || | || | | | ||| ||

|

| ||| | || | | | |

|

|||| || || | ||| | || |||||| || || || ||| ||| | || ||| | |||| ||| | || || |

|

| || | || || || || || ||| | || || || || | ||| || | || ||| || || |||| ||

|

|| | ||| || || || || | | ||| ||| ||| || ||| |||| ||||| |

|

|||| | | || |||| ||| ||| || || ||| || || || || ||||| ||| | || || | || | ||| ||| |

|

| ||| || || || || || || |||| || |||| || || |

|

||| || || || || | |||

|

|| ||| | ||| || ||| || ||||| ||| | | || |||| || || | ||| || | || ||| | | ||||| | ||| ||| || | | | | || | | || || || | || |||| | ||

|

| || || || || || || || | | || || | | || | ||| ||| | | ||| ||

|

|| ||| || ||| || | || || ||| |||| | ||| || || ||| | | | ||| || | ||| |||| || || |||| || | || | ||| || | || | ||| || || || || ||| || |||| ||| || ||||| | || || |

|

|| || | ||| || ||

|

|| | | |||| | ||| ||| ||| || || || ||| || || || | || || || ||| | | ||||

|

|| | |||| || || ||

|

| || | |

|

|| || | |||| || | ||| ||| | || || || | || | | ||

|

|| || |

|

|| | ||| || |||| ||| || |

|

|| | || ||

|

|| | | || | || ||| ||| || | || |

|

| || ||| | |||| |||| || | ||||| | | |

|

|| ||| ||||

|

||| | || || ||| || | ||| | || || | || || || | ||| || |

|

|| || || | || ||

|

| || ||| ||

|

| || | | ||

|

|| || | || |

|

|| |||| | ||||| | | || | | |||||| || ||| ||| || || |||| | | || |||| || ||

|

| |

|

||| ||

|

| || | |

|

|| || | || | | |||| || | | || | | || || || || || | || ||| | | |||| | |

|

| || || || || || || ||| | | || || ||| || | |||| | || ||| | |||| |||||

|

| | |

|

| | ||| | |||| | || || || || || || | || | || | | | || || | || | |||| | || | || || | ||| | || || ||| || || |||

|

| || ||| | || | || || || ||| | || |||| || | || | ||

|

| | ||| ||| || | |||

|

|| ||| || || || | | || | ||| | || ||| | ||

|

|| || | || | | || ||| | |||| || || | || ||||| || ||| || || || ||| ||| ||| | ||| || ||| ||| || || | ||| |

|

|| |

|

| ||||| | || ||| || || || || | ||| || || | | | ||| | || ||| ||| ||| |||| ||| ||| || || | || | |

|

| || | ||| ||| || || || ||| || ||| | || || | | || | || || || | || | ||| | || || || ||| ||| || || | || | ||

|

| || ||| || || ||| || | ||| || | || |

|

| || | ||| ||| || ||| | ||| || || | | ||| | ||

|

| | || | | |

|

|| | ||| || || | | ||| | | ||| | | || || |||| | || ||

|

|| | | || | | | ||

|

| ||| | | || | || ||| || || | ||| | ||| || |||| | ||| ||| || | || || ||| ||| | ||| ||| ||||| |||| ||| | | |||| ||

|

| |||| | || | |

|

||| ||| || || ||

|

|| |

|

|

|

||| ||| | |||| || ||| | || ||| | | || ||| ||

|

| ||| || |||| || | || | || || | | |||| || | |||

|

||||| || | |||| ||

|

| ||| || |

|

|| || || ||||| | | ||| | ||| | || | ||| || | || | || | | || |||

|

| || |||| ||| | | |

|

| || |||

|

|| || | || | ||||| | | ||| || || | | ||| || || | | | | || ||| | |||| | | || | |||| || | ||| | || |||| | | || ||| ||

|

|| || | || | | || | ||| ||| || || | | || || | || || ||| || || || | | | || | |||| | | || || ||| |

|

|| || | || || || || | ||| | || || || | ||| | || ||| ||

|

|| || || ||

|

| || ||| || || | |

|

| || | | || | ||| | || || ||| || |||| || || | ||

|

|| || || || | | |||

|

|| || | ||| || ||| || | | || |||| | | || ||| |

|

| | |

|

| || | ||| || | | ||| || | || ||| || | | || | | ||| | || | | ||| || ||| | ||| || ||

|

|| || ||| ||| || || ||| || |

||

|| |

|

| | || | || || | ||| || | ||| | | | || | || | || | | |||| | ||| | ||| ||| ||| || | ||| || || || | || |||| | | |||| ||| | | | |||| |

|

|

|

| || || |||| | || |

|

|| || || | |||

| |

| ||| ||| | || | | | |||

|

| ||| | ||| || || || || || | ||| || | || ||| ||| | | || |||| | |||||

|

| || | ||| ||| || || | | ||||| ||| | || || || ||| | ||| || | | || | || || |||| || | ||| | ||| | || || || | || ||| ||| ||| || | ||| | || ||| || || ||| || || | |||| || ||| || ||| | ||| ||| | || | || || || ||| | || ||| | || | || ||| | | ||| | |

|

| | ||||| | ||

|

|| |

|

|||| || |||||

|

|| | | || |||| | || || ||

|

|| ||| || || || ||| |||| || ||| | |||| | | |

|

| | | |||| || ||| | ||| | | || || |

|

|| | || | || | |

|

| | |

|

||| | || | ||| || || || ||| |||| || || ||| || || |||

|

| | | || | || ||| || | ||| ||| || || | ||| || | || || || ||| || ||| | || | || | || || ||| | || ||||| | |

|

|| | | | |||| || ||| || || || || | | || |

|

||| | || || ||| || | || |||

|

|| || ||| | | ||| ||| | || || || || || || | | | ||| | || | | || || | | || ||| || ||| | || || | |||| || || ||| || |

|

|| | || | | || ||| |||| | || | | || ||| | || || || |||| || ||| ||| || || || || || | ||| ||| |||| | |

|

| ||| | ||| ||| || || || |||| || | ||||| | || | ||||| | ||

|

| | || || ||| || | |||| | ||| | || ||| ||| | | || |

|

|| ||| ||

|

| || | ||| || || || |||| || ||

|

||| | || |||| || | || ||| || || | || | || | || || ||| |||| ||| |

|

||| ||| || | || || || | || || | | ||| || || | ||| ||| | ||| ||| |||| | || | || || ||| | || || ||| |

|

|| | ||| ||| | || || || || | || | | ||| || | ||| | || || || || | | || | | || | | |||| || ||| | | || || || ||| || || | |

|

| | ||| || || || |

|

| || || |||

|

| | || |||| ||| | || | ||| || | || | || ||| | || || || || |||||| || | || || | ||| ||| | | || | | || || ||| | ||| || ||||| | || ||| | ||| |||| | || | || ||| ||

|

|||||| | ||| || | || || || ||| || || || || | | || | ||

|

|| || || || ||| | ||| ||| ||| || || || || | || || ||

|

||| | || || || | ||| | || || | || ||| | || || ||

|

| | || | ||| || || | | ||| | || | |||| |||| || || | || | | ||| | || | | |||| || | |||| | || || | || || | ||| || || | ||| || | || ||| |||

|

| || || |||| || || |||| | ||| |||| | |||| |||| || |

|

|| | || | | || | | |

|

| ||||| | |||||| | || | | || || || || | || ||| || | || || || |

|

|

|

| ||| | || | ||| ||| |||| |

|

|| || || || || | | || | ||| | | | ||

|

|| || | || | |||| | ||

|

| || |||| || | ||||| || || | ||| | | ||| ||| | || |||| ||| |

|

| |||| || | ||

|

|| || | |||| | || ||||| | || | ||| | | || || | | | || ||| ||| || | | || | ||

|

|| ||| |

|

| | || || |||| |

|

|| | ||| | || || | ||| || || ||| | || || | ||| || || | || | || |||| || ||| ||| ||| || | ||| | || || | |||

| |

||| || || || | || |||| | |||| || ||| || || | ||| ||

|

| || || ||| || || | | ||| | || | |||| ||

|

|| ||| || | || | | | || | ||| | |

|

| || || || | || || || | ||| || ||| || ||

|

| || | |||| |||

|

| ||| || || | || |

|

| || ||| || | || || |||| || | ||| | || | || | ||| | || | || ||||| |

|

|| | || || | | | ||| | || ||||

|

|

|

| | | | |||| ||| |||| |||| | | | ||| | || | || || | || | |||| | || | | ||| || |

|

||||

|

| ||| | ||| ||

|

| || || ||| ||| || |||| ||| |

|

||| || | ||

|

||| | | || ||| | || |||| || | || ||| || || | ||| | ||| || |||

|

|| ||| || ||| | | || || | || | ||| | || | | || | ||| |||| || || ||||| | ||| | || || || || | || | ||||

|

|| ||| || ||| | | || || | ||| |||| | |

|

|| | | ||| || ||

|

| || || || |

|

| | | || | || ||| ||| | | | || || || |||

|

| || || ||||| | | || ||

|

||

|

|| | || || | ||| || | || | ||| |

|

|| | || | |||

|

|| | |||| || ||| | ||| | | ||| || | || || || | | || |||| ||

|

| || | || || | || ||| | ||| ||| ||| | ||| | || | ||| ||||| | | | ||

|

| | | || | ||| || || ||

|

| || |||| | ||| | |||| || | | ||| || | ||

|

|| | | ||||| | || ||| || || || ||| |||| |||

|

| | | ||| |||| | || |||| | || | | || || | | || || || | ||||| ||| |||

|

|| ||| ||| ||

|

| | || | || ||||| ||| || || || || | ||| || | | | | ||

|

| ||| | || || | | || ||| || |||| ||| || | | ||| | ||| | || || || | || | || | || || | || |

|

| || || |||| ||||| | || | || | || |||| | || | || || |||| | | ||| ||

|

| || || || ||| || || | ||||| || || | ||| || |||| | || ||| ||| || || | |||| || | ||| ||| || | ||| | | || | || || | | || | | || | || |

|

|

|

||| | | ||| ||| || | || | || ||| | |

|

| ||| || || | | || ||| | | | || | || ||| || | || || | || || || || || || || ||| | || || || | || ||||

|

| ||| ||| |

|

| ||| | || | | ||||| | ||| || || || ||| || | ||| | || || ||| || | || | |

|

| |

|

||| ||||| | |||| || || ||| || | || | || ||| | ||

|

| | ||| | ||| | |||| || || | |||| | | ||

|

||| | | || | | ||| || | ||| || ||| || || ||| ||| ||| | || | | | || || ||| || | ||| |||| || || ||| | ||| |||| ||||| || ||| || || | | ||| || || || |||| ||| ||

|

||| ||| ||| | || | ||| | || | | || ||| | || || ||| | || | ||| || | | || ||| | ||| | || || || |||| | | ||

|

||||| || | | || || || ||||| | ||| || ||| ||| | || || || | | || || ||| || | |

|

|| | || |||| || ||

|

|| || | | || | | ||

|

|

|

|

|

|| || | || || ||

|

| || || || || | || ||| | || | | ||| | || || |||| |||| || | ||

|

| || || | || || ||| | | || ||| || || || | | | ||||

|

|| ||| ||| || || || | || || || | | || | || | ||| | || ||| || | || ||| || | || || || || ||| ||| | | ||| | || | || || || || | |||| || || | || || ||| | || | |||| | || | || | | | || || | || || ||| | | ||| |||| | ||| || | || ||| | || | ||| || ||| || || || ||| || | || || || | || |||| || | || || || ||| || || ||| | | | || | | | || |||

|

|| || || ||||| || | |||| |

|

| | | || | | | |||||| ||| || | | ||| | ||| | ||| |||| | | | | || |||| | ||

|

| ||

|

| | || || ||| || || ||| || | || || | ||| || || || || || || | || | ||| ||

|

|| | | || || | || ||| ||| || |

|

|| |||| | || | || || | | || | |||| || ||| || | | || | || | || || ||

|

| | || | |||| | || || | || |||| |||| | || | |||

|

|||| | ||| || | | |

|

| | || |||

|

| ||| |||| | | || | | ||| || | | || | | || | || | || |

|

||| || ||| | |

|

||| || ||| ||| ||| ||

|

|| | || || |||| ||| | || || | ||| || | ||

|

||

|

| |

| |

|| ||||| || | || | ||

|

| || ||| || |

|

|| | ||

|

| |||| || | || | ||| | ||| ||| || || || || || |||| | ||| | ||| |||

|

| || || | | || ||| || | || ||| || ||||| | |||

|

|| |||| | ||| | |||| |||| || || || | ||| | ||| ||| || | || | | || ||| || ||| | | | || ||| | | | || || | | || || || || || | ||| | ||| ||| | || | ||| || | || | || || | ||| ||| || || || | ||||| | ||

|

|| |||| || ||| ||| | |||

|

|| || | | ||| | | |

|

| | || | || || ||| || || || | || | || || || | | | ||| |||| || | || ||| | || || | | |

|

|| || || || || ||||| | | || || ||| | | ||| | ||| ||| | | |

|

||

|

| | ||| || || ||| || || || || || || | ||||| || | || || | || || || | | ||| || || | ||| || | | ||| ||| ||| |

|

||| || ||| || |

|

||| || | || ||| || ||| ||| | || | ||| ||| || ||| ||| || | | | || || | || || | | | ||| | | || || || | || | | ||

|

|| | || || || || ||| | || |||| || || || | | ||| | || | ||| | || || | ||

|

| |||

|

| || || || | |||| || ||| | || ||||

|

||| | || ||

|

| |||

|

| | || | ||||| ||| || || || | | | ||| | | || |||| || | ||||| ||| ||| | |||| | | || ||| || || || |||| || || | || ||| || |||| |||| | | | ||

|

|| ||| ||| || | || | || |||| |||| | || ||| ||| ||||||| || ||| | || | || ||| | | | || || |||| || || || | || | |

|

| || || || | || ||||

|

| || ||| | | || ||| || | ||| | | | |

|

||| | | |||| || || || || | || | ||| | || | ||| |

|

| || | || || ||| | || | | || | |||| || || ||| | || ||| ||| |

|

| || ||| || | ||| | || | || | ||| ||| || || |||| || | || ||| | || | ||| || || |||| ||| || |

|

||||

|

| ||||| ||| |

|

| | || ||| | |

|

|| | || ||||| | ||| || | |

|

| || || ||

|

||| || | | |||||| |

|

|||| | || ||

|

|| | |

|

|||| | |

|

| | || || | ||| || | ||

|

| | ||| || ||| || ||| || || | | || ||| | || ||| | || |||| ||||| || | ||||| | | || || ||| | ||| | || || |

|

|| || ||| || || ||| | || || || | || |||| || || | | |||| | | | ||

|

|| | | || ||| | | | | || ||| || || ||| ||| || | || || ||| ||| ||| ||| || || || | | | || | | || ||| | || || ||| ||| || || | | ||| ||| || |||| | | || | || | || || ||| | | || || | ||| || ||| | || |

|

||

|

| ||| || || |

|

|| || ||| ||| | || || |

|

|| || | ||| ||| || | |||| | || || ||| || ||||| || || | || ||

|

|| |||| | || || || || | || | ||| || | |

|

| |||| ||| |

|

| ||| || ||| | ||| || | | |

|

| |||||| |

|

| | || |||| || ||| || || || | || |||||

|

|

|

| | ||| ||| | | || | | ||| | || | | ||| |

|

| |||| ||| || || | ||| | | | ||

Predict:Pr[default = yes | balance]

Page 5: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

LDA: Linear Discriminant Analysis

I Generative model: capture probability of predictors for eachlabel

−4 −2 0 2 4 −3 −2 −1 0 1 2 3 4

01

23

45

I Predict:1. Pr[balance | default = yes] and Pr[default = yes]2. Pr[balance | default = no] and Pr[default = no]

I Classes are normal: Pr[balance | default = yes]

Page 6: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Bayes Theorem

I Classification from label distributions:

Pr[Y = k | X = x] =Pr[X = x | Y = k] Pr[Y = k]

Pr[X = x]

I Example:

Pr[default = yes | balance = $100] =

Pr[balance = $100 | default = yes] Pr[default = yes]

Pr[balance = $100]

I Notation:

Pr[Y = k | X = x] =πkfk(x)∑Kl=1 πlfl(x)

Page 7: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

LDA with Multiple FeaturesI Multivariate Normal Distributions:

x1x1

x 2x 2

I Multivariate normal distribution density (mean vector µ,covariance matrix Σ):

p(X) =1

(2π)p/2|Σ|1/2exp

(−1

2(x− µ)>Σ−1(x− µ)

)

Page 8: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Multivariate Classification Using LDA

I Linear: Decision boundaries are linear

−4 −2 0 2 4

−4

−2

02

4

−4 −2 0 2 4

−4

−2

02

4

X1X1

X2

X2

Page 9: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

QDA:�adratic Discriminant Analysis

−4 −2 0 2 4

−4

−3

−2

−1

01

2

−4 −2 0 2 4−

4−

3−

2−

10

12

X1X1

X2

X2

Page 10: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Confusion Matrix: Predict default

TrueYes No Total

Predicted Yes a b a+ bNo c d c+ dTotal a+ c b+ d N

Result of LDA classification: Predict default ifPr[default = yes | balance] > 1/2

TrueYes No Total

Predicted Yes 81 23 104No 252 9 644 9 896Total 333 9 667 10 000

Page 11: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Today

I Successfully using basic machine learning methodsI Problems:

1. How well is the machine learning method doing2. Which method is best for my problem?3. How many features (and which ones) to use?4. What is the uncertainty in the learned parameters?

I Methods:1. Validation set2. Leave one out cross-validation3. k-fold cross validation4. Bootstrapping

Page 12: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Today

I Successfully using basic machine learning methodsI Problems:

1. How well is the machine learning method doing2. Which method is best for my problem?3. How many features (and which ones) to use?4. What is the uncertainty in the learned parameters?

I Methods:1. Validation set2. Leave one out cross-validation3. k-fold cross validation4. Bootstrapping

Page 13: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Problem: How to design features?

50 100 150 200

10

20

30

40

50

Horsepower

Mile

s p

er

gallo

n

Linear

Degree 2

Degree 5

Page 14: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Benefit of Good Features

0 20 40 60 80 100

−10

010

20

X

Y

2 5 10 200

510

15

20

Flexibility

Mean S

quare

d E

rror

gray: training error red: test error

Page 15: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Just Use Training Data?

I Using more features will always reduce MSEI Error on the test set will be greater

0 20 40 60 80 100

24

68

10

12

X

Y

2 5 10 20

0.0

0.5

1.0

1.5

2.0

2.5

Flexibility

Me

an S

qua

red E

rror

gray: training error red: test error

Page 16: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Just Use Training Data?I Using more features will always reduce MSE

I Error on the test set will be greater

0 20 40 60 80 100

24

68

10

12

X

Y

2 5 10 20

0.0

0.5

1.0

1.5

2.0

2.5

Flexibility

Me

an S

qua

red E

rror

gray: training error red: test error

Page 17: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Just Use Training Data?I Using more features will always reduce MSEI Error on the test set will be greater

0 20 40 60 80 100

24

68

10

12

X

Y

2 5 10 20

0.0

0.5

1.0

1.5

2.0

2.5

Flexibility

Me

an

Sq

ua

red

Err

or

gray: training error red: test error

Page 18: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Solution 1: Validation Set

I Just evaluate how well the method works on the test setI Randomly split data to:

1. Training set: about half of all data2. Validation set (AKA hold-out set): remaining half

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

%!!""!! #!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!& !

I Choose the number of features/representation based onminimizing error on validation set

Page 19: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Solution 1: Validation Set

I Just evaluate how well the method works on the test setI Randomly split data to:

1. Training set: about half of all data2. Validation set (AKA hold-out set): remaining half

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

%!!""!! #!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!& !

I Choose the number of features/representation based onminimizing error on validation set

Page 20: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Feature Selection Using Validation Set

0 20 40 60 80 100

24

68

10

12

X

Y

2 5 10 200.0

0.5

1.0

1.5

2.0

2.5

Flexibility

Mean S

quare

d E

rror

gray: training error red: test error (validation set)

Page 21: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Problems using Validation Set

1. Highly variable (imprecise) estimates: Each line showsvalidation error for one possible division of data

2 4 6 8 10

16

18

20

22

24

26

28

Degree of Polynomial

Me

an

Sq

ua

red

Err

or

2 4 6 8 10

16

18

20

22

24

26

28

Degree of PolynomialM

ea

n S

qu

are

d E

rro

r

2. Only subset of data is used (validation set is excluded – onlyabout half of data is used)

Page 22: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Problems using Validation Set

1. Highly variable (imprecise) estimates: Each line showsvalidation error for one possible division of data

2 4 6 8 10

16

18

20

22

24

26

28

Degree of Polynomial

Me

an

Sq

ua

red

Err

or

2 4 6 8 10

16

18

20

22

24

26

28

Degree of PolynomialM

ea

n S

qu

are

d E

rro

r

2. Only subset of data is used (validation set is excluded – onlyabout half of data is used)

Page 23: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Solution 2: Leave-one-out

I Addresses problems with validation setI Split the data set into 2 parts:

1. Training: Size n− 12. Validation: Size 1

I Repeat n times: to get n learning problems

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

%!

%!

%!

Page 24: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-outI Get n learning problems:

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

%!

%!

%!

I Train on n− 1 instances (blue)I Test on 1 instance (red)

MSEi = (yi − yi)2

I LOOCV estimate

CV(n) =1

n

n∑i=1

MSEi

Page 25: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-out vs Validation Set

I Advantages

1. Using almost all data not just half2. Stable results: Does not have any randomness3. Evaluation is performed with more test data

I Disadvantages

I Can be very computationally expensive: Fits the model n times

Page 26: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-out vs Validation Set

I Advantages1. Using almost all data not just half

2. Stable results: Does not have any randomness3. Evaluation is performed with more test data

I Disadvantages

I Can be very computationally expensive: Fits the model n times

Page 27: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-out vs Validation Set

I Advantages1. Using almost all data not just half2. Stable results: Does not have any randomness

3. Evaluation is performed with more test data

I Disadvantages

I Can be very computationally expensive: Fits the model n times

Page 28: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-out vs Validation Set

I Advantages1. Using almost all data not just half2. Stable results: Does not have any randomness3. Evaluation is performed with more test data

I Disadvantages

I Can be very computationally expensive: Fits the model n times

Page 29: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-out vs Validation Set

I Advantages1. Using almost all data not just half2. Stable results: Does not have any randomness3. Evaluation is performed with more test data

I Disadvantages

I Can be very computationally expensive: Fits the model n times

Page 30: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Leave-one-out vs Validation Set

I Advantages1. Using almost all data not just half2. Stable results: Does not have any randomness3. Evaluation is performed with more test data

I DisadvantagesI Can be very computationally expensive: Fits the model n times

Page 31: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Speeding Up Leave-One-Out

1. Solve each fit independently and distribute the computation

2. Linear regression:

I Solve only one linear regression using all dataI Compute leave-one-out error as:

CV(n) =1

n

n∑i=1

(yi − yi1− hi

)2

I True value: yi, Prediction: yiI hi is the leverage of data point i:

hi =1

n+

(xi − x)2∑nj=1(xj − x)2

Page 32: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Speeding Up Leave-One-Out

1. Solve each fit independently and distribute the computation

2. Linear regression:

I Solve only one linear regression using all dataI Compute leave-one-out error as:

CV(n) =1

n

n∑i=1

(yi − yi1− hi

)2

I True value: yi, Prediction: yiI hi is the leverage of data point i:

hi =1

n+

(xi − x)2∑nj=1(xj − x)2

Page 33: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Speeding Up Leave-One-Out

1. Solve each fit independently and distribute the computation

2. Linear regression:I Solve only one linear regression using all data

I Compute leave-one-out error as:

CV(n) =1

n

n∑i=1

(yi − yi1− hi

)2

I True value: yi, Prediction: yiI hi is the leverage of data point i:

hi =1

n+

(xi − x)2∑nj=1(xj − x)2

Page 34: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Speeding Up Leave-One-Out

1. Solve each fit independently and distribute the computation

2. Linear regression:I Solve only one linear regression using all dataI Compute leave-one-out error as:

CV(n) =1

n

n∑i=1

(yi − yi1− hi

)2

I True value: yi, Prediction: yiI hi is the leverage of data point i:

hi =1

n+

(xi − x)2∑nj=1(xj − x)2

Page 35: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Speeding Up Leave-One-Out

1. Solve each fit independently and distribute the computation

2. Linear regression:I Solve only one linear regression using all dataI Compute leave-one-out error as:

CV(n) =1

n

n∑i=1

(yi − yi1− hi

)2

I True value: yi, Prediction: yi

I hi is the leverage of data point i:

hi =1

n+

(xi − x)2∑nj=1(xj − x)2

Page 36: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Speeding Up Leave-One-Out

1. Solve each fit independently and distribute the computation

2. Linear regression:I Solve only one linear regression using all dataI Compute leave-one-out error as:

CV(n) =1

n

n∑i=1

(yi − yi1− hi

)2

I True value: yi, Prediction: yiI hi is the leverage of data point i:

hi =1

n+

(xi − x)2∑nj=1(xj − x)2

Page 37: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Solution 3: k-fold Cross-validationI Hybrid between validation set and LOOI Split training set into k subsets

1. Training set: n− n/k2. Test set: n/k

I k learning problems

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%! !%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

I Cross-validation error:

CV(k) =1

k

k∑i=1

MSEi

Page 38: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Cross-validation vs Leave-One-OutI k-fold Cross-validation

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%! !%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

!%&!'!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(%!

I Leave-one-out

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

!"!#!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$!

%!

%!

%!

Page 39: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Cross-validation vs Leave-One-Out

2 4 6 8 10

16

18

20

22

24

26

28

LOOCV

Degree of Polynomial

Mean S

quare

d E

rror

2 4 6 8 10

16

18

20

22

24

26

28

10−fold CV

Degree of Polynomial

Mean S

quare

d E

rror

Page 40: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Empirical Evaluation: 3 Examples

2 5 10 20

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Flexibility

Mean S

quare

d E

rror

2 5 10 20

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Flexibility

Mean S

quare

d E

rror

2 5 10 20

05

10

15

20

Flexibility

Mean S

quare

d E

rror

Blue True error

Dashed LOOCV estimate

Orange 10-fold CV

Page 41: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

How to Choose k in CV?

I As k increases we have:1. Increasing computational complexity2. Decreasing bias (more training data)3. Increasing variance (bigger overlap between training sets)

I Empirically good values: 5 - 10

Page 42: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Cross-validation in Classification

Page 43: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Logistic Regression

I Predict probability of a class: p(X)

I Example: p(balance) probability of default for person withbalance

I Linear regression:

p(X) = β0 + β1

I Logistic regression:

p(X) =eβ0+β1X

1 + eβ0+β1X

I the same as:

log

(p(X)

1− p(X)

)= β0 + β1X

I Linear decision boundary (derive from log odds: p(x1) ≥ p(x2))

Page 44: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Features in Logistic RegressionLogistic regression decision boundary is also linear . . . non-lineardecisions?

Degree=1

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

oo

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

Degree=2

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

oo

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

Degree=3

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

oo

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

Degree=4

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

o oo

o

o o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

oo

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

oo

o

o

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

oo o

o

o

o

o

o

o

o

o

o

o

o

o

oo

o

o

oo

o

o

o

o

o

oo

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

o

Page 45: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Logistic Regression with Nonlinear Features

I Linear:

log

(p(X)

1− p(X)

)= β0 + β1X

I Nonlinear odds:

log

(p(X)

1− p(X)

)= β0 + β1X + β2X

2 + β3X3

I Nonlinear probability:

p(X) =eβ0+β1X+β2X2+β3X3

1 + eβ0+β1X+β2X2+β3X3

Page 46: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Cross-validation in Classification

I Works the same as for regressionI Do not use MSE but:

CV(n) =1

n

n∑i=1

Erri

I Error is an indicator function:

Erri = I(yi 6= yi)

Page 47: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

K in KNN

I How to decide on the right k to use in KNN?

I Cross-validation!

Logistic regression KNN

2 4 6 8 10

0.1

20

.14

0.1

60

.18

0.2

0

Order of Polynomials Used

Err

or

Ra

te

0.01 0.02 0.05 0.10 0.20 0.50 1.00

0.1

20

.14

0.1

60

.18

0.2

0

1/K

Err

or

Ra

te

Brown Test errorBlue Training errorBlack CV error

Page 48: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

K in KNN

I How to decide on the right k to use in KNN?I Cross-validation!

Logistic regression KNN

2 4 6 8 10

0.1

20

.14

0.1

60

.18

0.2

0

Order of Polynomials Used

Err

or

Ra

te

0.01 0.02 0.05 0.10 0.20 0.50 1.00

0.1

20

.14

0.1

60

.18

0.2

0

1/KE

rro

r R

ate

Brown Test errorBlue Training errorBlack CV error

Page 49: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing and CV

I Is it possible to overfit when using cross-validation?

I Yes!I Inferring k in KNN using cross-validation is learningI Insightful theoretical analysis: Probably Approximately Correct

(PAC) Learning

I Cross-validation will not overfit when learning simple concepts

Page 50: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing and CV

I Is it possible to overfit when using cross-validation?I Yes!

I Inferring k in KNN using cross-validation is learningI Insightful theoretical analysis: Probably Approximately Correct

(PAC) Learning

I Cross-validation will not overfit when learning simple concepts

Page 51: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing and CV

I Is it possible to overfit when using cross-validation?I Yes!I Inferring k in KNN using cross-validation is learning

I Insightful theoretical analysis: Probably Approximately Correct(PAC) Learning

I Cross-validation will not overfit when learning simple concepts

Page 52: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing and CV

I Is it possible to overfit when using cross-validation?I Yes!I Inferring k in KNN using cross-validation is learningI Insightful theoretical analysis: Probably Approximately Correct

(PAC) Learning

I Cross-validation will not overfit when learning simple concepts

Page 53: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing and CV

I Is it possible to overfit when using cross-validation?I Yes!I Inferring k in KNN using cross-validation is learningI Insightful theoretical analysis: Probably Approximately Correct

(PAC) LearningI Cross-validation will not overfit when learning simple concepts

Page 54: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing with Cross-validation

I Task: Predict mpg ∼ power

I Define a new feature for some βs:

f = β0 + β1 power + β2 power2 + β3 power

3 + β4 power4 + . . .

I Linear regression: Find α such that:

mpg = α f

I Cross-validation: Find values of βs

I Will overfitI Same solution as using linear regression on entire data (no

cross-validation)

Page 55: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Overfi�ing with Cross-validation

I Task: Predict mpg ∼ power

I Define a new feature for some βs:

f = β0 + β1 power + β2 power2 + β3 power

3 + β4 power4 + . . .

I Linear regression: Find α such that:

mpg = α f

I Cross-validation: Find values of βsI Will overfitI Same solution as using linear regression on entire data (no

cross-validation)

Page 56: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Preventing Overfi�ing

I Gold standard: Have a test set that is used only once

I Rarely possible

I $1M Netflix prize design:1. Publicly available training set2. Leader-board results using a test set3. Private data set used to determine the final winner

Page 57: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Bootstrap

I Goal: Understand the confidence in learned parametersI Most useful in inferenceI How confident are we in learned values of β:

mpg = β0 + β1 power

I Approach: Run learning algorithm multiple times withdi�erent data sets:

I Create a new data-set by sampling with replacement fromthe original one

Page 58: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Bootstrap

I Goal: Understand the confidence in learned parametersI Most useful in inferenceI How confident are we in learned values of β:

mpg = β0 + β1 power

I Approach: Run learning algorithm multiple times withdi�erent data sets:

I Create a new data-set by sampling with replacement fromthe original one

Page 59: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Bootstrap

I Goal: Understand the confidence in learned parametersI Most useful in inferenceI How confident are we in learned values of β:

mpg = β0 + β1 power

I Approach: Run learning algorithm multiple times withdi�erent data sets:

I Create a new data-set by sampling with replacement fromthe original one

Page 60: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Bootstrap Illustration

2.8 5.3 3

1.1 2.1 2

2.4 4.3 1

Y X Obs

2.8 5.3 3

2.4 4.3 1

2.8 5.3 3

Y X Obs

2.4 4.3 1

2.8 5.3 3

1.1 2.1 2

Y X Obs

2.4 4.3 1

1.1 2.1 2

1.1 2.1 2

Y X Obs

Original Data (Z)

1*Z

2*Z

Z*B

1*α

2*α

α*B

!!

!!

!!

!!

!

!!

!!

!!

!!

!!

!!

!!

!!

Page 61: Resampling Methods - Cross-validation, Bootstrappingmpetrik/teaching/intro_ml_17_files/class6.pdf · Resampling Methods Cross-validation, Bootstrapping ... 2.Which method is best

Bootstrap Results

0.4 0.5 0.6 0.7 0.8 0.9

050

100

150

200

0.3 0.4 0.5 0.6 0.7 0.8 0.9

050

100

150

200

True Bootstrap

0.3

0.4

0.5

0.6

0.7

0.8

0.9

αα

α