Exercices

Laboratoires et exercices ISLR

Dans le manuel An introduction to statistical learning [JWHT13], vous pouvez faire les exercices suivants;

Laboratoires

  • 6.5.1 Subset Selection Methods

  • 6.5.2 Ridge Regression and the Lasso

Exercices ISLR

  • le #1) serait une bonne revision de la technique Subset Selection

  • le #2), #3) et #4) résume bien la théorie derrière Lasso, RSS et Ridge

  • le #6) pour pratique en R

  • le #8) a-b-e-f

  • le #9) a-b-c-d (nous ferons le (e) et (f) au prochain cours)

Exercices supplémentaires

Exercice 1

On vous donne la fonction de régression ajustée suivante d’un modèle de régression linéaire : $\( \hat{y}_{i}=.6100+9.9107 x_{i 1}+0.2893 x_{i 2}-2.2893 x_{i 3} \)$

  • a) Calculer la pénalité de rétraction (shrinkage penalty) sous la régression Ridge en utilisant le même paramètre de réglage \(\lambda_{\text{Ridge}}=5\).

    • rep:

  • b) Calculer la pénalité de rétraction (shrinkage penalty) sous la régression Lasso en utilisant le même paramètre de réglage \(\lambda_{\text{Lasso}}=5\).

beta_hat<-c(.6100,9.9107,0.2893,-2.2893)
lambda<-10

shrink_penal_Ridge<-lambda*sum(beta_hat**2)
shrink_penal_Ridge

shrink_penal_Lasso<-lambda*sum(abs(beta_hat))
shrink_penal_Lasso
1039.1866347
130.993

Exercice 2

Pour un ensemble de données comportant 999 observations, 2 prédicteurs \(\left(X_{1}\right.\) et \(\left.X_{2}\right)\), et une variable réponse \((Y)\), la somme des carrés résiduels a été calculée pour plusieurs estimations différentes d’un modèle linéaire avec un intercept \(\beta_{0}\). Seules les valeurs entières de 1 à 3 ont été considérées pour les estimations de \(\beta_{0}\) (l’ordonnée à l’origine), \(\beta_{1}\) et \(\beta_{2}\) tel qu’illustré dans les tableaux suivants:

image.png

Soit \(\hat{\beta}_{j}^{R}\) l’estimation de \(\beta_{j}\) à l’aide d’une régression ridge avec la contrainte \(s=5.\)

Supposons que l’intercept ne soit pas soumis aux paramètres budgétaires. Quelles seront les \(\hat{\beta}_{j}^{R}\) que vous sélectionnerez pour votre modèle final?

Exercice 3

Considérez les deux modèles de régression linéaire suivants :

\(\begin{array}{ll}y_{i}=12+2.13 x_{i 1}+6.03 x_{i 2}+\varepsilon_{i}, & \text { et } \sum \varepsilon_{i}^{2}=4.0 \\ y_{i}=11+1.0 x_{i 1}+0.1 x_{i 2}+\varepsilon_{i}, & \text { et } \sum \varepsilon_{i}^{2}=9.0\end{array}\)

Si la régression ridge est utilisée, pour quelles valeurs de \(\lambda\) le second modèle est-il préférable ?

JWHT13

Gareth James, Daniela Witten, Trevor Hastie, and Robert Tibshirani. An introduction to statistical learning. Volume 112. Springer, 2013.