• 12 heures
  • Difficile

Ce cours est visible gratuitement en ligne.

course.header.alt.is_video

course.header.alt.is_certifying

J'ai tout compris !

Mis à jour le 18/11/2022

Testez le modèle linéaire gaussien multiple

Sans hypothèse supplémentaire, on ne peut pas déterminer d'intervalles de confiance sur les paramètres $\(\beta_1,\ldots,\beta_p\)$ ou tester leur significativité.

Cela devient possible si l'on ajoute une hypothèse sur la loi de l'erreur $\(\varepsilon\)$ , et donc sur celle de la variable à expliquer $\(Y\)$ . Le modèle linéaire gaussien multiple considère la normalité de l'erreur.

Dans le modèle linéaire gaussien multiple, on considère en plus des hypothèses formulées dans le cadre du modèle linéaire multiple : 

$\[\varepsilon\sim\mathcal{N}\left(0,\sigma^2\right)\]$

On en déduit donc que $\( \left(\varepsilon_i\right)_{i\in\{1,\ldots,n\}}\)$ est un échantillon i.i.d de loi $\(\mathcal{N}\left(0,\sigma^2\right)\)$ .

Testez le modèle

Pour tester la significativité du modèle, nous avons 2 niveaux :

  • Un test global, obtenu grâce à une statistique de Fisher. En pratique, l'hypothèse Ho de ce test est souvent rejetée, le modèle est donc souvent significatif globalement.

  • Un test de significativité sur chacune des variables explicatives prises une à une. Dans ce cas, il s'agit d'un test de Student, tout comme en régression linéaire simple. Ici, tester l'un des paramètres a un réel sens : si une variable n'est pas significative, il faut la retirer du modèle. Si l'on ne la retire pas, il est possible que l'erreur de prévision du modèle soit plus élevée.

Testez la significativité globale du modèle

Dans le cas de la régression avec constante, on teste :

$\[\begin{cases}H_{0} :\beta_{2}=\ldots=\beta_{p}=0\\H_{1} :\exists j \in\left\{ 2,\ldots,p\right\} \left/ \beta_{j}\neq 0\right.\end{cases}\]$

La statistique de test utilisée est :

$\[F =\frac{n-p}{p-1}\,\frac{\operatorname{SCE}}{\operatorname{SCR}}=\frac{n-p}{p-1}\,\frac{\operatorname{R}^2}{1-\operatorname{R}^2}\]$

On peut montrer que sous $\(H_{0}\)$

$\[F\sim\mathcal{F} \left( p-1,n-p\right)\]$

On décide du rejet de $\(H_{0}\)$ au niveau de test $\(\alpha\)$ si $\(f>f_{\left( p-1,n-p\right),1-\alpha}\)$ .

On présente usuellement le test de significativité globale sous la forme du tableau d'analyse de la variance, avec les notations $\(\operatorname{CME}=\frac{\operatorname{SCE}}{p-1}\)$ et $\(\operatorname{CMR}=\frac{\operatorname{SCR}}{n-p}\)$ .

Voici le tableau d'analyse de la variance :

Source

 $\(ddl\)$

  $\(SC\)$

 $\(CM\)$

 $\(F \)$

 $\(p\)$ -valeur

E

 $\(p-1\)$

 $\(SCE\)$

CME

 $\(\frac{CME}{CMR}\)$

  $\(\mathbb{P}\left(\mathcal{F} \left( p-1,n-p\right)>f\right)\)$

R

 $\(n-p\)$

$\(SCR\)$

CMR

 

 

T

 $\(n-1\)$

 $\(SCT\)$

 

 

 

1.5pt1-3

 

 

 

 

 

Testez la significativité d'un des paramètres

On teste :

$\[\begin{cases}H_{0} :\beta_{j}=0\\H_{1} :\beta_{j}\neq 0\end{cases}\]$

pour $\(j\in\left\{ 1,\ldots,p\right\}\)$

La statistique de test utilisée est :

$\[T_j=\frac{\widehat{\beta_{j}}}{\widehat{\sigma}\sqrt{\left(\mathbb{X}^{\top}\mathbb{X}\right) _{jj}^{-1}}}\]$

$\(\left( \mathbb{X}^{\top}\mathbb{X}\right) _{jj}^{-1}\)$ désigne le $\(j\)$ -ième terme diagonal de la matrice $\(\left( \mathbb{X}^{\top}\mathbb{X}\right) ^{-1}\)$ .

On peut montrer que sous $\(H_{0}\)$

$\[T\sim\mathcal{T}\left( n-p\right)\]$

On décide du rejet de $\(H_{0}\)$ au niveau de test $\(\alpha\)$ si $\( t>t_{n-p,1-\alpha}\)$ .

En pratique, dire que l'on rejette cette hypothèse $\(H_0\)$ revient à conserver la variable $\(X_j \)$ comme explicative.

Le test est acquis, félicitations ! On peut maintenant analyser nos résultats.

Exemple de certificat de réussite
Exemple de certificat de réussite