• 10 heures
  • Moyenne

Ce cours est visible gratuitement en ligne.

course.header.alt.is_video

course.header.alt.is_certifying

J'ai tout compris !

Mis à jour le 02/08/2023

Trouvez une combinaison linéaire de variables qui approxime leurs étiquettes

Nous allons dans ce cours nous attaquer à des problèmes supervisés que nous allons résoudre à l'aide de modèles linéaires. Autrement dit, nous allons essayer d'approximer les étiquettes de nos données grâce à une combinaison linéaire des variables utilisées pour représenter lesdites données. Dans ce chapitre, nous allons travailler sur des problèmes de régression : nos étiquettes sont des nombres réels (et non pas des catégories).

Un exemple de problème que l'on pourrait chercher à résoudre ici est celui de prédire le nombre d'utilisateurs connectés sur OpenClassrooms (notre étiquette réelle) comme une combinaison linéaire de variables telle que l'heure et le jour de la semaine, à partir des données de l'année passée (nos observations étiquetées).

Prenons des données, n points en p dimensions, représentés par la matrice XRn×p , avec leurs étiquettes à valeurs réelles, représentées  par un vecteur yRn.

Le but de la régression linéaire est de trouver une fonction linéaire f:RpR qui permette de prédire l'étiquette y(i) du i-ème point à partir du vecteur  x(i). Autrement dit,  f(x) peut s'écrire sous la forme  β0+β1x1+β2x2++βpxp. 

Comment trouver les valeurs des coefficients  β0,β1,,βp ?

Maximisation de la vraisemblance

Nous allons pour ce faire nous placer dans un contexte bayésien. Tout de suite les grands mots ! En fait, cela veut dire que nous allons réfléchir en termes de probabilités et chercher les valeurs de β0,β1,,βp pour lesquelles il est le plus vraisemblable d'observer les données {X,y} qui nous sont données.

Nous allons commencer par supposer que les vecteurs x(i) sont les réalisations d'une variable aléatoire p-dimensionnelle x et que les nombres réels y(i) sont les réalisations d'une variable aléatoire y .

Pour cela, nous allons avoir besoin de poser quelques hypothèses :

- la première, l'hypothèse de linéarité, est que nous pouvons approximer, pour chacun des points de notre jeu de données, son étiquette par une combinaison linéaire de la valeur des variables qui le décrivent : y(i)=β0+pj=1βjx(i)j+ϵi. Le terme de bruit  ϵi représente la différence entre la combinaison linéaire des variables et la vraie étiquette.

- la deuxième, l'hypothèse de normalité, est que le bruit est gaussien, ou normalement distribué : les ϵi sont la réalisation d'une variable aléatoire gaussienne, centrée en 0 et d'écart-type σ:  ϵN(0,σ2). 

- la troisième, l'hypothèse d'indépendance, est que les n couples (x(i),y(i)) sont des réalisations indépendantes les unes des autres des variables x et y.

Appelons β le vecteur de dimensions (p+1) β=(β0,β1,,βp) . Ce vecteur paramétrise notre modèle : une fois que nous avons trouvé la valeur de β , notre modèle est entièrement spécifié et nous pouvons l'utiliser pour faire des prédictions.

 Selon nos hypothèses, la probabilité de y étant donné x et β : p(y|x,β) suit une distribution normale, centrée en notre prédiction, β0+pj=1βjxj et d'écart-type σ.

L'erreur entre la prédiction et la vraie valeur de l'étiquette vient d'une distribution gaussienne.
L'erreur entre la prédiction et la vraie valeur de l'étiquette vient d'une distribution gaussienne (ici avec une seule variable).

Vraisemblance

La vraisemblance, que nous allons noter  (pour son nom anglais, « likelihood »), c'est la probabilité d'observer nos n observations étant donné  β.

Grâce à l'hypothèse d'indépendance, nous pouvons dire que cette probabilité est le produit des probabilités d'observer chacune des observations :

=ni=1p(x(i),y(i)|β)

Par définition de la probabilité conditionnelle,

p(x(i),y(i)|β)=p(y(i)|x(i),β)p(x(i))

 Nous cherchons donc à trouver  β qui maximise cette quantité. Comme  p(x(i)) ne dépend pas de β, on peut l'ignorer et nous cherchons donc à résoudre le problème suivant :

argmaxβRp+1ni=1p(y(i)|x(i),β)

Pour simplifier les calculs, nous allons maximiser non la vraisemblance, mais son logarithme : comme le logarithme est une fonction monotone strictement croissante, les deux sont équivalents. Nous cherchons donc à maximiser le log de vraisemblance, à savoir

L=ni=1logp(y(i)|x(i),β).

En anglais, on appelle ça « log-likelihood maximisation ».

Grâce à nos hypothèses, nous connaissons la forme de p(y(i)|x(i),β) : une gaussienne, centrée en la prédiction et d'écart-type σ . Nous pouvons donc écrire

 

Nous pouvons prendre le log de cette expression, et trouver le maximum du log de vraisemblance est donc équivalent à

 

En éliminant de cette équation les termes qui ne dépendent pas de β , nous trouvons que maximiser le log de la vraisemblance est équivalent à résoudre

 

Méthode des moindres carrés

Regardons de plus près le résultat auquel nous sommes arrivés : nous cherchons à minimiser la somme des carrés des différences entre chaque étiquette et sa valeur prédite... autrement dit, maximiser la vraisemblance est équivalent à minimiser la somme des carrés des erreurs !

Cette façon de trouver les coefficients d'une régression linéaire s'appelle la méthode des moindres carrés et est connue depuis Gauss et Legendre, qui faisaient donc déjà du machine learning au début du XIXème siècle 😉

 Mais comment résout-on ce problème en pratique ? Pour cela, nous allons passer à une écriture sous forme matricielle. Nous allons commencer par ajouter une colonne de 1 à la matrice de données X : désormais, j'appelle X Rn×(p+1) qui a la forme suivante :

 Cela me permet d'écrire  β0+pj=1βjxj comme pj=0βjxj , et donc sous forme matricielle pour toutes les observations comme le produit Xβ . Ainsi, minimiser la somme des carrés des erreurs est équivalent à

argminβRp+1(yXβ)(yXβ)

Il s'agit désormais de minimiser une forme quadratique convexe, ce qui peut se faire en annulant son gradient en  β :

β(yXβ)(yXβ)=0

Le gradient d'une forme quadratique se calcule de manière analogue à la dérivée d'un polynôme de degré 2 :

β(yXβ)(yXβ)=2X(yXβ)

Nous cherchons donc à trouver  β tel que

XyXXβ=0

 Si la matrice  XX est inversible, alors la solution s'écrit

β=(XX)1Xy

 Sinon, la solution n'est pas unique, et il faudra utiliser à la place de  (XX)1 un pseudo-inverse de XX , à savoir une matrice  A telle que A(XX)A=(XX)

que l'on peut trouver grâce à un algorithme de calcul de pseudo-inverse comme celui de Moore-Penrose.

Interprétation

Un des grands avantages de la régression linéaire est qu'elle produit un modèle interprétable, au sens où il nous permet de comprendre sur quoi se base la prédiction.

Plus précisément, si je rajoute une unité à la valeur de la variable x1 , alors son étiquette augmente de β1 . Plus  |β1| est grande, plus la variable  x1 a un effet important sur la prédiction.

Conclusion

  • On apprend les coefficients d'une régression linéaire en maximisant le log de la vraisemblance, où, de manière équivalente si l'on suppose l'erreur normalement distribuée et centrée en zéro, en minimisant la somme des carrés des erreurs.

  • Cette méthode s'appelle la méthode des moindres carrés.

  • Si la matrice  XX est inversible, la régression linéaire admet une solution unique et explicite.

  • Sinon, on peut calculer une solution grâce à un algorithme de calcul de pseudo-inverse, mais cette solution n'est pas unique.

Dans scikit-learn, la régression linéaire est implémentée comme LinearRegression dans le module linear_model.

Et si vous obteniez un diplôme OpenClassrooms ?
  • Formations jusqu’à 100 % financées
  • Date de début flexible
  • Projets professionnalisants
  • Mentorat individuel
Trouvez la formation et le financement faits pour vous
Exemple de certificat de réussite
Exemple de certificat de réussite