• 12 heures
  • Moyenne

Ce cours est visible gratuitement en ligne.

course.header.alt.is_video

course.header.alt.is_certifying

J'ai tout compris !

Mis à jour le 25/04/2019

Découvrez la loi faible des grands nombres

Connectez-vous ou inscrivez-vous gratuitement pour bénéficier de toutes les fonctionnalités de ce cours !

Convergence en probabilité

Première approche

Vous connaissez déjà le sens du mot convergence qui décrit le comportement d'une suite numérique à l'infini, et qui signifie que les termes de cette suite de réels sont de plus en plus proches d'un réel donné, appelé la limite de la suite.

On retrouve l'idée de se rapprocher de plus en plus d'une valeur dans la convergence en probabilité.

Cette fois, on considère non pas une suite de réels, mais une suite de variables aléatoires $\((X_n)\)$ et une variable aléatoire $\(X\)$ , définies sur le même espace probabilisé. On dit que $\((X_n) \)$ converge en probabilité vers $\(X\)$  si la probabilité que l'écart entre les variables aléatoires de la suite $\((X_n)\)$ et $\(X\)$ dépasse un réel $\(\epsilon\)$ arbitrairement choisi, sous-entendu aussi petit soit-il, tend vers zéro.

On dit convergence en probabilité parce que c'est la probabilité que cet écart dépasse $\(\epsilon\)$ qui tend vers zéro.

Énoncé

Notation

  $\(X_n \underset{n \to +\infty}{\overset{p}{\longrightarrow}}X\)$ ou encore $\(X_n {\overset{\mathbb{P}}{\longrightarrow}}X\)$

Exemple

On considère une suite de variables aléatoires $\((X_n)\)$ suivant la loi de Poisson de paramètre $\(\lambda\)$ et on s'intéresse à une autre suite de variables aléatoires notée $\(\bar{X_n}\)$ et définie par :

  $\(\bar{X_n}= \frac{1}{n}\sum_{i=1}^{n} X_i\)$

Admettons que l'on démontre la limite suivante :

$\(\forall \epsilon >0, \lim\limits_{n \rightarrow +\infty} \mathbb{P}(|\bar {X_n} - \lambda| \geq \epsilon) = 0\)$

Alors on aura démontré que la suite de variables aléatoires $\((\bar{X_n})\)$ converge en probabilité vers la variable aléatoire $\( Y \)$ définie par :

 $\(Y(\Omega) = {\lambda}\)$ et $\(\mathbb{P}(Y=\lambda) = 1\)$

 $\(Y\)$ est ce que l'on appelle la variable certaine égale à $\(\lambda\)$ .

Loi faible des grands nombres

Définition de la moyenne empirique

Pour bien comprendre le sens de la loi faible des grands nombres, nous avons besoin de définir une suite de variables aléatoires particulière que l'on appelle la moyenne empirique.

Étant donné une suite de variables aléatoires $\((X_n)\)$, on appelle moyenne empirique de cette suite la suite de variables aléatoires ( $\(\bar{X_n}\)$ ) définie par :

 $\(\bar{X_n}= \frac{1}{n}\sum_{i=1}^{n} X_i\)$

Il s'agit de la moyenne arithmétique des termes de la suite $\((X_n)\)$ .

Énoncé de la loi faible des grands nombres

Interprétation

Étant donné une suite de variables aléatoires indépendantes de même espérance et variance, la moyenne empirique de cette suite converge en probabilité vers la variable certaine égale à l'espérance, commune à toutes les variables aléatoires de la suite.

Exemple

Prenons l'exemple d'une suite de variables aléatoires de Bernoulli de paramètre $\(\frac{1}{6}\)$ . On peut par exemple imaginer que l'on réalise une série de lancers avec un dé non truqué et que $\((X_n)\)$ est une suite de variables aléatoires qui prennent la valeur 1 lorsque l'on obtient un $\(6\)$ et la valeur $\( 0\)$ lorsque l'on obtient un autre nombre.

Ces variables aléatoires ont toutes pour espérance $\( \frac{1}{6}\)$ et pour variance $\(0\)$ , puisqu'elles suivent toutes une loi de Bernoulli de paramètre $\( \frac{1}{6}\)$ .

Selon la loi des grands nombres, si on fait un grand nombre de lancers, et que l'on calcule la moyenne des valeurs des variables aléatoires qui tour à tour prendront la valeur 0 ou 1, alors la probabilité que la moyenne de ces valeurs, c'est-à-dire la moyenne de ces 0 et 1, s'éloigne de $\(\frac{1}{6} \)$ tend vers 0, lorsque le nombre de lancers tend vers l'infini.

Ce qui est très intuitif et flatte notre bon sens.

Exemple de certificat de réussite
Exemple de certificat de réussite