• 12 heures
  • Moyenne

Ce cours est visible gratuitement en ligne.

course.header.alt.is_video

course.header.alt.is_certifying

J'ai tout compris !

Mis à jour le 19/05/2023

Appréhendez les probabilités conditionnelles

Rappels

Au chapitre précédent, nous avons défini la probabilité $\(\mathbb{P}\)$ comme une application de l'ensemble des événements de l'expérience aléatoire dans l'intervalle $\([0 ; 1]\)$ . Nous avons expliqué que l'espace probabilisable, à savoir le couple  $\((\Omega, \mathscr{T})\)$ , une fois muni de l'application  $\(\mathbb{P}\)$ , nous donnait le triplet  $\((\Omega, \mathscr{T}, \mathbb{P})\)$ appelé espace probabilisé.

Définition de la probabilité conditionnelle

Considérons à nouveau l'espace probabilisable, le couple  $\((\Omega, \mathscr{T})\)$ . Nous allons encore une fois munir cet espace d'une application. Après l'application probabilité , nous allons cette fois lui associer l'application probabilité sachant $\(A\)$ , définie pour tout événement $\(B \)$ associé à l'expérience aléatoire par :

  $\(\mathbb{P}(B|A) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(A)}\)$

Lire probabilité de  B sachant A égale, etc.

L'application ainsi définie sur l'ensemble des événements de l'expérience aléatoire et à valeur dans  $\([0 ; 1]\)$ est la probabilité conditionnellement à l'événement  $\(A\)$ .

Exemple

Dans notre exemple de lancer de dé non truqué, la probabilité d'obtenir 4 vaut $\(\frac{1}{6}\)$ .

Mais quelle est la probabilité d'obtenir 4, sachant que le dé affiche un nombre pair ?

Intuitivement, on est tenté de répondre $\(\frac{1}{3}\)$ . La probabilité d'obtenir 4, sachant que l'on a obtenu un nombre pair et étant donné qu'il y a au total 3 faces avec un nombre pair, est  $\(\frac{1}{3}\)$.

Vérifions ce raisonnement intuitif par la formule que nous venons de voir, avec :

 $\(A \)$ = "obtenir un nombre pair"

 $\(B\)$ = "obtenir 4"

En remarquant en amont que l'événement $\(A \cap B\)$  serait l'événement $\(B \)$ , en l'occurrence, puisque, dans cet exemple, $\(B \)$ est inclus dans $\(A\)$ . Ainsi, nous avons :

$\(\mathbb{P}(B|A) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(A)} = \frac{\mathbb{P}(B)}{\mathbb{P}(A)} = \frac{\frac{1}{6}}{\frac{1}{2}}= \frac{1}{3} \\\)$

Formule des probabilités totales

Système complet d'événements

À quelles conditions dira-t-on d'une suite d'événements non vides liés à notre expérience aléatoire qu'ils forment un système complet d'événements ?

Prenons une suite d'événements non vides d'une expérience aléatoire, que l'on pourrait noter $\(A_i\)$ , $\( i \)$ allant de $\(1\)$ à un entier naturel $\(n\)$ .

L'exemple le plus courant de système complet d'événements est celui d'un événement non vide quelconque et de son événement contraire.

En effet, l'union d'un événement et de son événement contraire est par définition  $\(\Omega\)$. Et toujours par définition de ce que l'on appelle des événements contraires, leur intersection est vide.

La formule des probabilités totales, SCE de deux événements

Prenons l'exemple de deux événements $\(A\)$ et $\(B\)$ formant un système complet d'événements. Alors, pour un événement $\(C \)$ quelconque de la même expérience aléatoire, nous aurons :

  $\(\mathbb{P}(C) = \mathbb{P}(A \cap C) + \mathbb{P}(B \cap C)\)$

C'est ce que l'on appelle la formule des probabilités totales.

La formule des probabilités totales, cas général

Généralisons ! Soit une suite d'événements $\(A_i\)$ formant un SCE selon la définition que l'on vient de voir. Alors la probabilité de tout autre événement de cet espace probabilisé s'écrirait sous la forme de la somme suivante :

 $\(\mathbb{P}(B) = \sum_{i=1}^{n} (\mathbb{P}(A_{i} \cap B)\)$

Indépendance

Définition

Le mot indépendant a un sens que tout le monde connaît bien. Mais, étant donné deux événements $\(A \)$ et $\(B \)$ d'un même espace probabilisé, on les considère comme indépendants, si et seulement si :

 $\(\mathbb{P}(A \cap B) = \mathbb{P}(A) \times \mathbb{P}(B)\)$

Une autre interprétation

Analysons cette définition à travers celle de la probabilité conditionnelle. Dans le cas général, nous avons l'égalité suivante :

  $\(\mathbb{P}(A \cap B) = \mathbb{P}(A) \times \mathbb{P}(B|A)\)$

Si on compare cette égalité avec celle de la définition de deux événements indépendants, on peut considérer que deux événements $\(A \)$ et $\(B \)$ sont indépendants si et seulement si nous avons :

  $\(\mathbb{P}(B|A) = \mathbb{P}(B)\)$

Cette égalité est très intuitive : la probabilité de l'événement B sachant que l'événement $\(A\)$ est réalisé, donc une probabilité conditionnelle, est égale à la probabilité de l'événement $\(B\)$ . Le fait de savoir que l'événement $\(A \)$ est réalisé, ne modifie absolument pas la probabilité de l'événement $\(B \)$ .

Exemple

On lance une pièce mille fois. On définit les événements $\(A \)$ comme "obtenir 999 fois pile lors des 999 premiers lancers" , et $\(B \)$ comme "obtenir pile au 1000e lancer". Alors il est évident que la réalisation de l'événement $\(A \)$ n'a aucune influence sur celle de l'événement $\(B\)$ , ce qui peut se traduire par l'égalité suivante :

  $\(\mathbb{P}(B/A) = \mathbb{P}(B)\)$

Exemple de certificat de réussite
Exemple de certificat de réussite