• 12 hours
  • Medium

Free online content available in this course.

course.header.alt.is_video

course.header.alt.is_certifying

Got it!

Last updated on 3/13/24

Déterminez la qualité de votre estimateur

Mathématiquement

 Un estimateur est exhaustif si la loi de l'échantillon $\(\left(X_1,\ldots,X_n\right)\)$ conditionnellement à l'estimateur $\(\widehat{\theta}\)$ est indépendante du paramètre $\(\theta\)$ .

Un estimateur $\(\widehat{\theta}\)$ de $\(\theta\)$ est consistant (convergeant) si :

$\[\widehat{\theta}\xrightarrow{\mathbb{P}}\theta\]$

Le biais de l'estimateur $\(\widehat{\theta}\)$ de $\(\theta\)$ vaut :

$\[\operatorname{Biais}\left(\widehat{\theta},\theta\right)=\mathbb{E}\left(\widehat{\theta}\right)-\theta\]$

Le risque quadratique d'un estimateur vaut :

$\[R\left(\widehat{\theta},\theta\right)=\mathbb{E}\left[\left(\widehat{\theta}-\theta\right)^{2}\right]\]$

Retour au taux de guérison

La loi forte des grands nombres (échantillon i.i.d de loi $\(\mathcal{B}(p)\)$ ) assure que :

$\[\overline{X}\xrightarrow{\operatorname{p.s}}\mathbb{E}\left(X_1\right)=p\]$

La convergence presque sûre entraînant la convergence en probabilité, l'estimateur est donc consistant.

L'estimateur est sans biais, en effet :

$\[\mathbb{E}\left(\overline{X}\right)=\frac{1}{n}\sum_{i=1}^n \mathbb{E}\left(X_{i}\right)=p\]$

L'estimateur étant sans biais, le risque quadratique est égal à la variance :

$\[R\left(\overline{X},p\right)=\operatorname{Var}\left(\overline{X}\right)=\frac{1}{n^2}\sum_{i=1}^n \operatorname{Var}\left(X_{i}\right)\]$

car les variables $\(X_i\)$ sont indépendantes, donc non corrélées, d'où :

$\[R\left(\overline{X},p\right)=\frac{p(1-p)}{n}\]$

Le risque quadratique fournit un indicateur de la dispersion de $\(\overline{X}\)$ autour de la valeur à estimer $\(p\)$ . Certes on ne connaît pas sa valeur qui dépend de $\(p\)$ , mais on peut l'estimer par :

$\[\frac{\overline{X}\left(1-\overline{X}\right)}{n}\]$

On constate que le risque quadratique décroît logiquement quand la taille de l'échantillon augmente.

Notons que ces résultats sont valables quelle que soit la loi, pas seulement pour une loi $\(\mathcal{N}\left(\mu,\sigma^2\right)\)$.

Retour à la consommation d'essence

La loi forte des grands nombres (et un théorème, celui de Slutsky) assure que les estimateurs $\(\overline{X}\)$ , $\(V\)$ et $\(S^{\prime 2}\)$ sont consistants :

$\[\overline{X}\xrightarrow{\operatorname{p.s}}\mu\]$

$\[V\xrightarrow{\operatorname{p.s}}\sigma^2\]$

$\[S^{\prime 2}\xrightarrow{\operatorname{p.s}}\sigma^2\]$

 $\(\overline{X}\)$ est un estimateur sans biais de $\(\mu\)$ :

$\[\mathbb{E}\left( \overline{X}\right) =\mu\]$

$\(V\)$ est un estimateur biaisé, mais asymptotiquement sans biais, de $\(\sigma^{2}\)$ :

$\[\mathbb{E}\left( V\right) =\sigma^{2}-\frac{1}{n}\sigma^{2}\quad\xrightarrow{n\rightarrow +\infty}\,\sigma^{2}\]$

Si $\(V\)$ est un estimateur biaisé (mais asymptotiquement sans biais) de $\(\sigma^{2}\)$ , $\(S^{\prime 2}\)$ est quant à elle sans biais :

$\[\mathbb{E}\left( S^{\prime 2}\right) =\sigma^{2}\]$

C'est pour cela qu'on retrouve usuellement dans les logiciels la version dite sans biais (unbiased) $\(S^{\prime 2}\)$ .

Example of certificate of achievement
Example of certificate of achievement