• 12 hours
  • Medium

Free online content available in this course.

course.header.alt.is_video

course.header.alt.is_certifying

Got it!

Last updated on 3/13/24

Déterminez la qualité de votre estimateur

Mathématiquement

 Un estimateur est exhaustif si la loi de l'échantillon \(\left(X_1,\ldots,X_n\right)\) conditionnellement à l'estimateur \(\widehat{\theta}\) est indépendante du paramètre \(\theta\) .

Un estimateur \(\widehat{\theta}\) de \(\theta\) est consistant (convergeant) si :

\[\widehat{\theta}\xrightarrow{\mathbb{P}}\theta\]

Le biais de l'estimateur \(\widehat{\theta}\) de \(\theta\) vaut :

\[\operatorname{Biais}\left(\widehat{\theta},\theta\right)=\mathbb{E}\left(\widehat{\theta}\right)-\theta\]

Le risque quadratique d'un estimateur vaut :

\[R\left(\widehat{\theta},\theta\right)=\mathbb{E}\left[\left(\widehat{\theta}-\theta\right)^{2}\right]\]

Retour au taux de guérison

La loi forte des grands nombres (échantillon i.i.d de loi \(\mathcal{B}(p)\) ) assure que :

\[\overline{X}\xrightarrow{\operatorname{p.s}}\mathbb{E}\left(X_1\right)=p\]

La convergence presque sûre entraînant la convergence en probabilité, l'estimateur est donc consistant.

L'estimateur est sans biais, en effet :

\[\mathbb{E}\left(\overline{X}\right)=\frac{1}{n}\sum_{i=1}^n \mathbb{E}\left(X_{i}\right)=p\]

L'estimateur étant sans biais, le risque quadratique est égal à la variance :

\[R\left(\overline{X},p\right)=\operatorname{Var}\left(\overline{X}\right)=\frac{1}{n^2}\sum_{i=1}^n \operatorname{Var}\left(X_{i}\right)\]

car les variables \(X_i\) sont indépendantes, donc non corrélées, d'où :

\[R\left(\overline{X},p\right)=\frac{p(1-p)}{n}\]

Le risque quadratique fournit un indicateur de la dispersion de \(\overline{X}\) autour de la valeur à estimer \(p\) . Certes on ne connaît pas sa valeur qui dépend de \(p\) , mais on peut l'estimer par :

\[\frac{\overline{X}\left(1-\overline{X}\right)}{n}\]

On constate que le risque quadratique décroît logiquement quand la taille de l'échantillon augmente.

Notons que ces résultats sont valables quelle que soit la loi, pas seulement pour une loi \(\mathcal{N}\left(\mu,\sigma^2\right)\).

Retour à la consommation d'essence

La loi forte des grands nombres (et un théorème, celui de Slutsky) assure que les estimateurs \(\overline{X}\) , \(V\) et \(S^{\prime 2}\) sont consistants :

\[\overline{X}\xrightarrow{\operatorname{p.s}}\mu\]
\[V\xrightarrow{\operatorname{p.s}}\sigma^2\]
\[S^{\prime 2}\xrightarrow{\operatorname{p.s}}\sigma^2\]

 \(\overline{X}\) est un estimateur sans biais de \(\mu\) :

\[\mathbb{E}\left( \overline{X}\right) =\mu\]

\(V\) est un estimateur biaisé, mais asymptotiquement sans biais, de \(\sigma^{2}\) :

\[\mathbb{E}\left( V\right) =\sigma^{2}-\frac{1}{n}\sigma^{2}\quad\xrightarrow{n\rightarrow +\infty}\,\sigma^{2}\]

Si \(V\) est un estimateur biaisé (mais asymptotiquement sans biais) de \(\sigma^{2}\) , \(S^{\prime 2}\) est quant à elle sans biais :

\[\mathbb{E}\left( S^{\prime 2}\right) =\sigma^{2}\]

C'est pour cela qu'on retrouve usuellement dans les logiciels la version dite sans biais (unbiased) \(S^{\prime 2}\) .

Ever considered an OpenClassrooms diploma?
  • Up to 100% of your training program funded
  • Flexible start date
  • Career-focused projects
  • Individual mentoring
Find the training program and funding option that suits you best
Example of certificate of achievement
Example of certificate of achievement