Mathématiquement
Un estimateur est exhaustif si la loi de l'échantillon \(\left(X_1,\ldots,X_n\right)\) conditionnellement à l'estimateur \(\widehat{\theta}\) est indépendante du paramètre \(\theta\) .
Un estimateur \(\widehat{\theta}\) de \(\theta\) est consistant (convergeant) si :
Le biais de l'estimateur \(\widehat{\theta}\) de \(\theta\) vaut :
Le risque quadratique d'un estimateur vaut :
Retour au taux de guérison
La loi forte des grands nombres (échantillon i.i.d de loi \(\mathcal{B}(p)\) ) assure que :
La convergence presque sûre entraînant la convergence en probabilité, l'estimateur est donc consistant.
L'estimateur est sans biais, en effet :
L'estimateur étant sans biais, le risque quadratique est égal à la variance :
car les variables \(X_i\) sont indépendantes, donc non corrélées, d'où :
Le risque quadratique fournit un indicateur de la dispersion de \(\overline{X}\) autour de la valeur à estimer \(p\) . Certes on ne connaît pas sa valeur qui dépend de \(p\) , mais on peut l'estimer par :
On constate que le risque quadratique décroît logiquement quand la taille de l'échantillon augmente.
Notons que ces résultats sont valables quelle que soit la loi, pas seulement pour une loi \(\mathcal{N}\left(\mu,\sigma^2\right)\).
Retour à la consommation d'essence
La loi forte des grands nombres (et un théorème, celui de Slutsky) assure que les estimateurs \(\overline{X}\) , \(V\) et \(S^{\prime 2}\) sont consistants :
\(\overline{X}\) est un estimateur sans biais de \(\mu\) :
\(V\) est un estimateur biaisé, mais asymptotiquement sans biais, de \(\sigma^{2}\) :
Si \(V\) est un estimateur biaisé (mais asymptotiquement sans biais) de \(\sigma^{2}\) , \(S^{\prime 2}\) est quant à elle sans biais :
C'est pour cela qu'on retrouve usuellement dans les logiciels la version dite sans biais (unbiased) \(S^{\prime 2}\) .