Skip to content

Concepts de base

Introduction

L'estimation statistique vise à déterminer la valeur de paramètres inconnus à partir des données observées d'un échantillon [kay1993] [casella2002]. Pour déterminer la valeur des paramètres, les observations sont décrites à l'aide d'un modèle statistique, c'est-à-dire d'une loi de probabilité dépendant des paramètres d'intérêt. L'estimation consiste alors à exploiter conjointement les données et ce modèle paramétré afin de fournir une approximation des paramètres inconnus.

Dans ce chapitre, nous considérons en particulier un exemple très simple: l'estimation de la moyenne d'un échantillon issu d'une loi gaussienne.

Modèle statistique

Un modèle statistique est un ensemble de distributions de probabilité P={Pθ:θΘ} indexé par un paramètre θ appartenant à un espace de paramètres Θ.

Exemple : Loi normale (gaussienne)

Définition : Une variable aléatoire X suit une loi normale (ou gaussienne) N(μ,σ2) de paramètres μR (moyenne) et σ2>0 (variance) si elle admet pour densité de probabilité :

f(x;μ,σ2)=12πσ2exp((xμ)22σ2),xR

Propriétés :

  • E[X]=μ (moyenne ou espérance)
  • var(X)=σ2 (variance)

Visualisations :

Loi normale avec différents paramètres

Figure 1: Loi normale avec différents paramètres μ et σ²

Soit x=[x1,,xn] un échantillon i.i.d. composé de n éléments issus d'une loi normale N(μ,σ2). Le modèle statistique est :

P={N(μ,σ2):(μ,σ2)R×R+}

Estimateur

Un estimateur de θ est une statistique

θ^n=g(x)

qui approxime le paramètre θ à partir de l'échantillon x. Par convention, l'estimateur est indiqué avec un .^

Propriétés des estimateurs

Pour évaluer la qualité d'un estimateur, nous étudions plusieurs propriétés fondamentales. Ces propriétés permettent de comparer différents estimateurs et de choisir le plus approprié selon le contexte.

Biais

Le biais d'un estimateur θ^n mesure l'écart entre sa valeur moyenne et la vraie valeur du paramètre. Il est défini par :

Biais(θ^n)=E[θ^n]θ

Un estimateur est dit sans biais si Biais(θ^n)=0 pour tout θ, c'est-à-dire si E[θ^n]=θ. Cela signifie qu'en moyenne, l'estimateur "vise juste".

Variance

La variance d'un estimateur θ^n mesure sa variabilité autour de sa moyenne :

var(θ^n)=E[(θ^nE[θ^n])2]

La variance quantifie la dispersion des estimations d'un échantillon à l'autre. Un estimateur peut être sans biais mais avoir une variance élevée (peu fiable), ou avoir un biais non nul mais une variance faible (précis mais biaisé).

Efficacité

Parmi les estimateurs sans biais, celui de variance minimale est dit efficace.

La borne de Cramér-Rao [cramer1946] établit une limite inférieure pour la variance de tout estimateur sans biais Kay (1993) : sous certaines conditions de régularité,

var(θ^n)1nI(θ)

I(θ) est l'information de Fisher. Un estimateur qui atteint cette borne est optimal au sens de la variance [lehmann1998].

Convergence

Un estimateur est dit convergent s'il se rapproche du paramètre vrai lorsque la taille de l'échantillon augmente. Formellement, θ^n converge en probabilité vers θ si :

ε>0,limnP(|θ^nθ|>ε)=0

On note : θ^nPθ

Pour un échantillon suffisamment grand, la probabilité que l'estimateur soit éloigné de la vraie valeur devient arbitrairement petite. C'est une propriété asymptotique essentielle.

Erreur quadratique moyenne (EQM)

Le biais et la variance évaluent des aspects distincts de la qualité d'un estimateur. L'erreur quadratique moyenne (EQM ou MSE en anglais) est un critère global qui combine ces deux aspects :

MSE(θ^n)=E[(θ^nθ)2]

Décomposition biais-variance : Cette quantité peut s'exprimer de manière remarquable comme :

MSE(θ^n)=var(θ^n)+[Biais(θ^n)]2

L'EQM représente l'erreur moyenne au carré entre l'estimateur et la vraie valeur. Cette décomposition montre qu'il existe un compromis biais-variance :

  • Un estimateur peut avoir un biais non nul mais une variance faible
  • À l'inverse, un estimateur sans biais peut avoir une variance élevée
  • L'objectif est de minimiser l'EQM totale, ce qui peut parfois justifier d'accepter un petit biais pour réduire significativement la variance

Intervalles de confiance

Les estimateurs ponctuels (comme θ^n) fournissent une seule valeur pour approximer le paramètre inconnu. Cependant, du fait de la variabilité aléatoire des données, cette estimation est incertaine. Les intervalles de confiance permettent de quantifier cette incertitude en fournissant un intervalle qui contient le paramètre avec une probabilité contrôlée.

Un intervalle de confiance de niveau 1α pour θ est un intervalle aléatoire [Ln,Un] (qui dépend des données) tel que :

Pθ(LnθUn)1α,θΘ

Interprétation : Le nombre 1α (typiquement 90%, 95% ou 99%) est appelé niveau de confiance. Cela signifie que si nous répétons l'expérience un grand nombre de fois, environ (1α)×100% des intervalles construits contiendront la vraie valeur de θ.

Exemple : Estimation de la moyenne

Pour un échantillon x=[x1,,xn] i.i.d. de moyenne μ, un estimateur naturel de μ est la moyenne empirique définie par :

μ^n=g(x)=1nk=1nxk

Propriétés :

  • Sans biais : E[μ^n]=μ, donc Biais(μ^n)=0
  • Variance : var(μ^n)=σ2n
  • Erreur quadratique moyenne :MSE(μ^n)=var(μ^n)+[Biais(μ^n)]2=σ2n+0=σ2n
  • Convergence : μ^nPμ (loi des grands nombres)

Interprétation : L'EQM décroît en 1/n, ce qui signifie que la qualité de l'estimation s'améliore lorsque la taille de l'échantillon augmente. La figure suivante présente l'évolution de l'EQM en fonction de n lorsque σ2=4. Nous observons que l'EQM diminue rapidement au début puis plus lentement. Pour diviser l'EQM par 2, il faut multiplier la taille d'échantillon par 4.

Évolution de l'EQM en fonction de n

Figure 2: Évolution de l'erreur quadratique moyenne en fonction de la taille d'échantillon n

Références

  1. Kay, S. M. (1993). Fundamentals of Statistical Signal Processing: Estimation Theory. Prentice Hall.
  2. Lehmann, E. L., & Casella, G. (1998). Theory of Point Estimation, 2nd edition. Springer.
  3. Casella, G., & Berger, R. L. (2002). Statistical Inference, 2nd edition. Duxbury Press.
  4. Cramér, H. (1946). Mathematical Methods of Statistics. Princeton University Press.