Estimateurs Ponctuels
Dans ce chapitre, nous nous interessons au estimateur ponctuel [kay1993] [casella2002]. Un estimateur ponctuel est une règle de décision qui associe aux données observées une seule valeur pour estimer un paramètre inconnu.
Définition formelle
Soit un vecteur de
où
Une fois les données observées
Méthode des moments
La méthode des moments est l'une des techniques les plus anciennes et les plus simples pour construire des estimateurs Casella (2002). Elle consiste à égaler les moments théoriques de la distribution aux moments empiriques calculés à partir des données.
Principe
Soit
où l'espérance dépend des paramètres
Le moment empirique d'ordre
Estimateur de la méthode des moments
Pour estimer
L'estimateur de la méthode des moments
Exemple : Loi normale
Considérons l'estimation des paramètres
Moments théoriques :
- Premier moment :
- Deuxième moment :
Moments empiriques :
Système d'équations :
Solution : Les estimateurs de la méthode des moments sont :
où la dernière expression s'obtient en simplifiant le developpement du carré.
Avantages et inconvénients
Avantages :
- Méthode simple et intuitive
- Ne nécessite pas de connaître la forme complète de la distribution
- Toujours applicable dès que les moments existent
Inconvénients :
- Peut donner des estimateurs biaisés
- N'exploite pas toute l'information disponible dans les données
- Peut être moins efficace que d'autres méthodes (comme le MLE)
Méthode du maximum de vraisemblance
La méthode du maximum de vraisemblance (maximum likelihood) Kay (1993) [lehmann1998] consiste à construire un estimateur le plus vraisemblable au sens des données observées
Principe
Pour un échantillon
où la vraisemblance est définie par :
Remarques
- En pratique, sans perte de généralité, au lieu de maximiser directement la fonction de vraisemblance, il est souvent préferable de maximiser la log-vraisemblance. Dans le cas d'un grand nombre de densité de probabilité (notamment la loi gaussienne), l'expression du log-vraisemblance est nettement plus simple à manipuler. La log-vraisemblance est définie par
- Pour trouver le maximum de la log-vraisemblance, on cherche les valeurs de
qui annulent le gradient :
Dans le cas d'un paramètre scalaire
Dans certains cas, il est possible de trouver une solution analytique. Dans la majorité des cas, il est nécessaire de recourir à des algorithmes d'optimisation numérique.
Exemple : Loi normale
Considérons l'estimation des paramètres
Les MLE des paramètrees
Exemple : Modèle paramétrique et moindres carrés
Considérons un modèle paramétrique où l'on observe un vecteur
ou de façon vectorielle :
où :
est un vecteur de fonctions paramétriques (connues) est le vecteur de paramètres à estimer (inconnu) est un bruit gaussien de moyenne nulle et de matrice de covariance
Sous ce modèle, les observations suivent une loi normale multivariée
Log-vraisemblance :
Sous l'hypothèse de bruit gaussien, maximiser la log-vraisemblance par rapport à
Ce critère correspond aux moindres carrés non linéaires. En général, il n'existe pas de solution analytique et il faut recourir à des algorithmes d'optimisation (gradient, Newton, Levenberg-Marquardt, etc.).
Cas particulier : modèle linéaire
Lorsque
où
où
Approfondissement
Le cas particulier du modèle linéaire, ses propriétés, son analyse détaillée et ses extensions sont présentés dans le Chapitre 4 consacré à la régression linéaire.
Propriétés
L'estimateur du maximum de vraisemblance possède des propriétés remarquables qui en font l'une des méthodes d'estimation les plus utilisées en statistique. Ces propriétés sont principalement asymptotiques, c'est-à-dire qu'elles se manifestent lorsque la taille de l'échantillon
Consistance
Sous certaines conditions de régularité, l'estimateur du MLE est consistant : il converge en probabilité vers la vraie valeur du paramètre lorsque
Interprétation : Avec un échantillon suffisamment grand, l'estimateur du MLE s'approche arbitrairement de la vraie valeur du paramètre.
Normalité asymptotique
L'estimateur du MLE suit asymptotiquement une loi normale :
où
Dans le cas scalaire (
Interprétation : Pour
Efficacité asymptotique
L'estimateur du MLE atteint asymptotiquement la borne de Cramér-Rao [cramer1946] : parmi tous les estimateurs sans biais, le MLE a asymptotiquement la variance minimale Kay (1993).
Interprétation : Le MLE est asymptotiquement optimal au sens de la variance : aucun autre estimateur sans biais ne peut avoir une variance plus faible pour un échantillon de grande taille.
Invariance par reparamétrisation
Si
Exemple : Si
Interprétation : Cette propriété est très pratique car elle permet d'estimer facilement des transformations de paramètres sans avoir à recalculer le MLE dans le nouvel espace paramétrique.
Remarque
Ces propriétés asymptotiques font du MLE une méthode d'estimation très puissante, particulièrement pour les grands échantillons. Cependant, pour de petits échantillons, le MLE peut être biaisé ou avoir une variance élevée.
Intervalles de confiance
Grâce à la propriété de normalité asymptotique, nous pouvons construire des intervalles de confiance pour les paramètres estimés par MLE.
Cas scalaire
Pour un paramètre scalaire
En standardisant, nous obtenons :
Un intervalle de confiance asymptotique de niveau
où
Remarque : En pratique, nous remplaçons
Cas multidimensionnel
Pour un vecteur de paramètres
où
Avantages et inconvénients
Avantages :
- Exploite toute l'information disponible dans les données (efficacité)
- Propriétés asymptotiques optimales : convergence, normalité asymptotique, efficacité asymptotique
- Invariant par reparamétrisation : si
est le MLE de , alors est le MLE de - Fournit une approche systématique pour construire des estimateurs
Inconvénients :
- Nécessite de connaître la forme complète de la distribution (densité de probabilité)
- Peut être difficile à calculer (pas toujours de solution analytique)
- Peut donner des estimateurs biaisés pour de petits échantillons
Références
- Kay, S. M. (1993). Fundamentals of Statistical Signal Processing: Estimation Theory. Prentice Hall.
- Lehmann, E. L., & Casella, G. (1998). Theory of Point Estimation, 2nd edition. Springer.
- Casella, G., & Berger, R. L. (2002). Statistical Inference, 2nd edition. Duxbury Press.
- Cramér, H. (1946). Mathematical Methods of Statistics. Princeton University Press.
