MetMat

Comment construire un estimateur Tn=φ(X1,,Xn)T_n = \varphi(X_1, \dots, X_n) d'un paramètre g(θ)g(\theta) ?

En appliquant la méthode des moments g(θ)=h(Eθ(X))g(\theta) = h(E_\theta(X)) avec Tn=h(Xn)T_n = h(\overline{X}_n)

L'objectif

Construire systématiquement un estimateur de g(θ)g(\theta) en inversant la relation entre moments théoriques et paramètre.

Le principe

Si g(θ)=h(Eθ(X))g(\theta) = h(E_\theta(X)) avec hh continue, on estime g(θ)g(\theta) par Tn=h(Xn)T_n = h(\overline{X}_n) : la LFGN assure XnEθ(X)\overline{X}_n \to E_\theta(X) et la continuité de hh entraîne Tng(θ)T_n \to g(\theta) en probabilité.

La méthode
  1. 1
    J'exprime g(θ)g(\theta) en fonction du ou des premiers moments Eθ(X),Eθ(X2),E_\theta(X), E_\theta(X^2), \dots via une fonction hh continue.
  2. 2
    Je remplace chaque moment théorique Eθ(Xk)E_\theta(X^k) par son analogue empirique 1ni=1nXik\frac{1}{n} \sum_{i=1}^n X_i^k.
  3. 3
    Je pose l'estimateur Tn=h(Xn)T_n = h(\overline{X}_n) (ou hh appliquée aux moments empiriques nécessaires).
  4. 4
    Je conclus en précisant que l'heuristique est justifiée par la LFGN et la continuité de hh.

Exemple corrigé

Difficulté croissante de 1 à 3

Exercices aujourd'hui0 / 3

Prêt à t'entraîner ?

Génère un exercice personnalisé sur cette méthode et entraîne-toi avec la correction IA.