Section : Estimation des caractéristiques d'un
Précédent : Notations :
Suivant : Démonstration du théorème

Estimation de la moyenne du processus

L'estimateur usuel de la moyenne $ {\mu_X}$ du processus $ X$ est la moyenne empirique

$\displaystyle \overline{X}_N=\frac{1}{N}\sum_{t=1}^NX_t $
C'est la variable aléatoire qui minimise
$\displaystyle Y\mapsto{\mathbb{E}}\left[\sum_{t=1}^N(X_t-Y)^2\right] $
Si $ X$ est un bruit blanc gaussien décentré, $ \overline{X}_N$ est l'estimateur UVMB de $ {\mu_X}$, c'est aussi l'estimateur du maximum de vraisemblance.
Théorème 3.II.1   Soit $ X$ un processus faiblement stationnaire de moyenne $ {\mu_X}$. Alors
  1. $ \overline{X}_N$ est un estimateur sans biais de $ {\mu_X}$.
  2. si $ \displaystyle \lim_{t\rightarrow +\infty}{\gamma}_X(t)=0$, alors $ \displaystyle \lim_{N\rightarrow +\infty}\mathop{\hbox{\upshape {var}}}\nolimits (\overline{X}_N)=0$ ; il en résulte que $ \overline{X}_N$ converge vers $ {\mu_X}$ au sens de la norme hilbertienne et qu'il est un estimateur faiblement consistant.
  3. si $ \displaystyle \sum_{t=0}^{+\infty}\vert{\gamma}_X(t)\vert<+\infty$ , alors
    $\displaystyle \lim_{N\rightarrow +\infty}N\mathop{\hbox{\upshape {var}}}\nolimi... ...verline{X}_N)%=2{\pi}f_X(0) ={\gamma}_X(0)+2\sum_{t=1}^{+\infty}{\gamma}_X(t). $



Sous-sections

Thierry Cabanal-Duvillard