Section : Ergodicité
Précédent : Ergodicité
Suivant : Estimation des caractéristiques d'un

Définition :

Le processus stationnaire $ {(X_t, t\in {\mathbb{Z}})}$ est dit ergodique si
    $\displaystyle \forall k\in{\mathbb{N}}^*,\ \ \forall \phi\ :\ {\mathbb{R}}^k\rightarrow {\mathbb{R}}$ mesurable bornée  
    $\displaystyle \lim_{N\rightarrow +\infty}{1\over N}\sum_{p=0}^{N-1}\phi(X_{p+1},...,X_{p+k})={\mathbb{E}}\Bigl[\phi(X_1,...,X_k)\Bigr]\ \ \P$ -p.s.  

Pour qu'un processus stationnaire $ X$ soit ergodique, il suffit essentiellement que $ X_t$ et $ X_s$ soient asymptotiquement indépendants quand $ \vert t-s\vert$ tend vers l'infini. C'est évidemment le cas si $ X$ est une famille de variables aléatoires i.i.d. Un contre-exemple simple est donné par le processus $ (Y_n=\varepsilon_1)_{n\in {\mathbb{N}}}$ : il est stationnaire, mais

    $\displaystyle \lim_{N\rightarrow +\infty}{1\over N}\sum_{p=1}^N\phi\bigl(Y_p(\omega),...,Y_{p+n}(\omega)\bigr)$  
  $\displaystyle =$ $\displaystyle \lim_{N\rightarrow +\infty}{1\over N}\sum_{p=1}^N\phi\bigl(\varepsilon_1(\omega),...,\varepsilon_1(\omega)\bigr)$  
  $\displaystyle =$ $\displaystyle \phi\bigl(\varepsilon_1(\omega),...,\varepsilon_1(\omega)\bigr)\not={\mathbb{E}}\bigl[\phi(\varepsilon_1,...,\varepsilon_1)\bigr]$  

Théorème 3.I.1   Si $ X$ est un processus gaussien stationnaire, et si sa fonction d'autocorrélation tend vers 0 en l'infini, alors sa partie déterministe est constante et il est ergodique.



Thierry Cabanal-Duvillard