Section : Algorithme des innovations
Précédent : Remarque.
Suivant : Exercice 2.

Démonstration du théorème [*]

En vertu de la stationnarité faible de $ X$, il est facile de vérifier l'égalité :

$\displaystyle \left\Vert{\varepsilon}_N-\tilde{\varepsilon}_N\right\Vert_2$ $\displaystyle =$ $\displaystyle \left\Vert P^\bot_{V^2(X_s,s<N)}(X_N)-P^\bot_{V^2(X_s,1\leq s<N)}(X_N)\right\Vert_2$  
  $\displaystyle =$ $\displaystyle \left\Vert P^\bot_{V^2(X_s,s<0)}(X_0)-P^\bot_{V^2(X_s,-N\leq s<0)}(X_0)\right\Vert_2$  

Or $ V^2(X_s,s<0)=\bigcup_{N>0}V^2(X_s,-N\leq s<0)$. D'après le corollaire [*], on en déduit que $ P^\bot_{V^2(X_s,-N\leq s<0)}(X_0)$ converge au sens de la norme hilbertienne vers $ P^\bot_{V^2(X_s,s<0)}(X_0)$ quand $ N$ tend vers l'infini. On en déduit le premier point, à savoir
$\displaystyle \lim_{N\rightarrow +\infty}\Vert{\varepsilon}_N-\tilde{\varepsilon}_N\Vert_2=0 $
Les deux autres limites en découlent, car $ \tilde{\sigma}_N^2=\Vert\tilde{\varepsilon}_N\Vert_2^2$ a même limite que $ \Vert{\varepsilon}_N\Vert_2^2={\sigma}^2$ ; d'autre part,
$\displaystyle \left\vert\langle X_N,{\varepsilon}_N\rangle-\langle X_N,\tilde{\... ...{\varepsilon}_N-\tilde{\varepsilon}_N\Vert\rightarrow _{N\rightarrow +\infty}0 $
d'où il résulte que
$\displaystyle {\psi}_{N,i}=\frac{\langle X_N,\tilde{\varepsilon}_N\rangle}{\tilde{\sigma}_{N-i}} $
converge vers
$\displaystyle \frac{\langle X_N,{\varepsilon}_N\rangle}{{\sigma}}={\psi}_i $

En pratique, le procédé d'orthonormalisation de Schmidt permet le calcul par récurrence de $ (\tilde{\sigma}^2_t,t=1,\ldots,N)$ et de $ ({\psi}_{t,i}, 0\leq i\leq t\leq N)$ :

$\displaystyle {\psi}_{t,t-j}$ $\displaystyle =$ $\displaystyle {1\over \tilde{\sigma}^2_{j}}\bigl({\gamma}_X(t-j)-\sum_{u=1}^{j-1}{\psi}_{t,t-u}{\psi}_{j,j-u}\tilde{\sigma}^2_{u}\bigr),\ j=1,...,t$  
$\displaystyle \tilde{\sigma}^2_{t}$ $\displaystyle =$ $\displaystyle {\gamma}_X(0)-\sum_{u=1}^{t-1}{\psi}_{t,t-u}^2\tilde{\sigma}^2_{u}$  

avec $ \tilde{\sigma}^2_1={\gamma}_X(0)$. Cette méthode porte en statistique des processus le nom d'algorithme des innovations. En remplaçant dans l'algorithme précédent la fonction d'autocovariance $ {\gamma}_X$ par son estimateur $ \hat{\gamma}_X^{(N)}$, on définit les estimateurs $ \hat{\psi}_{t,i}^{(N)}$ et $ \hat{\sigma}_t^{2(N)}$.
Théorème 3.II.7   Si $ X$ est un processus ARMA, dont l'innovation $ {\varepsilon}$ est un bruit blanc au sens fort, possédant un moment d'ordre 4, alors, en reprenant les notations précédentes, pour tout $ k\geq1$ et pour toute suite d'entiers positifs $ (m_N,N\geq1)$ telle que $ m_N<N$, $ \lim_{N\rightarrow +\infty} m_N=+\infty$ et $ \lim_{N\rightarrow +\infty}\frac{m_N}{N^{1/3}}=0$, le vecteur aléatoire
$\displaystyle \sqrt{N}\,{}^t(\hat{\psi}_{m_N,1}^{(N)}-{\psi}_1,\ldots,\hat{\psi}_{m_N,k}^{(N)}-{\psi}_k) $
converge en loi vers un vecteur gaussien centré de matrice de covariance $ A=(a_{i,j})_{i,j=1\ldots,k}$ telle que $ a_{i,j}=\sum_{u=1}^{\min(i,j)}{\psi}_{i-u}{\psi}_{j-u}$. De plus, $ \hat {\sigma}_{m_N}^{2(N)}$ converge en probabilité vers $ {\sigma}^2$.


Section : Algorithme des innovations
Précédent : Remarque.
Suivant : Exercice 2.

Thierry Cabanal-Duvillard