Section : Estimateurs des moindres carrés
Précédent : Estimateurs des moindres carrés
Suivant : Méthode des moindres carrés

Notations.

Soit $ X=(X_t,t\in{\mathbb{Z}})$ un processus ARMA($ p,q$) tel que

$\displaystyle {\phi}(B)(X)={\theta}(B)({\varepsilon}) $
avec $ {\varepsilon}$ bruit blanc gaussien de variance $ {\sigma}_{\varepsilon}^2$. Notons $ {\phi}=({\phi}_1,\ldots,{\phi}_p)$ et $ ({\theta}_1,\ldots,{\theta}_q)$. La fonction d'autocorrélation de $ X$ est une fonction de $ {\phi}$ et $ {\theta}$, qu'on notera $ {\rho}_{({\theta},{\phi})}$. De même, la fonction d'autocorrélation partielle de $ X$, qui se calcule à partir de la fonction d'autocorrélation, est-elle une fonction de $ {\phi}$ et $ {\theta}$, qu'on notera $ {r}_{({\theta},{\phi})}$. La matrice de corrélation d'ordre $ k$ sera notée $ R_{({\theta},{\phi})}^{(k)}=\left({\rho}_{({\theta},{\phi})}(\vert i-j\vert)\right)_{i,j=1}^k$ , et la matrice de covariance par $ {\Gamma}_{({\theta},{\phi},{\sigma}^2)}^{(k)}={\gamma}_X(0)R_{({\theta},{\phi})}^{(k)}$ .

Soit $ (\tilde{\varepsilon}_1,\ldots,\tilde{\varepsilon}_N)$ la base orthogonale de $ V^2(X_1,\ldots,X_N)$ construite par l'algorithme des innovations :

$\displaystyle \tilde{\varepsilon}_t=X_t-P^\bot_{V^2(X_1,\ldots,X_{t-1})}(X_t) $
Il existe des coefficients $ {\psi}_{i,j}$ et $ {\eta}_{i,j}$ tels que pour tout $ t=1,\ldots,N$ et $ i=1,\ldots,t-1$, on ait
$\displaystyle X_t$ $\displaystyle =$ $\displaystyle \tilde{\varepsilon}_t+\sum_{i=1}^{t-1}{\psi}_{t,i}\tilde{\varepsilon}_{t-i}$  
$\displaystyle \tilde{\varepsilon}_t$ $\displaystyle =$ $\displaystyle X_t+\sum_{i=1}^{t-1}{\eta}_{t,i}X_{t-i}$  

Là encore, ces coefficients ne dépendent que de $ {\theta}$ et $ {\phi}$ et on les notera plutôt $ {\psi}^{({\theta},{\phi})}_{i,j}$ et $ {\eta}^{({\theta},{\phi})}_{i,j}$. En effet,
$\displaystyle P^\bot_{V^2(X_1,\ldots,X_{t-1})}(X_t)=-\sum_{i=1}^{t-1}{\eta}_{t,i}X_{t-i}, $
ce qui implique que les coefficients $ {\eta}_{t,i}$ sont déterminés par les équations de Yule-Walker
$\displaystyle R_{({\theta},{\phi})}^{(t-1)}\left( \begin{array}{c} -{\eta}_{t,1... ...eta},{\phi})}(1)\ \vdots\ {\rho}_{({\theta},{\phi})}(t) \end{array}\right) $
Les coefficients $ {\eta}_{i,j}$ sont donc bien fonction de $ {\theta}$ et $ {\varphi}$ uniquement. Quant aux coefficients $ {\psi}_{i,j}$, ils peuvent être calculés à partir des $ {\eta}_{i,j}$. En effet, notons $ S_{({\theta},{\phi})}^{(N)}$ et $ T_{({\theta},{\phi})}^{(N)}$ les matrices triangulaires supérieures
$\displaystyle S_{({\theta},{\phi})}^{(N)}=\left( \begin{array}{ccccc} 1&{\psi}^... ...s&&\vdots\ &&&1&{\psi}^{({\theta},{\phi})}_{N,1}\ &&&&1 \end{array}\right) $
et
$\displaystyle T_{({\theta},{\phi})}^{(N)}=\left( \begin{array}{ccccc} 1&{\eta}^... ...&&\vdots\ &&&1&{\eta}^{({\theta},{\phi})}_{N,1}\ &&&&1 \end{array}\right). $
Il s'agit bien sûr des matrices de passage entre les deux bases $ \left(X_1,\ldots,X_N\right)$ et $ \left(\tilde{\varepsilon}_1,\ldots,\tilde{\varepsilon}_N\right)$ :
$\displaystyle \left(X_1,\ldots,X_N\right)=\left(\tilde{\varepsilon}_1,\ldots,\tilde{\varepsilon}_N\right)S_{({\theta},{\phi})}^{(N)} $
et inversement
$\displaystyle \left(\tilde{\varepsilon}_1,\ldots,\tilde{\varepsilon}_N\right)=\left(X_1,\ldots,X_N\right)T_{({\theta},{\phi})}^{(N)} $
En particulier, $ S_{({\theta},{\phi})}^{(N)}=\left(T_{({\theta},{\phi})}^{(N)}\right)^{-1}$ . Les coefficients $ {\psi}_{i,j}$ sont donc bien fonction des $ {\eta}_{i,j}$ et donc de $ {\theta}$ et $ {\phi}$. On en déduit aussi que
$\displaystyle {\Gamma}_{({\theta},{\phi},{\sigma}^2)}^{(N)}$ $\displaystyle =$ $\displaystyle {\mathbb{E}}\left[{}^t\left(X_1,\ldots,X_N\right)\left(X_1,\ldots,X_N\right)\right]$  
  $\displaystyle =$ $\displaystyle {}^tS_{({\theta},{\phi})}^{(N)}{\mathbb{E}}\left[{}^t\left(\tilde... ...psilon}_1,\ldots,\tilde{\varepsilon}_N\right)\right]S_{({\theta},{\phi})}^{(N)}$  
  $\displaystyle =$ $\displaystyle {}^tS_{({\theta},{\phi})}^{(N)}.{\sigma}^2{\Delta}_{({\theta},{\phi})}^{(N)}S_{({\theta},{\phi})}^{(N)}$  

avec $ {\Delta}_{({\theta},{\phi})}^{(N)}$ la matrice diagonale
$\displaystyle {\Delta}_{({\theta},{\phi})}^{(N)}=\left( \begin{array}{ccc} {\de... ...},{\phi})}&&\ &\ddots&\ &&{\delta}_N^{({\theta},{\phi})} \end{array}\right)$     avec $\displaystyle {\delta}_i^{({\theta},{\phi})}=\frac{\mathop{\hbox{\upshape {var}}}\nolimits \left(\tilde{\varepsilon}_i\right)}{{\sigma}^2}. $
Enfin on notera $ {\psi}^{({\theta},{\phi})}_i$ et $ {\eta}^{({\theta},{\phi})}_i$ les coefficients apparaissant dans les représentations MA($ \infty$) et AR($ \infty$) de $ X$ :
$\displaystyle \frac{{\theta}(z)}{{\phi}(z)}=1+\sum_{i=1}^{+\infty}{\psi}^{({\th... ...,{\phi})}_iz^i=\frac{1}{1+\sum_{i=1}^{+\infty}{\eta}^{({\theta},{\phi})}_iz^i} $


Section : Estimateurs des moindres carrés
Précédent : Estimateurs des moindres carrés
Suivant : Méthode des moindres carrés

Thierry Cabanal-Duvillard