Corrigé du partiel du 29 mars 2000

Statistique des processus

MST ISASH - Maîtrise MASS

Exercice 1.


Modélisation par une moyenne mobile.


Soient $ X=(X_t,t\in{\mathbb{Z}})$ un processus stationnaire, et $ x=(x_t,t\in\{1,\ldots,200\})$ une réalisation de ce processus entre les instants $ 1$ et $ 200$. Pour déterminer s'il est raisonnable de modéliser $ X$ par une moyenne mobile, on utilise les deux résultats suivants :

  1. L'autocorrélation empirique $ \hat{\rho}_X^{(200)}(t)$ calculée sur les $ 200$ valeurs $ X_1,\ldots,$ $ X_{200}$, suit approximativement une loi gaussienne de moyenne l'autocorrélation (théorique) $ {\rho}_X(t)$, et de variance $ 1/200$.
  2. L'autocorrélation (théorique) d'un MA($ q$) est nulle à partir du rang $ q+1$.
Ces deux arguments ont pour conséquence que si $ X$ est un MA($ q$), alors $ \hat{\rho}_X^{(200)}$ appartient à l'intervalle $ [-1,96/\sqrt{200};1,96/\sqrt{200}]\simeq[-0,14;0,14]$ avec une probabilité de l'ordre de 95% pour tout $ t>q$. L'autocorrélation estimée $ \hat{\rho}_x^{(200)}$ est une réalisation de l'autocorrélation empirique ; à partir du rang $ q+1$, sous l'hypothèse que $ X$ est un MA($ q$), elle doit donc être comprise entre $ -0,14$ et $ 0,14$ environ 19 fois sur 20. Or on constate qu'aucun phénomène de ce type n'apparaît sur l'autocorrélogramme à partir de quelque rang que ce soit.

Une modélisation de type MA($ q$) n'est donc pas opportune.


Modélisation par un processus autorégressif.


On raisonne de façon tout à fait symétrique pour déterminer si une modélisation de type AR($ p$) est envisageable. On se sert des résultats suivants :

  1. L'autocorrélation partielle empirique $ \hat r_X^{(200)}(t)$ calculée sur les $ 200$ valeurs $ X_1,\ldots,X_{200}$, suit approximativement une loi gaussienne de moyenne l'autocorrélation partielle (théorique) $ r_X(t)$, et de variance $ 1/200$.
  2. L'autocorrélation partielle (théorique) d'un AR($ p$) est nulle à partir du rang $ p+1$.
Cela a pour conséquence que si $ X$ est un AR($ p$), alors $ \hat r_X^{(200)}$ appartient à l'intervalle $ [-1,96/\sqrt{200};1,96/\sqrt{200}]\simeq[-0,14;0,14]$ avec une probabilité de l'ordre de 95% pour tout $ t>p$. L'autocorrélation partielle estimée $ \hat{r}_x^{(200)}$ est une réalisation de l'autocorrélation partielle empirique ; à partir du rang $ p+1$, sous l'hypothèse que $ X$ est un AR($ p$), elle doit donc être comprise entre $ -0,14$ et $ 0,14$ environ 19 fois sur 20. Or on constate sur l'autocorrélogramme que c'est effectivement le cas à partir de $ t=5$, et même, à une exception près - ce qui est acceptable sur 39 valeurs et peut correspondre aux 5% qui n'appartiennent pas à l'intervalle $ [-0,14;0,14]$ -, à partir de $ t=2$.

On peut donc proposer de modéliser $ X$ par un AR($ 4$), voire par un AR($ 1$).


Les équations qui permettent de déterminer les coefficients d'un modèle AR($ p$) sont les équations de Yule-Walker.


Hypothèse AR(1) : $ X_t={\varepsilon}_t+{\beta}_1X_{t-1}$. Alors les équations de Yule-Walker se réduisent à

$\displaystyle (1)({\beta}_1)=({\rho}_X(1))
$

D'où l'estimation de $ {\beta}_1$ par $ \hat {\rho}_X^{(200)}(1)=0,966$.


Hypothèse AR(4) : $ X_t={\varepsilon}_t+{\beta}_1X_{t-1}+{\beta}_2X_{t-2}+{\beta}_3X_{t-3}+{\beta}_4X_{t-4}$. Alors les équations de Yule-Walker deviennent

$\displaystyle \left(\begin{array}{cccc}
1&{\rho}_X(1)&{\rho}_X(2)&{\rho}_X(3)\\...
...{\rho}_X(1)\\
{\rho}_X(2)\\
{\rho}_X(3)\\
{\rho}_X(4)
\end{array}\right)
$

Pour estimer les coefficients $ {\beta}_1,\ldots,{\beta}_4$, on remplace l'autocorrélation par l'autocorrélation estimée. D'où

$\displaystyle \left(\begin{array}{cccc}
1&0,966&0,925&0,878\\
0,966&1&0,966&0...
...\left( \begin{array}{c}
0,966\\
0,925\\
0,878\\
0,816
\end{array}\right)
$

Remarque : ce système a pour solution

$\displaystyle (\hat{\beta}_1;\hat{\beta}_2;\hat{\beta}_3;\hat{\beta}_4)=(1,047;-0,014;0,154;-0,239).
$

Exercice 2.


1) Montrons que $ {\phi}$ annule les composantes saisonnières.

Méthode 1. On remarque que la transformée en $ z$ de $ {\phi}$ peut se décomposer en

$\displaystyle {\phi}(z)$ $\displaystyle =$ $\displaystyle \frac{1}{9}(8+z+3z^2-5z^3+2z^4)$  
    $\displaystyle \frac{1}{3}\bigl(\frac{1}{z}+1+z)\times z\times\frac{1}{ 3}(8-7z+2z^2)$  

Autrement dit, $ {\phi}$ s'écrit comme produit de composition des filtres $ M_1=\frac{1}{3}(F+I+B)$, $ B$ et $ \frac{1}{3}(8I-7B+2B^2)$. Or $ M_1$ annule les composantes saisonnières de période 3. Donc $ {\phi}$ aussi.


Méthode 2. Soit $ x^{\sigma}$ une composante saisonnière de période 3 ; $ x^{\sigma}$ vérifie donc les propriétés suivantes : $ \forall t\in{\mathbb{Z}}$,

$\displaystyle x^{\sigma}_t+x^{\sigma}_{t-1}+x^{\sigma}_{t-2}$ $\displaystyle =$ 0  
$\displaystyle x^{\sigma}_t$ $\displaystyle =$ $\displaystyle x^{\sigma}_{t-3}$  

On en déduit :
$\displaystyle {\phi}(x^{\sigma})_t$ $\displaystyle =$ $\displaystyle \frac{1}{9}(8x^{\sigma}_t+x^{\sigma}_{t-1}+3x^{\sigma}_{t-2}-5x_{t-3}^{\sigma}+2x^{\sigma}_{t-4})$  
  $\displaystyle =$ $\displaystyle \frac{1}{ 9}\bigl((8x^{\sigma}_t-5x_{t-3}^{\sigma})+(x^{\sigma}_{t-1}+2x^{\sigma}_{t-4})+3x^{\sigma}_{t-2}\bigr)$  
  $\displaystyle =$ $\displaystyle \frac{1} {9}(3x^{\sigma}_t+3x^{\sigma}_{t-1}+3x^{\sigma}_{t-2})$  
  $\displaystyle =$ 0  

2) Montrons que $ {\phi}$ conserve les tendances polynômiales de degré inférieur ou égal à $ 2$.


Méthode 1. Il suffit de vérifier que $ (1-z)^3$ divise $ 1-{\phi}(z)$, ce qui revient à déterminer $ a$ et $ b$ tels que

$\displaystyle 1-{\phi}(z)=(1-z)^3(a+bz)
$

En développant, et en identifiant les coefficients, on obtient le système d'équations

$\displaystyle \left\{\begin{array}{rl}
\frac{8}{9}&=a\\
-\frac{1}{9}&=-3a+b\\...
...ac{3}{9}&=3a-3b\\
\frac{5}{9}&=-a+3b\\
-\frac{2}{9}&=-b
\end{array}\right.
$

Ce système admet une solution $ a=1/9$ et $ b=2/9$. Ce qui conclut la preuve.


Méthode 2. Soit $ x_t={\alpha}+{\beta}t+{\gamma}t^2$ une tendance polynômiale quelconque de degré inférieur à 2. Montrons que $ {\phi}(x)_t=x_t$ :

$\displaystyle {\phi}(x)_t$ $\displaystyle =$ $\displaystyle \frac{1}{9}(8x_t+x_{t-1}+3x_{t-2}-5x_{t-3}+2x_{t-4})$  
  $\displaystyle =$ $\displaystyle \frac{1}{9}\bigl(8({\alpha}+{\beta}t+{\gamma}t^2)+({\alpha}+{\beta}(t-1)+{\gamma}(t-1)^2)$  
    $\displaystyle +3({\alpha}+{\beta}(t-2)+{\gamma}(t-2)^2)$  
    $\displaystyle -5({\alpha}+{\beta}(t-3)+{\gamma}(t-3)^2)+2({\alpha}+{\beta}(t-4)+{\gamma}(t-4)^2)\bigr)$  
  $\displaystyle =$ $\displaystyle \frac{1}{9}\bigl({\alpha}(8+1+3-5+2)+{\beta}(-1-6+15-8)+{\gamma}(1+12-45+32)$  
    $\displaystyle +t({\beta}(8+1+3-5+2)+{\gamma}(-2-12+30-16))$  
    $\displaystyle +t^2({\gamma}(8+1+3-5+2))\bigr)$  
  $\displaystyle =$ $\displaystyle \frac{1}{9}(9{\alpha}+9{\beta}t+9{\gamma}t^2)=x_t$  

3) Le filtre $ {\phi}$ n'est pas inversible puisqu'il n'est pas injectif : toutes les composantes saisonnières de période 3 ont même image, qui est la suite nulle. En termes d'algèbre linéaire, cela signifie que le noyau de l'opérateur linéaire $ {\phi}$ n'est pas réduit à $ \{0\}$.

Autre preuve : $ j$ et $ j^2$ racines de $ 1+z+z^2$ sont racines de $ {\phi}(z)$ ; or elles sont de module $ 1$, et l'on sait qu'un filtre est inversible si et seulement si sa transformée en $ z$ n'a pas de racine de module 1.


Exercice 3.


1) Il s'agit d'un modèle AR(2) (ou ARMA(2,0)), de la forme $ {\phi}(B)(X)={\varepsilon}$ avec $ {\phi}(z)=1+0,4z-0,12 z^2$.


2) $ {\varepsilon}$ est le bruit blanc d'innovation associé à $ X$ si le modèle ARMA qui détermine $ X$ est causal et inversible. Le modèle est inversible s'il est possible d'écrire $ {\varepsilon}_t$ sous la forme

$\displaystyle {\varepsilon}_t=\sum_{u\geq0}{\xi}_uX_{t-u}
$

autrement comme fonction du passé de $ X$ jusqu'à l'instant $ t$ ; or c'est bien le cas par définition même du processus autorégressif, avec $ {\xi}_0=1$, $ {\xi}_1=0,4$, $ {\xi}_2=-0,12$ et $ {\xi}_u=0$ pour tout $ u>2$.

Le modèle est causal s'il est possible d'écrire $ X_t$ comme fonction du passé de $ {\varepsilon}$ jusqu'à l'instant $ t$, autrement dit sous la forme

$\displaystyle X_t=\sum_{u\geq0}{\psi}_u{\varepsilon}_{t-u}
$

C'est le cas si et seulement si les racines de $ {\phi}(z)$ sont de module strictement plus grand que 1. Or $ {\phi}(z)=(1-0,2z)(1+0,6z)$, et ses racines sont donc $ 5$ et $ -5/3$. Le modèle est donc bien causal.

Conclusion : $ {\varepsilon}$ est bien le bruit blanc d'innovation associé à $ X$.


3) Soient $ s<t$ quelconques. En reprenant les notations du 2) :

\begin{displaymath}
\begin{array}{rl}
\mathop{\hbox{ cov}}\nolimits ({\varepsilo...
...ov}}\nolimits ({\varepsilon}_t,{\varepsilon}_{s-u})
\end{array}\end{displaymath}

Comme pour tout $ u$ positif, $ s-u$ est inférieur à $ s$ qui est strictement inférieur à $ t$, il apparaît qu'on a toujours $ t\not=s-u$, et donc $ \mathop{\hbox{ cov}}\nolimits ({\varepsilon}_t,{\varepsilon}_{s-u})=0$ (car $ {\varepsilon}$ est un bruit blanc). La somme précédente est donc une somme de termes nuls, et est donc nulle. D'où $ \mathop{\hbox{ cov}}\nolimits ({\varepsilon}_t,X_s)=0$.

En d'autres termes, $ {\varepsilon}_t$ est orthogonal à son passé strict $ V^2({\varepsilon}_s, s<t)$ car c'est un bruit blanc ; $ V^2({\varepsilon}_s, s<t)$ est égal à $ V^2(X_s, s<t)$ car c'est le bruit blanc d'innovation associé à $ X$ ; donc $ {\varepsilon}_t$ est orthogonal à $ X_s$ si $ s<t$.


On en déduit que pour tout $ t\geq 2$, et même $ t\geq 1$, on a

\begin{displaymath}
\begin{array}{rl}
0&=\mathop{\hbox{ cov}}\nolimits ({\vareps...
...\rho}_X(t)+0,4{\rho}_X(t-1)-0,12{\rho}_X(t-2)\bigr)
\end{array}\end{displaymath}

D'où l'égalité demandée.


4) Nous allons démontrer la formule par récurrence. Vérifions-la d'abord pour $ t=0$ et $ t=1$. En $ t=0$, c'est évident car $ {\rho}_X(0)=1$ et $ \frac{2}{11}(0,2)^0+\frac{9}{ 11}(-0,6)^0=1$. En $ t=1$, il faut commencer par calculer $ {\rho}_X(1)$ ; or, d'après la formule du 3), on a

$\displaystyle {\rho}_X(1)=-0,4{\rho}_X(0)+0,12{\rho}_X(-1)=-0,4+0,12{\rho}_X(1)
$

D'où $ {\rho}_X(1)=\frac{-0,4}{1-0,12}=-\frac{5}{11}$. D'autre part,

$\displaystyle \frac{2}{11}(0,2)^1+\frac{9}{11}(-0,6)^1=\frac{1}{ 11}(0,4-5,4)=-\frac{5}{11}
$

La formule est donc démontrée pour $ t=0$ et $ t=1$. Posons maintenant comme hypothèse de récurrence

   H(t) : $\displaystyle \forall s\leq t\ \ {\rho}_X(s)=\frac{2}{11}(0,2)^s+\frac{9}{11}(-0,6)^s
$

H(1) est vraie ; montrons que $ H(t)$ implique $ H(t+1)$ quel que soit $ t\geq 1$ : soit $ t\geq 1$ quelconque, alors
$\displaystyle {\rho}_X(t+1)$ $\displaystyle =$ $\displaystyle -0,4{\rho}_X(t)+0,12{\rho}_X(t-1)$ d'après 3)  
  $\displaystyle =$ $\displaystyle -0,4\bigl(\frac{2}{11}(0,2)^t+\frac{9}{11}(-0,6)^t\bigr)+0,12\bigl(\frac{2}{11}(0,2)^{t-1}+\frac{9}{11}(-0,6)^{t-1}\bigr)$  
    d'après H(t)  
  $\displaystyle =$ $\displaystyle \frac{2}{11}(0,2)^{t-1}(-0,4\times0,2+0,12)+\frac{9}{ 11}(-0,6)^{t-1}(-0,4\times0,6+0,12)$  
  $\displaystyle =$ $\displaystyle \frac{2}{11}(0,2)^{t-1}\times0,04+\frac{9}{11}(-0,6)^{t-1}\times0,36$  
  $\displaystyle =$ $\displaystyle \frac{2}{ 11}(0,2)^{t+1}+\frac{9}{11}(-0,6)^{t+1}$  

ce qui montre H(t+1). La récurrence est ainsi établie, et la formule donnant $ {\rho}_X(t)$ est donc vraie quelque soit $ t\geq0$.


5)


Exercice 4.


1) $ X$ et $ Y$ sont deux processus MA(2) (ou ARMA(0,2)) :

\begin{displaymath}
\begin{array}{ccc}
X_t={\theta}(B)({\varepsilon})_t\hfill&\m...
...}')_t\hfill&\mbox{ avec}&{\theta}'(z)=1-1,2z-1,6z^2
\end{array}\end{displaymath}

De leur nature même, ces modèles sont causals (cf exercice 3, 2)). Afin de déterminer s'ils sont inversibles, il suffit de calculer les racines des polynômes $ {\theta}(z)$ et $ {\theta}'(z)$ :

\begin{displaymath}
\begin{array}{rl}
{\theta}(z)=&(1+0,8z)(1-0,5z)\\
{\theta}'(z)=&(1+0,8z)(1-2z)
\end{array}\end{displaymath}

Les racines de $ {\theta}(z)$ sont donc $ -1,25$ et $ 2$. Les racines sont de module strictement supérieur à 1, et le modèle définissant $ X$ est donc inversible.

Les racines de $ {\theta}'(z)$ sont $ -1,25$ et $ 0,5$. L'une des racines est de module inférieur à 1, et le modèle définissant $ Y$ n'est donc pas inversible.


2) Fonction d'autocovariance de $ X$ (on se servira de façon intensive du fait que $ \mathop{\hbox{ cov}}\nolimits ({\varepsilon}_i,{\varepsilon}_j)=0$ si $ i\not=j$) :

\begin{displaymath}
\begin{array}{rl}
{\gamma}_X(0)&=\mathop{\hbox{ cov}}\nolimi...
...amma}_X(t)&=0\mbox{ si $t>2$, car $X$ est un MA(2)}
\end{array}\end{displaymath}

Fonction d'autocovariance de $ Y$ :

\begin{displaymath}
\begin{array}{rl}
{\gamma}_Y(0)&=\mathop{\hbox{ cov}}\nolimi...
...amma}_Y(t)&=0\mbox{ si $t>2$, car $Y$ est un MA(2)}
\end{array}\end{displaymath}

$ X$ et $ Y$ ont donc même fonction d'autocovariance. Celle-ci déterminant toutes les propriétés de second ordre du processus, il s'agit donc de deux processus ``semblables'' quoique donnés par des modèles différents. Ceci s'explique facilement en montrant qu'on peut définir $ Y$ par le même modèle que $ X$. En effet, posons $ {\varepsilon}''=(1-2B)(1-0,5B)^{-1}({\varepsilon}')$. La densité spectrale de $ {\varepsilon}''$ vaut :

\begin{displaymath}
\begin{array}{rl}
f_{{\varepsilon}''}({\lambda})&=\left\vert...
...2_{{\varepsilon}'}}{ 2{\pi}}\\
&=\frac{1}{2{\pi}}
\end{array}\end{displaymath}

$ {\varepsilon}''$ a une densité spectrale constante ; c'est donc un bruit blanc de variance $ 2{\pi}f_{{\varepsilon}''}({\lambda})=1$, de même variance donc que $ {\varepsilon}$. De plus,

\begin{displaymath}
\begin{array}{rl}
Y&=(1+0,8B)(1-2B)({\varepsilon}')\\
&=(1...
...{\varepsilon}'')\\
&={\theta}(B)({\varepsilon}'')
\end{array}\end{displaymath}

$ X$ et $ Y$ sont donc deux MA(2) qui peuvent être définis par un même modèle et associés à des bruits blancs de même variance. Rien d'étonnant à ce qu'ils aient même autocovariance.




Thierry Cabanal-Duvillard
2001-03-21