Section : Modèles linéaires avec bruit
Précédent : Modèles linéaires avec bruit
Suivant : Exercice 1.

Définition :

Soit $ x=(x_t,t\in T)$ une série temporelle. On appelle modèle linéaire avec erreur ARMA toute modélisation de $ x$ comme réalisation d'un processus $ X$ vérifiant
$\displaystyle \forall t\in T,\ \ X_t=f(t,{\beta})+Y_t $
avec $ f$ fonction linéaire du paramètre $ {\beta}\in {\mathbb{R}}^d$ et $ Y$ processus ARMA. Si $ f$ est une fonction constante de $ t$, alors on dit simplement que $ X$ est un processus ARMA décentré.

L'estimation simultanée des différents paramètres de $ X$ est complexe. Rappelons les résultats de l'exercice [*] : si $ X=(X_t,t\in\left\{1,\ldots,N\right\})$ vérifie $ X=A.{\beta}+Y$ avec $ A$ matrice de dimensions $ N\times m$ et de rang $ m$, $ Y=(X_t,t\in\left\{1,\ldots,N\right\})$ processus ARMA$ (p,q)$ de matrice de covariance $ {\sigma}^2R^{(N)}_{({\theta},{\phi})}$, avec $ {\theta},{\phi}$ connus, et $ ({\beta},{\sigma}^2)\in{\mathbb{R}}^m\times{\mathbb{R}}^*_+$ paramètres, alors l'estimateur des moindres carrés de $ {\beta}$ - i.e. celui qui minimise $ {\sigma}^2$ -, qui est aussi l'estimateur du maximum de vraisemblance à supposer que $ Y$ soit gaussien, est

$\displaystyle \hat{\beta}=\left({}^tA\left(R^{(N)}_{({\theta},{\phi})}\right)^{-1}A\right)^{-1}{}^tA\left(R^{(N)}_{({\theta},{\phi})}\right)^{-1}X.$ (41)

Comme $ p,q,{\theta},{\phi}$ ne sont pas connus mais doivent être estimés, on peut procèder de manière récurrente, par approximations successives :

Section : Modèles linéaires avec bruit
Précédent : Modèles linéaires avec bruit
Suivant : Exercice 1.

Thierry Cabanal-Duvillard