Section : Définition :
Précédent : Définition :
Suivant : Définition :

Démonstration
Soit $ U=\sum_{t\in{\cal T}}u_tX_t$ une combinaison linéaire de $ (X_t)_{t\in{\cal T}}$, telle que $ {\mathbb{E}}_{{\beta},{\sigma}^2}[U]={\mathbb{E}}_{{\beta},{\sigma}^2}[X_s]=f(s,{\beta})$ quel que soit $ ({\beta},{\sigma}^2)$. Alors
$\displaystyle {\mathbb{E}}_{{\beta},{\sigma}^2}[(X_s-U)^2]$ $\displaystyle =$ $\displaystyle \mathop{\hbox{\upshape {var}}}\nolimits _{{\beta},{\sigma}^2}(X_s... ...ft({\mathbb{E}}_{{\beta},{\sigma}^2}\left[X_s\right]-U\right)^2\right]\hskip1cm$ % latex2html id marker 18143 $\displaystyle \mbox{ car $X_s$\ et $U$\ sont d\'ecorr\'el\'es}$  
  $\displaystyle =$ $\displaystyle {\sigma}^2+{\mathbb{E}}_{{\beta},{\sigma}^2}[(f(s,{\beta})-U)^2]$  

La variable aléatoire $ U$ est donc prédicteur linéaire de $ X_s$ si et seulement s'il s'agit de l'estimateur de $ f(s,{\beta})$ de variance minimale parmi les estimateurs sans biais linéaires en $ (X_t)_{t\in{\cal T}}$. D'après le théorème de Gauss-Markov, cet estimateur existe, est unique, et vaut $ f(s,\hat{\beta})$.

Soit $ L_s$ le vecteur ligne tel que $ f(s,{\beta})=L_s.{\beta}$, et $ {\sigma}^2{\Gamma}_{\beta}$ la matrice de covariance de $ \hat{\beta}$. Si le modèle est régulier, et peut s'écrire sous la forme $ X=A.{\beta}+{\varepsilon}$, on rappelle que $ {\Gamma}_{\beta}=(^tA.A)^{-1}$. Alors l'erreur quadratique moyenne vaut

$\displaystyle {\mathbb{E}}_{{\beta},{\sigma}^2}[(X_s-\hat X_s)^2]=\mathop{\hbox... ...imits _{{\beta},{\sigma}^2}(\hat X_s)={\sigma}^2(1+L_s.{\Gamma}_{\beta}.^tL_s) $
On pose $ e^2_s=L_s.{\Gamma}_{\beta}.^tL_s$.



Thierry Cabanal-Duvillard