Section : Estimateurs des moindres carrés
Précédent : Méthode des moindres carrés
Suivant : Exercice 4.

Méthode du maximum de vraisemblance

Si on suppose de plus que $ X$ est gaussien, alors la log-vraisemblance du modèle statistique associé à $ (X_1,\ldots,X_N)$ au point $ x=(x_1,\ldots,x_N)$ est égale à

$\displaystyle \ln L\left({\theta},{\phi},{\sigma}^2;x\right)$ $\displaystyle =$ $\displaystyle \ln\left(\frac{1}{\sqrt{(2{\pi})^N\det\left({\Gamma}_{\left({\the... ...{\left({\theta},{\phi},{\sigma}^2\right)}^{(N)}\right)^{-1}.{}^tx\right)\right)$  
  $\displaystyle =$ $\displaystyle -\frac{N}{2}\ln(2{\pi})-\frac{N}{2}\ln({\sigma}^2)-\frac{1}{2}\ln... ...{2{\sigma}^2}x.\left({R}_{\left({\theta},{\phi}\right)}^{(N)}\right)^{-1}.{}^tx$  

Or
$\displaystyle x.\left({R}_{\left({\theta},{\phi}\right)}^{(N)}\right)^{-1}.{}^tx$ $\displaystyle =$ $\displaystyle x.\left({}^tS_{({\theta},{\phi})}^{(N)}.{\Delta}_{({\theta},{\phi})}^{(N)}S_{({\theta},{\phi})}^{(N)}\right)^{-1}.{}^tx$  
  $\displaystyle =$ $\displaystyle x.\left(S_{({\theta},{\phi})}^{(N)}\right)^{-1}.\left({\Delta}_{(... ...hi})}^{(N)}\right)^{-1}.\left({}^tS_{({\theta},{\phi})}^{(N)}\right)^{-1}.{}^tx$  
  $\displaystyle =$ \begin{displaymath}x.T_{({\theta},{\phi})}^{(N)}.\left( \begin{array}{ccc} 1/{\d... ...}^{(N)} \end{array}\right).{}^tT_{({\theta},{\phi})}^{(N)}{}^tx\end{displaymath}  
  $\displaystyle =$ $\displaystyle \sum_{t=1}^N\frac{\tilde e_t^{({\theta},{\phi})}(x)^2}{{\delta}_t^{({\theta},{\phi})}}$  
       
$\displaystyle \det\left(R_{\left({\theta},{\phi}\right)}^{(N)}\right)$ $\displaystyle =$ $\displaystyle \det\left({}^tS_{({\theta},{\phi})}^{(N)}\right)\det\left({\Delta}_{({\theta},{\phi})}^{(N)}\right)\det\left(S_{({\theta},{\phi})}^{(N)}\right)$  
  $\displaystyle =$ $\displaystyle \det\left({\Delta}_{({\theta},{\phi})}^{(N)}\right)=\prod_{t=1}^N{\delta}_t^{({\theta},{\phi})}$  

La log-vraisemblance est donc égale à
$\displaystyle \ln L\left({\theta},{\phi},{\sigma}^2;x\right)=-\frac{1}{2{\sigma... ...m_{t=1}^N\ln\left({\delta}_t^{({\theta},{\phi})}\right)-\frac{N}{2}\ln(2{\pi}) $
On choisit comme valeurs de $ {\theta}$, $ {\phi}$ et $ {\sigma}^2$ celles qui maximisent la fonction
$\displaystyle \left({\theta},{\phi},{\sigma}^2\right)\mapsto\ln L\left({\theta},{\phi},{\sigma}^2;x\right). $
Il ressort facilement des équations de vraisemblance qu'en ce maximum on a
$\displaystyle {\sigma}^2=\frac{1}{N}\sum_{t=1}^N\frac{\tilde e_t^{({\theta},{\phi})}(x)^2}{{\delta}_t^{({\theta},{\phi})}}, $
et que l'on détermine $ {\theta}$ et $ {\phi}$ en maximisant
$\displaystyle -\frac{N}{2}\ln\left(\sum_{t=1}^N\frac{\tilde e_t^{({\theta},{\ph... ...ight)-\frac{1}{2}\sum_{t=1}^N\ln\left({\delta}_t^{({\theta},{\phi})}\right)\ ; $
autrement dit, en minimisant
$\displaystyle \frac{1}{N}\sum_{t=1}^N\frac{\tilde e_t^{({\theta},{\phi})}(x)^2}... ...}}\times\left(\prod_{t=1}^N{\delta}_t^{({\theta},{\phi})}\right)^{\frac{1}{N}}.$ (35)



Section : Estimateurs des moindres carrés
Précédent : Méthode des moindres carrés
Suivant : Exercice 4.

Thierry Cabanal-Duvillard