Section : Proriétés markoviennes d'une marche
Précédent : Chaines de Markov
Suivant : Martingales

Matrice de transition d'une marche aléatoire

Soient $ \mu$ une loi de probabilité sur $ {\mathbb{R}}^d$ de support fini $ F$ et $ ((Y_n)\; ; \;\;n\geq 1)$ une suite de v.a. indépendantes équidistribuées de loi $ \mu$ à valeurs dans $ {\mathbb{R}}^d$ . On pose
$\displaystyle X_0=0\;\;\;\; , \;\;\;X_n=\sum_{i=1}^{i=n}Y_i\;\;\;\;\forall n\geq 1$
$ (X_n)$ est alors une chaine de Markov de matrice de transition $ P_{ij}=\mu(j-i)$
Démontrons cela ; on a , en vertu de % latex2html id marker 10190 $ (\ref{CIND})$
$\displaystyle \textbf{E}[f(X_{n+1})\vert {\cal F}_n]=\textbf{E}[f(X_n+Y_{n+1})\vert {\cal F}_n]=\sum_{k\in F}f(X_n+k)\mu (k)=Pf(X_n)$
quand on a posé $ Pf(i)=\sum_{k\in F}f(i+k)\mu(k)=\sum_{j\in F+i}f(j)\mu(j-i)$ ; on en déduit immédiatement le résultat annoncé .



Jacques Azéma