Section : Les variables aléatoires et
Précédent : Definition
Suivant : Proposition:

Loi d'une variable aléatoire

Soit $ X$ une variable aléatoire à valeurs dans $ E$ ; nous appellerons loi (on dit aussi souvent distribution) de $ X$ la probabilité $ \Pi_X $ définie sur l'ensemble fini $ X(\Omega )$ par
$\displaystyle \Pi_X(k) = \textbf{P}[X=k] \;\;\;\;\forall k\in X(\Omega)$
Deux v.a. admettant la même loi seront dites équidistribuées

Regardons quelles sont les lois des v.a. que nous avons rencontrées

  1. loi d'un indicateur ; loi de Bernoulli . Soit $ A$ un événement de probabilité $ \alpha$ ; la v.a. $ 1_A$ ne prend que les deux valeurs 0 et 1 , de sorte que sa loi $ \Pi $ est la probabilité sur$ \{0 , 1\}$ vérifiant $ \Pi(0)=1-\alpha \;\; ,et \; \Pi(1)=\alpha $

    La probabilité $ \Pi $ que l'on vient de définir sur $ \{0 , 1\}$ s'appelle loi de Bernoulli de paramètre $ \alpha$

    Dans l'exemple b), les variables aléatoires $ Y_i$ définies à la fin du paragraphe 1.2.3. sont équidistribuées : chacune d'entre elles suit une loi de Bernoulli de paramètre $ n_1\over n$

  2. loi binomiale . Restons dans l'exemple b) et calculons la loi $ \Pi $ de la v.a. $ Z_1$ introduite en 1.2.2 ; notons tout d'abord que $ Z_1$ prend ses valeurs dans l'ensemble $ \{0,1,2,...,p\}$ ; si $ k$ est un entier $ \leq p$ , l'événement $ [Z_1=k]$ est l'ensemble des suites de taille $ p$ dont $ k$ termes appartiennent à $ E_1$ ; il contient donc $ {p!\over{k!(p-k)!}}{ n_1 }^k{n_2}^{p-k}$ éléments ,ce qui nous mène à l'égalité
    $\displaystyle \Pi(k)=\textbf{P}[Z_1=k]={{p!\over{k!(p-k)!}} ({n_1\over n})^k}({n_2\over n})^{p-k}$
    On appellera loi binomiale de paramètres $ (\alpha ,p) \;\;\;(\alpha \in]0,1[$ ; $ p\in {\mathbb{N}})$ , la probabilite $ \Pi $ sur $ \{0,1,2,...,p\}$ déterminée par
    $\displaystyle \Pi(k)={p!\over {k!(p-k)!}}\alpha ^k(1-\alpha )^{p-k}$
    Ainsi $ Z_1$ (resp. $ Z_2$) suit une loi binomiale de paramètres ( $ {n_1\over n} , p$) , (resp. ( $ {n_2\over n} , p$)) .
  3. loi hypergéométrique Déterminons la loi de la v.a. $ X(F , G)=\sharp (F\cap G)$ de l'exemple d) : $ X$ prend ses valeurs dans l'intervalle $ I=[(p+q-n)^+ ,\;\; p\wedge q]$ ; si $ k$ appartient à cet intervalle , on a
    \begin{displaymath}\sharp \{(F , G)\vert X(F , G)=k\}= \left( \begin{array}{c} n... ...\right) \left( \begin{array}{c} n-p\\ q-k \end{array}\right)\;,\end{displaymath}
    de sorte que
    $\displaystyle \textbf{P}[X=k]=H(n,p,q,k)=\frac{\left( \begin{array}{c} p\\ k \e... ...\\ q-k \end{array} \right)} {\left( \begin{array}{c} n\\ q \end{array} \right)}$ (1.6)

    La probabilité $ \Pi $ portée par $ I$ donnée par $ \Pi(k)=H(n,p,q,k)$ est appelée loi hypergéométrique de paramètres $ n , p , q$ .
  4. Exercices
    1. Vérifier par un calcul purement algébrique que $ \sum_k H(n,p,q ,k)=1$ ; (on pourra utiliser l'identité $ (1+x)^p(1+x)^{n-p}=(1+x)^n$ et égaler les coefficients de $ x^q$ figurant dans les 2 membres ) .
    2. Dans l'exemple d) , calculer $ \textbf{P}[F\subset G]$ et $ \textbf{P}[F\cap G=\phi]$ .
    3. Au jeu du loto , (exmple c)) , calculer la probabilité d'avoir $ k$ numéros gagnants .
La connaissance de la loi d'une variable aléatoire permet de calculer son espérance , ses moments , sa fontion génératrice etc... ; plus généralement , on a le résultat suivant :



Sous-sections

Section : Les variables aléatoires et
Précédent : Definition
Suivant : Proposition:

Jacques Azéma