Retour

cour_012.tex

Télécharger le fichier
\paragraphe{Somme de deux variables aléatoires}
 
\sparagraphe{Indépendance de deux variables aléatoires}
 
Soit $X$ une variable aléatoire discrète prenant un nombre fini de
valeurs $\alpha_1, \alpha_2, \ldots, \alpha_n$.
 
Soit $Y$ une variable aléatoire discrète prenant un nombre fini de
valeurs $\beta_1, \beta_2, \ldots, \beta_p$.
 
Alors les variables $X$ et $Y$ sont indépendantes si, pour tout $i$ et
$j$ vérifiant $1 \leq i \leq n$ et $1\leq j \leq p$, on a
$$\dresultat{
   p (X = \alpha_i \quad {\rm et} \quad Y = \beta_j)
      =  p (X = \alpha_i) \times p (Y = \beta_j)
}$$
 
\sparagraphe{Espérance mathématique d'une somme de variables aléatoires} 
 
On admet que si $X$ ey $Y$ sont deux variables aléatoires d'espérances
respectives $E (X)$ et $E (Y)$, alors
$$\dresultat{
   E (X+Y) = E (X) + E (Y)
}$$
De la même façon, on aura $E (X-Y) = a E (X) - E (Y)$.
 
\sparagraphe{Variance de la somme de variables aléatoires indépendantes}
 
Si $X$ et $Y$ sont deux variables aléatoires {\bf indépendantes},
alors
$$\dresultat{
   V (X+Y) = V (X) + V (Y)
}$$
 
\sparagraphe{Somme de varables aléatoires suivant des lois usuelles}
 
\ssparagraphe{Lois normales}
 
Si $X_1$ et $X_2$ sont deux variables aléatoires {\bf indépendantes}
suivant les lois normales respectives ${\cal N} (m_1, \sigma_1)$ et
${\cal N} (m_2, \sigma_2)$, alors la variable $X_1 + X_2$ suit la loi
normale de moyenne $m_1 + m_2$ et d'écart-type $\sqrt{\sigma_1^2 +
\sigma_2^2}$.
 
\ssparagraphe{Lois de Poisson}
 
Si $X_1$ et $X_2$ sont deux variables aléatoires {\bf indépendantes}
suivant les lois de Poisson respectives ${\cal P} (\lambda_1)$ et
${\cal P} (\lambda_2)$, alors la variable aléatoire $X_1 + X_2$ suit
la loi de Poisson ${\cal P} (\lambda_1 + \lambda_2)$.