\paragraphe{Somme de deux variables aléatoires} \sparagraphe{Indépendance de deux variables aléatoires} Soit $X$ une variable aléatoire discrète prenant un nombre fini de valeurs $\alpha_1, \alpha_2, \ldots, \alpha_n$. Soit $Y$ une variable aléatoire discrète prenant un nombre fini de valeurs $\beta_1, \beta_2, \ldots, \beta_p$. Alors les variables $X$ et $Y$ sont indépendantes si, pour tout $i$ et $j$ vérifiant $1 \leq i \leq n$ et $1\leq j \leq p$, on a $$\dresultat{ p (X = \alpha_i \quad {\rm et} \quad Y = \beta_j) = p (X = \alpha_i) \times p (Y = \beta_j) }$$ \sparagraphe{Espérance mathématique d'une somme de variables aléatoires} On admet que si $X$ ey $Y$ sont deux variables aléatoires d'espérances respectives $E (X)$ et $E (Y)$, alors $$\dresultat{ E (X+Y) = E (X) + E (Y) }$$ De la même façon, on aura $E (X-Y) = a E (X) - E (Y)$. \sparagraphe{Variance de la somme de variables aléatoires indépendantes} Si $X$ et $Y$ sont deux variables aléatoires {\bf indépendantes}, alors $$\dresultat{ V (X+Y) = V (X) + V (Y) }$$ \sparagraphe{Somme de varables aléatoires suivant des lois usuelles} \ssparagraphe{Lois normales} Si $X_1$ et $X_2$ sont deux variables aléatoires {\bf indépendantes} suivant les lois normales respectives ${\cal N} (m_1, \sigma_1)$ et ${\cal N} (m_2, \sigma_2)$, alors la variable $X_1 + X_2$ suit la loi normale de moyenne $m_1 + m_2$ et d'écart-type $\sqrt{\sigma_1^2 + \sigma_2^2}$. \ssparagraphe{Lois de Poisson} Si $X_1$ et $X_2$ sont deux variables aléatoires {\bf indépendantes} suivant les lois de Poisson respectives ${\cal P} (\lambda_1)$ et ${\cal P} (\lambda_2)$, alors la variable aléatoire $X_1 + X_2$ suit la loi de Poisson ${\cal P} (\lambda_1 + \lambda_2)$.