Soient X et Y deux variables aléatoires discrètes sur un même espace probabilisé (Ω, 𝓐, P). On appelle loi conjointe de (X, Y) la fonction qui à tout couple de valeurs (a, b) ∈ X(Ω) × Y(Ω) associe la probabilité P(X = a, Y = b).
Soient X et Y deux variables aléatoires discrètes. Elles sont indépendantes si et seulement si la loi conjointe est le produit des lois marginales : pour tout (a, b) ∈ X(Ω) × Y(Ω), P(X = a, Y = b) = P(X = a) × P(Y = b).
Soient X et Y
deux variables aléatoires discrètes
et soit b ∈ Y(Ω)
tel que P(Y = b) ≠ 0.
La loi conditionnelle de X sachant Y = b est la fonction qui à tout élément a ∈ X(Ω) associe la probabilité conditionnelle
PY = b(X = a).
Soient X et Y deux variables aléatoires discrètes admettant une espérance. On dit qu'elles admettent une covariance si le produit (X − E(X))(Y − E(Y)) admet une espérance et on note cette covariance Cov(X, Y) = E((X − E(X))(Y − E(Y)).
En particulier, la covariance est symétrique Cov(X, Y) = Cov(Y, X) et on trouve Cov(X, X) = V(X).
Les variables X et Y admettent une covariance si et seulement si le produit XY admet une espérance et dans ce cas on a Cov(X, Y) = E(XY) − E(X) E(Y).
Si deux variables aléatoires admettant une espérance sont indépendantes alors elles admettent une covariance nulle.
On calcule alors ∑i,j≤n |aibj| P(X = ai, Y = bj) = (∑i≤n |ai| P(X = ai)) × (∑j≤n |bj| P(Y = bj)) or les deux sommes à droite sont majorées par définition de l'espérance donc la somme à gauche est majorée aussi.
Le calcul de l'espérance du produit s'écrit alors de même E(XY) = ∑i,j aibj P(X = ai, Y = bj) = (∑i ai P(X = ai)) × (∑j bj P(Y = bj)) = E(X) E(Y).
Deux variables aléatoires discrètes admettant une variance admettent toujours une covariance.
Par linéarité de l'espérance, la variables 12 (X2 + Y2) admet une espérance donc le produit XY aussi.
La covariance est bilinéaire : si X et Y sont deux variables aléatoires discrètes admettant une covariance alors pour tout (λ, μ) ∈ R2 on a Cov(λX, μY) = λμ Cov(X, Y).
Étant données deux variables aléatoires discrètes X et Y de variance non nulle, la corrélation de X et Y est le nombre Cor(X, Y) = Cov(X, Y)√(V(X) V(Y)) .
On trouve parfois la notation Cor(X, Y) = ρX,Y avec la lettre grecque « rhô ».
La corrélation est toujours comprise dans l'intervalle [−1 ; 1] et elle ne vaut 1 ou −1 que lorsqu'il existe (λ, c) ∈ R2 tel que P(Y = λX + c) = 1.
L'intérêt principal de cette définition par rapport à la covariance réside dans le fait que la corrélation est invariante par multiplication de l'une ou l'autre variable aléatoire par un coefficient strictement positif. Elle ne dépend donc pas d'un choix d'unité de mesure.
Soient X et Y deux variables aléatoires discrètes de variance non nulle. Pour tout (λ, μ) ∈ (R∗+)2, on a Cor(λX, μY) = Cor(X, Y).
Soient X et Y deux variables aléatoires discrètes. Si elles admettent une variance alors leur somme aussi avec V(X + Y) = V(X) + V(Y) + 2 Cov(X, Y).
Soit (X1, … , Xn) une famille de variables aléatoires discrètes mutuellement indépendantes et admettant toutes une variance. Alors la variance de la somme est égale à la somme des variances : V(∑i=1n Xi) = ∑i=1n V(Xi).
Il ne faut pas confondre cette relation, qui repose sur l'hypothèse d'indépendance mutuelle, avec la linéarité de l'espérance qui permet d'écrire
E(∑i=1n
Xi)
= ∑i=1n
E(Xi)
même pour une famille de variables qui ne sont pas indépendantes.
En particulier, on comparera les formules
E(λX)
= λ E(X)
et V(λX)
= λ2 V(X).