Covariance de variables aléatoires réelles discrètes

Pages associées

Loi conjointe

Soient X et Y deux variables aléatoires discrètes sur un même espace probabilisé (Ω, 𝓐, P). On appelle loi conjointe de (X, Y) la fonction qui à tout couple de valeurs (a, b) ∈ X(Ω) × Y(Ω) associe la probabilité P(X = a, Y = b).

Soient X et Y deux variables aléatoires discrètes. Elles sont indépendantes si et seulement si la loi conjointe est le produit des lois marginales : pour tout (a, b) ∈ X(Ω) × Y(Ω), P(X = a, Y = b) = P(X = a) × P(Y = b).

Soient X et Y deux variables aléatoires discrètes et soit bY(Ω) tel que P(Y = b) ≠ 0.
La loi conditionnelle de X sachant Y = b est la fonction qui à tout élément aX(Ω) associe la probabilité conditionnelle PY = b(X = a).

Covariance

Soient X et Y deux variables aléatoires discrètes admettant une espérance. On dit qu'elles admettent une covariance si le produit (XE(X))(YE(Y)) admet une espérance et on note cette covariance Cov(X, Y) = E((XE(X))(YE(Y)).

En particulier, la covariance est symétrique Cov(X, Y) = Cov(Y, X) et on trouve Cov(X, X) = V(X).

Les variables X et Y admettent une covariance si et seulement si le produit XY admet une espérance et dans ce cas on a Cov(X, Y) = E(XY) − E(X) E(Y).

On développe (XE(X))(YE(Y)) = XYE(X) × YE(Y) × X + E(X) × E(Y) or les trois derniers termes admettent une espérance donc le produit (XE(X))(YE(Y)) admet une espérance si et seulement si le produit XY en admet une et dans ce cas on trouve Cov(X, Y) = E(XY) − E(X)E(Y).

Si deux variables aléatoires admettant une espérance sont indépendantes alors elles admettent une covariance nulle.

Soient X et Y deux variables aléatoires discrètes indépendantes et admettant une espérance, de supports respectifs X(Ω) = {ai} et Y(Ω) = {bi}.

On calcule alors i,jn |aibj| P(X = ai, Y = bj) = (in |ai| P(X = ai)) × (jn |bj| P(Y = bj)) or les deux sommes à droite sont majorées par définition de l'espérance donc la somme à gauche est majorée aussi.

Le calcul de l'espérance du produit s'écrit alors de même E(XY) = i,j aibj P(X = ai, Y = bj) = (i ai P(X = ai)) × (j bj P(Y = bj)) = E(X) E(Y).

Deux variables aléatoires discrètes admettant une variance admettent toujours une covariance.

On utilise l'inégalité |XY|1/2 (X2 + Y2).

Par linéarité de l'espérance, la variables 1/2 (X2 + Y2) admet une espérance donc le produit XY aussi.

La covariance est bilinéaire : si X et Y sont deux variables aléatoires discrètes admettant une covariance alors pour tout (λ, μ) ∈ R2 on a Cov(λX, μY) = λμ Cov(X, Y).

On calcule Cov(λX, μY) = E(λXμY) − E(λX) E(λY) = λμ E(XY) − λμ E(X) E(Y).

Corrélation

Étant données deux variables aléatoires discrètes X et Y de variance non nulle, la corrélation de X et Y est le nombre Cor(X, Y) = Cov(X, Y)/V(X) V(Y) .

On trouve parfois la notation Cor(X, Y) = ρX,Y avec la lettre grecque « rhô ».

La corrélation est toujours comprise dans l'intervalle [−1 ; 1] et elle ne vaut 1 ou −1 que lorsqu'il existe (λ, c) ∈ R2 tel que P(Y = λX + c) = 1.

Pour tout λR, on calcule V(λXY) = E((λXY)2)(E(λXY))2
= E(λ2X2 − 2λXY + Y2) − (λE(X) − E(Y))2
= λ2(E(X2) − E(X)2) − 2λ(E(XY) − E(X) E(Y)) + E(Y2) − E(Y)2
= λ2V(X) − 2λ Cov(X, Y) + V(Y)
. Cette fonction du second degré en λ étant toujours positive, son discriminant est négatif, donc on a 4Cov(X, Y)2 ≤ 4V(X) V(Y), ce qui démontre l'encadrement. Dans le cas d'égalité, on trouve qu'il existe λR tel que V(λXY) = 0, ce qui achève la démonstration.

L'intérêt principal de cette définition par rapport à la covariance réside dans le fait que la corrélation est invariante par multiplication de l'une ou l'autre variable aléatoire par un coefficient strictement positif. Elle ne dépend donc pas d'un choix d'unité de mesure.

Soient X et Y deux variables aléatoires discrètes de variance non nulle. Pour tout (λ, μ) ∈ (R∗+)2, on a Cor(λX, μY) = Cor(X, Y).

On calcule Cor(λX, μY) = Cov(λX, μY)/V(λX) V(μY) = λμ Cov(X, Y)/λ2 V(X) μ2 V(Y) = Cov(X, Y)/V(X) V(Y).

Variance de la somme

Soient X et Y deux variables aléatoires discrètes. Si elles admettent une variance alors leur somme aussi avec V(X + Y) = V(X) + V(Y) + 2 Cov(X, Y).

On développe V(X + Y) = E((X + Y)2) − (E(X + Y))2
= E(X2 + Y2 + 2XY) − (E(X)2 + E(Y)2 + 2 E(X) E(Y))
= E(X2) − E(X)2 + E(Y2) − E(Y)2 + E(XY) − E(X) E(Y)
.

Soit (X1, … , Xn) une famille de variables aléatoires discrètes mutuellement indépendantes et admettant toutes une variance. Alors la variance de la somme est égale à la somme des variances : V(i=1n Xi) = i=1n V(Xi).

On procède par récurrence.

Il ne faut pas confondre cette relation, qui repose sur l'hypothèse d'indépendance mutuelle, avec la linéarité de l'espérance qui permet d'écrire E(i=1n Xi) = i=1n E(Xi) même pour une famille de variables qui ne sont pas indépendantes.
En particulier, on comparera les formules E(λX) = λ E(X) et V(λX) = λ2 V(X).