Verbatim cours du 22 juin 2020

Covariance de variables aléatoires réelles discrètes

La loi conjointe de deux lancers de dés X et Y est donnée par

P(X=1 et Y=2) = 1/36

et plus généralement, P(X=a et Y=b) = 1/36 pour tout a, b ∈ ⟦1, 6⟧.

Si X et Y sont deux variables de Bernoulli indépendantes de même paramètre p, on peut définir S = X+Y et D = X−Y.

Alors S(Ω) = {0, 1, 2} et D(Ω) = {1, 0, −1}

tableau de valeurs de X−Y

Ces variables ne sont pas indépendantes car P(S=0) ≠ 0, P(D=1) ≠ 0 mais P(S=0 et D=1) = 0.

On a P(S=0 et D=0) = P(X=0 et Y=0) = P(X=0) × P(Y=0) par indépendance

donc P(S=0 et D=0) = (1−p) × (1−p) = (1−p)².

De même P(S=1 et D=1) = P(X=1 et Y=0) = P(X=1) × P(Y=0) par indépendance

= p (1−p)

P(S=2 et D=0) = P(X=1 et Y=1) = P(X=1) × P(Y=1) par indépendance

= p × p = p².

tableau de probabilités

On peut vérifier (au brouillon) que la somme vaut bien 1 en calculant

(1−p)² + 2p(1−p) + p² = ((1−p)+p)² = 1² = 1.

La loi marginale de S est donnée par P(S=0) = (1−p)², P(S=1) = 2p(1−p) et P(S=2) = p².

(C’est une loi binomiale de paramètres n=2 et p.)

La loi marginale de D est donnée par P(D=1) = p(1−p), P(D=0)=(1−p)²+p² et P(D=−1)=p(1−p)

Pour que D ait une loi uniforme, il faudrait avoir p(1−p) = (1−p)² + p² ⇔ 3p²−3p+1=0

donc Δ = −3 donc D ne peut pas avoir une loi uniforme.

On aurait pu le remarquer aussi en se disant que pour avoir une loi uniforme, il aurait fallu trouver p(1−p) = 1/3, impossible car le polynôme du second degré p(1−p) atteint son maximum en 1/2 avec la valeur 1/4.

§Covariance

Exemples : si X et Y sont deux variables de Bernoulli indépendantes de même paramètre p,

tableau de valeurs de X×Y

alors E(XY) = 1×P(XY=1) = P(X=1)×P(Y=1) par indépendance

donc E(XY) = p² or E(X)E(Y) = p² donc Cov(X, Y) = 0.

Calculons la covariance de S=X+Y et D=X−Y, qui ne sont pas indépendantes.

tableau de valeurs de SD

E(SD) = p(1−p) − (1−p)p = 0

E(S) = 2p (comme espérance d’une variable binomiale de paramètre 2 et p).

E(D) = p(1−p) − p(1−p) = 0

donc Cov(S, D) = 0 − 2p×0 = 0.

Cela nous donne un contre-exemple à l’implication réciproque.

On a bien variables indépendantes ⇒ covariance nulle

mais la coriance nulle n’implique pas forcément l’indépendance des variables.

On peut juste utiliser la contraposée :

covariance non nulle ⇒ variables non indépendantes.

Nouvel exemple : maximum et minumum de deux lancers de dés.

Notons X et Y les résultats de deux lancers d’un dé standard à 6 faces équilibrées numérotées de 1 à 6. Donc X, Y ↝ U(⟦1, 6⟧) indépendantes.

On note L=min(X,Y) et M=max(X,Y).

On a L(Ω) = M(Ω) = ⟦1, 6⟧ et pour tout k ∈ ⟦1, 6⟧,

P(M≤k) = P(X≤k et Y≤k) = P(X≤k) × P(Y≤k) par indépendance

donc P(M≤k) = (k/6)² = k²/36.

Donc pour tout k ∈ ⟦1, 6⟧, P(M=k) = P(M≤k) − P(M<k) = P(M≤k) − P(M≤k−1)

= k²/36 − (k−1)²/36 = (2k−1)/36.

De même pour tout k ∈ ⟦1, 6⟧,

P(L≤k) = 1 − P(L>k) = 1 − P(X>k et Y>k) = 1 − P(X>k)×P(Y>k) par indépendance

donc P(L≤k) = 1 − (6−k)²/36 = (12k−k²)/36

Donc pour tout k ∈ ⟦1, 6⟧, P(L=k) = P(L≤k) − P(L<k) = P(L≤k) − P(L≤k−1)

= (12k−k²)/36 − (12(k−1) − (k−1)²)/36 = (13−2k)/36.

Donc on peut calculer E(M) et E(L) en utilisant la formule de l’espérance

E(M) = ∑_{k=1}^6 k P(M=k) = ...

avec la somme des carrés ∑_{k=1}^n k² = n(n+1)(2n+1)/6