La loi conjointe de deux lancers de dés X et Y est donnée par
P(X=1 et Y=2) = 1/36
et plus généralement, P(X=a et Y=b) = 1/36 pour tout a, b ∈ ⟦1, 6⟧.
Si X et Y sont deux variables de Bernoulli indépendantes de même paramètre p, on peut définir S = X+Y et D = X−Y.
Alors S(Ω) = {0, 1, 2} et D(Ω) = {1, 0, −1}
Ces variables ne sont pas indépendantes car P(S=0) ≠ 0, P(D=1) ≠ 0 mais P(S=0 et D=1) = 0.
On a P(S=0 et D=0) = P(X=0 et Y=0) = P(X=0) × P(Y=0) par indépendance
donc P(S=0 et D=0) = (1−p) × (1−p) = (1−p)².
De même P(S=1 et D=1) = P(X=1 et Y=0) = P(X=1) × P(Y=0) par indépendance
= p (1−p)
P(S=2 et D=0) = P(X=1 et Y=1) = P(X=1) × P(Y=1) par indépendance
= p × p = p².
On peut vérifier (au brouillon) que la somme vaut bien 1 en calculant
(1−p)² + 2p(1−p) + p² = ((1−p)+p)² = 1² = 1.
La loi marginale de S est donnée par P(S=0) = (1−p)², P(S=1) = 2p(1−p) et P(S=2) = p².
(C’est une loi binomiale de paramètres n=2 et p.)
La loi marginale de D est donnée par P(D=1) = p(1−p), P(D=0)=(1−p)²+p² et P(D=−1)=p(1−p)
Pour que D ait une loi uniforme, il faudrait avoir p(1−p) = (1−p)² + p² ⇔ 3p²−3p+1=0
donc Δ = −3 donc D ne peut pas avoir une loi uniforme.
On aurait pu le remarquer aussi en se disant que pour avoir une loi uniforme, il aurait fallu trouver p(1−p) = 1/3, impossible car le polynôme du second degré p(1−p) atteint son maximum en 1/2 avec la valeur 1/4.
§Covariance
Exemples : si X et Y sont deux variables de Bernoulli indépendantes de même paramètre p,
alors E(XY) = 1×P(XY=1) = P(X=1)×P(Y=1) par indépendance
donc E(XY) = p² or E(X)E(Y) = p² donc Cov(X, Y) = 0.
Calculons la covariance de S=X+Y et D=X−Y, qui ne sont pas indépendantes.
E(SD) = p(1−p) − (1−p)p = 0
E(S) = 2p (comme espérance d’une variable binomiale de paramètre 2 et p).
E(D) = p(1−p) − p(1−p) = 0
donc Cov(S, D) = 0 − 2p×0 = 0.
Cela nous donne un contre-exemple à l’implication réciproque.
On a bien variables indépendantes ⇒ covariance nulle
mais la coriance nulle n’implique pas forcément l’indépendance des variables.
On peut juste utiliser la contraposée :
covariance non nulle ⇒ variables non indépendantes.
Nouvel exemple : maximum et minumum de deux lancers de dés.
Notons X et Y les résultats de deux lancers d’un dé standard à 6 faces équilibrées numérotées de 1 à 6. Donc X, Y ↝ U(⟦1, 6⟧) indépendantes.
On note L=min(X,Y) et M=max(X,Y).
On a L(Ω) = M(Ω) = ⟦1, 6⟧ et pour tout k ∈ ⟦1, 6⟧,
P(M≤k) = P(X≤k et Y≤k) = P(X≤k) × P(Y≤k) par indépendance
donc P(M≤k) = (k/6)² = k²/36.
Donc pour tout k ∈ ⟦1, 6⟧, P(M=k) = P(M≤k) − P(M<k) = P(M≤k) − P(M≤k−1)
= k²/36 − (k−1)²/36 = (2k−1)/36.
De même pour tout k ∈ ⟦1, 6⟧,
P(L≤k) = 1 − P(L>k) = 1 − P(X>k et Y>k) = 1 − P(X>k)×P(Y>k) par indépendance
donc P(L≤k) = 1 − (6−k)²/36 = (12k−k²)/36
Donc pour tout k ∈ ⟦1, 6⟧, P(L=k) = P(L≤k) − P(L<k) = P(L≤k) − P(L≤k−1)
= (12k−k²)/36 − (12(k−1) − (k−1)²)/36 = (13−2k)/36.
Donc on peut calculer E(M) et E(L) en utilisant la formule de l’espérance
E(M) = ∑_{k=1}^6 k P(M=k) = ...
avec la somme des carrés ∑_{k=1}^n k² = n(n+1)(2n+1)/6