Méthodes pour l'étude d'une variable aléatoire

Lois de référence

On répertorie des lois de probabilités de référence, dépendant éventuellement d'un ou plusieurs paramètres (a, b) ∈ Z2 tel que a < b, nN, λR∗+.

Loi de probabilité Notation Support P(X = k) Espérance Variance
Loi uniforme 𝒰(⟦a, b⟧) a, b 1/ba + 1 a + b/2 (ba + 1)2 − 1/12
Loi de Bernoulli ℬ(p) {0 ; 1} p si k = 1,
1−p si k = 0
p p(1 − p)
Loi binomiale ℬ(n, p) ⟦0 ; n (kn) pk(1 − p)nk np np(1 − p)
Loi géométrique 𝒢(p) N (1 − p)k−1p 1/p 1 − p/p2
Loi de Poisson 𝒫(λ) N λk/k! eλ λ λ

De même, on a des lois de probabilité de référence pour les variables aléatoires à densité avec les paramètres (a, b) ∈ R2 tel que a < b, λR∗+, μR, σR∗+.

Loi de probabilité Notation Support Fonction de densité Espérance Variance
Loi uniforme 𝒰([a, b]) [a, b] t1/ba a + b/2 (ba)2/12
Loi exponentielle ℰ(λ) R+ tλ eλt 1/λ 1/λ2
Loi normale 𝒩(μ, σ) R t1/σ exp(−(tμ)2/2σ2) μ σ2
Loi de Cauchy R t1/π (t2 + 1) non définie non définie

Calcul de la loi de probabilité

Variable discrète

Si X est une variable aléatoire discrète, on calcule P(X = k) pour tout kX(Ω).

Lorsque X prend moins d'une dizaine de valeurs, on peut essayer de les calculer toutes successivement, sinon il vaut mieux trouver une expression générale qui pourra éventuellement être démontrée par récurrence.

Si X = Y + ZY et Z sont deux variables aléatoires à valeurs entières positives, on peut écrire pour tout kN, P(X = k) = i=0k P(Y = i  et  Z = ki).

Si en outre Y et Z sont indépendantes, alors P(X = k) = i=0k P(Y = i) P(Z = ki).

Si X n'a que des valeurs entières, il est parfois plus facile de déterminer une relation de récurrence sur P(Xk) pour tout kN.

Variable à densité

Pour déterminer la loi de probabilité d'une variable aléatoire X à densité, il est souvent pertinent d'essayer de calculer sa fonction de répartition FX : xP(Xx) à l'aide du calcul de probabilité notamment lorsque X s'écrit en fonction d'une autre variable aléatoire à densité.

Maximum et minimum

Si (Y1, … , Yn) est une famille de variables aléatoires réelles (discrètes ou à densité), alors X = max(Y1, … , Yn) est une variable aléatoire réelle avec pour tout xR, P(Xx) = P(∀j, Yjx) donc si les variables Yj sont indépendantes, on trouve alors P(Xx) = j=1n P(Yjx).

Pour déterminer la loi du minimum de variables aléatoires indépendantes, on procède de la même manière mais en renversant les inégalités : P(min(Y1, … , Yn) ≥ x) = j=1n P(Yjx) .

Espérance

Si X est une variable aléatoire discrète, alors son espérance s'écrit E(X) = kX(Ω) k P(X = k) si cette somme est absolument convergente (ce qui est toujours le cas avec un nombre fini de valeurs).

Le théorème de transfert stipule alors que pour toute fonction réelle φ on a E(φ(X)) = kX(Ω) φ(k) P(X = k) toujours à condition que cette somme converge absolument.

Si X est une variable aléatoire avec une densité f sur un intervalle I, alors son espérance s'écrit E(X) = I t f(t) dt si cette intégrale converge absolument (ce qui est toujours le cas si f est définie et continue sur un segment [a, b]).

Là encore par théorème de transfert, pour toute fonction φ définie et continue sur I, alors son espérance s'écrit E(φ(X)) = I φ(t) f(t) dt à condition que l'intégrale converge absolument.

Si (X1, … , Xn) est une famille de variables aléatoires admettant une espérance alors E(i=1n Xi) = i=1n E(Xi) .

Variance et moments

Pour tout nN, le moment d'ordre n d'une variable aléatoire réelle X est la valeur de l'espérance E(Xn), si elle existe.

La variance de X peut s'exprimer selon la définition V(X) = E((XE(X))2) ou avec la formule de Huygens V(X) = E(X2) − (E(X))2. Elle existe si et seulement si la variable admet un moment d'ordre 2.

Si la variable aléatoire X admet une variance, alors pour tout (a, b) ∈ R2, on a V(aX + b) = a2 V(X).

Si (X1, … , Xn) est une famille de variables aléatoires indépendantes et admettant une variance alors V(i=1n Xi) = i=1n V(Xi) .