Lois de référence
On répertorie des lois de probabilités de référence, dépendant éventuellement d'un ou plusieurs paramètres (a, b) ∈ Z2 tel que a < b, n ∈ N∗, λ ∈ R∗+.
Loi de probabilité | Notation | Support | P(X = k) | Espérance | Variance |
---|---|---|---|---|---|
Loi uniforme | 𝒰(⟦a, b⟧) | ⟦a, b⟧ | 1(b − a + 1) | (a + b)2 | ((b − a + 1)2 − 1)12 |
Loi de Bernoulli | ℬ(p) | {0 ; 1} |
p si k = 1, 1−p si k = 0 |
p | p(1 − p) |
Loi binomiale | ℬ(n, p) | ⟦0 ; n⟧ | (k parmi n) pk(1 − p)n−k | np | np(1 − p) |
Loi géométrique | 𝒢(p) | N∗ | (1 − p)k−1p | 1p | (1 − p)p2 |
Loi de Poisson | 𝒫(λ) | N | λkk! e−λ | λ | λ |
De même, on a des lois de probabilité de référence pour les variables aléatoires à densité avec les paramètres (a, b) ∈ R2 tel que a < b, λ ∈ R∗+, μ ∈ R, σ ∈ R∗+.
Loi de probabilité | Notation | Support | Fonction de densité | Espérance | Variance |
---|---|---|---|---|---|
Loi uniforme | 𝒰([a, b]) | [a, b] | t ↦ 1(b − a) | (a + b)2 | (b − a)212 |
Loi exponentielle | ℰ(λ) | R+ | t ↦ λ e−λt | 1λ | 1λ2 |
Loi normale | 𝒩(μ, σ) | R | t ↦ 1(σ√(2π)) exp(−(t − μ)2(2σ2)) | μ | σ2 |
Loi de Cauchy | R | t ↦ 1(π (t2 + 1)) | non définie | non définie |
Calcul de la loi de probabilité
Variable discrète
Si X est une variable aléatoire discrète, on calcule P(X = k) pour tout k ∈ X(Ω).
Lorsque X prend moins d'une dizaine de valeurs, on peut essayer de les calculer toutes successivement, sinon il vaut mieux trouver une expression générale qui pourra éventuellement être démontrée par récurrence.
Si X = Y + Z où Y et Z sont deux variables aléatoires à valeurs entières positives, on peut écrire pour tout k ∈ N, P(X = k) = ∑i=0k P(Y = i et Z = k − i).
Si en outre Y et Z sont indépendantes, alors P(X = k) = ∑i=0k P(Y = i) P(Z = k − i).
Si X n'a que des valeurs entières, il est parfois plus facile de déterminer une relation de récurrence sur P(X ≤ k) pour tout k ∈ N.
Variable à densité
Pour déterminer la loi de probabilité d'une variable aléatoire X à densité, il est souvent pertinent d'essayer de calculer sa fonction de répartition FX : x ↦ P(X ≤ x) à l'aide du calcul de probabilité notamment lorsque X s'écrit en fonction d'une autre variable aléatoire à densité.
Maximum et minimum
Si (Y1, … , Yn) est une famille de variables aléatoires réelles (discrètes ou à densité), alors X = max(Y1, … , Yn) est une variable aléatoire réelle avec pour tout x ∈ R, P(X ≤ x) = P(∀j, Yj ≤ x) donc si les variables Yj sont indépendantes, on trouve alors P(X ≤ x) = ∏j=1n P(Yj ≤ x).
Pour déterminer la loi du minimum de variables aléatoires indépendantes, on procède de la même manière mais en renversant les inégalités : P(min(Y1, … , Yn) ≥ x) = ∏j=1n P(Yj ≥ x) .
Espérance
Si X est une variable aléatoire discrète, alors son espérance s'écrit E(X) = ∑k∈X(Ω) k P(X = k) si cette somme est absolument convergente (ce qui est toujours le cas avec un nombre fini de valeurs).
Le théorème de transfert stipule alors que pour toute fonction réelle φ on a E(φ(X)) = ∑k∈X(Ω) φ(k) P(X = k) toujours à condition que cette somme converge absolument.
Si X est une variable aléatoire avec une densité f sur un intervalle I, alors son espérance s'écrit E(X) = ∫I t f(t) dt si cette intégrale converge absolument (ce qui est toujours le cas si f est définie et continue sur un segment [a, b]).
Là encore par théorème de transfert, pour toute fonction φ définie et continue sur I, alors son espérance s'écrit E(φ(X)) = ∫I φ(t) f(t) dt à condition que l'intégrale converge absolument.
Si (X1, … , Xn) est une famille de variables aléatoires admettant une espérance alors E(∑i=1n Xi) = ∑i=1n E(Xi) .
Variance et moments
Pour tout n ∈ N∗, le moment d'ordre n d'une variable aléatoire réelle X est la valeur de l'espérance E(Xn), si elle existe.
La variance de X peut s'exprimer selon la définition V(X) = E((X − E(X))2) ou avec la formule de Huygens V(X) = E(X2) − (E(X))2. Elle existe si et seulement si la variable admet un moment d'ordre 2.
Si la variable aléatoire X admet une variance, alors pour tout (a, b) ∈ R2, on a V(aX + b) = a2 V(X).
Si (X1, … , Xn) est une famille de variables aléatoires indépendantes et admettant une variance alors V(∑i=1n Xi) = ∑i=1n V(Xi) .