Définitions et exemples
Sur un ensemble fini Ω muni d'une loi de probabilité P, une variable aléatoire X est simplement une application de Ω dans un ensemble E. On note alors pour tout x ∈ E, P(X = x) = P(X−1{x}).
Le support de X est son ensemble image X(Ω). La loi de probabilité de X est l'application x ↦ P(X = x) de X(Ω) vers l'intervalle [0 ; 1].
Somme de deux dés La somme des résultats du lancer de deux dés équilibrés à 6 faces numérotées de 1 à 6 peut être modélisée par une variable aléatoire réelle X sur l'ensemble ⟦1 ; 6⟧2 muni de l'équiprobabilité, que l'on peut représenter avec un tableau à double entrée ci-contre. Le support de X est l'intervalle d'entiers ⟦2 ; 12⟧ et sa loi de probabilité peut être explicitée à l'aide d'un tableau de valeurs ci-dessous.Table de valeurs de la somme des résultats de deux dés standards 1 2 3 4 5 6 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12 k 2 3 4 5 6 7 8 9 10 11 12 P(X = k) 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36 Nombre de piles sur 3 lancers Le nombre de fois qu'une pièce équilibrée tombe sur le côté pile au cours de trois lancers successifs peut être décrit par une variable aléatoire réelle N sur l'ensemble {P ; F}3 muni de l'équiprobabilité, représenté par l'arbre ci-contre. La loi de probabilité de N est alors résumée dans le tableau ci-dessous.k 0 1 2 3 P(N = k) 1/8 3/8 3/8 1/8
On note alors X ↝ 𝒰(A).
En particulier, si A est un intervalle d'entiers de la forme ⟦a ; b⟧, alors Card(A) = b − a + 1.
La loi uniforme décrit en particulier le résultat d’un dé équilibré.
On note alors X ↝ ℬ(p).
On peut parler aussi de variable de Bernoulli sur une autre paire de valeurs que {0 ; 1} mais il faut alors préciser quelle est la valeur dite de succès, dont la probabilité est égale au paramètre.
Espérance
- Si une variable aléatoire n'a qu'une valeur, c'est-à-dire si elle est constante (on dit aussi déterministe), son espérance est égale à cette valeur.
- Si n ∈ N∗ et si X suit la loi uniforme sur l'intervalle d'entiers ⟦a ; b⟧ alors E(X) = (a + b)2.
- Si B suit la loi de Bernoulli de paramètre p ∈ ]0 ; 1[ sur {0 ; 1} alors E(B) = p.
- Si X n’a qu’une seule valeur c avec une probabilité 1, alors E(X) = c × P(X = c) = c.
- Si X ↝ 𝒰(⟦a, b⟧,
alors
E(X) = ∑k=ab k × 1(b−a+1) = 1(b−a+1) × (∑k=0b k − ∑k=0a−1 k) = (b(b + 1) − (a − 1)a)(2(b − a + 1)) = (b2 − a2 + b + a)(2(b − a + 1)) = (b + a)(b − a + 1)(2(b − a + 1)) = (b + a)2 .
- Si X ↝ ℬ(p) alors E(X) = 1 × p + 0 × (1 − p) = p.
Les propriétés suivantes peuvent être démontrées en reprenant l’espérance sous la forme E(X) = ∑ω∈Ω X(ω) P(ω).
- Linéarité de l'espérance
- Soit X et Y deux variables aléatoires réelles sur l'univers fini Ω. Pour tout λ ∈ R on a E(λX + Y) = λE(X) + E(Y).
- Positivité de l'espérance
- Soit X une variable aléatoire réelle sur l'univers fini Ω. Si ses valeurs sont positives alors E(X) ≥ 0.
- Croissance de l'espérance
- Soit X et Y deux variables aléatoires réelles sur l'univers fini Ω. Si pour tout ω ∈ Ω on a X(ω) ≤ Y(ω) alors on a E(X) ≤ E(Y).
- Théorème de transfert
- Si X est une variable aléatoire et f une fonction réelle définie sur X(Ω) alors la composée est une variable aléatoire réelle, notée f(X), et en notant X(Ω) = {x1, … , xn} on trouve E(f(X)) = ∑i=1n f(xi) P(X = xi).
Variance
Si X(Ω) = {x1, … , xn} on peut donc calculer V(X) = ∑i=1n (xi − E(X))2 P(X = xi). La variance d'une variable déterministe est donc nulle. Mais pour calculer la variance d'une variable aléatoire en général on passe plutôt par la formule suivante.
- Formule de König-Huygens
- V(X) = E(X2) − (E(X))2
- Si n ∈ N∗ et si X suit la loi uniforme sur l'intervalle d'entiers ⟦1 ; n⟧ alors V(X) = (n2 − 1)12.
- Si B suit la loi de Bernoulli de paramètre p ∈ ]0 ; 1[ sur {0 ; 1} alors E(B) = p et V(B) = p(1 − p).
- Si X ↝ 𝒰(⟦1, n⟧,
alors
E(X2) = ∑k=1n k2n = 1n × n(n + 1)(2n + 1)6 = (2n2 + 3n + 1)6
donc V(X) = (2n2 + 3n + 1)6 − (n2 + 2n + 1)4 = (n2 − 1)12. - Si X ↝ ℬ(p) alors E(X2) = 12 × p + 02 × (1 − p) = p donc V(X) = p − p2.
Loi binomiale
On note alors X ↝ ℬ(n, p).
Cette loi se ramène à la loi de Bernoulli dans le cas n = 1
E(X) = ∑k=0n k(k parmi n) pk (1 − p)n−k = ∑k=1n n!((k−1)! (n−k)! pk (1 − p)n−k = ∑k=0n−1 n!(k! (n−k−1)! pk+1 (1 − p)n−k−1 = np∑k=0n−1 (n−1)!(k! (n−k−1)! pk (1 − p)n−1−k = np(p + (1 − p))n−1 à l’aide de la formule du binôme de Newton.
De même on trouve E(X(X − 1)) = ∑k=0n k(k − 1)(k parmi n) pk (1 − p)n−k = ∑k=2n n!((k−2)! (n−k)! pk (1 − p)n−k = ∑k=0n−2 n!(k! (n−k−2)! pk+2 (1 − p)n−k−2 = n(n − 1)p2
donc E(X2) − E(X) = n(n − 1)p2 d’où V(X) = n(n − 1)p2 + np − n2p2 = np − np2.
Indépendance
Comme pour les évènements, l'indépendance mutuelle de trois variables aléatoires ou plus est une propriété plus forte que l'indépendance des variables deux à deux.