Variables aléatoires réelles discrètes

Notions
variable aléatoire discrète et loi de probabilité,
Définitions
loi géométrique, loi de Poisson, formule de l’espérance, moment et moment centré, indépendance de variables aléatoires
Résultats
Espérance et variance de la loi géométrique, espérance et variance de la loi de Poisson, théorème de transfert, formule de Koenig-Huygens, stabilité de la loi de Poisson
Compétences
Rechercher les valeurs propres et vecteurs propres d’une matrice ou d’un endomorphisme
Interpréter des sous-espaces vectoriels comme des espaces propres pour démontrer qu’ils sont en somme directe
Utiliser un polynôme annulateur pour calculer une matrice inverse

Cadre général

Une variable aléatoire réelle discrète sur un espace probabilisé (Ω, 𝒜, P) est une application X : Ω → R dont l'ensemble image X(Ω) est l'ensemble des termes d'une suite (xi) finie ou infinie et telle que pour tout indice i la préimage X−1({xi}) soit un évènement de 𝒜 dont on note la probabilité P(X = xi).
Dans ce cas, la loi de probabilité de X est définie par l'application xiP(X = xi).

Propriété
Réciproquement, si (xi) est une suite finie ou infinie de réels deux à deux distincts et si p est une application de {x0, x1, x2, …} vers R+ telle que i p(xi) = 1, alors p est une loi de probabilité d'une variable aléatoire réelle discrète.
Remarque
Dans le cas où la suite est infinie, la somme est la limite des sommes partielles : iN p(xi) = limn→+∞ i=0n p(xi), qui existe comme limite d'une suite croissante.

Lois de référence

À la suite des lois de probabilités à support fini que sont la loi uniforme, la loi de Bernoulli et la loi binomiale, on définit d'autres lois de probabilité discrètes de référence.

Soit p ∈ ]0 ; 1[. On dit qu'une variable aléatoire réelle X suit la loi géométrique de paramètre p si pour tout kN, P(X = k) = p(1 − p)k−1.
On note alors X 𝒢(p).

Les lois géométriques sont les seules a être décrites par des suites géométriques. Il arrive aussi qu'on parle de loi géométrique sur N, auquel cas on a pour tout kN, P(X = k) = p(1 − p)k.

Soit λR∗+. On dit qu'une variable aléatoire réelle X suit la loi de Poisson de paramètre λ si pour tout kN, P(X = k) = λk/k! eλ.
On note alors X 𝒫(λ).

Espérance

Si X(Ω) = {xi, iN}, on dit que la variable X admet une espérance si la série (xi P(X = xi)) converge absolument. Dans ce cas l'espérance de X est la somme de cette série E(X) = i=0+∞ xi P(X = xi).

Théorème de transfert
Si X est une variable aléatoire réelle discrète et si f est fonction réelle définie sur X(Ω), alors la composée est aussi une variable aléatoire réelle discrète, notée f(X). Cette variable aléatoire admet une espérance si la série (f(xi) P(X = xi)) converge absolument et dans ce cas, on a E(f(X)) = i f(xi) P(X = xi).
Propriété
L'espérance est linéaire : pour tout λR, si X et Y sont deux variables aléatoires discrètes admettant chacune une espérance, alors la variable aléatoire (λX + Y) aussi avec E(λX + Y) = λ E(X) + E(Y).
Propriété
L'espérance est croissante : si X et Y sont deux variables aléatoires réelles discrètes admettant chacune une espérance telles que P(XY) = 1 alors E(X) ≤ E(Y).
Propriété
Soit X une variable aléatoire réelle discrète. Si X est toujours positive et admet une espérance nulle alors on a P(X = 0) = 1.

Moments et variance

Soit X une variable aléatoire réelle discrète. Soit rN.

Le moment d'ordre r de X, parfois noté mr(X), est égal à E(Xr) si cette espérance est bien définie.
Le moment centré d'ordre r est le moment d'ordre r de la variable aléatoire (XE(X)).
En particulier, la variance est le moment centré d'ordre 2 : V(X) = E((XE(X))2).

Propriété
Une variable aléatoire discrète admet un moment d'ordre r si et seulement si elle admet un moment centré d'ordre r.
Propriété
Si X admet un moment d'ordre r alors elle admet un moment d'ordre q pour tout entier naturel q < r.
Propriété
Les moments (centrés ou non) d'ordre pair, et en particulier la variance, sont toujours positifs.
Propriété
Si X admet une variance alors pour tout cR, on a V(X + c) = V(X).
Formule de König-Huygens
Si X admet une variance alors V(X) = E(X2) − (E(X))2
Propriété
S'il existe, le moment d'ordre r est de degré r : pour tout λR, on a mr(λX) = λr mr(X).
En particulier, la variance est quadratique : V(λX) = λ2 V(X).

Indépendance

Deux variables aléatoires réelles discrètes X et Y sont dites indépendantes si pour tout (x, y) ∈ R2 on a P(X = x et Y = y) = P(X = x) P(Y = y).

Comme pour les évènements, l'indépendance mutuelle de trois variables aléatoires ou plus est une propriété plus forte que l'indépendance des variables deux à deux.

Soit (X1, … , Xn) une famille de variables aléatoires discrètes. On dit que les variables qui composent cette famille sont mutuellement indépendantes si pour tout (x1, … , xn) ∈ Rn, on a P(∀i, Xi = xi) = i=1n P(Xi = xi).

Propriété
Soit (X1, … , Xn) une famille de variables aléatoires mutuellement indépendantes et suivant la même loi de Bernoulli de paramètre p ∈ ]0 ; 1[. Alors i=1n Xi suit la loi binomiale de paramètres n et p.
Propriété
Si X et Y sont deux variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs p et q alors min(X, Y) suit aussi une loi géométrique de paramètre p + qpq.
Propriété
Si X et Y sont deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifs λ et μ alors (X + Y) suit aussi une loi de Poisson de paramètre λ + μ.