Applications linéaires matricielles

Application associée

Définition
Pour toute matrice A = (ai,j) ∈ ℳn,m(R), l’application associée est l’application φ : RmRn vérifiant pour tout x = (x1, … , xm) ∈ Rm, φ(x) = ( j=1m a1,jxj, … , j=1m an,jxj). Autrement dit, avec la notation en vecteurs colonnes, il s’agit de l’application XAX.
Définition
Soient (m, n) ∈ (N)2. Une application φ : RmRn est dite linéaire si elle vérifie pour tout (λ, u, v) ∈ R × (Rm)2, φ(u + v) = φ(u) + φ(v) et φ(λ·u) = λ·φ(u).
On note L(Rm, Rn) l’ensemble des applications linéaires de Rm vers Rn.

En pratique, on vérifie directement la relation φ(λ·u + v) = λ·φ(u) + φ(v).

Propriété
Toute application associée à une matrice est linéaire.
Démonstration
Soit A ∈ ℳn,m(R). On note φ l’application associée. Avec la notation matricielle, on a pour tout (λ, X, Y) ∈ R × ℳn,1(R)2, A(λX + Y) = λAX + AY.
Propriété
Toute application linéaire de Rm vers Rn est associée à une unique matrice de n,m(R), dont les colonnes décrivent les images des vecteurs de la base canonique.
Démonstration
Soit φ ∈ L(Rm, Rn). On note (e1, … , em) la base canonique de Rm.

Si φ est associée à une matrice A ∈ ℳn,m(R), alors pour tout j ∈ ⟦1 ; m la j-ème colonne de A représente le vecteur φ(ej), donc φ ne peut être associée à une autre matrice.

Réciproquement, si on note pour tout j ∈ ⟦1 ; m, φ(ej) = (a1,j, … , an,j). alors pour tout x = (x1, … , xm) ∈ Rm, on trouve φ(x) = j=1m xj·φ(ei) = ( j=1m a1,jxj, … , j=1m an,jxj).
Donc l’application φ est bien associée à la matrice A = (ai,j) ∈ ℳn,m(R).

Composée et réciproque

Propriété
La composée de deux applications linéaires est linéaire, et associée au produit des matrices correspondantes.
Démonstration
Soit f ∈ L(Rm, Rn) et g ∈ L(Rn, Rp) associées respectivement aux matrices A = (ai,j)∈ ℳn,m(R) et B = (bi,j)∈ ℳp,n(R).

En notant (e1, … , em) la base canonique de Rm, on trouve pour tout j ∈ ⟦1 ; m, (gf)(ej) = g(f(ej)) = g(a1,j, a2,j, … , an,j) = k=1n ak,jg(ek) = (k=1n ak,j b1,k, … , k=1n ak,j bp,k) .

La composée gf est donc associée à la matrice produit B × A.

Définition
Un isomorphisme est une application linéaire bijective, c'est-à-dire telle que tout élément de l'espace d'arrivée a un unique antécédent.
Propriété
La réciproque d'un isomorphisme est aussi un isomorphisme.
Démonstration
Soit φ : RmRn un isomorphisme. Soit (λ, x, y) ∈ R × Rn × Rn. Il existe (u, v) ∈ Rm × Rm tel que x = φ(u) et y = φ(v). Donc φ−1(λ.x + y) = φ−1(λ.φ(u) + φ(v)) = φ−1(φ(λ.u + v)) = λ.u + v. Donc la réciproque est linéaire.
Propriété
Une application linéaire est un isomorphisme si et seulement si elle est associée à une matrice inversible, et dans ce cas, sa réciproque est associée à la matrice inverse.
Démonstration
Si φ est une application linéaire associée à une matrice A ∈ ℳn,m(R).

Si φ est un isomorphisme, on note B ∈ ℳm,n(R) la matrice associée à la réciproque. La composée d’un isomorphisme et de sa réciproque est l’identité, donc on trouve les égalités A × B = In et B × A = Im, donc A est inversible d’inverse A−1 = B.

Réciproquement, si A est inversible, en notant ψ l’application associée à A−1, les égalités A × B = B × A = I se traduisent par φψ = ψφ = id donc φ est bijective et sa réciproque est φ−1 = ψ

Remarque
On en déduit immédiatement que tout isomorphisme est nécessairement associé à une matrice carrée, autrement dit qu’il n’existe pas d’isomorphisme entre Rm et Rn si mn.

Sous-espaces vectoriels associés

Définition
Soit A ∈ ℳn,m(R). L’image de A est l’ensemble Im(A) = {AX, X ∈ ℳm,1(R)}, son noyau est l’ensemble Ker(A) = {X ∈ ℳm,1(R) : AX = 0}.
Propriété
L’image d’une application matricielle est l’espace vectoriel engendré par les vecteurs colonnes de la matrice associée.
Démonstration
Soit A ∈ ℳn,m(R). Par interprétation vectorielle des colonnes de la matrice, on sait que les produits AX, lorsque X ∈ ℳm,1(R) sont les combinaisons linéaires des colonnes de A.
Propriété
L’image et le noyau représentent des sous-espaces vectoriels de vecteurs colonnes.
Démonstration
L’image étant déjà un sous-espace vectoriel engendré par ses colonnes, il reste à démontrer que le noyau contient la colonne nulle et est stable par combinaison linéaire.

La colonne nulle vérifie A0 = 0 donc 0 ∈ Ker(A). Soit (λ, X, Y) ∈ R × Ker(A)2. On a A(λX + Y) = λAX + AY = λ0 + 0 = 0 donc λX + Y ∈ Ker(A).

Propriété
Une application linéaire est injective si et seulement si elle est associée à une matrice de noyau nul.
Démonstration
Soit A une matrice.

Supposons que l’application associée à A est injective. Pour tout X ∈ Ker(A), on a AX = 0 = A0 donc par injectivité de l’application, on trouve X = 0. Par conséquent, Ker(A) = {0}.

Réciproquement, supposons Ker(A) = {0}. Pour tout (X,Y) ∈ ℳm,1(R)2 tel que AX = AY, on a A(X − Y) = 0 donc XY = 0 donc X = Y. Par conséquent, l’application associée est injective.

Propriété
Plus généralement, l’image d’un sous-espace vectoriel par une application linéaire est un sous-espace vectoriel de l’ensemble but. La préimage d’un sous-espace vectoriel par une application linéaire est un sous-espace vectoriel de l’ensemble de départ.
Famille des colonnes
Soit A ∈ ℳn,m(R). On note φ : XAX l’application associée entre Rm et Rn.
  1. L'application φ est injective si et seulement si les vecteurs colonnes de A forment une famille libre.
  2. L'application φ est surjective si et seulement si les vecteurs colonnes de A forment une famille génératrice de n,1(R).
  3. L'application φ est bijective si et seulement si les vecteurs colonnes de A forment une base de n,1(R).
Démonstration
On montre les deux premières équivalences. La troisième s’en déduit.

On note C1, … , Cm les colonnes de A. Pour tout X = [ [x1] [] [xm] ∈ ℳm,1(R) on a AX = x1C1 + ⋯ + xmCm.

  1. Avec ces notations, on en déduit les équivalences x1C1 + ⋯ + xmCm = 0 ⇔ AX = 0 ⇔ X ∈ Ker(A). Donc la famille des colonnes est libre si et seulement si Ker(A) = 0, c’est-à-dire si l’application linéaire associée est injective.
  2. L’application linéaire associée est surjective si et seulement si Im(A) = ℳn,1(R), c’est-à-dire si pour tout vecteur colonne Y, il existe un vecteur colonne X tel que Y = AX = x1C1 + ⋯ + xmCm, autrement dit si la famille des colonnes de A est génératrice.
Définition
Un endomorphisme de Rn est une application linéaire de Rn vers Rn.
Propriété
Un endomorphisme de Rn est injectif si et seulement s’il est surjectif.
Démonstration
Pour une matrice carrée de n(R), les colonnes représentent une famille de n vecteurs de Rn, donc cette famille est libre si et seulement si elle est génératrice.

Rang

Définition
Le rang d’une matrice est la dimension de son espace image.
Exemple
Le rang d’une matrice (non nécessairement carrée) dont tous les coefficients sont nuls en dehors de la diagonale est le nombre de coefficients non nuls.
Théorème du rang
Pour tout A ∈ ℳn,m(R) on a m = dim(Ker(A)) + rg(A).
Démonstration
On note (X1, … , Xk) une base de Ker(A) ⊂ Rm, qui est une famille libre et que l’on complète en une base (X1, … , Xm) de Rm.
On montre ensuite que la famille = (AXk+1, … , AXm) est une base de Im(A).

Soit (λk+1, … , λm) ∈ Rmk tel que i=k+1m λi·AXi = 0 c’est-à-dire A(i=k+1m λi·Xi) = 0. On a alors i=k+1m λi·Xi ∈ Ker(A) donc il existe (λ1, … , λk) ∈ Rk tel que i=k+1m λi·Xi = i=1k λi·Xi mais par unicité de la décomposition sur une base, on trouve pour tout i ∈ ⟦1 ; m, λi = 0. Donc la famille est libre.

Soit Y ∈ Im(A). Il existe XRm tel que Y = AX donc en notant X = i=1m λi·Xi, on trouve Y = Ai=1m λi·Xi = i=k+1m λi·AXi. Donc la famille est génératrice dans Im(A).

Finalement, on trouve rg(A) = dim(Vect(ℬ)) = mk donc m = rg(A) + k = rg(A) + dim(Ker(A).

Composée d’applications matricielles
Rq X Rp B · BX Y Rn A · AB · ABX AY
Propriété
Pour tout A ∈ ℳn,p(R), pour tout B ∈ ℳp,q(R), rg(AB) ≤ min(rg(A), rg(B)).
Démonstration
On montre séparément rg(AB) ≤ rg(A) et rg(AB) ≤ rg(B).

On montre d’abord Im(AB) ⊂ Im(A) : pour tout Y ∈ Im(AB), il existe une colonne X telle que Y = (AB)X = A(BX) ∈ Im(A). Par conséquent, rg(AB) ≤ rg(A).

On montre ensuite Ker(B) ⊂ Ker(AB) : pour tout X ∈ Ker(B), on a (AB)X = A(BX) = A0 = 0 donc X ∈ Ker(AB). Donc dim(Ker(B)) ≤ dim(Ker(AB)) donc par théorème du rang q − rg(B) ≤ q − rg(AB) donc rg(AB) ≤ rg(B).

Propriété
Toute matrice est de même rang que son produit avec une matrice inversible.
Démonstration
Soit A ∈ ℳn,m(R), P ∈ 𝒢ℒm(R) Soit Q ∈ 𝒢ℒn(R).

On trouve rg(APP−1) ≤ rg(AP) ≤ rg(A) donc rg(A) = rg(AP) et rg(Q−1QA) ≤ rg(QA) ≤ rg(A) donc rg(A) = rg(QA).

Matrices équivalentes

Définition
Une matrice A ∈ ℳm,n(R) est dite équivalente à une matrice B ∈ ℳm,n(R) s’il existe deux matrices inversibles P ∈ 𝒢ℒm(R) et Q ∈ 𝒢ℒn(R) telles que B = Q−1AP.
Propriété
La relation ainsi définie est :
Démonstration
Soit (A, B, C) ∈ ℳn,m(R)3, P ∈ 𝒢ℒm(R), Q ∈ 𝒢ℒn(R).
Propriété
Toute matrice A ∈ ℳn,m(R) de rang r est équivalente à la matrice Jn,m,r dont les coefficients ci,j valent 1 si i = jr et 0 sinon.
Démonstration
On complète une base de Ker(A) en une base (X1, … , Xm) de m,1(R) de façon à ce que les vecteurs du noyau soient placés en dernier, puis on définit la matrice P = (X1 | … | Xm). De même, puisque la famille (AX1, … , AXr) forme une base de Im(A), on la complète en une base de n,1(R) et on définit la matrice Q formée avec ces vecteurs colonnes.

Comme les matrices P et Q ont des bases pour vecteurs colonnes, elles sont inversibles.

Pour tout i ∈ ⟦1, m on note Ei la matrice colonne élémentaire avec un coefficient 1 en ligne i. On rappelle que le produit d’une matrice avec Ei correspond à la i-ème colonne de cette matrice.

Pour tout i ∈ ⟦1, r on trouve APEi = AXi = QEi donc (Q−1AP)Ei = Ei.

Pour tout i > r, on trouve (Q−1AP)Ei = Q−1(AXi) = Q−10 = 0.

Finalement, la matrice produit Q−1AP a bien la forme voulue.

Propriété
Deux matrices dans n,m(R) sont équivalentes si et seulement si elles ont le même rang.
Démonstration
On procède par double implication.

Si deux matrices sont équivalentes, la multiplication par des matrices inversibles ne change pas le rang donc elles ont le même rang.

Réciproquement, si deux matrices de n,m(R) sont de même rang r, alors elles sont toutes deux équivalentes à la matrice Jn,m,r donc elles sont équivalentes entre elles.

Propriété
Toute matrice a le même rang que sa transposée.
Démonstration
Soit A ∈ ℳn,m(R) une matrice de rang r. Elle est équivalente à Jn,m,r donc sa transposée AT est équivalente à Jm,n,r, donc rg(AT) = rg(Jm,n,r) = r.
Propriété
Toute matrice échelonnée a pour rang son nombre de lignes non nulles.
Démonstration
Ces lignes formant une famille libre, elles constituent une base de l’espace vectoriel engendré. Donc le nombre de ces lignes est égal au rang de la matrice.