Application associée
- Si A = [[1 ;2 ;3][4 ;5 ;6]], l’application associée s’écrit
(x, y, z) ↦ (x + 2y + 3z, 4x + 5y + 6z) ou [[x][y][z]] ↦ [[x + 2y + 3z][4x + 5y + 6z]]. - Pour tout n ∈ N∗, l’application identité de Rn est associée à la matrice identité In.
- Pour tout (n, m) ∈ (N∗)2, l’application nulle de Rm vers Rn est associée à la matrice nulle.
- Pour tout i ∈ ⟦1 ; n⟧, la projection (x1, … , xn) ↦ xi est l’application linéaire associée à la matrice ligne E1,i ∈ ℳ1,n(R) dont tous les coefficients sont nuls sauf celui en colonne i qui vaut 1.
On note L(Rm, Rn) l’ensemble des applications linéaires de Rm vers Rn.
En pratique, on vérifie directement la relation φ(λ·u + v) = λ·φ(u) + φ(v).
Si φ est associée à une matrice A ∈ ℳn,m(R), alors pour tout j ∈ ⟦1 ; m⟧ la j-ème colonne de A représente le vecteur φ(ej), donc φ ne peut être associée à une autre matrice.
Réciproquement, si on note pour tout j ∈ ⟦1 ; m⟧,
φ(ej)
= (a1,j, … ,
an,j).
alors pour tout x = (x1,
… ,
xm) ∈ Rm,
on trouve φ(x)
= ∑j=1m
xj·φ(ei)
= (
∑j=1m
a1,jxj, … ,
∑j=1m
an,jxj).
Donc l’application φ est bien associée à la matrice A = (ai,j) ∈ ℳn,m(R).
Composée et réciproque
En notant (e1, … , em) la base canonique de Rm, on trouve pour tout j ∈ ⟦1 ; m⟧, (g ∘ f)(ej) = g(f(ej)) = g(a1,j, a2,j, … , an,j) = ∑k=1n ak,jg(ek) = (∑k=1n ak,j b1,k, … , ∑k=1n ak,j bp,k) .
La composée g ∘ f est donc associée à la matrice produit B × A.
Si φ est un isomorphisme, on note B ∈ ℳm,n(R) la matrice associée à la réciproque. La composée d’un isomorphisme et de sa réciproque est l’identité, donc on trouve les égalités A × B = In et B × A = Im, donc A est inversible d’inverse A−1 = B.
Réciproquement, si A est inversible, en notant ψ l’application associée à A−1, les égalités A × B = B × A = I se traduisent par φ ∘ ψ = ψ ∘ φ = id donc φ est bijective et sa réciproque est φ−1 = ψ
Sous-espaces vectoriels associés
La colonne nulle vérifie A0 = 0 donc 0 ∈ Ker(A). Soit (λ, X, Y) ∈ R × Ker(A)2. On a A(λX + Y) = λAX + AY = λ0 + 0 = 0 donc λX + Y ∈ Ker(A).
Supposons que l’application associée à A est injective. Pour tout X ∈ Ker(A), on a AX = 0 = A0 donc par injectivité de l’application, on trouve X = 0. Par conséquent, Ker(A) = {0}.
Réciproquement, supposons Ker(A) = {0}. Pour tout (X,Y) ∈ ℳm,1(R)2 tel que AX = AY, on a A(X − Y) = 0 donc X − Y = 0 donc X = Y. Par conséquent, l’application associée est injective.
- Famille des colonnes
- Soit A
∈ ℳn,m(R).
On note φ : X ↦ AX l’application associée entre Rm
et Rn.
- L'application φ est injective si et seulement si les vecteurs colonnes de A forment une famille libre.
- L'application φ est surjective si et seulement si les vecteurs colonnes de A forment une famille génératrice de ℳn,1(R).
- L'application φ est bijective si et seulement si les vecteurs colonnes de A forment une base de ℳn,1(R).
On note C1, … , Cm les colonnes de A. Pour tout X = [ [x1] [⋮] [xm] ∈ ℳm,1(R) on a AX = x1C1 + ⋯ + xmCm.
- Avec ces notations, on en déduit les équivalences x1C1 + ⋯ + xmCm = 0 ⇔ AX = 0 ⇔ X ∈ Ker(A). Donc la famille des colonnes est libre si et seulement si Ker(A) = 0, c’est-à-dire si l’application linéaire associée est injective.
- L’application linéaire associée est surjective si et seulement si Im(A) = ℳn,1(R), c’est-à-dire si pour tout vecteur colonne Y, il existe un vecteur colonne X tel que Y = AX = x1C1 + ⋯ + xmCm, autrement dit si la famille des colonnes de A est génératrice.
Rang
- Théorème du rang
- Pour tout A ∈ ℳn,m(R) on a m = dim(Ker(A)) + rg(A).
On montre ensuite que la famille ℬ = (AXk+1, … , AXm) est une base de Im(A).
Soit (λk+1, … , λm) ∈ Rm−k tel que ∑i=k+1m λi·AXi = 0 c’est-à-dire A(∑i=k+1m λi·Xi) = 0. On a alors ∑i=k+1m λi·Xi ∈ Ker(A) donc il existe (λ1, … , λk) ∈ Rk tel que ∑i=k+1m λi·Xi = ∑i=1k λi·Xi mais par unicité de la décomposition sur une base, on trouve pour tout i ∈ ⟦1 ; m⟧, λi = 0. Donc la famille ℬ est libre.
Soit Y ∈ Im(A). Il existe X ∈ Rm tel que Y = AX donc en notant X = ∑i=1m λi·Xi, on trouve Y = A∑i=1m λi·Xi = ∑i=k+1m λi·AXi. Donc la famille ℬ est génératrice dans Im(A).
Finalement, on trouve rg(A) = dim(Vect(ℬ)) = m − k donc m = rg(A) + k = rg(A) + dim(Ker(A).
On montre d’abord Im(AB) ⊂ Im(A) : pour tout Y ∈ Im(AB), il existe une colonne X telle que Y = (AB)X = A(BX) ∈ Im(A). Par conséquent, rg(AB) ≤ rg(A).
On montre ensuite Ker(B) ⊂ Ker(AB) : pour tout X ∈ Ker(B), on a (AB)X = A(BX) = A0 = 0 donc X ∈ Ker(AB). Donc dim(Ker(B)) ≤ dim(Ker(AB)) donc par théorème du rang q − rg(B) ≤ q − rg(AB) donc rg(AB) ≤ rg(B).
On trouve rg(APP−1) ≤ rg(AP) ≤ rg(A) donc rg(A) = rg(AP) et rg(Q−1QA) ≤ rg(QA) ≤ rg(A) donc rg(A) = rg(QA).
Matrices équivalentes
- réflexive : toute matrice est équivalente à elle-même ;
- symétrique : si A est équivalente à B alors B est équivalente à A ;
- transitive : si A est équivalente à B et B est équivalente à C alors A est équivalente à C.
- On a A = In−1AIm.
- Si B = Q−1AP alors A = (Q−1)−1BP−1.
- Si B = Q−1AP et s’il existe R ∈ 𝒢ℒm(R), S ∈ 𝒢ℒn(R) telles que C = S−1BR alors C = S−1Q−1APR = (QS)−1A(PR).
Comme les matrices P et Q ont des bases pour vecteurs colonnes, elles sont inversibles.
Pour tout i ∈ ⟦1, m⟧ on note Ei la matrice colonne élémentaire avec un coefficient 1 en ligne i. On rappelle que le produit d’une matrice avec Ei correspond à la i-ème colonne de cette matrice.
Pour tout i ∈ ⟦1, r⟧ on trouve APEi = AXi = QEi donc (Q−1AP)Ei = Ei.
Pour tout i > r, on trouve (Q−1AP)Ei = Q−1(AXi) = Q−10 = 0.
Finalement, la matrice produit Q−1AP a bien la forme voulue.
Si deux matrices sont équivalentes, la multiplication par des matrices inversibles ne change pas le rang donc elles ont le même rang.
Réciproquement, si deux matrices de ℳn,m(R) sont de même rang r, alors elles sont toutes deux équivalentes à la matrice Jn,m,r donc elles sont équivalentes entre elles.