Pour tout (n, p) ∈ (N∗)2, on appelle matrice à n lignes et p colonnes à coefficients dans R toute famille (ai,j)1≤i≤n, 1≤j≤p d'éléments de R et on note ℳn,p(R) l'ensemble de ces matrices.
On appelle matrice colonne toute matrice à une seule colonne et matrice ligne toute matrice à une seule ligne. Les vecteurs de composantes réelles sont identifiés tantôt à des matrices lignes, tantôt à des matrices colonnes.
On appelle matrice élémentaire toute matrice dont un seul coefficient vaut 1 et tous les autres sont nuls. Si ce coefficient est sur la ligne l et la colonne m, on note habituellement cette matrice El,m.
Les coefficients peuvent éventuellement être définis à l’aide du symbole de Kronecker : pour tout i ≠ j, on pose δi,j = 0 et pour tout i, δi,i = 1. En particulier, les matrices élémentaires peuvent alors s’écrire : El,m = (δi,l δj,m).
Opérations
Structure linéaire
Pour tout (n, p) ∈ (N∗)2, on définit la somme de deux matrices à n lignes et p colonnes par (ai,j) + (bi,j) = (ai,j + bi,j).
Pour tout (n, p) ∈ (N∗)2, et pour tout λ ∈ R, on définit la multiplication scalaire d'une matrice à n lignes et p colonnes par λ·(ai, j) = (λ × ai, j).
- l’addition est associative et commutative avec une matrice nulle et toute matrice A = (ai,j) a une matrice opposée −A = (−ai,j)
- la multiplication scalaire est distributive par rapport à l'addition dans R et l'addition matricielle,
- pour tout A ∈ ℳn, p(R), on a 1·A = A et pour tout (λ, μ) ∈ R2, λ·(μ·A) = (λ × μ)·A.
En particulier, pour toute matrice A = (ai,j) ∈ ℳn,p(R), on a A = ∑1≤i≤n, 1≤j≤p ai,j Ei,j.
On a la décomposition suivante :
[[1 ;2][0 ;−1]]
= [[1 ;0][0 ;0]]
+ [[0 ;2][0 ;0]]
+ [[0 ;0][0 ;−1]]
= E1,1 + 2 E1,2 + 0.E2,1 − E2,2.
Produit matriciel
Pour tout (n, p, q) ∈ (N∗)3, on définit le produit matriciel de deux matrices A = (ai,j) ∈ ℳn,p(R) et B = (bi,j) ∈ ℳp,q(R) par A × B = (∑k=1p ai,k bk,j) ∈ ℳn,q(R).
- si A ∈ ℳn,p(R) avec (B, C) ∈ ℳp,q(R)2 et λ ∈ R, alors A × (λ·B + C) = λ·(A × B) + A × C,
- si (A, B) ∈ ℳn,p(R)2 avec C ∈ ℳp,q(R) et λ ∈ R, alors (λ·A + B) × C = λ·(A × C) + B × C.
Transposée
- L’application de transposition A ↦
A est involutive : pour tout (n, p) ∈ (N∗)2, pour tout A ∈ ℳn, p(R), (AT)T = A. - L’application de transposition est linéaire : pour tout (n, p) ∈ (N∗)2, pour tout (A, B) ∈ ℳn,p(R)2 et λ ∈ R, (λ·A + B)T = λ·AT + BT.
- La transposée du produit est égale au produit des transposées mais en renversant l’ordre des facteurs : pour tout (n, p, q) ∈ (N∗)3, pour tout A ∈ ℳn, p(R) et B ∈ ℳp, q(R), (A × B)T = BT × AT.
Interprétations vectorielles
et B = [[b1][⋮][bp]] le vecteur des seconds membres, avec X = [[x1][⋮][xp]], l’équation matricielle s’écrit pour tout i ∈ ⟦1 ; n⟧, ∑j=1p ai,jxj = bi.
- pour l’interversion des lignes i et j, la matrice de permutation Pi,j = In − Ei,i − Ej,j + Ei,j + Ej,i ;
- pour l’ajout des coefficients de la ligne j multipliés par un réel λ sur la ligne i ≠ j, la matrice de transvection Ti,j,λ = In + λ·Ei,j ;
- pour la multiplication de la ligne i par un coefficient non nul λ, la matrice de dilatation Di,λ = In + (λ − 1)Ei,i.
En particulier, pour tout i ∈ ⟦1, m⟧, si X = Ei est la matrice colonne élémentaire avec un coefficient 1 en ligne i, alors AEi est la i-ème colonne de cette matrice.
Matrices carrées
Algèbre
Pour tout n ∈ N∗, on note ℳn(R) l'ensemble des matrices carrées de taille n (c'est-à-dire avec n lignes et n colonnes) à coefficients dans R. La diagonale d’une telle matrice est la liste des coefficients dont le numéro de ligne est le même que le numéro de colonne.
Le produit matriciel définit une opération associative dans ℳn(R). En particulier, on peut alors définir les puissances de matrices par récurrence comme pour les puissances de nombres.
Il est tentant de manipuler les matrices comme des scalaires, mais certaines propriétés des corps ne s'appliquent pas à l'ensemble des matrices de taille n > 1.
- Non-commutativité du produit
- Il existe des matrices carrées de même taille qui ne commutent pas.
- Existence de diviseurs de zéro
- Le produit de deux matrices non nulles peut donner une matrice nulle.
- Existence de matrices nilpotentes
- Il existe des matrices non nulles dont une puissance est nulle.
Ces résultats impliquent notamment que l'on ne peut utiliser directement les identités remarquables, ni la formule du binôme de Newton, ni la différence de puissances. On ne peut pas non plus simplifier une équation de la forme A × B = A × C, ni effectuer de division.
Cependant, les formules des identités remarquables, du binôme de Newton et des différences de puissances sont valables pour un couple de matrices qui commutent. La division est remplacée par une multiplication par l'inverse lorsqu'elle existe.
- pour tout (n, p) ∈ N2, AnBp = BpAn.
- la formule du binôme de Newton : (A + B)n = ∑k=0n (k parmi n) AkBn−k
- la formule de Bernoulli An − Bn = (A − B) × (∑k=0n−1 AkBn−1−k)
Trace
Si A = (ai,j)1≤i,j≤n alors Tr(A) = ∑i=1n ai,i.
- La trace est linéaire : pour tout (λ, A, B) ∈ R × ℳn(R)2, Tr(λA + B) = λ Tr(A) + Tr(B).
- La trace est invariante par la transposée : pour tout A ∈ ℳn(R), Tr(AT) = Tr(A)
- Trace du produit
- Pour tout (A, B) ∈ ℳn(R)2, Tr(A × B) = Tr(B × A)
Triangulaires et diagonales
On peut noter Diag(λ1, …, λn) la matrice diagonale dont les coefficients diagonaux sont listés entre parenthèses.
- Une matrice carrée est triangulaire supérieure si et seulement si sa transposée est une matrice triangulaire inférieure.
- Les matrices scalaires sont celles qui s'obtiennent par multiplication scalaire sur la matrice identité et elles commutent avec toutes les matrices.
La propriété sur les puissances s’obtient ensuite par récurrence, et les propriétés s’étendent aux matrices triangulaires inférieures à l’aide de la transposée.
Symétriques et antisymétriques
- La somme de deux matrices symétriques (resp. antisymétriques) est symétrique (resp. antisymétrique).
- Toute matrice diagonale est symétrique.
- Les coefficients diagonaux d'une matrice antisymétrique sont nuls.
- La matrice nulle est la seule qui soit à la fois symétrique et antisymétrique.
- Toute matrice se décompose d'une unique façon comme somme d'une matrice symétrique et d'une matrice antisymétrique.
- Soient A et B deux matrices symétriques de même taille. Alors on a
(A + B)T
= AT + BT
= A + B
donc A+B est symétrique.
De même, si A et B sont deux matrices antisymétriques de même taille. Alors on a (A + B)T = AT + BT = −A − B = −(A + B) donc A+B est antisymétrique. - Soit D = (di, j) une matrice diagonale. Alors pour tout i on a di, i = di, i et pour tout i ≠ j on a di, j = 0 = dj, i.
- Pour toute matrice A = (ai, j) antisymétrique de taille n, on a pour tout i ∈ ⟦1 ; n⟧, ai, i = −ai, i donc ai, i = 0.
- Toute matrice A qui soit à la fois symétrique et antisymétrique vérifie A = −AT = −A donc A = 0.
- Soit A une matrice carrée. Alors on a A
= 12
(A + AT)
+ 12
(A − AT)
or la matrice
B = 12(A + AT) est symétrique
et la matrice C = 12(A − AT) est antisymétrique.
Soit B′ une matrice symétrique et C′ une matrice antisymétrique de même taille telles que A = B′ + C′. Alors on trouve B + C = B′ + C′ donc la matrice symétrique B − B′ est égale à la matrice antisymétrique C′ − C, donc ces deux différences sont nulles donc B = B′ et C′ = C.
Matrices inversibles
Définition et premiers exemples
Elle est dite inversible à gauche s’il existe une matrice B ∈ ℳp,n(R) (appelée inverse à gauche) telle que BA = Ip.
Elle est dite inversible s'il existe B ∈ ℳp,n(R) telle que A × B = In et B × A = Ip. Dans ce cas, la matrice B est une matrice inverse pour A.
- chaque matrice de permutation Pi,j est inverse pour elle-même,
- chaque matrice de transvection Ti,j,λ admet pour inverse la matrice de transvection de coefficient opposé Ti,j,−λ,
- chaque matrice de dilatation Di,λ admet pour inverse la matrice de dilatation de rapport inverse Di,1/λ.
- On a Pi,j = ∑h≠i, h≠j Eh,h + Ei,j + Ej,i et on calcule (∑h≠i, h≠j Eh,h + Ei,j + Ej,i) × (∑h≠i, h≠j Eh,h + Ei,j + Ej,i) = ∑h≠i, h≠j Eh,h + Ei,i + Ej,j = In.
- On calcule (In + λ·Ei,j)
× (In − λ·Ei,j)
= In + λ·Ei,j
− λ·Ei,j
+ λ2Ei,j × Ei,j
= In.
- On a (In + (λ − 1) Ei,i) × (In + (1/λ − 1) Ei,i) = In + (λ − 1 + 1/λ − 1 + (λ − 1)(1/λ − 1))Ei,i = In.
Caractérisation
- La matrice A est inversible à gauche.
- La seule solution de l’équation AX = 0 est le vecteur nul X = 0.
- Les colonnes de A forment une famille libre de Rn.
- Les colonnes de A forment une base de Rn.
- Les colonnes de A forment une famille génératrice de Rn.
- La matrice A est inversible à droite.
- (1) ⇒ (2)
- S’il existe B ∈ ℳn(R) tel que BA = In, alors pour tout vecteur X tel que AX = 0, on trouve 0 = B(AX) = (BA)X = InX = X.
- (2) ⇒ (3)
- L’équation AX = 0 se traduit par une combinaison linéaire nulle sur les colonnes de A. Si la seule solution est donnée par le vecteur X = 0, les coefficients d’une combinaison linéaire nulle sont nécessairement nuls, donc les colonnes de A forment une famille libre.
- (3) ⇒ (4)
- Si la famille des n colonnes de A est libre dans Rn alors c’est une base.
- (4) ⇒ (5)
- Une base est toujours une famille génératrice.
- (5) ⇒ (6)
- Une matrice dont les colonnes forment une famille génératrice est inversible à droite.
Enfin, si toutes ces conditions sont satisfaites, pour tout (B, B′) ∈ ℳn(R)2 tel que BA = AB′ = In, on a B = B(AB′) = (BA)B′ = B′. Donc toutes les inverses à droite et à gauche sont identiques et la matrice A est inversible avec une seule inverse.
- L'inverse d'une matrice inversible est inversible avec (A−1)−1 = A.
- Le produit de deux matrices inversibles de même taille est inversible avec (A × B)−1 = B−1 × A−1.
- La transposée d'une matrice inversible est inversible avec (AT)−1 = (A−1)T.
- A−1 × A = In donc (A−1)−1 = A,
- (A × B) × (B−1 × A−1) = A × In × A−1 = A × A−1 = In,
- AT × (A−1)T = (A−1 × A)T = InT = In.
Cas particuliers
La condition sur les coefficients diagonaux est nécessaire d’après le système triangulaire associé.
On procède par récurrence sur la taille de la matrice.
Une matrice de ℳ1(R) est réduite à son coefficient diagonal t1,1. S’il est non nul alors la matrice est inversible d’inverse (1/t1,1).
Soit n ∈ N∗
tel que la propriété soit vraie pour toute matrice triangulaire de taille n. Soit Tn+1 ∈ ℳn+1(R) une matrice triangulaire avec des coefficients diagonaux non nuls. Alors on peut noter T
= (ti,j)1≤i,j≤n+1
et la matrice Tn = (ti,j)1≤i,j≤n est aussi triangulaire supérieure avec des coefficients diagonaux non nuls. Donc par hypothèse de récurrence,
il existe Un triangulaire supérieure de taille n avec des coefficients diagonaux non nuls telle que Un × Tn
= In.
On prolonge alors Un
en une matrice Un+1 ∈ ℳn+1(R) triangulaire supérieure
par ui,n+1
= (−1)(tn+1,n+1)
∑k=1n
ui,k
tk,n+1
pour tout i ∈ ⟦1 ; n],
puis un+1,n+1
= (−1)(tn+1,n+1)
Alors par construction, Un+1
× Tn+1 = In+1 et les coefficients diagonaux de Un+1 sont non nuls.
Cette propriété donne aussi la condition nécessaire et suffisante pour l’inversibilité d’une matrice diagonale et l’expression de l’inverse.
Si le déterminant est non nul alors on vérifie que la matrice est inversible en calculant son produit avec la matrice annoncée.
Si le déterminant est nul alors les deux vecteurs colonnes u = [[a][c]] et v = [[b][d]] sont colinéaires donc forment une famille liée donc la matrice n’est pas inversible.