Un espace vectoriel
est un ensemble non vide E muni d’une addition, d’un vecteur nul 0 et d’une multiplication scalaire satisfaisant les relations suivantes.
Axiomes
commutativité de l’addition : ∀(x,y) ∈ E2, x+y = y+x ;
associativité de l’addition : ∀(x,y,z) ∈ E3,
(x+y)+z = x+(y+z)
compatibilité de la multiplication scalaire
∀(λ,μ,x) ∈ R×R×E,
(λ×µ)·x = λ·(μ·x) ;
∀x ∈ E,
1·x = x ;
existence des opposés :
∀x∈E,
x + (−1)·x = 0 ;
distributivité :
∀(λ,μ,x,y) ∈ R2×E2,
(λ+μ)·(x+y)
= λ·x+λ·y+μ·x+μ
·y
Équation produit nulλ·x = 0
⇔ λ = 0 ou x = 0
Familles de vecteurs
Soit (u1, … , un) une famille de vecteurs d’un espace vectoriel F.
Somme de sous-espaces vectoriels
Soit F, G deux s.e.v. de E.
F+G = {x+y, (x,y)∈F×G} s.e.v. de E.
Somme directe de 2 s.e.v.F et G en somme directe
⇔ F ∩ G = {0}
SupplémentairesF⊕G=E
⇔ F+G=E et F∩G={0}⇔ ∀ z ∈ E, ∃! (x,y) ∈ F×G : z=x+y⇔ la réunion d’une base de F et une de G forme une base de E⇔ F et G supplémentaires dans E
Existence des supplémentaires
Tout s.e.v. d’un espace vectoriel de dimension finie admet un supplémentaire
HyperplanF hyperplan de E⇔ ∃ e ∈ E ∖ {0} :
F ⊕ Vect(e) = E
Somme directe de plusieurs sous-espaces∀(Fi) s.e.v. de E,(Fi) en somme directe⇔ ∀(x1, … , xn)
∈ F1 × ⋯ × Fn,(∑i=1nxi = 0
⇒ ∀i, xi = 0)
Applications linéaires
Soient E et F deux espaces vectoriels.
Caractérisation linéarité
Soit φ : E → F. φ ∈ L(E,F)⇔ ∀ (λ, u, v) ∈ R × E2,φ(λu + v) = λφ(u) + φ(v)
Composée∀φ∈L(E,F), ∀ψ∈L(F,G), ψ∘φ∈L(E,G)
Noyau et image
Soit φ ∈ L(E,F).
Im(φ) = {φ(x), x∈E} ;
Ker(φ) = {x ∈ E : φ(x) = 0}
Image et préimage d’un s.e.v.∀ G s.e.v. de E, φ(G) s.e.v. de F ;
∀ H s.e.v. de F, φ−1(H) s.e.v. de E.
En particulier, Im(φ) s.e.v. de F
et Ker(φ) s.e.v. de E.
Caractérisation de l’injectivitéφ injective ⇔ Ker(φ) = {0}
Caractérisation isomorphismeφ isomorphisme ⇔ φ injective et surjective⇔ Ker(φ) = {0} et Im(φ) = F
Image d’une base∀ φ ∈ L(E,F), ∀(e1, … , en) base de E,φ injective ⇔ (φ(e1), … , φ(en)) libre ; φ surjective⇔ (φ(e1),…,φ(en)) génératrice de F ; φ isomorphisme⇔ (φ(e1), … , φ(en)) base de F
Familles isomorphes∀φ∈L(E,F) isomorphisme,
∀(x1,…,xn)∈En,
(x1,…,xn) libre/génératrice/base de E⇔ (φ(x1),…,φ(xn)) libre/gén./base de F
Projection
Soit F et G deux s.e.v. supplémentaires dans E. Soit p ∈ L(E). p projection sur F parallèlement à G⇔ ∀x∈F, p(x)=x
et ∀x∈G, p(x)=0
Dans ce cas, F = Im(p) = Ker(p−id)
et G = Ker(p).
Symétrie
Soit s ∈ L(E). s symétrie par rapport à F le long de G⇔ ∀x∈F, p(x)=x
et ∀x∈G, p(x)=−x
Dans ce cas, F = Ker(p − id)
et G = Ker(p + id).
Caractérisation des projections∀ p ∈ L(E),
pprojection ⇔ p2 = p
Caractérisation des symétries∀ s ∈ L(E),
ssymétrie ⇔ s2 = idE
Dimension et rang
Soient E et F deux espaces vectoriels.
Dimensiondim(E) = n
⇔ ∃ φ ∈ L(E,Rn) bijective⇔ toute base de E contient n vecteurs
⇔ toute famille libre dans E contient au plus n vecteurs
et toute famille génératrice de E contient au moins n vecteurs
Dimensions de référencedim(Rn) = n ;
dim({0}) = 0 ;
dim(C) = 2 ;
dim(ℳn,p(R)) = n×p ;
dim(ℳn(R)) = n2 ;
dim(Rn[x]) = n + 1
Espaces isomorphesE et F isomorphes⇔ dim(E) = dim(F)⇔ ∃φ ∈ L(E, F) isomorphisme
Dimensions du produitdim(E × F) = dim(E) + dim(F)
Espace des applications linéairesdim(L(E, F)) = dim(E) × dim(F)
Dimension s.e.v.F s.e.v. de E
⇒ dim(F) ≤ dim(E) ;
F s.e.v. de E et dim(F) = dim(E) < +∞⇒ F = E
Formule de Grassmann
Soient F et G deux s.e.v de dimension finie. dim(F+G) = dim(F)+dim(G)−dim(F∩G)
Rang∀ φ ∈ L(E, F),
rg(φ) = dim(Im(φ))
Théorème du rang∀φ∈L(E,F),
dim(Ker(φ))+rg(φ) = dim(E)
Critères d’inversibilité∀A ∈ ℳn(R),
A inversible ⇔ AT inversible⇔ A∈𝒢ℒn(R)
⇔ ∀y,∃!x:Ax=y⇔ rg(A)=n⇔ les colonnes de A forment une base de Rn⇔ la seule solution de AX = 0 est X = 0
Expression de la trace∀ A = (ai,j) ∈ ℳn(R),
Tr(A)
= ∑k=1nai,i
Trace du produit∀ (A, B) ∈ ℳn(R)2,
Tr(A×B)
= Tr(B×A)
Résolution matricielle
Soit A ∈ 𝒢ℒn(R).
Soit X, Y ∈ ℳn,1(R).
AX = Y ⇔ X = A−1Y
Inverse du produit et de la transposée∀ (A, B) ∈ ℳn(R)2 inversibles,
(A × B)−1
= B−1 × A−1
et (AT)−1
= (A−1)T
Déterminant d’une matrice 2 × 2∀ (a, b, c, d) ∈ R4,
det [[a ;b][c ;d]]
= ad − bc
Inverse d’une matrice 2 × 2∀ (a, b, c, d) ∈ R4, si ad − bc ≠ 0
alors [[a ;b][c ;d]]−1
= (1)/(ad − bc)[[d ;−b][−c ;a]]
Représentation matricielle∀φ∈L(E, F),∀ℬ=(e1, … , em) base de E,
∀ℬ′=(e′1, … , e′n) base de F,
φ représentée par A = (ai,j) entre ℬ et ℬ′⇔ Mℬ,ℬ′(φ) = A⇔ ∀j∈⟦1, m⟧,
φ(ej)
= ∑i=1nai,je′i
Produit de matrices représentatives∀ φ ∈ L(E, F),
∀ ψ ∈ L(F, G),∀ℬ,ℬ′,ℬ″ bases respectives de E, F, G,
Mℬ′,ℬ″(ψ) × Mℬ,ℬ′(φ)
= Mℬ,ℬ″(ψ∘φ)
Matrice de passage∀ℬ, ℬ′ bases de E,
Pℬ′ℬ = Mℬ′,ℬ(id)inversible d’inverse Pℬℬ′
Changement de basex de coordonnées X′ dans la base ℬ′⇔ x de coordonnées X=Pℬ′ℬX′ dans ℬ
Matrices équivalentes∀(A,B)∈ℳn,p(R)2,
A équivalente à B⇔ ∃P,Q inversibles :
B=Q−1AP⇔ rg(A) = rg(B)
Matrices semblables∀(A,B)∈ℳn(R)2,
A semblable à B⇔ ∃P∈𝒢ℒn(R) :
B = P−1AP ⇔ A et B représentent le même endomorphisme dans des bases différentes
Classes de matrices carrées
Analyse spectrale et diagonalisation
Valeur propre et vecteur propre∀ φ ∈ L(E), ∀ x ∈ E ∖ {0},
∀ λ ∈ R,x vecteur propre de φ pour la valeur propre λ⇔ φ(x) = λ·x
∀A∈ℳn(R), ∀X∈ℳn,1(R)∖{0},
∀λ∈R,X vecteur propre de A pour la valeur propre λ⇔ AX = λ·X
Spectre de la transposée∀ A ∈ ℳn(R),
Sp(A) = Sp(AT)et ∀λ ∈ Sp(A),
dim(Eλ(A)) = dim(Eλ(AT))
Diagonalisabilité∀ φ ∈ L(E),
∀ ℬ base de E,φ diagonalisable⇔ φ représentée par une matrice diagonale⇔ Mℬ(φ) semblable à une matrice diagonale⇔ ∃(x1,…,xn) base de vecteurs propres de φ⇔ E = ⨁λ∈Sp(φ) Eλ(φ)⇔ dim(E) = ∑λ∈Sp(φ) dim(Eλ(φ))