84
Algèbre linéaire - 2 année universitaire 2018-2019 Université de Lorraine Pierre-Emmanuel Chaput

Algèbre linéaire - 2 année universitaire 2018-2019

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Algèbre linéaire - 2 année universitaire 2018-2019

Algèbre linéaire - 2année universitaire 2018-2019

Université de Lorraine

Pierre-Emmanuel Chaput

Page 2: Algèbre linéaire - 2 année universitaire 2018-2019

2

Ce polycopié est très largement inspiré du polycopié utilisé par mon prédecesseur J.F. Gros-jean, que je remercie pour son travail de rédaction.

Page 3: Algèbre linéaire - 2 année universitaire 2018-2019

Table des matières

1 Déterminants 51.1 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.1 Permutations : définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.2 Signature d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.1 Applications multinéaires : définition . . . . . . . . . . . . . . . . . . . . . 91.2.2 Applications multilinéaires alternées . . . . . . . . . . . . . . . . . . . . . 10

1.3 Définition du déterminant et premières propriétés . . . . . . . . . . . . . . . . . . 141.3.1 Déterminant d’une famille de n-vecteurs . . . . . . . . . . . . . . . . . . . 141.3.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 151.3.3 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 171.3.4 Déterminant des matrices carrées 2× 2 . . . . . . . . . . . . . . . . . . . . 181.3.5 Matrices transposées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3.6 Opérations sur les lignes et les colonnes . . . . . . . . . . . . . . . . . . . 19

1.4 Développement d’un déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.4.1 Cofacteurs et comatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.4.2 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.4.3 Matrices inverses et déterminant . . . . . . . . . . . . . . . . . . . . . . . 24

1.5 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.6 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2 Réduction des endomorphismes 292.1 Sous-espaces propres et diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1.1 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . 292.1.2 Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.1.3 Endomorphismes et matrices diagonalisables . . . . . . . . . . . . . . . . . 342.1.4 Calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . 37

2.2 Trigonalisation et théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 372.2.1 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . 372.2.2 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 422.2.3 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . 43

2.3 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.3.1 Théorème de décomposition des noyaux . . . . . . . . . . . . . . . . . . . 45

3

Page 4: Algèbre linéaire - 2 année universitaire 2018-2019

4 TABLE DES MATIÈRES

2.3.2 Polynômes annulateurs, polynôme minimal . . . . . . . . . . . . . . . . . 462.4 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502.5 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.5.1 Indice d’un endomorphisme et endomorphismes nilpotents . . . . . . . . . 532.5.2 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . 562.5.3 Décomposition de Dunford-Jordan . . . . . . . . . . . . . . . . . . . . . . 58

2.6 Applications et exemples : suites récurrentes . . . . . . . . . . . . . . . . . . . . . 612.6.1 Calcul des puissances d’un endomorphisme . . . . . . . . . . . . . . . . . 612.6.2 Une méthode de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . 622.6.3 Suites récurrentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3 Systèmes différentiels linéaires 673.1 Exponentielle d’une matrice ou d’un endomorphisme . . . . . . . . . . . . . . . . 67

3.1.1 Espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.1.2 Norme sur l’espace des endomorphismes et sur les matrices . . . . . . . . 693.1.3 Dérivabilité et intégration des fonctions à variable réelle et à valeurs dans

un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 713.1.4 Exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.2 Calcul pratique de l’exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . 773.3 Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . 79

3.3.1 Système différentiel linéaire homogène . . . . . . . . . . . . . . . . . . . . 803.3.2 Système différentiel linéaire non homogène . . . . . . . . . . . . . . . . . . 82

3.4 Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

Page 5: Algèbre linéaire - 2 année universitaire 2018-2019

Chapitre 1

Déterminants

1.1 Permutations

1.1.1 Permutations : définitions

Définition 1.1 Une permutation de l’ensemble Fn = {1, ..., n} est une bijection de Fn sur Fn.

Exemples de permutations: Soit F4 = {1, 2, 3, 4} et soit σ ∈ S4 définie par : σ(1) = 4,σ(2) = 3, σ(3) = 1 et σ(4) = 2. On écrira alors :

σ =

(1 2 3 44 3 1 2

)On notera Sn l’ensemble des permutations.

Remarque 1.2 La donnée d’un élément σ de Sn est définie par les données successives deσ(1) ∈ Fn, σ(2) ∈ Fn \ {σ(1)}, · · · , σ(n) ∈ Fn \ {σ(1), · · · , σ(n− 1)}.

On en déduit que card (Sn) = n!.

Exercice de cours 1.1 Combien y a-t-il d’éléments dans S3 ? Donner la liste des éléments deS3.

Remarque 1.3 Sn muni de la loi de composition ◦ est un groupe. En effet ◦ est une loi interne.En effet si (σ, σ′) ∈ S2

n, alors σ ◦ σ′ ∈ Sn car la composée de deux bijections est une bijection.La loi ◦ est associative. En effet si (σ, σ′, σ′′) ∈ S3

n, alors on a évidemment (σ ◦ σ′) ◦ σ′′ =σ ◦ (σ′ ◦ σ′′).

L’application identité notée id (id(k) = k pour tout k ∈ Fn) est une permutation de Fn et estl’élément neutre pour ◦. Pour tout σ ∈ Sn on a σ ◦ Id = Id ◦ σ = σ.

Tout élément σ de Sn admet un inverse qui n’est rien d’autre que la bijection réciproque σ−1.

Définition 1.4 Sn muni de la loi ◦ s’appelle le groupe des permutations ou groupe sy-métrique.

5

Page 6: Algèbre linéaire - 2 année universitaire 2018-2019

6 CHAPITRE 1. DÉTERMINANTS

Définition 1.5 On suppose que n > 2. Pour tout (i, j) ∈ F 2n tel que i < j, on appelle transpo-

sition échangeant i et j et on note τij la permutation de Fn définie par τij(i) = j, τij(j) = i etτij(k) = k, pour tout k ∈ Fn \ {i, j}.

On écrira aussi τij = (i, j).

Exemple 1.6 τ =

(1 2 3 44 2 3 1

)est une transposition et on a τ = (1, 4).

Nous admettons maintenant le théorème suivant qui nous sera utile par la suite.

Théorème 1.7 Tout élément de Sn est produit de transpositions.

1.1.2 Signature d’une permutation

Définition 1.8 Soient σ ∈ Sn et i, j ∈ {1, · · · , n}. On dit que le couple (i, j) présente uneinversion pour σ (ou est une inversion de σ) si : i < j et σ(i) > σ(j). On note `(σ) le nombred’inversions de σ.

Exemple 1.9 La permutation Id ne possédant aucune inversion, on a `(Id) = 0.

Exemple 1.10 Considérons σ =

(1 2 3 44 3 1 2

). Les couples (1, 2), (1, 3), (1, 4), (2, 3), (2, 4),

sont des inversions de σ. En revanche (3, 4) n’est pas une inversion. Donc `(σ) = 5.

Soit τ = (i, i+1) une transposition élémentaire et soit σ ∈ Sn. Etudions I(σ ◦τ). Pour k < l,on a (k, l) ∈ I(σ ◦ τ) ssi σ(τ(k)) > σ(τ(l)). Il y a deux cas de figure : si (k, l) 6= (i, i + 1) alorsτ(k) < τ(l). Alors (k, l) ∈ I(σ ◦ τ) ssi (τ(k), τ(l)) ∈ I(σ) ssi (k, l) ∈ τ(I(σ)). Si (k, l) = (i, i+ 1),alors (k, l) ∈ I(σ ◦ τ) ssi (i, i+ 1) 6∈ I(σ). On a donc montré le résultat suivant :

Exemple 1.11 Soit τ = (i, i+ 1) une transposition élémentaire et soit σ ∈ Sn.— Si (i, i+ 1) ∈ I(σ) alors I(σ ◦ τ) = τ(I(σ)) \ {(i+ 1, i)}. Dans ce cas `(σ ◦ τ) = `(σ)− 1.— Si (i, i+ 1) 6∈ I(σ) alors I(σ ◦ τ) = τ(I(σ))∪ {(i, i+ 1)}. Dans ce cas `(σ ◦ τ) = `(σ) + 1.

Exercice de cours 1.2 Montrer que pour tout σ ∈ S4, on a `(σ) ≤ 6. Existe-t-il une permuta-tion σ ∈ S4 telle que `(σ) = 6 ? Les trouver toutes.

Exercice de cours 1.3 Soit σ la permutation de l’exemple 1.10. Vérifier le Théorème 1.7 pourσ en écrivant σ comme produit de cinq transpositions de la forme (i, i+ 1) avec i ∈ {1, 2, 3}.

On pourra utiliser le fait que pour toute permutation σ′, si σ′(i) > σ′(i+1), alors `(σ′ ◦ (i, i+1)) = `(σ′) − 1, et trouver ainsi des entiers i1, i2, i3, i4, i5 tels que `(σ ◦ (i1, i1 + 1)) = `(σ) − 1,`(σ ◦ (i1, i1 + 1) ◦ (i2, i2 + 1)) = `(σ ◦ (i1, i1 + 1)) − 1, et ainsi de suite. On observera alors queσ◦(i1, i1+1)◦(i2, i2+1)◦(i3, i3+1)◦(i4, i4+1)◦(i5, i5+1) est de longueur 0, donc est l’élémentneutre.

Page 7: Algèbre linéaire - 2 année universitaire 2018-2019

1.1. PERMUTATIONS 7

Définition 1.12 On appelle signature de σ ∈ Sn, le nombre ε(σ) = (−1)`(σ).

Remarque 1.13 ε(σ) ∈ {−1, 1}.

Définition 1.14 Soit σ ∈ Sn. On dit que σ est paire si ε(σ) = 1 et σ est impaire si ε(σ) = −1.

Théorème 1.15 Soient σ, σ′ ∈ Sn. Alors :

1. ε(σ) =∏

16i<j6n

σ(j)− σ(i)

j − i.

2. ε(σ ◦ σ′) = ε(σ)ε(σ′).

3. ε(σ−1) = ε(σ).

Preuve:

1. Remarquons d’abord que :

Φ : F 2n \ {(i, i) ; i ∈ Fn} −→ F 2

n \ {(i, i) ; i ∈ Fn}(i, j) 7−→ (σ(i), σ(j))

est une bijection. Donc : ∏16i 6=j6n

σ(j)− σ(i)

j − i= 1

Or

∏16i 6=j6n

σ(j)− σ(i)

j − i=

∏16i<j6n

σ(j)− σ(i)

j − i

∏16j<i6n

σ(j)− σ(i)

j − i

=

∏16i<j6n

σ(j)− σ(i)

j − i

2

= 1

Donc∏

16i<j6n

σ(j)− σ(i)

j − i= ±1. Puisque pour tout i < j,

σ(j)− σ(i)

j − iest positif s’il y

a inversion en (i, j) et négatif sinon, le signe de∏

16i<j6n

σ(j)− σ(i)

j − iest (−1)`(σ). On en

déduit que∏

16i<j6n

σ(j)− σ(i)

j − i= (−1)`(σ) = ε(σ).

2. Montrons la deuxième assertion.

Page 8: Algèbre linéaire - 2 année universitaire 2018-2019

8 CHAPITRE 1. DÉTERMINANTS

ε(σ ◦ σ′) =∏

16i<j6n

σ ◦ σ′(j)− σ ◦ σ′(i)j − i

=∏

16i<j6n

σ ◦ σ′(j)− σ ◦ σ′(i)σ′(j)− σ′(i)

σ′(j)− σ′(i)j − i

=

∏16i<j6n

σ(σ′(j))− σ(σ′(i))

σ′(j)− σ′(i)

ε(σ′)

=

∏16i,j6n

σ′(i)<σ′(j)

σ(σ′(j))− σ(σ′(i))

σ′(j)− σ′(i)

ε(σ′)

Maintenant, l’application

{(i, j)/σ′(i) < σ′(j)} −→ {(k, l)/k < l}(i, j) 7−→ (σ′(i), σ′(j))

est une bijection. Donc∏16i,j6n

σ′(i)<σ′(j)

σ(σ′(j))− σ(σ′(i))

σ′(j)− σ′(i)=

∏16k<l6n

σ(l)− σ(k)

l − k= ε(σ)

Ceci achève la preuve de l’assertion 2.

3. De 2. on déduit immédiatement que pour tout σ ∈ Sn, ε(id) = ε(σ◦σ−1) = ε(σ)ε(σ−1) =1. Donc ε(σ) et ε(σ−1) ont même signe et ε(σ) = ε(σ−1).

Proposition 1.16 Soit τ une transposition de Sn. Alors τ est impaire.

Preuve: Supposons que τ = (i, j) avec i < j. Nous allons compter le nombre d’inversions entous les couples (k, l), k < l. Si k 6= i, j et l 6= i, j, on n’a pas d’inversion en (k, l). Donc regardonsles cas où l’un des deux entiers est i ou j.

Si k < i, il n’y a pas d’inversion en (k, i) et (k, j). De même si k > j, il n’y a pas d’inversionen (i, k) et (j, k). Par contre si j − i > 2 et i < k < j, il y a inversion en (i, k) et (k, j), ce quifait 2(j − i− 1) inversions pour tous les couples de cette forme. Enfin comme il y a inversion en(i, j), on en déduit que `(τ) = 1 + 2(j − i− 1) si j − i > 2 et `(τ) = 1 si j − i = 1. On obtient lerésultat désiré puisque ε(τ) = (−1)`(τ).

Exercice de cours 1.4 Montrer que la transposition (2, 4), dans S5, est de longueur 3, doncque cette transposition est bien impaire.

Page 9: Algèbre linéaire - 2 année universitaire 2018-2019

1.2. APPLICATIONS MULTILINÉAIRES 9

1.2 Applications multilinéaires

Dans toute la suite, K désigne le corps des réels ou des complexes.

1.2.1 Applications multinéaires : définition

Définition 1.17 Soient E et F deux espaces vectoriels sur K. On dit que l’application :

f : Ep = E × · · · × E −→ F(x1, · · · , xp) 7−→ f(x1, · · · , xp)

est une application multilinéaire ou p-linéaire si pour tout i compris entre 1 et p et pourtous vecteurs x1,...,xi−1, xi+1,...,xp fixés, l’application :

x 7−→ f(x1, · · · , xi−1, x, xi+1, · · · , xp)

est une application linéaire de E dans F . Si de plus F = K, on dit que f est une forme p-linéaire.

Autrement dit on a pour tous vecteurs x et y de E :

f(x1, · · · , xi−1, λx+ µy, xi+1, · · · , xp) =

λf(x1, · · · , xi−1, x, xi+1, · · · , xp) + µf(x1, · · · , xi−1, y, xi+1, · · · , xp)

Exercice de cours 1.5 Soit E = R2 et F = R3, et soit p = 2. Montrer que l’application

f : E2 = R2 × R2 −→ R3

((x1, y1), (x2, y2)) 7−→ (0, x1y2 − y1x2, 0)(1.1)

est bilinéaire, mais pas celle définie de façon similaire par le vecteur (0, x1y1 − x2y2, 0).

Remarque 1.18 Notons Lp(E,F ) l’ensemble des applications p-linéaires de E dans F . Étantdonné λ ∈ K, f, g ∈ Lp(E,F ), on peut définir les deux opérations suivantes :

1. (f + g)(x1, · · · , xp) = f(x1, · · · , xp) + g(x1, · · · , xp).2. (λf)(x1, · · · , xp) = λf(x1, · · · , xp).

Alors il est facile de vérifier que Lp(E,F ) muni de ces deux opérations est un espace vectorielsur K.

1.2.2 Applications multilinéaires alternées

Définition 1.19 Soient E et F deux espaces vectoriels sur K et v : Ep = E × · · · × E −→ Fune application multilinéaire. On dit que v est alternée si pour tout couple (i, j) ∈ F 2

p tel quei 6= j et pour tout (x1, · · ·xp) ∈ Ep :

xi = xj implique v(x1, · · · , xp) = 0

Page 10: Algèbre linéaire - 2 année universitaire 2018-2019

10 CHAPITRE 1. DÉTERMINANTS

Exercice de cours 1.6 Montrer que l’application f définie par (1.1) est alternée.

Proposition 1.20 Si v : Ep = E × · · · × E −→ F est une application multilinéaire alternée,alors pour tout couple (i, j) ∈ {1, . . . , p}2 tel que i < j, on a :

v(x1, . . . , xi, . . . , xj , . . . , xp) = −v(x1, . . . , xj , . . . , xi, . . . , xp)

Preuve: Comme v est multilinéaire et alternée on a :

0 =v(x1, . . . , xi + xj , . . . , xi + xj , . . . , xp)

= v(x1, . . . , xi, . . . , xi, . . . , xp) + v(x1, . . . , xi, . . . , xj , . . . , xp)

+ v(x1, . . . , xj , . . . , xi, . . . , xp) + v(x1, . . . , xj , . . . , xj , . . . , xp)

= v(x1, . . . , xi, . . . , xj , . . . , xp) + v(x1, . . . , xj , . . . , xi, . . . , xp)

d’où le résultat.

Exercice de cours 1.7 Montrer que le produit vectoriel sur R3 est une application bilinéairealternée. On pourra utiliser la formule qui définit ce produit vectoriel, (x1, y1, z1) ∧ (x2, y2, z2) =(y1z2 − y2z1, z1x2 − z2x1, x1y2 − x2y1), ou la règle des trois doigts de Maxwell.

Remarque 1.21 L’ensemble Λp(E,F ) des applications multilinéaires alternées de E dans F estun sous-espace vectoriel de Lp(E,F ) pour les opérations définies dans la remarque 1.18.

Remarque 1.22 De la proposition 1.20, on déduit immédiatement que si τ est une transpositionde Sp, v(x1, · · · , xp) = ε(τ)v(xτ(1), · · · , xτ(p)).

Cette remarque nous conduit à la proposition suivante :

Proposition 1.23 Soit v : Ep = E × · · · × E −→ F une application multilinéaire alternée etsoit σ ∈ Sp. Alors pour tout vecteur (x1, · · · , xp) ∈ Ep, on a :

v(x1, · · · , xp) = ε(σ)v(xσ(1), · · · , xσ(p))

Preuve: La preuve résulte d’une application directe du théorème 1.7. En effet toute permutations’écrivant comme un produit de transpositions, il existe des transpositions τ1, ..., τk telles queσ = τ1 ◦ · · · ◦ τk. De la remarque ci-dessus, il découle que :

v(x1, · · · , xp) = ε(τ1)v(xτ1(1), · · · , xτ1(p))= ε(τ1)ε(τ2)v(xτ1◦τ2(1), · · · , xτ1◦τ2(p))= · · · · · · · · · · · · · · ·= ε(τ1)ε(τ2) · · · ε(τk)v(xτ1◦τ2◦···◦τk(1), · · · , xτ1◦τ2◦···◦τk(p))= ε(τ1)ε(τ2) · · · ε(τk)v(xσ(1), · · · , xσ(p))

Page 11: Algèbre linéaire - 2 année universitaire 2018-2019

1.2. APPLICATIONS MULTILINÉAIRES 11

La deuxième égalité découle de la relation

v(y1, · · · , yp) = ε(τ2)v(yτ2(1), · · · , yτ2(p))

appliquée à y1, · · · , yp définis par yj = xτ1(j).et utilisant la propriété 2. du théorème 1.15, on déduit que ε(τ1)ε(τ2) · · · ε(τk) = ε(τ1 ◦ τ2 ◦ · · · ◦τk) = ε(σ), d’où le résultat recherché.

Proposition 1.24 Soit E un espace vectoriel de dimension n sur K.

1. Soit B = (e1, . . . , en) une base de E. Pour tous vecteurs x1,...,xn de E, on note

x11...xn1

,...,

x1n...xnn

leurs coordonnées respectives dans la base B. Définissons ω par :

ω : En −→ K

(x1, . . . xn) 7−→ ω(x1, . . . , xn) =∑σ∈Sn

ε(σ)n∏i=1

xσ(i),i.

Alors ω est l’unique forme n-linéaire alternée En → K vérifiant ω(e1, . . . , en) = 1.

2. ∀v ∈ Λn(E,K) on a v = v(e1, . . . , en)ω.

3. dim(Λn(E,K)) = 1.

Exercice de cours 1.8 Supposer que n = 2. Calculer ω((

12

),

(34

)).

Exercice de cours 1.9 Supposer que n = 3. Montrer que ω

123

,

234

,

357

= 0.

Preuve de la proposition : Montrons que ω est une n-forme linéaire alternée. Soit x′i ∈ E

de coordonnées

x′1i...x′ni

dans (e1, · · · , en) et soient λ, λ′ ∈ K. Alors :

ω(x1, · · · , λxi + λ′x′i, · · · , xn) =∑σ∈Sn

ε(σ)xσ(1)1 · · · (λxσ(i)i + λ′x′σ(i)i) · · ·xσ(n)n

= λ∑σ∈Sn

ε(σ)xσ(1)1 · · ·xσ(i)i · · ·xσ(n)n

+ λ′∑σ∈Sn

ε(σ)xσ(1)1 · · ·x′σ(i)i · · ·xσ(n)n

= λω(x1, · · · , xi, · · · , xn) + λ′ω(x1, · · · , x′i, · · · , xn)

Page 12: Algèbre linéaire - 2 année universitaire 2018-2019

12 CHAPITRE 1. DÉTERMINANTS

Donc ω est multilinéaire. Montrons maintenant que ω est alternée. Soit (i, j) ∈ {1, . . . , p}2 telque i < j. Supposons que xi = xj . Considérons τ = (i, j) la transposition qui échange i et j.Alors :

ω(x1, · · · , xi, · · · , xj , · · · , xn) = ω(xτ(1), · · · , xτ(n))

=∑σ∈Sn

ε(σ)xσ(1)τ(1) · · ·xσ(n)τ(n)

=∑σ∈Sn

ε(σ)xσ(τ(1))τ(τ(1)) · · ·xσ(τ(n))τ(τ(n)).

La dernière égalité provient de l’égalité

n∏j=1

xσ(j),τ(j) =n∏k=1

xσ(k),τ(k) =

n∏j=1

xσ(τ(j)),τ(τ(j)).

Or τ ◦ τ = id, donc :

ω(x1, · · · , xi, · · · , xj , · · · , xn) =∑σ∈Sn

ε(σ)xσ◦τ(1)1 · · ·xσ◦τ(n)n

= −∑σ∈Sn

ε(σ ◦ τ)xσ◦τ(1)1 · · ·xσ◦τ(n)n

car ε(σ ◦ τ) = ε(σ)ε(τ) = −ε(σ) et ε(τ) = −1. Comme σ 7−→ σ ◦ τ est une bijection de Sn surlui-même, on déduit que :

ω(x1, · · · , xi, · · · , xj , · · · , xn) = −∑σ∈Sn

ε(σ)xσ(1)1 · · ·xσ(n)n

= −ω(x1, · · · , xi, · · · , xj , · · · , xn)

Donc 2ω(x1, · · · , xi, · · · , xj , · · · , xn) = 0 et comme K est R ou C, on déduit que

ω(x1, · · · , xi, · · · , xj , · · · , xn) = 0.

Donc ω est alternée.D’autre part si les vecteurs x1,...,xn sont les vecteurs e1,...,en de la base canonique alors

xij = 0 si i 6= j et xii = 1. Donc xσ(1)1 · · ·xσ(n)n 6= 0 si et seulement si σ(i) = i pour tout icompris entre 1 et n c’est-à-dire si et seulement si σ = id. Donc :

ω(e1, · · · , en) = x11 · · ·xnn = 1

Soit maintenant v une forme n-linéaire alternée. Alors :

Page 13: Algèbre linéaire - 2 année universitaire 2018-2019

1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 13

v(x1, · · · , xn) = v

(n∑

i1=1

xi11ei1 ,

n∑i2=1

xi22ei2 , · · · ,n∑

in=1

xinnein

)

=

n∑i1=1

n∑i2=1

· · ·n∑

in=1

xi11xi22 · · ·xinnv(ei1 , · · · , ein)

Comme v est multilinéaire alternée, dès que pour k 6= l on a ik = il, alors v(ei1 , · · · , ein) = 0.Donc on ne va considérer que les termes où tous les ij sont différents. Cela revient à dire quel’application j 7−→ ij qui va de {1, · · · , n} dans lui-même est une bijection donc une permutationσ de Sn. Donc en réécrivant ij = σ(j), on a :

v(x1, · · · , xn) =∑σ∈Sn

xσ(1)1 · · ·xσ(n)nv(eσ(1), · · · , eσ(n))

=∑σ∈Sn

ε(σ)xσ(1)1 · · ·xσ(n)nv(e1, · · · , en)

où dans cette dernière égalité on a appliqué la proposition 1.23. Donc v = v(e1, . . . , en)ω.En particulier, si v est une forme n-linéaire alternée telle que v(e1, . . . , en) = 1, on obtient

v = ω, ce qui montre l’unicité de ω affirmée au premier point.Enfin comme v = v(e1, . . . , en)ω, il est facile de voir que ω est l’unique n-forme alternée telle

que ω(e1, . . . , en) = 1.

1.3 Définition du déterminant et premières propriétés

1.3.1 Déterminant d’une famille de n-vecteurs

Notation 1.25 D’après la proposition précédente si E est un K-espace vectoriel de dimensionn muni d’une base B = (e1, · · · , en), alors il existe une unique n-forme linéaire alternée ω telleque ω(e1, · · · , en) = 1. Notons detB = ω.

Définition 1.26 Soit E un espace vectoriel de dimension n muni d’une base B = (e1, . . . , en).Alors pour toute famille de n vecteurs (u1, . . . , un) le scalaire detB(u1, . . . , un) s’appelle le dé-terminant de la famille (u1, . . . , un) dans la base B.

Remarque 1.27 De la proposition 1.24 on déduit immédiatement que :

∀v ∈ Λn(E,K), ∀(u1, · · · , un) ∈ En, v(u1, · · · , un) = v(e1, · · · , en)detB(u1, · · · , un)

Preuve: En effet, la fonction v est n-linéaire et alternée, donc elle est égale à λ · detB pour uncertain scalaire λ. En calculant sa valeur sur (e1, . . . , en), on voit que λ = v(e1, . . . , en).

Proposition 1.28 Soit (u1, · · · , un) ∈ En. Alors la famille (u1, · · · , un) est liée si et seulementsi detB(u1, · · · , un) = 0.

Page 14: Algèbre linéaire - 2 année universitaire 2018-2019

14 CHAPITRE 1. DÉTERMINANTS

Preuve: Supposons que (u1, · · · , un) est liée. Alors il existe des scalaires λ1, · · · , λn non tousnuls tels que :

λ1u1 + · · ·+ λnun = 0

Comme λ1, · · · , λn non tous nuls, il existe i ∈ {1, · · · , n} tel que λi 6= 0. Donc :

ui = −∑

16j6nj 6=i

λjλiuj =

∑16j6nj 6=i

αjuj

etdetB(u1, · · · , un) =

∑16j6nj 6=i

αjdetB(u1, · · · , ui−1, uj , ui−1, · · · , un) = 0

Réciproquement si detB(u1, · · · , un) = 0. Supposons par l’absurde que (u1, · · · , un) est libre.Comme E est de dimension n, B′ = (u1, · · · , un) est une base de E. Donc, d’après la Remarque1.27 appliquée à v = detB′ :

detB′(u1, · · · , un) = detB′(e1, · · · , en)detB(u1, · · · , un) = 0

Ceci contredit le fait que detB′(u1, · · · , un) = 1 donc (u1, · · · , un) est liée.

Exercice de cours 1.10 Montrer que les calculs de déterminants effectués dans les deux exer-cices suivant la Proposition 1.24 sont en accord avec la Proposition 1.28.

1.3.2 Déterminant d’un endomorphisme

Proposition et définition 1.29 Soit E un espace vectoriel sur K de dimension finie n, f unendomorphisme de E et v : En −→ K une forme n-linéaire alternée non nulle. Soit f?(v)l’application de En dans K définie pour tous x1, · · · , xn par :

f?(v)(x1, · · · , xn) = v(f(x1), · · · , f(xn))

Alors f?(v) est une forme n-linéaire alternée et f?(v) = λv. De plus λ ne dépend pas du choixde v et s’appelle le déterminant de f . On note λ = det(f).

Preuve: La preuve du fait que f?(v) est multilinéaire alternée est laissée au lecteur. La pro-position 1.24 nous disant que l’espace des formes multilinéaires alternées est un espace vectorielde dimension 1, il s’ensuit que v étant non nul est une base de cet espace et donc f?(v) = λv.Maintenant si v′ est une autre forme n-linéaire alternée non nulle, alors v′ = µv et on en déduitfacilement que f?(v′) = λv′ ce qui prouve l’unicité de λ.

Exercice de cours 1.11 Soit ω : R2 × R2 → R la forme bilinéaire alternée définie par laformule ω((x1, y1), (x2, y2)) = x1y2 − x2y1 et soit f1, f2, f3 : R2 → R2 définies par f1(x, y) =(2y, 3x), f2(x, y) = (x+ 2y, y) et f3(x, y) = (2x+ y, 4x+ 2y). Calculer f?1ω, f

?2ω et f?3ω.

Page 15: Algèbre linéaire - 2 année universitaire 2018-2019

1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 15

Proposition 1.30 Soit E un espace vectoriel de dimension n muni d’une base B = (e1, . . . , en)et soit f ∈ L(E). Alors :

det(f) = detB(f(e1), . . . , f(en))

Preuve: D’après la définition de det(f) on a

detB(f(e1), . . . , f(en)) = f?(detB)(e1, . . . , en) = det(f)detB(e1, . . . , en) = det(f).

Proposition 1.31 Soit E un espace vectoriel de dimension finie n sur K. Alors pour tout en-domorphisme f de E et tout λ ∈ K on a :

det(λf) = λndet(f)

Preuve: Soit B = (e1, · · · , en) une base de E alors :

det(λf) = detB((λf)(e1), · · · , (λf)(en)) = detB(λf(e1), · · · , λf(en))

= λndetB(f(e1), · · · , f(en))

Cette dernière égalité provient du fait que detB est une forme n-linéaire. On en déduit donc lerésultat recherché.

Proposition 1.32 Soit E un espace vectoriel de dimension finie n sur K. Soient f et g deuxendomorphismes de E. Alors :

det(f ◦ g) = det(f)det(g)

Preuve: Soit v une forme n-linéaire alternée non nulle. Alors :

((f ◦ g)?v)(x1, · · · , xn) = v((f ◦ g)(x1), · · · , (f ◦ g)(xn)

= v(f(g(x1)), · · · , f(g(xn)))

= det(f)v(g(x1), · · · , g(xn))

= det(f)det(g)v(x1, · · · , xn)

Ceci permet de conclure que (f◦g)?(v) = det(f)det(g)v. Mais d’autre part, on a aussi (f◦g)?(v) =det(f ◦ g)v, d’où le résultat.

Exercice de cours 1.12 Pour les fonctions f1, f2, f3 de l’exercice précédent, calculer f1 ◦ f2, etdet(f1 ◦ f2) de deux manières différentes.

Proposition 1.33 Soit E un espace vectoriel de dimension finie n.

1. Alors det(IdE) = 1.

2. Un endomorphisme f de E est un automorphisme de E si et seulement si det(f) 6= 0. Si

f est un automorphisme alors : det(f−1) =1

det(f).

Page 16: Algèbre linéaire - 2 année universitaire 2018-2019

16 CHAPITRE 1. DÉTERMINANTS

Preuve: Étant donnée v une forme n-linéaire alternée non nulle on a de manière immédiateId?Ev = v, donc det(IdE) = 1 ce qui montre le point 1.

Supposons maintenant que f est un automorphisme. Alors d’après la proposition 1.32 on a :

det(f ◦ f−1) = det(f)det(f−1) = det(IdE) = 1

Ce qui montre que det(f) 6= 0 ainsi que la relation demandée.Réciproquement supposons que det(f) 6= 0. Soit B = (e1, . . . , en) une base de E. Alors

det(f) = detB(f(e1), . . . , f(en))

Comme det(f) 6= 0, d’après la proposition 1.28 (f(e1), . . . , f(en)) est une famille libre de E, doncune base de E. Il s’ensuit que f est surjective et comme les espaces de départ et d’arrivée sontde même dimension, f est un automorphisme.

Proposition 1.34 Soit E un espace vectoriel de dimension n sur K muni d’une base B =(e1, . . . , en). Soient f ∈ L(E) et A = (aij)16i,j6n la matrice de f dans B. Alors

det(f) =∑σ∈Sn

ε(σ)

n∏i=1

aσ(i)i

Preuve: D’après la proposition 1.30 det(f) = detB(f(e1), . . . , f(en)). D’autre part la j-ièmecolonne de A n’étant rien d’autre que les coordonnées dans la base B de f(ej), on déduit dupoint 1. de la proposition 1.24 la relation souhaitée.

1.3.3 Déterminant d’une matrice

Soit A ∈Mn,n(K). On note A =

a11 · · · a1n...

...an1 · · · ann

.

Définition 1.35 On note fA : Kn → Kn l’application linéaire définie par : fA(X) = AX. Ledéterminant de A est alors défini par la formule

det(A) = det(fA). (1.2)

Remarque 1.36— On a évidemment det(In) = 1. En effet :

det(In) = det(IdKn) = 1

— D’autre part, la Proposition 1.34 donne det(A) =∑σ∈Sn

ε(σ)n∏i=1

aσ(i)i.

Comme corollaire de la Définition 1.35 et des propositions 1.31, 1.32 et 1.33 on a les théorèmessuivants :

Page 17: Algèbre linéaire - 2 année universitaire 2018-2019

1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 17

Théorème 1.37 Soit A ∈Mn(K) et λ ∈ K. Alors :

det(λA) = λndet(A)

Théorème 1.38 Soient A,B ∈Mn(K). Alors det(AB) = det(A)det(B).

Théorème 1.39 Soit A ∈ Mn(K). Alors A est inversible si et seulement si det(A) 6= 0. Si A

est inversible alors : det(A−1) =1

det(A).

Nous verrons dans la partie 4.2 que l’on peut retrouver ce résultat de manière différente.

Proposition 1.40 Soit E un espace vectoriel de dimension n sur un corps K muni d’une baseB et soit (u1, · · · , un) une famille de n vecteurs. Soit P la matrice de (u1, · · · , un) dans B. Alors

detB(u1, · · · , un) = det(P )

Preuve: La matrice P est en effet la matrice, dans la base B, de l’application linéaire f quienvoie les vecteurs de la base B sur les vecteurs u1, · · · , un. Or, par définition, le déterminant d’unematrice est le déterminant de l’application linéaire qui lui est associée. Donc det(P ) = det(f).Le résultat découle donc de la Proposition 1.30, qui donne det(f) = detB(f(e1), · · · , f(en)).

1.3.4 Déterminant des matrices carrées 2× 2

Soit A =

(a11 a12a21 a22

), alors det(A) =

∑σ∈S2

ε(σ)aσ(1)1aσ(2)2. Il n’y a que deux permutations

dans S2, les permutations id =

(1 21 2

)et τ =

(1 22 1

). On a alors ε(id) = 1 et ε(τ) = −1.

Donc :

Proposition 1.41 Soit A =

(a11 a12a21 a22

), alors

det(A) = a11a22 − a21a12.

1.3.5 Matrices transposées

Définition 1.42 Soit A = (aij)16i,j6n. La transposée tA de A est la matrice dont les coefficientssont les ai,j, avec aij = aji.

Exercice de cours 1.13 Soit A =

(a bc d

)∈M2,2(K). Montrer que det( tA) = det(A).

Proposition 1.43 Soit A ∈Mn(K), alors det( tA) = det(A).

Page 18: Algèbre linéaire - 2 année universitaire 2018-2019

18 CHAPITRE 1. DÉTERMINANTS

Preuve: Soit A = (aij)16i,j6n, on a tA = (aij)16i,j6n avec aij = aji. Donc :

det( tA) =∑σ∈Sn

ε(σ)aσ(1)1 · · · aσ(n)n

=∑σ∈Sn

ε(σ)a1σ(1) · · · anσ(n)

On peut permuter les facteurs a1σ(1),..., anσ(n). On a alors :

a1σ(1) · · · anσ(n) = aσ′(1)σ(σ′(1)) · · · aσ′(n)σ(σ′(n))

pour tout σ′ ∈ Sn. C’est en particulier vrai si on prend σ′ = σ−1. On a donc :

det( tA) =∑σ∈Sn

ε(σ)aσ−1(1)1 · · · aσ−1(n)n

mais ε(σ) = ε(σ−1), donc

det( tA) =∑σ∈Sn

ε(σ−1)aσ−1(1)1 · · · aσ−1(n)n

Or l’application σ 7−→ σ−1 est une bijection de Sn dans lui-même. Donc finalement,

det( tA) =∑σ∈Sn

ε(σ)aσ(1)1 · · · aσ(n)n = det(A)

Remarque 1.44 Le fait que det( tA) = det(A) a pour conséquence que toutes les propriétés dudéterminant démontrées sur les colonnes restent vraies sur les lignes et vice versa.

1.3.6 Opérations sur les lignes et les colonnes

Soit A =

a11 · · · a1n...

...an1 · · · ann

∈Mn(K).

On notera par la suite :

C1(A) =

a11...an1

, · · · , Cn(A) =

a1n...ann

les colonnes de A et :

L1(A), · · · , Ln(A)

les lignes de A.Alors det(A) = detC(C1(A), · · · , Cn(A)) = det( tA) = detC( tL1(A), · · · , tLn(A)). Les deux

propositions qui suivent sont des conséquences immédiates du fait que detC est multilinéairealternée.

Page 19: Algèbre linéaire - 2 année universitaire 2018-2019

1.4. DÉVELOPPEMENT D’UN DÉTERMINANT 19

Proposition 1.45 Si une colonne (ou une ligne) est combinaison linéaire d’autres colonnes (oulignes) alors det(A) = 0. En particulier, si deux colonnes (ou deux lignes) sont égales, alorsdet(A) = 0.

Exercice de cours 1.14 Soit A ∈ Mn,n(K) une matrice telle que L1(A) = L2(A). Donner lesdétails de la preuve de l’égalité det(A) = 0.

Proposition 1.46 (Opérations sur les colonnes)

1. Si à la colonne Cj(A) (ou à la ligne Li(A)) on ajoute une combinaison linéaire des autrescolonnes

∑k 6=j

λkCk(A) (ou des autres lignes∑k 6=i

λkLk(A)), le déterminant reste in-

changé.2. Si on permute deux colonnes (ou deux lignes) de A, le déterminant change de signe.3. Si on multiplie une colonne (ou une ligne) de A par µ, alors le déterminant de A est

multiplié par µ.

Exercice de cours 1.15 Montrer le cas particulier suivant de la Proposition ci-dessus :

detC(C1(A) + 2C2(A), C2(A), · · · , Cn(A)) = detC(C1(A), C2(A), · · · , Cn(A)).

Exercice de cours 1.16 Calculer le déterminant de la matrice(

1 23 6

). Vérifier le résultat ob-

tenu à l’aide de la Proposition 1.45.

1.4 Développement d’un déterminant suivant une ligne ou unecolonne

1.4.1 Cofacteurs et comatrices

Soit A ∈ Mn(K). On note A(i, j) la matrice deMn−1(K) obtenue en supprimant la i-ièmeligne et la j-ième colonne de A.

Exemple 1.47 Soit A =

3 3 70 2 2−3 −1 −4

. Alors :

A(1, 2) =

(0 2−3 −4

)Définitions 1.48 Soit A ∈Mn(K).

— On appelle cofacteur de A = (aij)16i,j6n d’indice (i, j) le coefficient

aij = (−1)i+jdet(A(i, j))

— La matrice A = (aij)16i,j6n de Mn(K) s’appelle la matrice des cofacteurs ou coma-trice.

Page 20: Algèbre linéaire - 2 année universitaire 2018-2019

20 CHAPITRE 1. DÉTERMINANTS

Exercice de cours 1.17 Soit A la matrice

3 3 70 2 2−3 −1 −4

. Montrer que A =

−6 −6 65 9 −6−8 −6 6

.

Avant d’énoncer le théorème principal, nous avons besoin des deux lemmes suivants :

Lemme 1.49 Soit B ∈Mn−1(K) et A =

1 0 · · · 00... B0

. Alors det(A) = det(B).

Preuve: Considérons les applications :

Φ : Mn−1,1(K) −→ Mn,1(K)

X =

x1...

xn−1

7−→ Φ(X) =

0x1...

xn−1

et

V : Mn−1,1(K)n−1 −→ K(X1, · · · , Xn−1) 7−→ detC(E1,Φ(X1), · · · ,Φ(Xn−1))

Alors Φ est une application linéaire et de manière immédiate, V est une forme n − 1-linéairealternée. Soit C′ = (E′1, · · · , E′n−1) la base canonique deMn−1,1(K). Alors

V (E′1, · · · , E′n−1) = detC(E1,Φ(E′1), · · · ,Φ(E′n−1)) = detC(E1, · · · , En) = 1

D’après la proposition 1.24, il existe une unique n − 1-forme alternée sur Mn−1,1(K) vérifiantV (E′1, . . . , E

′n−1) = 1. Donc V = detC′ et on a :

det(B) = detC′(C1(B), · · · , Cn−1(B))

= detC [E1,Φ(C1(A)), · · · ,Φ(Cn−1(A))]

=

∣∣∣∣∣∣∣∣∣1 0 · · · 00... B0

∣∣∣∣∣∣∣∣∣ce qui achève la preuve.

Lemme 1.50 Soit C =

a11 · · · a1j−1 0 a1j+1 · · · a1n...

......

......

ai−11 · · · ai−1j−1 0 ai−1j+1 · · · ai−1nai1 · · · aij−1 1 aij+1 · · · ainai+11 · · · ai+1j−1 0 ai+1j+1 · · · ai+1n...

......

......

an1 · · · anj−1 0 anj+1 · · · ann

.

Alors det(C) = (−1)i+jdet(A(i, j)).

Page 21: Algèbre linéaire - 2 année universitaire 2018-2019

1.4. DÉVELOPPEMENT D’UN DÉTERMINANT 21

Preuve: Après avoir échangé la ligne i avec la ligne i−1, puis la ligne i−1 avec la ligne i−2, etainsi de suite jusqu’à la première ligne, et après avoir fait de même avec les colonnes, on obtientd’après les règles de la Proposition 1.46 :

det(C) = (−1)i+j

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 ai1 · · · aij−1 aij+1 · · · ain0 a11 · · · a1j−1 a1j+1 · · · a1n...

......

......

0 ai−11 · · · ai−1j−1 ai−1j+1 · · · ai−1n0 ai+11 · · · ai+1j−1 ai+1j+1 · · · ai+1n...

......

......

0 an1 · · · anj−1 anj+1 · · · ann

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= (−1)i+j

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 ai1 · · · aij−1 aij+1 · · · ain0...... A(i, j)...0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= (−1)i+j

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

1 0 · · · · · · · · · · · · 00...... A(i, j)...0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣= (−1)i+jdet(A(i, j))

d’après le lemme précédent.Nous sommes maintenant en mesure d’énoncer un théorème fondamental sur le calcul des

déterminants qui sert constamment.

Théorème 1.51 Soit A = (aij) ∈Mn(K) et k un entier tel que 1 6 k 6 n. Alors :

1. det(A) =

n∑i=1

(−1)i+kaikdet(A(i, k)) =n∑i=1

aikaik. On dit qu’on développe suivant la

colonne k.

2. det(A) =n∑j=1

(−1)k+jakjdet(A(k, j)) =n∑j=1

akj akj. On dit qu’on développe suivant la

ligne k.

Exemple 1.52 Calculons det(A) =

∣∣∣∣∣∣3 3 70 2 2−3 −1 −4

∣∣∣∣∣∣. Nous allons développer ce déterminant sui-

vant la deuxième colonne. Pour cela affectons chaque coefficients aij de la matrice, du signe(−1)i+j. On a alors :

Page 22: Algèbre linéaire - 2 année universitaire 2018-2019

22 CHAPITRE 1. DÉTERMINANTS

∣∣∣∣∣∣3 3 70 2 2−3 −1 −4

∣∣∣∣∣∣ =

∣∣∣∣∣∣3+ 3− 7+

0− 2+ 2−

−3+ −1− −4+

∣∣∣∣∣∣= −3

∣∣∣∣ 0 2−3 −4

∣∣∣∣+2

∣∣∣∣ 3 7−3 −4

∣∣∣∣−(−1)

∣∣∣∣3 70 2

∣∣∣∣où∣∣∣∣ 0 2−3 −4

∣∣∣∣ a été obtenue en supprimant la première ligne et la deuxième colonne,∣∣∣∣ 3 7−3 −4

∣∣∣∣ ensupprimant la deuxième ligne et la deuxième colonne et

∣∣∣∣3 70 2

∣∣∣∣ la troisième ligne et la deuxième

colonne.D’où det(A) = −3 · 6 + 2 · 9 + 1 · 6 = 6.

Preuve du théorème 1.51: Montrons le 1. du théorème. La k-ième colonne de A peut sécrire :

a1k...ank

= a1k

10...0

+ · · ·+ ank

0...01

comme le déterminant est multilinéaire, on a immédiatement,

det(A) =n∑i=1

aik

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 · · · a1k−1 0 a1k+1 · · · a1n...

......

......

ai−11 · · · ai−1k−1 0 ai−1k+1 · · · ai−1nai1 · · · aik−1 1 aik+1 · · · ainai+11 · · · ai+1k−1 0 ai+1k+1 · · · ai+1n...

......

......

an1 · · · ank−1 0 ank+1 · · · ann

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣Et d’après le lemme 1.50, on a :

det(A) =n∑i=1

(−1)i+kaikdet(A(i, k)).

D’autre part, comme det( tA) = det(A), on obtient immédiatement l’assertion 2.

Proposition 1.53 (Règle de Sarrus) On a :∣∣∣∣∣∣a11 a12 a13a21 a22 a23a31 a32 a33

∣∣∣∣∣∣ = a11a22a33 + a21a32a13 + a31a12a23

− (a13a22a31 + a23a32a11 + a33a12a21)

Page 23: Algèbre linéaire - 2 année universitaire 2018-2019

1.4. DÉVELOPPEMENT D’UN DÉTERMINANT 23

La preuve s’obtient en développant par rapport à n’importe quelle ligne ou colonne.

Remarque 1.54 On obtient facilement le résultat en écrivant :

∣∣∣∣∣∣∣∣a11 a12 a13a21 a22 a23a31 a32 a33

∣∣∣∣∣∣∣∣a11 a12 a13a21 a22 a23

= a11a22a33 + a21a32a13 + a31a12a23

− (a13a22a31 + a23a32a11 + a33a12a21)

Attention ! La règle de Sarrus fonctionne uniquement pour les matrices (3, 3).

1.4.2 Matrices triangulaires

Définition 1.55 Une matrice A = (ai,j) est dite triangulaire si elle est triangulaire inférieure(ie i < j ⇒ ai,j = 0) ou triangulaire supérieure (ie i > j ⇒ ai,j = 0).

Proposition 1.56 Soit A = (aij)16i,j6n une matrice triangulaire. Alors det(A) = a11 · · · ann.

Preuve: On démontre le résultat par récurrence sur n pour les matrices triangulaires supé-rieures. La relation est vraie pour n = 1. Supposons maintenant qu’elle est vraie pour les matricesdeMn(K) pour un entier n > 1 et montrons qu’elle reste vraie pour les matrices deMn+1(K).Soit A une matrice triangulaire supérieure deMn+1(K). Alors

A =

a11 a12 · · · · · · a1n

0 a22...

... 0. . .

......

.... . .

...0 0 · · · 0 an+1 n+1

En développant suivant la dernière ligne on a :

det(A) = an+1 n+1

∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · · · · a1n

0 a22...

... 0. . .

......

.... . .

...0 0 · · · 0 ann

∣∣∣∣∣∣∣∣∣∣∣∣∣Par hypothèse de récurrence le résultat étant vrai pour les matrices de Mn(K) on obtient lerésultat voulu.

D’autre part, comme pour toute matrice carrée A, det(A) = det( tA), la proposition restevraie pour les matrices triangulaires inférieures.

Page 24: Algèbre linéaire - 2 année universitaire 2018-2019

24 CHAPITRE 1. DÉTERMINANTS

Exercice de cours 1.18 Calculer le déterminant de la matrice

1 2 30 2 30 0 3

.

1.4.3 Matrices inverses et déterminant

Théorème 1.57 Pour tout A ∈Mn(K), on a :

A tA = tAA = det(A)In

Preuve: Posons A = (aij) et tA = (bjk). Alors bjk = akjSoit C = A tA. Montrons que C = det(A)In. Pour cela posons C = (cik).

Soit D(i, k) la matrice

a11 · · · · · · · · · · · · · · · · · · a1n...

...ai1 · · · · · · · · · · · · · · · · · · ain...

...ak−11 · · · · · · · · · · · · · · · · · · ak−1nai1 · · · · · · · · · · · · · · · · · · ainak+11 · · · · · · · · · · · · · · · · · · ak+1n

......

an1 · · · · · · · · · · · · · · · · · · ann

D’après le 1. du théorème 1.51, on a

det(D(i, k)) =n∑j=1

(−1)k+jaijdet(A(k, j)) =n∑j=1

aij akj

=n∑j=1

aijbjk = ci,k

Si i = k, alors D(i, k) = A, donc cii = det(A). Si i 6= k, les lignes k et i de D(i, k) sont lesmêmes. Donc ci,k = 0. On en déduit donc que C = det(A)In.

Exercice de cours 1.19 Soit A la matrice

3 3 70 2 2−3 −1 −4

. Montrer par le calcul que

A tA = tAA = det(A)I3.

On en déduit alors immédiatement le corollaire suivant :

Corollaire 1.58 Soit A ∈Mn(K). Alors A est inversible si et seulement si det(A) 6= 0 (résultat

déjà énoncé dans le théorème 1.39). Si A est inversible, A−1 =tA

det(A).

Page 25: Algèbre linéaire - 2 année universitaire 2018-2019

1.5. FORMULES DE CRAMER 25

Exercice de cours 1.20 Soit A la matrice

− 3 2 − 13 1 22 0 1

. Calculer det(A). Monter que

A est inversible, et que son inverse a des coefficients entiers. Calculer A−1 par deux méthodesdifférentes.

1.5 Formules de Cramer

On rappelle que si A ∈Mn(K) et (S) : AX = Y est le système de n équations à n inconnuesassocié, alors les propriétés suivantes sont équivalentes :

— (S) est un système de Cramer.— (S) admet une solution et une seule.— rg(A) = n.— A est inversible.— det(A) 6= 0.

Si (S) est de Cramer, la solution est donnée par X = A−1Y =tAY

det(A). Si on note X =

x1...xn

et Y =

y1...yn

, on a alors la proposition suivante :

Proposition 1.59 (Formules de Cramer) Si (S) est de Cramer, alors :

xi =

∣∣∣∣∣∣∣a11 · · · a1i−1 y1 a1i+1 · · · a1n...

......

......

an1 · · · ani−1 yn ani+1 · · · ann

∣∣∣∣∣∣∣det(A)

Preuve: On développe le déterminant de la proposition par rapport à la i-ième colonne :

1

det(A)

∣∣∣∣∣∣∣a11 · · · a1i−1 y1 a1i+1 · · · a1n...

......

......

an1 · · · ani−1 yn ani+1 · · · ann

∣∣∣∣∣∣∣=

1

det(A)

n∑j=1

yj(−1)i+jdet(A(j, i))

Posons A = (aij). On a X = A−1Y =tAY

det(A), donc :x1...

xn

=1

det(A)

a11 · · · an1...

...a1n · · · ann

y1...yn

Page 26: Algèbre linéaire - 2 année universitaire 2018-2019

26 CHAPITRE 1. DÉTERMINANTS

On obtient donc

1

det(A)

n∑j=1

yj(−1)i+jdet(A(j, i)) =1

det(A)

n∑j=1

yj aji = xi.

1.6 Rang d’une matrice

Définition 1.60 (Matrice extraite) Soit A ∈ Mp,q(K), A = (aij). Soit r 6 p et s 6 q. Ondit que A′ ∈Mr,s(K) est une matrice extraite de A si A′ est de la forme A′ = (aikjl)16k6r

16l6soù

1 6 i1 < · · · < ir 6 p et 1 6 j1 < · · · < js 6 q.

Exemple 1.61 Soit A =

4 −1 3 6 72 1 5 −1 03 6 8 2 41 1 2 −1 1

Alors la matrice A′ =

(4 3 63 8 2

)est une matrice extraite de A.

Rappel 1.62 Soit A ∈Mp,q(K). Le rang de A noté rg(A) est le rang de la famille des vecteurscolonnes de A. On a rg(A) = rg( tA). Le rang de A est donc aussi le rang de la famille desvecteurs lignes de A.

Théorème 1.63 Soit A ∈Mp,q(K). Alors A est de rang r si et seulement si :1. Il existe une matrice carrée A′ extraite de A de format (r, r) telle que det(A′) 6= 0.2. Pour tout s > r, toute matrice carrée A′′ de format (s, s) extraite de A vérifie det(A′′) = 0.

Preuve:

1. Montrons tout d’abord que si A est une matrice deMp,q(K) de rang r, alors il existe unematrice carrée A′ extraite de A de format (r, r) telle que det(A′) 6= 0 :Comme rg(A) = rg(C1(A), . . . , Cq(A)) = r, on peut extraire de (C1(A), . . . , Cq(A)) unefamille libre (Cj1(A), . . . , Cjr(A)) de r vecteurs (j1 < · · · < jr).Notons A′ la matrice deMp,r(K) dont la `-ième colonne est Cj`(A). Alors :

r = rg(A′) = rg( tA′) = rg(L1(A′), · · · , Lp(A′))

Donc on peut extraire de la famille (L1(A′), · · · , Lp(A′)) une famille libre de r vecteurs

(Li1(A′), · · · , Lir(A′)) (i1 < · · · < ir). Soit A′′ la matrice deMr(K) dont la k-ième ligneest Lik(A′). En fait A′′ = (aikj`)16k,`6r et rg(A′′) = r. Donc det(A′′) 6= 0.

2. Montrons maintenant que s’il existe une matrice carrée A′ ∈ Ms(K) extraite de A telleque det(A′) 6= 0 alors rg(A) > s :Tout d’abord A′ = (aikj`)16k,`6s avec i1 < · · · < is et j1 < · · · < js.Puisque det(A′) 6= 0 rg(A′) = s et (C1(A

′), · · · , Cs(A′)) est une famille libre. Mais celaimplique que la famille (Cj1(A), · · · , Cjs(A)) est libre. Donc rg(A) > s.

Page 27: Algèbre linéaire - 2 année universitaire 2018-2019

1.6. RANG D’UNE MATRICE 27

Des points 1. et 2. on déduit de manière immédiate le théorème.

Exemple 1.64 Soit A =

2 3 5 4−1 0 −1 11 2 3 3

. Alors :∣∣∣∣∣∣2 3 5−1 0 −11 2 3

∣∣∣∣∣∣ =

∣∣∣∣∣∣3 5 40 −1 12 3 3

∣∣∣∣∣∣ =

∣∣∣∣∣∣2 3 4−1 0 11 2 3

∣∣∣∣∣∣ =

∣∣∣∣∣∣2 5 4−1 −1 11 3 3

∣∣∣∣∣∣ = 0

Donc tous les déterminants de matrices (3, 3) extraites de A sont nuls, donc rg(A) < 3.Pour montrer que A est de rang 2, il suffit de trouver une matrice (2, 2) extraite de détermi-

nant non nul. Or ∣∣∣∣ 2 3−1 0

∣∣∣∣ 6= 0

donc rg(A) = 2.

Page 28: Algèbre linéaire - 2 année universitaire 2018-2019

28 CHAPITRE 1. DÉTERMINANTS

Page 29: Algèbre linéaire - 2 année universitaire 2018-2019

Chapitre 2

Réduction des endomorphismes

Dans toute la suite, K désigne le corps R ou C et E est un espace vectoriel sur K de dimensionfinie n D’autre part L(E) désigne le K-espace vectoriel des endomorphismes de E.

2.1 Sous-espaces propres et diagonalisation

Étant donné un espace vectoriel E sur un corps K de dimension finie, les endomorphismesles plus simples sont les homothéties f = λIdE . La matrice de ces endomorphismes est la mêmedans toutes les bases de E. C’est une matrice diagonale avec des λ sur la diagonale et des 0partout ailleurs. Autrement dit il n’y a pas de direction privilégiée.

Étant donné maintenant un endomorphisme u quelconque, on va essayer dans ce chapitre dele "dévisser" en "cassant" l’espace E en une somme directe de sous-espaces stables (précisémentles sous-espaces propres) sur lesquels u se comportera comme une homothétie. Si cela est possibleen prenant une base dans chacun de ces sous-espaces et en les réunissant, on obtiendra une basede E dans laquelle la matrice de u sera diagonale.

2.1.1 Valeurs propres, vecteurs propres

Définition 2.1 Soient u ∈ L(E) et λ ∈ K. S’il existe un vecteur non nul x de E tel queu(x) = λx, alors on dit que :

1. λ est une valeur propre de u.

2. x est un vecteur propre de u associé à λ.

On appelle spectre de u et on note Sp(u) l’ensemble des valeurs propres de u.

Remarque 2.2 1. Il résulte de la définition qu’un vecteur propre n’est jamais nul.

2. λ est une valeur propre de u si et seulement si Ker(u− λIdE) 6= {0}.

En effet λ est une valeur propre de u si et seulement si il existe un vecteur non nul x de E telque u(x) = λx. Or 0 = u(x)− λx = (u− λIdE)(x). Il s’ensuit que λ est une valeur propre de usi et seulement si Ker(u− λIdE) 6= {0}.

29

Page 30: Algèbre linéaire - 2 année universitaire 2018-2019

30 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Définition 2.3 Soient A ∈ Mn(K) et λ ∈ K. S’il existe un vecteur colonne non nul X deMn,1(K) tel que AX = λX, alors on dit que :

1. λ est une valeur propre de A.2. X est un vecteur propre de A associé à λ.

On appelle spectre de A et on note Sp(A) l’ensemble des valeurs propres de A.

Exercice de cours 2.1 Soit A =

(3 2−4 −3

). Déterminer le spectre de A. On pourra résoudre

le système {3x+ 2y = λx−4x− 3y = λy ,

dépendant du paramètre λ.

Remarque 2.4 Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors Sp(u) = Sp(A). Plusprécisément :

1. λ est une valeur propre de u si et seulement si λ est une valeur propre de A.2. x est un vecteur propre de u si et seulement si X = MatB(x) est un vecteur propre de A.

Définition 2.5 Soit A = (aij)16i,j6n une matrice carrée de Mn(K). On appelle trace de A lescalaire :

tr(A) :=n∑i=1

aii

Proposition 2.6 Soient (A,B) ∈Mn(K)2. Alors tr(AB) = tr(BA).

Exercice de cours 2.2 Donner une preuve de ce résultat. En cas de difficulté, commencer parle cas où n = 2.

Proposition et définition 2.7 Soient u ∈ L(E) et B une base de E. Alors le scalaire tr(MatB(u))ne dépend pas de la base choisie et s’appelle la trace de u. On le note tr(u).

Preuve: Soit B′ une autre base, et soit P la matrice de passage de B à B′. Soient A = MatB(u)et A′ = MatB′(u). On a A′ = P−1AP , donc tr(A′) = tr(P−1AP ) = tr(APP−1) = tr(A).

Exercice de cours 2.3 Soit A la matrice de l’exercice 2.1, A =

(3 2−4 −3

)et soit x un réel.

Montrer que det(A− xI2) = x2 − 1.

Proposition et définition 2.8 Soit u ∈ L(E). La fonction

χu : K −→ Kx 7−→ det(u− xIdE)

est une fonction polynomiale de degré n. De plus :

χu(X) = (−1)nXn + (−1)n−1tr(u)Xn−1 + · · ·+ det(u)

χu s’appelle le polynôme caractéristique de u.

Page 31: Algèbre linéaire - 2 année universitaire 2018-2019

2.1. SOUS-ESPACES PROPRES ET DIAGONALISATION 31

Proposition et définition 2.9 Soit A ∈Mn(K). La fonction

χA : K −→ Kx 7−→ det(A− xIn)

est une fonction polynomiale de degré n. De plus :

χA(X) = (−1)nXn + (−1)n−1tr(A)Xn−1 + · · ·+ det(A)

χA s’appelle le polynôme caractéristique de A.

Remarques 2.10— Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors χA = χu.— Dans le cas n = 2, observer que χu est déterminé par tr(u) et det(u).

Exercice de cours 2.4 Vérifier que ces énoncés sont compatibles avec le calcul que vous avezfait dans l’exercice 2.3.

Preuve des énoncés 2.8 et 2.9 : Soit A = (aij)16i,j6n. Alors :

χA(x) = det(A− xIn) =∑σ∈Sn

ε(σ)n∏i=1

(aσ(i)i − xδσ(i)i)

Chacun des produitsn∏i=1

(aσ(i)i − xδσ(i)i) est une fonction polynomiale en x de degré inférieur ou

égal à n. Il en est de même de leur somme et χA est un polynôme de degré au plus n. Or :

χA(x) =∑

σ∈Sn\{Id}

ε(σ)n∏i=1

(aσ(i)i − xδσ(i)i) +n∏i=1

(aii − x)

Remarquons que si σ ∈ Sn \ {Id}, alors il existe j ∈ {1, · · · , n} tel que σ(j) 6= j. En posantk = σ−1(j), on a k 6= j et σ(k) 6= k. Donc δσ(j)j = δσ(k)k = 0. Ainsi :

n∏i=1

(aσ(i)i − xδσ(i)i) = aσ(j)jaσ(k)k

n∏i=1i 6=j,k

(aσ(i)i − xδσ(i)i)

et donc pour chaque σ ∈ Sn \ {Id},n∏i=1

(aσ(i)i−xδσ(i)i) est une fonction polynomiale de degré au

plus n− 2 et il en est de même de∑

σ∈Sn\{Id}

ε(σ)n∏i=1

(aσ(i)i − xδσ(i)i). Or commen∏i=1

(aii − x) est

de degré n il s’ensuit que χA est de degré n et que les coefficients de xn et xn−1 dans χu sont

les coefficients de xn et xn−1 dansn∏i=1

(aii − x). Donc les coefficients de xn et xn−1 dans χA sont

respectivement (−1)n et (−1)n−1n∑i=1

aii = (−1)n−1tr(A).

Page 32: Algèbre linéaire - 2 année universitaire 2018-2019

32 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Le terme constant de χA est χA(0) = det(A). Ceci prouve l’énoncé 2.9. La preuve de 2.8 estune conséquence immédiate de la remarque 2.10 et de la proposition et définition 2.7.

En raison des remarques 2.4 et 2.10, on se contentera dans la majorité des cas d’énoncer lesrésultats dans le cadre des endomorphismes.

Proposition 2.11 Soit u ∈ L(E). Alors λ ∈ Sp(u) si et seulement si λ est racine de χu.

Preuve: On a vu d’après la remarque 2.2 que λ est valeur propre de u si et seulement siKer(u− λIdE) 6= {0}. Or les 4 assertions ci-dessous sont équivalentes :

1. Ker(u− λIdE) 6= {0}2. u− λIdE n’est pas injective.3. u− λIdE n’est pas un isomorphisme.4. det(u− λIdE) = 0 (voir proposition 1.33).

Donc λ est valeur propre de u si et seulement si χu(λ) = 0.

Exercice de cours 2.5 Résoudre à nouveau l’exercice 2.1 en utilisant le polynôme caractéris-tique de A.

Corollaire 2.12 Tout endomorphisme u de E a au plus n valeurs propres.

Définition 2.13 Soient u ∈ L(E) et λ une valeur propre de u. On dira que λ est une valeurpropre d’ordre m si λ est une racine d’ordre m de χu. L’entier m s’appelle la multiplicité de λet sera noté m(λ).

Exercice de cours 2.6 Déterminer le spectre et la multiplicité des valeurs propres des matrices

suivantes : B =

3 1 21 2 1− 2 − 1 − 1

et C =

0 − 1 02 3 0− 3 − 3 1

.

2.1.2 Sous-espaces propres

Définition 2.14 Soient u ∈ L(E) et λ une valeur propre de u. Le sous-espace vectoriel Eλ(u) :=Ker(u− λIdE) s’appelle le sous-espace propre associé à la valeur propre λ.

Remarque 2.151. Si λ est une valeur propre de u, on a toujours Eλ(u) 6= {0}.2. Eλ(u) \ {0} est l’ensemble des vecteurs propres de u.3. Les sous-espaces propres de u sont stables par u (pour toute valeur propre λ, u(Eλ(u)) ⊂

Eλ(u)).

Définition 2.16 Soit A ∈Mn(K) et λ une valeur propre de A. Le sous-espace vectorielMλ(A) :=Ker(A− λIn) deM1,n(K) s’appelle le sous-espace propre associé à la valeur propre λ.

Page 33: Algèbre linéaire - 2 année universitaire 2018-2019

2.1. SOUS-ESPACES PROPRES ET DIAGONALISATION 33

Exercice de cours 2.7 Calculer les sous-espaces propres des matrices A,B et C des exercices2.1 et 2.6.

Exercice de cours 2.8 Montrer que u(Eλ(u)) ⊂ Eλ(u) pour toute valeur propre λ de u.

Proposition 2.17 Soient u ∈ L(E) et λ une valeur propre de u. Alors :

1 6 dim(Eλ(u)) 6 m(λ)

Preuve: Posons p = dim(Eλ(u)). Soit (e1, · · · , ep) une base de Eλ(u) que l’on complète parep+1, · · · , en pour obtenir une base B de E. Dans ce cas on a :

MatB(u) =

λ 0 · · · 0 a1 p+1 · · · a1n

0. . . . . .

......

......

. . . . . . 0...

...0 · · · 0 λ ap p+1 · · · apn0 · · · · · · 0 ap+1 p+1 · · · ap+1 n...

......

...0 · · · · · · 0 an p+1 · · · ann

Le polynôme caractéristique s’écrit donc :

χu(x) = (λ− x)pχM (x)

où M = (aij)p+16i,j6n. Donc (λ− x)p divise χu et p 6 m(λ).

Théorème 2.18 Soit u ∈ L(E). Alors les sous-espaces propres de u sont en somme directe.

Preuve: Soient λ1, · · · , λr les valeurs propres de u. Le but est de montrer que si (v1, · · · , vr) ∈Eλ1(u)× · · · × Eλr(u) et v1 + · · ·+ vr = 0 alors vi = 0 pour tout i ∈ {1, · · · , r}.

On va procéder par récurrence en montrant que Eλ1(u), · · · , Eλj (u) sont en somme directepour tout j ∈ {1, · · · , r}.

Pour j = 1, la propriété est vraie.On suppose maintenant la propriété vraie au rang j ∈ {1, · · · , r − 1}. Montrons qu’elle est

vraie au rang j + 1.

Soit (v1, · · · , vj+1) ∈ Eλ1(u)× · · · × Eλj+1(u) tel que

j+1∑i=1

vi = 0. Alors :

u

(j+1∑i=1

vi

)=

j+1∑i=1

u(vi) =

j+1∑i=1

λivi = 0

Donc :

0 =

j+1∑i=1

λivi − λj+1

j+1∑i=1

vi =

j+1∑i=1

(λi − λj+1)vi =

j∑i=1

(λi − λj+1)vi

Page 34: Algèbre linéaire - 2 année universitaire 2018-2019

34 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Or pour tout i ∈ {1, · · · , j}, (λi − λj+1)vi ∈ Eλi(u). Comme par hypothèse de récurrence,Eλ1(u), · · · , Eλj (u) sont en somme directe, il s’ensuit que pour tout i ∈ {1, · · · , j}, (λi−λj+1)vi =0. De plus λi − λj+1 6= 0 pour tout i ∈ {1, · · · , j}. Donc :

v1 = · · · = vj = 0

etj+1∑i=1

vi = vj+1 = 0. Donc Eλ1(u), · · · , Eλj+1(u) sont en somme directe. Par récurrence sur j la

propriété est vraie pour tout j ∈ {1, · · · , r}.

Exercice de cours 2.9 Vérifier que les espaces propres obtenus pour A,B et C dans l’exercice2.7 sont en somme directe.

2.1.3 Endomorphismes et matrices diagonalisables

Théorème 2.19 Soit u ∈ L(E). Alors les propositions suivantes sont équivalentes :

1. Il existe une base B de E telle que MatB(u) soit diagonale.

2. Il existe une base B de E constituée de vecteurs propres de u.

3. E est la somme directe des sous-espaces propres de u.

4. χu est scindé sur K (i.e. χu a toute ses racines dans K) et pour toute valeur propre de u,dim(Eλ(u)) = m(λ).

Preuve: 1⇒ 2. Il existe une base B = (e1, · · · , en) de E telle que :

MatB(u) =

α1 0. . .

0 αn

Par définition de la matrice d’un endomorphisme dans une base, on a pour tout i ∈ {1, · · · , n},u(ei) = αiei ce qui prouve 2.

2⇒ 3. Soit B = (e1, · · · , en) une base formée de vecteurs propres de u. D’après le théorème2.18 les sous-espaces propres sont en somme directe et B = (e1, · · · , en) est une famille libre der⊕i=1

Eλi(u). Donc :

dim

(r⊕i=1

Eλi(u)

)> n = dim(E)

et E =

r⊕i=1

Eλi(u).

3 ⇒ 1 et 3 ⇒ 4. Soient λ1, · · · , λr les valeurs propres de u. Posons ni = dim(Eλi(u)).Soient B1, · · · ,Br des bases respectivement de Eλ1(u), · · · , Eλr(u). Comme par hypothèse E =

Page 35: Algèbre linéaire - 2 année universitaire 2018-2019

2.1. SOUS-ESPACES PROPRES ET DIAGONALISATION 35

r⊕i=1

Eλi(u), B =r⋃i=1

Bi est une base de E constituée de vecteurs propres. Donc :

MatB(u) =

λ1 0 · · · · · · · · · · · · 0

0. . . . . .

......

. . . λ1. . .

......

. . . . . . . . ....

.... . . λr

. . ....

.... . . . . . 0

0 · · · · · · · · · · · · 0 λr

ce qui prouve 1.

D’autre part χu(x) = (λ1 − x)n1 · · · (λr − x)nr . Il s’ensuit que le polynôme est scindé et quela multiplicité des valeurs propres vérifie m(λi) = ni = dim(Eλi(u)) ce qui prouve 4.

4⇒ 3 On suppose que χu est scindé sur K et que pour toute valeur propre de u, dim(Eλ(u)) =m(λ). Donc :

χu(x) =

r∏i=1

(λi − x)m(λi)

et dim(Eλi(u)) = m(λi). On a donc :

dim

(r⊕i=1

Eλi(u)

)=

r∑i=1

dim(Eλi) =

r∑i=1

m(λi) = n

Par conséquentr⊕i=1

Eλi(u) = E.

Exercice de cours 2.10 Pour les matrices A,B,C ci-dessus et pour chaque valeur propre λ,déterminer dimEλ et m(λ).

Définition 2.20 Soit u ∈ L(E). On dit que u est diagonalisable si l’une des 4 conditionséquivalentes du théorème 2.19 est vérifiée.

Exercice de cours 2.11 Les endomorphismes de Kn associés aux matrices A,B et C ci-dessussont-ils diagonalisables ?

Définition 2.21 Soit A ∈ Mn(K). On dit que A est diagonalisable si A est semblable à unematrice diagonale. Autrement dit A est diagonalisable s’il existe une matrice P ∈ GLn(K) et unematrice diagonale D ∈Mn(K) telles que : D = P−1AP .

Remarque 2.22 Lorsqu’on voudra insister sur le fait que la matrice P est à coefficients dansK, on précisera que A est diagonalisable sur K. Ainsi, par exemple, une matrice à coefficientsdans R pourra être diagonalisable sur C mais non sur R : ceci signifie qu’il existe P ∈ GLn(C)telle que P−1AP est une matrice diagonale à coefficients complexes, mais qu’il n’existe pas dematrice P ∈ GLn(R) telle que P−1AP est une matrice diagonale à coefficients réels.

Page 36: Algèbre linéaire - 2 année universitaire 2018-2019

36 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Exercice de cours 2.12 Donner un exemple d’une matrice carrée d’ordre 2 à coefficients réelsdont les valeurs propres sont deux nombres complexes non réels (on pourra d’abord choisir unpolynôme χ ayant deux racines complexes, puis une matrice dont le polynôme caractéristique estχ). Montrer que cette matrice est diagonalisable sur C mais pas sur R.

Exercice de cours 2.13 (Exercice facultatif) Soit A une matrice à coefficients réels et λune valeur propre réelle de A. Montrer que les espaces propres réel et complexe de A pour lavaleur propre λ ont la même dimension.

Soit A ∈Mn(R) de polynôme caractéristique scindé sur R. Montrer que A est diagonalisablesur R si et seulement si elle est diagonalisable sur C.

Remarque 2.23

1. Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors u est diagonalisable si etseulement si A est diagonalisable.

2. Si A est diagonalisable alors il existe P ∈ GLn(K) telle que D = P−1AP est diagonale.Dans ce cas (C1(P ), · · · , Cn(P )) est une base de Mn,1(K) constituée de vecteurs propresde A.

Corollaire 2.24 Soit u ∈ L(E). Alors si χu est scindé sur K et si toutes les racines de χu sontsimples alors u est diagonalisable.

Exercice de cours 2.14 Donner un exemple d’endomorphisme u diagonalisable mais tel queles racines de χu ne sont pas simples.

2.1.4 Calcul des puissances d’une matrice

Soit A ∈Mk(K). Si A est diagonalisable alors il existe une matrice diagonale D ∈Mk(K) et

P ∈ GLk(K) telles que D = P−1AP . Or on sait calculer Dn. En effet si D =

α1 0. . .

0 αk

,

alors Dn =

αn1 0

. . .0 αnk

. D’autre part on peut montrer par récurrence que :

Dn = (P−1AP )n = P−1AnP

d’où :An = PDnP−1

Exercice de cours 2.15 Calculer les puissances de la matrice A de l’exercice 2.1.

Page 37: Algèbre linéaire - 2 année universitaire 2018-2019

2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 37

2.2 Trigonalisation et théorème de Cayley-Hamilton

2.2.1 Endomorphismes trigonalisables

Définition 2.25 Soit u ∈ L(E). On dit que u est trigonalisable s’il existe une base B de Etelle que MatB(u) est triangulaire supérieure.

Définition 2.26 Soit A ∈ Mn(K). On dit que A est trigonalisable s’il existe P ∈ GLn(K)telle que P−1AP soit triangulaire supérieure.

Remarque 2.27 Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors u est trigonalisablesi et seulement si A est trigonalisable.

Théorème 2.28 Soit u ∈ L(E). Alors u est trigonalisable si et seulement si χu est scindé dansK[X] (i.e. χu se décompose en un produit de polynômes du premier degré).

Preuve:— (⇒) Si u est trigonalisable alors il existe une base B telle que :

MatB(u) =

a11 · · · · · · a1n

0. . .

......

. . ....

0 · · · 0 ann

Notant T = MatB(u), on en déduit immédiatement que χu(x) = det(T−xIn) =n∏i=1

(aii−x)

ce qui signifie que χu est scindé.— (⇐) On suppose que χu est scindé et on veut montrer que u est trigonalisable.

Nous allons raisonner par récurrence sur n = dim(E). Si n = 1 l’affirmation est immédiate.En supposant que pour n > 2 l’affirmation est vraie quand dim(E) = n − 1, montronsqu’elle est encore vraie quand dim(E) = n.Donc soit E un K-espace vectoriel de dimension n et soit u ∈ L(E) tel que χu soitscindé. Cela entraîne que Sp(u) 6= ∅. Soit λ ∈ Sp(u) et soit e1 un vecteur propre associé.Complétons e1 par des vecteurs e2, · · · , en pour que B = (e1, · · · , en) soit une base de E.Alors :

MatB(u) = M =

λ m12 · · · · · · · · · m1n

0...... M1...0

Page 38: Algèbre linéaire - 2 année universitaire 2018-2019

38 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Donc χu(x) = (λ − x)det(M1 − xIn−1). D’autre part on a E = Ke1 ⊕ F où F =Vect(e2, · · · , en). Soit g l’endomorphisme de E défini par :

MatB(g) =

0 0 · · · · · · · · · 00...... M1...0

Remarquons que pour tout i ∈ {2, · · · , n} :

u(ei) = m1ie1 + g(ei)

Ainsi pour tout v ∈ F il existe a ∈ K tel que :

u(v) = ae1 + g(v)

D’autre part on a évidemment g(F ) ⊂ F . Donc g|F ∈ L(F ) et Mat{e2,··· ,en}(g|F ) = M1.Or χu(x) = (λ − x)det(M1 − xIn−1) = (λ − x)χM1(x). Comme χu est scindé, il s’ensuitque χM1 est scindé et on peut appliquer l’hypothèse de récurrence. Il existe une base(f2, · · · , fn) de F telle que :

Mat{f2,··· ,fn}(g|F ) =

α22 α23 · · · α2n

0 α33 · · · α3n...

. . . . . ....

0 · · · 0 αnn

Comme E = Ke1 ⊕ F , B′ = {e1, f2, · · · , fn} est une base de E. Pour tout j ∈ {2, · · · , n}il existe a1j ∈ K tel que :

u(fj) = a1je1 + g(fj) = a1je1 +

j∑i=2

αijfi

Il s’ensuit que MatB′(u) est triangulaire supérieure.

On donne une autre preuve de l’implication χu scindé ⇒ u trigonalisable.

Définition 2.29 (Espace vectoriel quotient, ensemble) Soit E un K-espace vectoriel et F ⊂E un sous-espace vectoriel. Soit u ∈ E.

— La classe de u modulo F , notée u, est le sous-ensemble u + F des vecteurs de E de laforme u+ w avec w ∈ F : u = u+ F = {u+ w,w ∈ F}.

— L’ensemble quotient E/F est l’ensemble des u, lorsque u parcourt E.

Page 39: Algèbre linéaire - 2 année universitaire 2018-2019

2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 39

On aura donc compris que les éléments de E/F sont par définition des sous-ensembles de E. Lefait que des éléments soient des ensembles est une des raisons qui font que la notion d’espacevectoriel quotient est difficile à appréhender !

Exercice de cours 2.16 Pour u, v ∈ E, montrer en utilisant le premier point, que u = v si etseulement si u− v ∈ F .

Exemple 2.30 Soit E = R2 et F = {(x, y) : y = x}. On a (1, 0) = (0,−1) = {(1 + t, t), t ∈R} mais (1, 0) 6= (0, 1). Graphiquement, les éléments de E/F sont les parallèles à la droite Fd’équation y = x.

Définition 2.31 (Espace vectoriel quotient, structure d’espace vectoriel) Soit E un K-espace vectoriel et F ⊂ E un sous-espace vectoriel. Il existe une unique structure d’espace vectorielsur l’ensemble quotient E/F telle que π : E → E/F soit une application linéaire.

Preuve: En effet, on a nécessairement

λ · v = λv et u+ v = u+ v (2.1)

si π est linéaire. Réciproquement, la formule (2.1) définit une structure d’espace vectoriel surE/F . En effet, on vérifie qu’elle ne dépend pas du choix de u et de v, et qu’elle définit donc demanière univoque λ · α et α + β pour λ ∈ K et α, β ∈ E/F . Pour cela, il faut montrer que siu′ = α et v′ = β, alors λu′ = λu et u′ + v′ = u+ v. Or, on a, par l’exercice précédent, l’existencede w, t ∈ F tels que u′ = u + w et v′ = v + t. Ceci donne λu′ = λ(u+ w) = λu+ λw = λu carλw ∈ F . De même, u′ + v′ = u+ v + w + t = u+ v car w + t ∈ F .

On vérifie alors de manière assez automatique que tous les axiomes des espaces vectorielssont vérifiés avec ces deux lois.

Lemme 2.32 (Espace vectoriel quotient, base) Soit E un K-espace vectoriel et F ⊂ E unsous-espace vectoriel de dimension d. Soit B = (e1, · · · , en) une base de E avec (e1, · · · , ed)une base de F . Alors B = (ed+1, · · · , en) est une base de E/F . En particulier, dim(E/F ) =dim(E)− dim(F ).Inversement, soit (e1, · · · , en) une famille de vecteurs de E ayant les propriétés suivantes :

— (e1, · · · , ed) est une base de F .— (ed+1, · · · , en) est une base de E/F .

Alors (e1, · · · , en) est une base de E.

Preuve: Soit α ∈ E/F et soit u ∈ E tel que u = α. Alors il existe des scalaires λi tels queu =

∑i≥1 λiei. Comme ei = 0 si i ≤ d, on en déduit que u =

∑i≥d+1 λiei. Ainsi α =

∑i≥d+1 λiei.

Donc (ed+1, · · · , en) est une famille génératrice de E/F .Par ailleurs, si on a une relation

∑i≥d+1 λiei = 0, alors on en déduit que

∑i≥d+1 λiei ∈ F

par définition de E/F , donc il existe λ1, · · · , λd tels que∑

i≥d+1 λiei = −∑

j≤d λjej . Alors∑i≥1 λiei = 0, et donc tous les λi sont nuls, puisque B est une famille libre.Pour la partie réciproque, il suffit de montrer que (e1, · · · , en) est une famille libre. Or, si∑λiei est une combinaison linéaire nulle, en appliquant π on en déduit que

∑i>d ei = 0. Par le

deuxième point, λi = 0 si i > d. Mais on a alors∑

i≤d λiei = 0, ce qui donne λi = 0 pour i ≤ dpar le premier point.

Page 40: Algèbre linéaire - 2 année universitaire 2018-2019

40 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Proposition 2.33 (Passage au quotient) Soit f : E → G une application linéaire et F ⊂ E

un sous-espace vectoriel. On peut former un diagramme commutatif Ef //

π��

G

E/Ff

==si et seulement

si f(F ) = {0}, soit F ⊂ ker(f). Dans ce cas, il existe une unique application f : E/F → G telleque ce diagramme commute.

La proposition “on peut former un diagramme commutatif ...” signifie en des termes plus habituels“il existe f : E/F → G telle que f = f ◦ π”.Preuve: Supposons qu’on peut définir f . Soit alors v ∈ F , on a d’après l’exercice 2.16 v = 0.On en déduit que f(v) = f(π(v)) = f(0) = 0.

Réciproquement, si f(F ) = {0}, alors la formule f(α) = f(v) si v = α définit bien uneapplication f : E/F → G (ie, f(α) ne dépend pas du choix de v tel que v = α), et c’est la seulequi fait commuter le diagramme.

On revient à la preuve du théorème. Soit donc u : E → E telle que χu est scindé. Soit λ ∈ Ktel que χu(λ) = 0. Alors λ est une valeur propre de u, soit donc v ∈ E tel que u(v) = λv. Ondéfinit F = K · v et on forme le diagramme E

u //

u′ !!

E .

π��

E/F

Comme u(v) = λv, on a u(F ) ⊂ F et donc u′(F ) = 0. D’après le Proposition 2.33, on obtient undiagramme E

u′ //

π

��

E/F

E/F

u

;;

En mettant ensemble les deux diagrammes précédent, on obtient

E

π��

u //

u′ ##

E

π��

E/Fu// E/F

On a alors le lemme suivant, qui relie la matrice de u à celle de u :

Lemme 2.34 Soit B = (e1, · · · , en) une base de E avec e1 = v. Soit B = (e2, · · · , en) unebase de E/F , par le Lemme 2.32. Alors, MatB(u) est la matrice extraite de MatB(u) obtenue ensupprimant la première ligne et la première colonne.

Preuve: Par le diagramme commutatif définissant u, si u(ej) =∑

i ai,jei, alors u(ej) =∑i≥2 ai,jei. Ceci montre que la matrice de u est la matrice extraite annoncée.

Page 41: Algèbre linéaire - 2 année universitaire 2018-2019

2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 41

On termine alors la preuve du théorème comme suit : d’après le Lemme 2.34, la matrice de udans la base B s’écrit

MatB(u) =

λ a12 · · · · · · · · · a1n0...... MatB(u)...0

(2.2)

En développant le déterminant de MatB(u) − xIn par rapport à la première colonne, on endéduit que χu(x) = (λ− x)χu(x). Comme χu est scindé, si on note µi ses racines comptées avecmultiplicités, de sorte que χu(x) =

∏i(µi − x), on a

∏i(µi − λ) = 0. On en déduit l’existence

d’un entier i tel que µi = λ. Alors, χu(x) =∏j 6=i(µj − x). En particulier, χu est scindé.

On a dim(E/F ) = dim(E) − 1 ; en argumentant par récurrence sur dim(E), on peut doncsupposer qu’il existe une base B′ = (e′2, · · · , e′n) de E/F telle que MatB′(u) soit triangulairesupérieure. Si on pose B′ = (e1, e

′2, · · · , e′n), le Lemme 2.32 montre que B′ est une base de E. De

plus, d’après la relation (2.2) appliquée avec B′, la matrice de u dans la base B′ est triangulairesupérieure.

Exercice de cours 2.17 Soit A une matrice carrée d’ordre 2 à coefficients réels et soit χA sonpolynôme caractéristique. Soit ∆ le discriminant de χA.

1. Si ∆ < 0, montrer que A est diagonalisable sur C mais pas sur R.2. Si ∆ = 0, montrer que A est trigonalisable sur R. Donner un exemple où A n’est pas

diagonalisable sur R.3. Si ∆ > 0, montrer que A est diagonalisable sur R.

Corollaire 2.35 Soit E un espace vectoriel sur C de dimension finie. Alors tout endomorphismede E est trigonalisable.

Preuve: C’est une conséquence du fait que C est algébriquement clos (i.e. tout polynôme àcoefficients dans C est scindé).

Remarque 2.36 Si un endomorphisme u est trigonalisable alors sa matrice dans une base ap-propriée est triangulaire supérieure et sur la diagonale principale figurent les valeurs propres deu, chacune d’elle y figurant autant de fois que son ordre de multiplicité dans χu.

Corollaire 2.37 Si χu est scindé, c’est-à-dire si χu(x) =

n∏i=1

(λi − x) alors tr(u) =

n∑i=1

λi et

det(u) =

n∏i=1

λi.

Page 42: Algèbre linéaire - 2 année universitaire 2018-2019

42 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

2.2.2 Polynômes d’endomorphismes

Soit u un endomorphisme de E. On rappelle que pour tout i ∈ N?, ui est défini par récurrencede la façon suivante :

1. u0 = IdE .2. Pour tout entier i > 1, ui = u ◦ ui−1.

On a alors les propriétés suivantes, pour tout (p, q) ∈ N on a :1. up ◦ uq = up+q = uq ◦ up.2. (up)q = upq = (uq)p

Définition 2.38 Soit u un endomorphisme de E. On appelle polynôme de l’endomorphisme utout endomorphisme de la forme :

P (u) =k∑i=0

aiui

où P (X) =k∑i=0

aiXi est un polynôme de K[X].

Remarque 2.39 De même si A est une matrice de Mn(K) et P (X) =

k∑i=0

aiXi un polynôme

de K[X], on pose :

P (A) =

k∑i=0

aiAi

Exercice de cours 2.18 Calculer P (A), P (B) et P (C) pour P (X) = X2 + X + 1, lorsqueA,B,C sont les matrices des exercices 2.1 et 2.6.

Proposition 2.40 Soient u et v deux endomorphismes de E, P et Q deux polynômes de K[X]et (λ, µ) ∈ K2. Alors :

1. (λP + µQ)(u) = λP (u) + µQ(u).2. (PQ)(u) = P (u) ◦Q(u) = Q(u) ◦ P (u) = (QP )(u).3. Si B est une base de E, alors MatB(P (u)) = P (MatB(u)).

Remarque 2.41 Cette proposition ne dit rien d’autre que pour tout u ∈ L(E) l’application :

Φu : K[X] −→ L(E)P (X) 7−→ P (u)

est un morphisme de K-algèbres. Plus précisément cela signifie que :— Φu est une application linéaire du K-espace vectoriel K[X] dans le K-espace vectorielL(E).

— ∀(P,Q) ∈ K[X]2 , Φu(PQ) = Φu(P ) ◦ Φu(Q).— Φu(1) = u0 = IdE.

D’autre part, le point 2. de la proposition dit que si P (X) = (X − a1)α1 · · · (X − ar)αr alors :

P (u) = (u− a1IdE)α1 ◦ · · · ◦ (u− arIdE)αr

Page 43: Algèbre linéaire - 2 année universitaire 2018-2019

2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 43

2.2.3 Théorème de Cayley-Hamilton

Théorème 2.42 (Cayley-Hamilton) Soit u un endomorphisme de E, alors :

χu(u) = 0

Commençons par traiter un exemple : soit M la matrice ayant tous les coefficients nuls sauf surla sur-diagonale, où ils sont égaux à 1 : M = (ai,j) avec ai,i+1 = 1 et ai,j = 0 pour j 6= i+ 1. Ona alors χM (x) = (−x)n. Montrons que Mn = 0. Pour cela, soit Vi ⊂ Kn le sous-espace vectorielengendré par e1, · · · , ei, avec la convention V0 = {0}. On a M · ei = ei−1 donc M ·Vi ⊂ Vi−1. Onen déduit que

Mn · Vn ⊂Mn−1 · Vn−1 ⊂Mn−2 · Vn−2 ⊂ · · · ,

de telle sorte que finalement Mn · Vn = {0} et donc Mn = 0.

Preuve: Comme Mn(R) ⊂ Mn(C), il suffit de montrer le théorème dans le cas où K = C.Ainsi u est trigonalisable. Donc soit B = {e1, · · · , en} une base dans laquelle T = MatB(u) esttriangulaire supérieure. Notons λ1, · · · , λn, les valeurs propres de u telles que :

T =

λ1O . . .λn

Posons V0 = {0} et pour tout k ∈ {1, · · · , n} soit Vk := Vect(e1, · · · , ek). Alors on a le lemme

suivant :

Lemme 2.43 Pour tout k ∈ {1, · · · , n}, (u− λkIdE )(Vk) ⊂ Vk−1.

Preuve: Soit k ∈ {1, · · · , n} et j ∈ {1, · · · , k}. Comme T est triangulaire supérieure il existedes scalaires α1j , · · · , αjj tels que :

(u− λkIdE )(ej) =

j∑i=1

αijei − λkej

Si j < k, alors (u−λkIdE )(ej) ∈ Vk−1. Si j = k, comme αkk = λk, on a aussi (u−λkIdE )(ej) ∈Vk−1.

Poursuivons maintenant la preuve du théorème. Soit maintenant x ∈ E = Vn. Alors d’aprèsle lemme précédent :

(u− λnIdE )(x) ∈ Vn−1 , (u− λn−1IdE ) ◦ (u− λnIdE )(x) ∈ Vn−2 , · · · ,(u− λ2IdE ) ◦ · · · ◦ (u− λnIdE )(x) ∈ V1

Comme V1 n’est rien d’autre que le sous-espace propre associé à λ1, on a :

(u− λ1IdE ) ◦ · · · ◦ (u− λnIdE )(x) = 0

et comme χu(u)(x) = (−1)n(u− λ1IdE ) ◦ · · · ◦ (u− λnIdE )(x), il s’ensuit que χu(u) = 0.

Page 44: Algèbre linéaire - 2 année universitaire 2018-2019

44 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Exemple 2.44 On considère deux exemples pour illustrer ce théorème et la théorie du polynôme

minimal. Soit U =

(2 10 2

)et V =

(2 00 2

). Come ces matrices sont triangulaires supérieures, on

calcul facilement leurs polynômes caractéristiques : χU (X) = χV (X) = (X − 2)2. On vérifie

le théorème de Cayley-Hamilton : U − 2I2 =

(0 10 0

)et V − 2I2 =

(0 00 0

). On a donc bien

(U − 2I2)2 = 0 et (V − 2I2)

2 = 0.

Exercice de cours 2.19 Vérifier le théorème de Cayley-Hamilton pour les matrices A,B,Cci-dessus.

Exercice de cours 2.20 Soit M la matrice

M =

2 1 1 2 04 4 3 5 −20 0 1 1 0−2 −1 −1 −1 1

2 2 2 4 1

Montrer que χM (X) = (X − 1)3(X − 2)2. Vérifier que χM (M) = 0 (pour cela garder la formefactorisée de χM !).

2.3 Polynôme minimal

2.3.1 Théorème de décomposition des noyaux

Théorème 2.45 Soient u ∈ L(E), P1, · · · , Pk des polynômes de K[X] premiers entre eux deux

à deux et P =k∏i=1

Pi. Alors :

Ker(P (u)) =

k⊕i=1

Ker(Pi(u))

Preuve: Si k = 1, le résultat est évident.Si k = 2, alors P = P1P2 et P1 et P2 sont premiers entre eux. D’après le théorème de Bezout,

il existe deux polynômes U1 et U2 tels que :

1 = U1P1 + U2P2

Il s’ensuit que :IdE = U1(u) ◦ P1(u) + U2(u) ◦ P2(u)

Soit x ∈ Ker(P1(u)) ∩Ker(P2(u)). Alors la relation précédente entraîne que :

x = U1(u)(P1(u)(x)) + U2(u)(P2(u)(x)) = 0

Donc Ker(P1(u)) et Ker(P2(u)) sont en somme directe.

Page 45: Algèbre linéaire - 2 année universitaire 2018-2019

2.3. POLYNÔME MINIMAL 45

Montrons maintenant que Ker(P (u)) ⊂ Ker(P1(u)) + Ker(P2(u)) :Soit x ∈ Ker(P (u)), alors :

x = U1(u)(P1(u)(x)) + U2(u)(P2(u)(x))

Or :P2(u)(U1(u)(P1(u)(x))) = U1(u)(P (u)(x)) = 0

Donc U1(u)(P1(u)(x)) ∈ Ker(P2(u)). De même U2(u)(P2(u)(x)) ∈ Ker(P1(u)). Finalement x ∈Ker(P1(u)) + Ker(P2(u)).

Montrons que Ker(P1(u)) + Ker(P2(u)) ⊂ Ker(P (u)) :Soit x ∈ Ker(P1(u)), alors P (u)(x) = P2(u)(P1(u)(x)) = 0 donc x ∈ Ker(P (u)) et Ker(P1(u)) ⊂

Ker(P (u)). De même Ker(P2(u)) ⊂ Ker(P (u)). Donc Ker(P1(u)) +Ker(P2(u)) ⊂ Ker(P (u)). Ona donc montré que :

Ker(P (u)) = Ker(P1(u))⊕Ker(P2(u))

Soit k > 3 et supposons le théorème démontré au rang k − 1. Montrons que le résultat estvrai au rang k. Soient P1, · · · , Pk des polynômes de K[X] premiers entre eux deux à deux et

P =

k∏i=1

Pi. Alors les polynômes P1 et P2 · · ·Pk sont premiers entre eux et d’après ce qui a été

montré précédemment on a :

Ker(P (u)) = Ker(P1(u))⊕Ker(P2 · · ·Pk)(u) =k⊕i=1

Ker(Pi(u))

Exercice de cours 2.21 Pour la matrice M ci-dessus, déterminer les sous-espaces vectorielsKer((M − I5)3) et Ker((M − 2I5)

2). Vérifier qu’ils sont supplémentaires dans R5. Retrouver cerésultat en utilisant le théorème de décomposition des noyaux.

2.3.2 Polynômes annulateurs, polynôme minimal

Commençons par quelques rappels.

Définition 2.46 Soit (A,+,×) un anneau. Alors on dit qu’un sous-ensemble I de A est unidéal si :

1. (I,+) est un sous-groupe de (A,+).

2. ∀a ∈ A , ∀x ∈ I , ax ∈ I.Un idéal est dit principal si I est engendré par un seul élément. Autrement dit I est principals’il existe α ∈ I tel que :

I = {yα ; y ∈ A}

Un anneau principal est un anneau dont tous les idéaux sont principaux.

Page 46: Algèbre linéaire - 2 année universitaire 2018-2019

46 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

L’anneau des polynômes K[X] est un anneau principal. C’est une conséquence de l’algorithmed’Euclide. En effet soit I un idéal de K[X]. Alors I est non vide. Si I = {0}, le résultat estévident.

Supposons I 6= {0}. Soit P0 un polynôme non nul de I de degré minimal. Soit P ∈ I. Eneffectuant la division euclidienne de P par P0, il existe des polynômes Q et R tels que :

P (X) = Q(X)P0(X) +R(X)

où deg(R) < deg(P0). Comme (I,+) est un idéal de K[X], P (X) − Q(X)P0(X) ∈ I. DoncR(X) ∈ I. Mais comme P0 un polynôme non nul de I de degré minimal, il s’ensuit que R(X) = 0et :

I = {Q(X)P0(X) ; Q(X) ∈ K[X]}

Donc K[X] est un anneau principal et tout idéal I de K[X] est engendré par tout polynôme nonnul de I de degré minimal. De plus il n’est pas difficile de voir qu’il existe un unique polynômeunitaire (i.e. dont le terme de plus haut degré vaut 1) de I de degré minimal qui engendre I.Résumons tout ceci dans la proposition qui suit :

Proposition 2.47 L’anneau K[X] des polynômes est principal et tout idéal I tel que I 6= {0}est engendré par un unique polynôme unitaire de I de degré minimal.

Proposition et définition 2.48 Soit u ∈ L(E). Considérons le sous-ensemble de K[X] sui-vant :

I(u) = {P ∈ K[X] ; P (u) = 0}

Alors I(u) est un idéal de K[X] appelé idéal annulateur de u.Tout polynôme P de I(u) est appelé polynôme annulateur de u.

Preuve: Le polynôme nul appartient à I(u), donc I(u) 6= ∅. Soient (P,Q) ∈ (I(u))2. Alors :

(P −Q)(u) = P (u)−Q(u) = 0

Donc I(u) est un sous-groupe de (K[X],+). D’autre part pour tout A ∈ K[X] :

(AP )(u) = A(u) ◦ P (u) = 0

Donc AP ∈ I(u) et I(u) est un idéal de K[X].

Exemple 2.49 Soit W =

(0 10 0

). Alors Wn = 0 si n ≥ 2. Donc, pour P (X) = a0 + a1X +

a2X2 + · · · , on a P (W ) = a0I2 + a1W . L’annulateur de W est donc l’ensemble des polynômes

P (X) = a0 + a1X + a2X2 + · · · avec a = 0 = a1 = 0. On vérifiera que c’est un idéal de K[X].

On va maintenant étudier de façon similaire l’idéal annulateur des matrices U et V de l’Exemple2.44. Pour cela, on établit un lemme préliminaire :

Page 47: Algèbre linéaire - 2 année universitaire 2018-2019

2.3. POLYNÔME MINIMAL 47

Lemme 2.50 Soit P ∈ K[X] de degré n et c ∈ K. Il existe d’uniques coefficients a0, · · · , an ∈ Ktels que

P (X) = an(X − c)n + an−1(X − c)n−1 + · · ·+ a1(X − c) + a0 (2.3)

Preuve: En effet, l’équation 2.3 est équivalente à l’équation

P (X + c) = anXn + an−1X

n−1 + · · ·+ a1X + a0.

Les coefficients ai sont donc les coefficients du polynôme P (X + c).

Exemple 2.51 Un polynôme P est dans l’idéal annulateur de U , resp. V , si et seulement si 2est une racine double, resp. simple de P .

Preuve: Soit P ∈ K[X] ; écrivons le à l’aide du Lemme 2.50 sous la forme

P (X) = an(X − 2)n + an−1(X − 2)n−1 + · · ·+ a2(X − 2)2 + a1(X − 2) + a0.

On a alors

P (U) = an(U − 2I2)n + an−1(U − 2I2)

n−1 + · · ·+ a2(U − 2I2)2 + a1(U − 2I2) + a0I2.

Comme U − 2I2 =

(0 10 0

)est de carré nul, on a donc P (U) = a1(U − 2I2) + a0I2. Ainsi, P (U)

est nul si et seulement si a0 = a1 = 0, ce qui équivaut à dire que 2 est une racine double de P .Pour V , le raisonnement est similaire, à ceci près que V − 2I2 = 0. On a donc P (V ) = a0I2.

Ainsi, P (V ) est nul si et seulement si a0 = 0, ce qui équivaut à dire que 2 est une racine de P .

Proposition et définition 2.52 Soit u ∈ L(E). Alors I(u) 6= {0} et il existe un unique poly-nôme unitaire µu de I(u) de degré minimal qui engendre I(u).

Autrement dit µu est l’unique polynôme annulateur de u, unitaire de degré minimal qui divisetous les autres polynômes annulateurs de u.

µu s’appelle le polynôme minimal de u.

Preuve: D’après le théorème de Cayley-Hamilton, χu(u) = 0. Comme degχu = n, χu estun polynôme non nul et I(u) 6= {0}. D’après la proposition 2.47 il existe un unique polynômeunitaire µu de I(u) de degré minimal qui engendre I(u). Cela revient à dire que :

I(u) = {P (X)µu(X) ;P (X) ∈ K[X]}

Exercice de cours 2.22 Soit N ∈ M2(R) une matrice telle que N2 = I2. Montrer qu’on atrois possibilités pour µN : soit µN (X) = X − 1, soit µN (X) = X + 1, soit µN (X) = X2 − 1.

Remarque 2.53 Le degré m du polynôme minimal vérifie toujours m > 1.

Page 48: Algèbre linéaire - 2 année universitaire 2018-2019

48 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Exemple 2.54 L’exemple 2.49 montre que l’idéal annulateur de W est l’ensemble des multiplesde X2. Ainsi, µW (X) = X2. De façon similaire, l’exemple 2.51 montre que l’idéal annulateur deU resp. V est l’ensemble des multiples de (X − 2)2 resp. X − 2. On a donc µU (X) = (X − 2)2

et µV (X) = X − 2.

Exercice de cours 2.23 Soit A la matrice de l’exercice 2.1 et soit µA son polynôme minimal.1. Montrer que µA divise (X + 1)(X − 1).

Il y a donc trois cas de figure possible : µA est un des trois polynômes (X + 1), (X − 1) et(X + 1)(X − 1).

2. Les polynômes X − 1 et X + 1 annulent-ils A ?3. En déduire que µA(X) = (X + 1)(X − 1).

On remarque que l’unique racine de χW et µW est 0, et que l’unique racine de χU , χV , µU et µVest 2.

Proposition 2.55 Le polynôme minimal et le polynôme caractéristique ont exactement les mêmesracines.

Preuve: Soit λ une racine de χu. Alors λ est une valeur propre de u. Soit x un vecteurpropre de u associé à λ. Il est facile de voir que pour tout entier i > 0 : ui(x) = λix. Donc si

µu(X) =k∑i=0

aiXi, alors :

0 = µu(u)(x) =k∑i=0

aiui(x) =

(k∑i=0

aiλi

)x = µu(λ)x

Comme x est non nul car x est un vecteur propre, µu(λ) = 0 et λ est une racine de µu.Réciproquement, comme µu divise χu, les racines de µu sont des racines de χu.

Exercice de cours 2.24 Pour les matrices B et C de l’exercice 2.6, montrer qu’on a

µB(X) = (X − 2)(X − 1)2 ; µC(X) = (X − 2)(X − 1).

Pour cela, on pourra utiliser la relation µB|χB, et la proposition précédante.

Exercice de cours 2.25 Soit M la matrice de l’exercice 2.20. Montrer que

µM (X) = χM (X) = (X − 1)3(X − 2)2.

Exercice de cours 2.26 Soit N ∈ M2(R) une matrice telle que N2 = I2. Montrer que lesracines de χN appartiennent à {−1, 1}.

Observons que µU (X) = (X−2)2, µV (X) = X−2 et µW (X) = X2. Par ailleurs, V est diagonale,U et W sont triangulaires supérieures. Les matrices U et W ne sont pas diagonalisables car leurunique espace propre est de dimension 1 (en effet U − 2I2 et W sont de rang 1). Ceci illustre lecritère de diagonalisabilité suivant :

Page 49: Algèbre linéaire - 2 année universitaire 2018-2019

2.3. POLYNÔME MINIMAL 49

Théorème 2.56 Soit u ∈ L(E). Alors u est diagonalisable si et seulement si son polynômeminimal est scindé et si toutes ses racines sont simples.

Preuve:— (⇒) Supposons que u est diagonalisable. Soient λ1, · · · , λr les valeurs propres de u (comp-

tées sans multiplicité - autrement dit λ1, · · · , λr sont distincts). Considérons le polynôme :

P (X) = (X − λ1) · · · (X − λr)

Comme u est diagonalisable,E =r⊕i=1

Eλi(u). Donc soit x ∈ E, alors il existe (x1, · · · , xr) ∈

Eλ1(u)× · · · × Eλr(u) tel que :x = x1 + · · ·+ xr

Or :

P (u)(xi) =

∏16j6rj 6=i

(u− λjIdE)

((u− λiIdE)(xi)) = 0

Donc P (u)(x) = 0 pour tout x ∈ E et P (u) = 0. Donc P est un polynôme annulateur deu et µu divise P . Comme les racines de µu sont exactement les valeurs propres λ1, · · · , λr,il s’ensuit que µu = P et µu est scindé et n’a que des racines simples.

— (⇐) Supposons que µu est scindé et n’a que des racines simples. Alors :

µu(X) = (X − λ1) · · · (X − λr)

et λ1, · · · , λr sont les valeurs propres de u. D’après le théorème 2.45 :

E = Ker(µu(u)) =r⊕i=1

Ker(u− λiIdE) =r⊕i=1

Eλi(u)

Donc E est la somme directe des sous-espaces propres de u ce qui signifie que u estdiagonalisable.

Corollaire 2.57 Soit u ∈ L(E). Alors u est diagonalisable si et seulement si il existe un poly-nôme annulateur de u qui est scindé et qui n’admet que des racines simples.

Preuve:— (⇒) On suppose que u est diagonalisable. Alors d’après le théorème précédent µu est

scindé et n’a que des racines simples. De plus c’est un polynôme annulateur.— (⇐) Réciproquement supposons qu’il existe un polynôme annulateur P de u qui est scindé

et qui n’admet que des racines simples. Comme µu divise P , il s’ensuit que µu est scindéet n’a que des racines simples ce qui implique d’après le théorème précédent que u estdiagonalisable.

Exercice de cours 2.27 Soit N ∈ M2(R) une matrice telle que N2 = I2. Montrer que N estdiagonalisable. Quelles peuvent être les valeurs propres de N ? Montrer que la trace de N vaut−2, 0 ou 2.

Page 50: Algèbre linéaire - 2 année universitaire 2018-2019

50 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

2.4 Projecteurs

Soient F et G deux sous-espaces vectoriels supplémentaires dans E : E = F ⊕G. Pour toutx de E il existe un unique couple (p(x), q(x)) ∈ F ×G tel que x = p(x) + q(x).

Proposition 2.58 Les applications p et q sont des endomorphismes de E. p s’appelle le pro-jecteur sur F parallèlement à G et q s’appelle le projecteur sur G parallèlement à F .

Remarque 2.59 On a p+ q = IdE.

Proposition 2.601. Soient F et G deux sous-espaces vectoriels de E supplémentaires dans E et p le projecteur

sur F parallèlement à G. Alors on a : p ◦ p = p, Im(p) = F et Ker(p) = G.De plus si q est le projecteur sur G parallèlement à F , alors p ◦ q = q ◦ p = 0.

2. Réciproquement, soit p ∈ L(E) tel que p ◦ p = p. Alors :

E = Im(p)⊕Ker(p)

et p est le projecteur sur Im(p) parallèlement à Ker(p).

Preuve: Prouvons d’abord le point 1). Soit x ∈ E. Alors p(x) = p(x) + 0 et (p(x), 0) ∈ F ×G.Donc par unicité de la décomposition p(p(x)) = p(x) et p ◦ p = p.

Déterminons Im(p). Comme pour tout x ∈ E, p(x) ∈ F , il est évident que Im(p) ⊂ F .D’autre part pour tout x dans F , on a x = x + 0 et (x, 0) ∈ F × G. Donc x = p(x) ∈ Im(p).Ainsi Im(p) = F .

Déterminons Ker(p). Pour tout x de G, x = 0 + x et (0, x) ∈ F × G, donc p(x) = 0, d’oùG ⊂ Ker(p). Réciproquement soit x ∈ G, alors x = p(x) + q(x) = 0 + x et par unicité de ladécomposition p(x) = 0. Donc Ker(p) ⊂ G. Ainsi Ker(p) = G.

Montrons maintenant le point 2). Soit x ∈ Ker(p) ∩ Im(p). Alors p(x) = 0 et il existe y ∈ Etel que p(y) = x. D’où :

0 = p(x) = p(p(y)) = (p ◦ p)(y) = p(y) = x

Ceci montre que Im(p) ∩ Ker(p) = {0} et donc Im(p) et Ker(p) sont en somme directe. Soitx ∈ E. Alors x = p(x) + (x − p(x)). Or p(x − p(x)) = p(x) − (p ◦ p)(x) = 0. Donc x − p(x) ∈Ker(p). Ceci montre que E = Im(p) +Ker(p). Nous avons donc montré que Im(p) et Ker(p) sontsupplémentaires dans E.

Puisque pour tout x ∈ E, x = p(x) + (x − p(x)) avec p(x) ∈ Im(p) et x − p(x) ∈ Ker(p), pest le projecteur sur Im(p) parallèlement à Ker(p).

Exercice de cours 2.28 Soit, dans R2, les sous-espaces vectoriels F et G engendrés respec-tivement par (1, 1) et (1,−1). Ecrire les matrices P resp. Q des projections sur F (resp. G)parallèlement à G (resp. F ). Vérifier que P +Q = I2, P

2 = P,Q2 = Q.

Remarque 2.61 L’application linéaire q = IdE − p est le projecteur sur Ker(p) parallèlement àIm(p), Ker(q) = Im(p) et Im(q) = Ker(p).

Page 51: Algèbre linéaire - 2 année universitaire 2018-2019

2.4. PROJECTEURS 51

Proposition et définition 2.62 Soient F1, . . . , Fk des sous-espaces vectoriels de E tels que

E =k⊕i=1

Fi. Alors pour tout x ∈ E, il existe un unique k-uplet (p1(x), . . . , pk(x)) ∈ F1× . . .×Fk

tel que : x =k∑i=1

pi(x).

Les applications pi sont des endomorphismes et (pi)16i6k s’appelle famille de projecteurs

de E associée à la décomposition E =

k⊕i=1

Fi.

Proposition 2.63

1. Soit (pi)16i6k une famille de projecteurs de E associée à la décomposition E =

k⊕i=1

Fi.

Alors : pour tout (i, j) ∈ {1, . . . , k}2 :

— (i) IdE =k∑i=1

pi.

— (ii) pi ◦ pi = pi.— (iii) pi ◦ pj = 0 si i 6= j.

De plus Im(pi) = Fi et Ker(pi) =

k⊕j=1j 6=i

Fj pour tout i ∈ {1, . . . , k}.

2. Réciproquement soit (pi)16i6k une famille d’endomorphismes de E vérifiant les propriétés

(i), (ii) et (iii). Alors E =k⊕i=1

Im(pi) et (pi)16i6k est la famille de projecteurs associés à

cette décomposition.

Remarque 2.64 Soit E =r⊕i=1

Fi et (pi)16i6r la famille de projecteurs associée à (Fi)16i6r. Pour

v un endomorphisme tel que pour tout i ∈ {1, · · · , r}, Fi est stable par v, on a v ◦ pi = pi ◦ v.

Preuve: Pour montrer l’égalité des applications linéaires v ◦ pi et pi ◦ v, il suffit de montrerque pour x ∈ Fj avec 1 ≤ j ≤ r, on a v ◦ pi(x) = pi ◦ v(x). Or, si j 6= i, on a pi(Vj) = {0}, doncv ◦ pi(x) = pi ◦ v(x) = 0. Si j = i, on a v ◦ pi(x) = pi ◦ v(x) = v(x).

Proposition 2.65 Soit u ∈ L(E). Alors u est diagonalisable si et seulement si il existe desscalaires λ1, · · · , λr et une famille de sous-espaces vectoriels (Fi)16i6r tels que :

E =r⊕i=1

Fi et u =r∑i=1

λipi

où (pi)16i6r est la famille de projecteurs associée à (Fi)16i6r. Dans ce cas Sp(u) = {λ1, · · · , λr}et Fi = Eλi(u) pour tout i ∈ {1, · · · , r}.

Page 52: Algèbre linéaire - 2 année universitaire 2018-2019

52 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Preuve: Supposons que u est diagonalisable. Par le théorème 2.19, E est somme directe de sessous-espaces propres :

E =⊕i

Eλi(u) .

Si on note Fi = Eλi(u) et (pi) la famille de projecteurs associée à cette décomposisition, il resteà montrer que u =

∑i λipi. Pour montrer que pour tout x de E, u(x) =

∑i λipi(x), on peut,

par linéarité, supposer qu’il existe i tel que x ∈ Fi. Alors, on a u(x) = λix et∑

j λjpj(x) = λix.Donc l’égalité est établie.

Supposons maintenant qu’il existe (Fi) et (λi) tels que{E =

⊕i Fi

p =∑

i λipi

Alors, on vérifie comme ci-dessus que pour x ∈ Fi, on a∑

j λjpj(x) = λix, de sorte que Fi ⊂Eλi(u). On raisonne sur les dimensions pour en déduire que Fi = Eλi(u) : l’inclusion déjà établiedonne dim(Fi) ≤ dim(Eλi(u)). D’où dimE =

∑dim(Fi) ≤

∑dim(Eλi(u)) ≤ dimE, de sorte

que toutes ces inégalités sont des égalités, et donc Fi = Eλi(u). On en déduit E =⊕Eλi(u), et

donc que u est diagonalisable.

Exercice de cours 2.29 Soit F ⊂ R3 le sous-espace vectoriel engendré par (1,−2, 3), et soit Gle sous-espace vectoriel engendré par (1,−1, 0) et (0, 0, 1). Calculer la matrice P de la projectionsur F parallèlement à G et la matrice Q de la projection sur G parallèlement à F . Calculer2P + Q et comparer le résultat à la matrice C de l’exercice 2.6. Pouvez vous expliquer ce quevous constatez ?

Remarque 2.66

— Si E =r⊕i=1

Fi et u =r∑i=1

λipi où (pi)16i6r est la famille de projecteurs associée à

(Fi)16i6r, alors pour tout entier k > 0 :

uk =r∑i=1

λki pi

— Plus généralement si (u1, · · · , ur) ∈ L(E)r et si pour tout i ∈ {1, · · · , r} les sous-espaces

Fi sont stables par ui, alors l’endomorphisme u =

r∑i=1

ui◦pi vérifie pour tout entier k > 0 :

uk =

r∑i=1

uki ◦ pi

2.5 Sous-espaces caractéristiques et décomposition de Dunford-Jordan

2.5.1 Indice d’un endomorphisme et endomorphismes nilpotents

Proposition 2.67 Soit u ∈ L(E). Alors :

Page 53: Algèbre linéaire - 2 année universitaire 2018-2019

2.5. SOUS-ESPACES CARACTÉRISTIQUES 53

1. Pour tout entier k > 0, Ker(uk) ⊂ Ker(uk+1).

2. La suite (Ker(uk))k∈N est stationnaire. Autrement dit :

∃j > 0 ; ∀k > j , Ker(uj) = Ker(uk)

3. Si j est un entier tel que Ker(uj) = Ker(uj+1) alors :

∀k > j , Ker(uj) = Ker(uk)

4. Soit i0 le plus petit entier tel que Ker(ui0) = Ker(ui0+1). Alors i0 6 dim(E).

Preuve:

1. Soit k ∈ N et soit x ∈ Ker(uk), alors :

uk+1(x) = u(uk(x)) = u(0) = 0

Donc x ∈ Ker(uk+1) et Ker(uk) ⊂ Ker(uk+1).

2. Considérons la suite (dim(Ker(uk)))k∈N. Comme Ker(uk) ⊂ Ker(uk+1) ⊂ E, dim(Ker(uk)) 6dim(Ker(uk+1)) 6 dim(E) = n donc (dim(Ker(uk)))k∈N est une suite croissante d’entiersmajorée. Donc à partir d’un certain rang, la suite (dim(Ker(uk)))k∈N est stationnaire.Donc :

∃j > 0 ; ∀k > j , dim(Ker(uj)) = dim(Ker(uk))

Comme Ker(uj) ⊂ Ker(uk) pour tout k > j, il s’ensuit que Ker(uj) = Ker(uk) pour toutk > j.

3. Supposons que Ker(uj) = Ker(uj+1). Montrons que pour tout k > j, Ker(uk) = Ker(uk+1).Soit x ∈ Ker(uk+1), alors :

uk+1(x) = uj+1(uk−j(x)) = 0

Donc uk−j(x) ∈ Ker(uj+1), mais comme Ker(uj) = Ker(uj+1), uk−j(x) ∈ Ker(uj) et :

uj(uk−j(x)) = 0 = uk(x)

Donc x ∈ Ker(uk) et Ker(uk+1) ⊂ Ker(uk). Mais d’après le 1. on a aussi Ker(uk) ⊂Ker(uk+1). Finalement Ker(uk) = Ker(uk+1).

4. Soit i0 le plus petit entier tel que Ker(ui0) = Ker(ui0+1). Considérons l’application :

F : {0, · · · , i0} −→ {0, · · · , n}k 7−→ dim(Ker(uk))

D’après le point précédent, on a :

dim(Ker(u0)) < · · · < dim(Ker(ui0))

Donc F est injective et il s’ensuit que i0 6 n.

Page 54: Algèbre linéaire - 2 année universitaire 2018-2019

54 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Définition 2.68 Soit u ∈ L(E). On appelle indice de u le plus petit entier i0 tel que Ker(ui0) =Ker(ui0+1).

Exercice de cours 2.30 Déterminer l’indice de B − I3 et celui de C − I3.

Remarque 2.69— Si i0 > 0, alors d’après la définition de i0 et la proposition on a pour tout p > 1 :

{0} = Ker(u0) · · · Ker(ui0) = Ker(ui0+1) = · · · = Ker(ui0+p)

— Soit p ∈ N?. Alors Ker(up) = {0} si et seulement si Ker(u) = {0}. En effet Ker(u) ⊂Ker(up) donc l’égalité Ker(up) = {0} implique Ker(u) = {0}. Réciproquement, si Ker(u) ={0}, alors u est injective, et il en est de même de up pour tout p.

Le deuxième point résulte aussi de la Proposition 2.67 dans le cas particulier i0 = 0.

Définition 2.70 Soit ν ∈ L(E). On dit que ν est un endomorphisme nilpotent s’il existe unentier k tel que νk = 0.

Proposition 2.71 Soit ν un endomorphisme nilpotent de E. Soit n0 l’indice de ν. Alors n0 estle plus petit entier tel que νn0 = 0 et on a n0 6 dim(E).

Preuve: Soit m le plus petit entier tel que νm = 0. Alors νm−1 6= 0 et :

Ker(νm−1) Ker(νm) = E

Il s’ensuit que Ker(νm) = Ker(νm+1) et m est l’indice de ν.

Exercice de cours 2.31 Donner un exemple d’endomorphisme nilpotent non nul.

Proposition 2.72 Soit ν un endomorphisme nilpotent de E. Alors Sp(ν) = {0}. De plus ν estdiagonalisable si et seulement si ν = 0.

Preuve: Soit n0 l’indice de ν. Alors νn0 = 0 et νn0−1 6= 0. Soit P (X) = Xn0 . Alors P est unpolynôme annulateur et comme le polynôme minimal de ν divise P , il s’ensuit que µν(X) = Xk

avec k 6 n0.D’après le théorème 2.56, ν est diagonalisable si et seulement si µν est scindé (ce qui est

le cas) et µν n’a que des racines simples. Or µν n’a que des racines simples si et seulement siµν(X) = X. Mais dans ce cas µν(ν) = ν = 0.

Proposition 2.73 Soit d un endomorphisme diagonalisable de E. Alors d est nilpotent si etseulement si d = 0.

Preuve: Dans une base adaptée, la matriceD de d est diagonale : écrivonsD = Diag(λ1, . . . , λn).Alors Dk = Diag(λk1, · · · , λkn). Donc, il existe k tel que Dk = 0 si et seulement si ∀i, λi = 0, soitD = 0.

Page 55: Algèbre linéaire - 2 année universitaire 2018-2019

2.5. SOUS-ESPACES CARACTÉRISTIQUES 55

Exercice de cours 2.32 Soit ν un endomorphisme nilpotent de E et soit n0 son indice denilpotence.

1. Montrer que ν annule un polynôme scindé.2. Quelles sont les valeurs propres de ν ?3. Montrer qu’il existe une base de E dans laquelle la matrice de ν est strictement triangulaire

supérieure (c’est-à-dire triangulaire supérieure avec des 0 sur la diagonale).4. Montrer que νdim(E) = 0.5. Retrouver le résultat de la Proposition 2.71 selon lequel n0 ≤ dim(E).

2.5.2 Sous-espaces caractéristiques

Dans ce paragraphe u est un endomorphisme de E tel que χu soit scindé sur K. Soientλ1, · · · , λr les valeurs propres (distinctes) de u. Alors :

χu(X) = (−1)nr∏i=1

(X − λi)αi , µu(X) =

r∏i=1

(X − λi)βi

On note d’autre part :

Cλi(u) := Ker(u− λiIdE)αi et Mλi(u) := Ker(u− λiIdE)βi

On a bien entendu 1 6 βi 6 αi.

Définition 2.74 Soit i ∈ {1, · · · , r}. Le sous-espace vectoriel Cλi(u) s’appelle le sous-espacecaractéristique associé à la valeur propre λi.

Exercice de cours 2.33 Déterminer C1(A),M1(A), C−1(A),M−1(A). Déterminer aussi C1(B)et M1(B).

Remarque 2.75— D’après le paragraphe précédent, on a :

Eλi(u) ⊂Mλi(u) ⊂ Cλi(u)

— Mλi(u) et Cλi(u) sont stables par u (i.e. u(Mλi(u)) ⊂Mλi(u) et u(Cλi(u)) ⊂ Cλi(u)).

Proposition 2.76 Soit i ∈ {1, · · · , r}. L’indice de u− λiIdE est βi. En particulier on a :

Mλi(u) = Cλi(u)

Preuve: Les polynômes des ensembles {(X − λi)αi ; 1 6 i 6 r} et {(X − λi)βi ; 1 6 i 6 r}sont premiers deux à deux. Comme χu et µu sont des polynômes annulateurs on a Ker(χu(u)) =Ker(µu(u)) = E et d’après le théorème 2.45 on a :

E =r⊕i=1

Mλi(u) =r⊕i=1

Cλi(u)

Page 56: Algèbre linéaire - 2 année universitaire 2018-2019

56 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Donc :

dim(E) =

r∑i=1

dim(Mλi(u)) =

r∑i=1

dim(Cλi(u))

Doncr∑i=1

(dim(Cλi(u)− dim(Mλi(u)) = 0

Comme dim(Cλi(u))−dim(Mλi(u)) > 0, On a dim(Mλi(u)) = dim(Cλi(u)) et Mλi(u) = Cλi(u).On en déduit donc que l’indice i0 de u− λiIdE vérifie i0 6 βi.

Supposons que i0 < βi. Cela signifie alors que Ker(u − λiIdE)βi−1 = Ker(u − λiIdE)βi .Considérons alors le polynôme :

Q(X) =

∏16j6rj 6=i

(X − λj)βj

(X − λi)βi−1

Soit x ∈ E. Comme E =

r⊕j=1

Mλj (u), il existe (x1, · · · , xr) ∈ Mλ1(u) × · · · ×Mλr(u) tel que :

x = x1 + · · · + xr. Pour tout j ∈ {1, · · · , r} tel que j 6= i, on a (u − λjIdE)βj (xj) = 0. De pluscomme Ker(u − λiIdE)βi−1 = Ker(u − λiIdE)βi = Mλi(u) on a (u − λiIdE)βi−1(xi) = 0. Doncpour tout j ∈ {1, · · · , r} Q(u)(xj) = 0 et :

Q(u)(x) = 0

Ceci pour tout x ∈ E. Donc Q est un polynôme annulateur de u. Mais deg(Q) < deg(µu) ce quicontredit la définition de µu. Donc i0 = βi.

Proposition 2.77 Pour tout i ∈ {1, · · · , r} on a :

dim(Cλi(u)) = m(λi)

Preuve: On montre d’abord que dim(Cλi(u)) ≤ m(λi) par une preuve analogue à celle dela Proposition 2.17 : posons ni = dim(Cλi(u)). Comme Cλi(u) est stable par u, la restrictionui = u|Cλi (u)

est un endomorphisme de Cλi(u). De plus on a Ker(ui − λiIdCλi (u))αi = Cλi(u).

Donc le polynôme Q(X) = (X − λi)αi est un polynôme annulateur de ui et ceci montre queλi est l’unique valeur propre de ui. Soit Bi une base de Cλi(u) dans laquelle la matrice de uiest triangulaire supérieure. On complète Bi par une famille de vecteurs L de façon à ce queB = Bi ∪ L soit une base de E. Alors :

MatB(u) =

λi a12 · · · a1ni

0. . .

......

. . . . . . ani−1,ni0 · · · 0 λi

A

O B

Page 57: Algèbre linéaire - 2 année universitaire 2018-2019

2.5. SOUS-ESPACES CARACTÉRISTIQUES 57

On en déduit alors que :χu(X) = (λi −X)niχB(X)

et donc (λi −X)ni divise χu(X).

Cela implique que ni 6 αi. On a donc :

dim(E) =

r∑i=1

dim(Cλi(u)) =

r∑i=1

ni 6r∑i=1

αi = dim(E)

On déduit que ni = αi.

Exercice de cours 2.34 Montrer que ce résultat est compatible avec les calculs d’espaces ca-ractéristiques que vous avez faits dans l’exercice 2.33.

2.5.3 Décomposition de Dunford-Jordan

Théorème 2.78 (Décomposisition de Dunford-Jordan) Soit u ∈ L(E) tel que χu soitscindé dans K[X]. Alors il existe un unique couple (d, ν) d’endomorphismes de E tel que :

1. u = d+ ν.2. d ◦ ν = ν ◦ d.3. d est diagonalisable et ν est nilpotent.

De plus si µu(X) =r∏i=1

(X − λi)βi , alors d =r∑i=1

λipi où (pi)16i6r est la famille de projecteurs

associés à la décomposition E =

r⊕i=1

Cλi(u), et l’indice de ν est N = max16i6r

(βi).

Preuve: On a E =

r⊕i=1

Cλi(u). Soit (pi)16i6r la famille de projecteurs associés à cette décom-

position. Posons d =r∑i=1

λipi. Alors d est un endomorphisme diagonalisable (voir Proposition

2.65). Posons maintenant ν = u− d. Alors :

ν = u−r∑i=1

λipi = u ◦r∑i=1

pi −r∑i=1

λipi =r∑i=1

(u− λiIdE) ◦ pi

Montrons que ν ◦ d = d ◦ ν.

ν ◦ d =

(r∑i=1

(u− λiIdE) ◦ pi

)◦

r∑j=1

λjpj

=∑

16i,j6r

λj(u− λiIdE) ◦ pi ◦ pj

=∑

16i,j6r

λj(u− λiIdE) ◦ pj ◦ pi

Page 58: Algèbre linéaire - 2 année universitaire 2018-2019

58 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Comme pour tout couple (i, j) ∈ {1, · · · , r}2, les sous-espaces Cλj (u) sont stables par (u−λiIdE)alors (u− λiIdE) ◦ pj = pj ◦ (u− λiIdE), par la Remarque 2.64. Donc :

ν ◦ d =∑

16i,j6r

λjpj ◦ (u− λiIdE) ◦ pi

= d ◦ ν

Montrons maintenant que ν est nilpotent d’indiceN = max16i6r

(βi). Comme pour tout i ∈ {1, · · · , r},les sous-espaces Cλi(u) sont stables par (u− λiIdE), on a (voir la remarque 2.66) :

νN =r∑i=1

(u− λiIdE)N ◦ pi

Or N > βi pour tout i ∈ {1, · · · , r} et βi est l’indice de u − λiIdE d’après la proposition 2.76.Donc Ker(u− λiIdE)N = Ker(u− λiIdE)βi = Cλi(u).

Soit x ∈ E. Alors pour tout i ∈ {1, · · · , r}, pi(x) ∈ Ker(u − λiIdE)N . Donc pour toutx ∈ E, νN (x) = 0 ce qui signifie que νN = 0 et ν est nilpotent. Soit j ∈ {1, · · · , r} telque βj = N . Alors dans ce cas Ker(u − λjIdE)N−1 Ker(u − λjIdE)N = Cλj (u). Donc soitx ∈ Cλj (u) \Ker(u− λjIdE)N−1. Alors pi(x) = 0 pour tout i 6= j et :

νN−1(x) =r∑i=1

(u− λiIdE)N−1(pi(x)) = (u− λjIdE)N−1(x) 6= 0

Donc ν est nilpotent d’indice N .Il nous reste à montrer l’unicité du couple (d, ν). Soit (d′, ν ′) vérifiant les hypothèses 1, 2 et

3 du théorème. Notons N ′ l’indice de ν ′. Soit λ′ ∈ Sp(d′) et x ∈ Eλ′(d′) \ {0}. Alors comme u etd′ commutent :

0 = ν ′N′(x) = (u− d′)N ′(x) =

N ′∑k=0

(N ′

k

)(−1)N

′−k(uk ◦ d′N ′−k)(x)

=N ′∑k=0

(N ′

k

)(−1)N

′−k(uk ◦ (λ′IdE)N′−k)(x)

= (u− λ′IdE)N′(x)

Donc Ker(u− λ′IdE)N′ 6= {0}. Il s’ensuit d’après la remarque 2.69 que Ker(u− λ′IdE) 6= {0} et

λ′ ∈ Sp(u). Donc Sp(d′) ⊂ Sp(u). De plus on déduit de ce qui précède que :

Eλ′(d′) ⊂ Cλ′(u)

Notons Sp(d′) = {λ′1, · · · , λ′s}. Comme d′ est diagonalisable :

E =s⊕i=1

Eλ′i(d′) ⊂

s⊕i=1

Cλ′i(u)

Page 59: Algèbre linéaire - 2 année universitaire 2018-2019

2.6. APPLICATIONS ET EXEMPLES : SUITES RÉCURRENTES 59

Donc E =s⊕i=1

Cλ′i(u). On en déduit que {λ′1, · · · , λ′s} = {λ1, · · · , λr} et Sp(d′) = Sp(u). Donc

pour tout i ∈ {1, · · · , r}, Eλi(d′) = Cλi(u) et pour tout x ∈ E on a :

d′(x) =

r∑i=1

d′(pi(x)) =

r∑i=1

λipi(x) = d(x)

Donc d = d′ et ν = ν ′.

Remarque 2.79 Si u est diagonalisable, sa décomposition de Dunford-Jordan est donc u = u+0(c’est-à-dire d = u et ν = 0).

Exercice de cours 2.351. Déterminer la décomposition de Dunford-Jordan des matrices A et C.

2. Déterminer la décomposition de Dunford-Jordan de la matrice

1 2 30 4 50 0 6

. Attention c’est

un piège.

Remarque 2.801. Sp(d) = Sp(u).2. ∀λ ∈ Sp(u) , Eλ(d) = Cλ(u).3. ∀λ ∈ Sp(u), Cλ(u) est stable par ν et par d.

2.6 Applications et exemples : suites récurrentes

2.6.1 Calcul des puissances d’un endomorphisme

Soit u ∈ L(E) tel que χu soit scindé dans K[X]. Soient λ1, · · · , λr les valeurs propres (dis-tinctes) de u. Alors :

χu(X) = (−1)nr∏i=1

(X − λi)αi , µu(X) =r∏i=1

(X − λi)βi

On rappelle d’autre part que :

Ker(u− λiIdE)βi−1 Ker(u− λiIdE)βi = Ker(u− λiIdE)αi = Cλi(u)

et que 1 6 βi 6 αi = dim(Cλi(u)).D’après le théorème 2.78 il existe un unique couple (d, ν) d’endomorphismes de E vérifiant les

propriétés 1,2,3 du théorème. Notons m l’indice de ν. Soit k ∈ N alors comme d et ν commutenton peut appliquer la formule du binôme de Newton ce qui donne :

uk =k∑i=0

(ki

)dk−iνi

Page 60: Algèbre linéaire - 2 année universitaire 2018-2019

60 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

Si k > m− 1, alors :

uk =m−1∑i=0

(ki

)dk−iνi

Maintenant soient des bases B1, · · · ,Br respectivement de chacun des sous-espaces caractéris-tiques Cλ1(u), · · · , Cλr(u). Considérons la base de E définie par B = B1 ∪ · · · ∪ Br. Dans ce cascomme Eλi(u) = Cλi(u) pour tout i ∈ {1, · · · , r} on a :

MatB(d) =

λ1. . .

λ1

O. . . O

λr. . .

λr

et MatB(ν) = MatB(u − d). De plus comme Cλi(u) est stable par ν, en posant A = MatB(u),D = MatB(d) et N = MatB(ν) alors A est une matrice diagonale par blocs et pour k > m − 1on a :

Ak =m−1∑i=0

(ki

)Dk−iN i

On sait calculer les puissances de D. Il reste à calculer N2, · · · , Nm−1.

2.6.2 Une méthode de trigonalisation

On peut cependant faire les choses plus finement. Pour cela pour tout i ∈ {1, · · · , r} comme :

Ker(u− λiIdE) · · · Ker(u− λiIdE)βi−1 Ker(u− λiIdE)βi

On construit des bases Bi,1, · · · ,Bi,βi respectivement de Ker(u−λiIdE), · · · ,Ker(u−λiIdE)βi detelle manière que :

Bi,1 ⊂ · · · ⊂ Bi,βiAutrement dit chaque base Bi,j−1 de Ker(u−λiIdE)j−1 est complétée par une famille libre Lj deKer(u− λiIdE)j pour obtenir une base Bi,j de Ker(u− λiIdE)j . Remarquons alors que si v ∈ Ljalors (u− λiIdE)j−1((u− λiIdE)(v)) = 0. Donc u(v)− λiv ∈ Ker(u− λiIdE)j−1 = Vect(Bi,j−1).Il s’ensuit qu’on a :

MatB(u) =

λ1 ∗ · · · · · · · · · · · · ∗. . . . . .

...

λ1. . .

...

O. . . . . .

...

λr. . .

.... . . ∗

λr

Page 61: Algèbre linéaire - 2 année universitaire 2018-2019

2.6. APPLICATIONS ET EXEMPLES : SUITES RÉCURRENTES 61

et dans cette base N est une matrice triangulaire supérieure stricte.

2.6.3 Suites récurrentes

Soit (un) une suite à valeurs complexes.

Définition 2.81 Une relation de récurrence d’ordre k est une relation vérifiée par la suite (un)du type :

un+k = ak−1un+k−1 + ak−2un+k−2 + · · ·+ a0un (2.4)

pour tout n > 0.

Cette relation de récurrence est équivalente à la relation de récurrence matricielle :

Xn+1 = AXn

pour tout n > 0 où Xn =

un+k−1...un

∈ Mk,1(K) et A =

ak−1 ak−2 · · · · · · a0

1 0 · · · · · · 0

0 1. . .

......

. . . . . . . . ....

0 · · · 0 1 0

∈Mk(K). Un calcul facile permet de voir que pour tout n > 0, Xn = AnX0. Calculons le polynômecaractéristique χA. Alors :

χA(λ) =

∣∣∣∣∣∣∣∣∣∣∣∣

ak−1 − λ ak−2 · · · · · · a01 −λ · · · · · · 0

0 1. . .

......

. . . . . . . . ....

0 · · · 0 1 −λ

∣∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣∣

−λ 0 · · · · · · 00 −λ · · · · · · 0

0 1. . .

......

. . . . . . . . ....

0 · · · 0 1 −λ

∣∣∣∣∣∣∣∣∣∣∣∣+Dk−1 = (−λ)k +Dk−1

où :

Di =

∣∣∣∣∣∣∣∣∣∣∣∣

ai ai−1 · · · · · · a01 −λ · · · · · · 0

0 1. . .

......

. . . . . . . . ....

0 · · · 0 1 −λ

∣∣∣∣∣∣∣∣∣∣∣∣

Page 62: Algèbre linéaire - 2 année universitaire 2018-2019

62 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

En développant suivant la première colonne on remarque que Di = (−1)iaiλi − Di−1 et par

récurrence on montre que :

Di = (−1)ii∑

j=0

ajλj

et :χA(λ) = (−1)k

(λk − ak−1λk−1 − · · · − a1λ− a0

)Si on travaille dans C, χA est scindé.

Supposons d’abord que toutes les racines de χA soient distinctes. Notons λ1, · · · , λk ces

racines. Alors pour tout i ∈ {1, · · · , k}, Vi =

λk−1i

λk−2i...λi1

est un vecteur propre associé à λi car

ak−1λki + · · ·+ a1λi + a0 = λki .

D’après la remarque 2.23, on a D = P−1AP où P est la matrice deMk(K) dont les vecteurscolonne Ci(P ) vérifient Ci(P ) = Vi, et :

D =

λ1 0. . .

0 λk

Donc notant P−1X0 =

c1...ck

Xn = AnX0 = PDnP−1X0 = P

λn1 0

. . .0 λnk

c1...ck

= P

c1λn1

...ckλ

nk

Donc Xn = c1λ

n1V1 + · · ·+ ckλ

nkVk d’où :

Proposition 2.82 Supposons que χA(X) = (−1)k(Xk − ak−1Xk−1 − · · · − a1X − a0

)a k ra-

cines distinctes λi, . . . , λk. Alors, les suites qui vérifient la relation de récurrence (2.4) sont lessuites définies par

un = c1λn1 + · · ·+ ckλ

nk ,

où c1, · · · , ck sont des constantes quelconques.

Remarque 2.83 Les coefficients inconnus c1, · · · , ck sont déterminés par les k premières valeursu0, · · · , uk−1 de la suite.

Page 63: Algèbre linéaire - 2 année universitaire 2018-2019

2.6. APPLICATIONS ET EXEMPLES : SUITES RÉCURRENTES 63

Le cas où les racines ne sont pas distinctes est plus complexe. Traitons ce cas au travers d’unexemple. Considérons la suite récurrente suivante vérifiant pour tout n > 0 :

un+3 = un+2 + 8un+1 − 12un

La matrice A définie comme ci-dessus vaut :

A =

1 8 −121 0 00 1 0

Et d’après ce qui a été fait plus haut :

χA(λ) = −(λ3 − λ2 − 8λ+ 12) = −(λ− 2)2(λ+ 3)

Donc les valeurs propres de A sont 2 et −3 de multiplicités respectives 2 et 1.

D’autre part dim(E2(A)) = 1 et E2(A) = Vect(U) où U =

421

. De plus le système :

(A− 2I3)2

xyz

= 0

est équivalent à x − 4y + 4z = 0 d’où l’on déduit qu’en posant V =

011

, {U, V } est une base

de l’espace C2(A). De plus AV = 2V − U .

Comme E−3(A) = Vect(W ) où W =

−93−1

, (U, V,W ) est une base de R3. Donc si on pose

P =

4 0 −92 1 31 1 −1

on a :

P−1AP =

2 −1 00 2 00 0 −3

= D +N

où D =

2 0 00 2 00 0 −3

et N =

0 −1 00 0 00 0 0

. Comme N est nilpotente d’indice 2, on déduit que

pour n > 1 : un+2

un+1

un

= An

u2u1u0

= PDnP−1

u2u1u0

= P (Dn + nDn−1N)C

Page 64: Algèbre linéaire - 2 année universitaire 2018-2019

64 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES

où C = P−1

u2u1u0

=

c1c2c3

. Donc :

un+2

un+1

un

=

4 0 −92 1 31 1 −1

2n −n2n−1 00 2n 00 0 (−3)n

c1c2c3

et

un = c12n + c2(−n2n−1 + 2n)− c3(−3)n

Page 65: Algèbre linéaire - 2 année universitaire 2018-2019

Chapitre 3

Systèmes différentiels linéaires àcoefficients constants

Dans toute la suite le corps K considéré est R ou C.

3.1 Exponentielle d’une matrice ou d’un endomorphisme

3.1.1 Espaces vectoriels normés

La notion d’espace vectoriel normé fait l’objet d’un cours spécifique au S4. Nous nous conten-tons ici d’énoncer les résultats de cette théorie qui nous seront utiles pour résoudre les systèmesdifférentiels.

Définition 3.1 Soit E un K-espace vectoriel. On appelle norme sur E toute application N :E −→ R+ vérifiant :

1. N(x) = 0⇔ x = 0.

2. ∀(λ, x) ∈ K× E ; N(λx) = |λ|N(x).

3. ∀(x, y) ∈ E × E ; N(x+ y) 6 N(x) +N(y).

Un espace vectoriel muni d’une norme est appelé espace vectoriel normé.

Dans la pratique on note pour tout x ∈ E, N(x) = ‖x‖ et (E, ‖ ‖) désigne l’espace vectorielnormé associé.

Exercice de cours 3.1 Soit E = R2. On note, pour (x, y) ∈ E,— ‖(x, y)‖1 = |x|+ |y| ;— ‖(x, y)‖2 =

√x2 + y2 ;

— ‖(x, y)‖∞ = sup(|x|, |y|)Montrer que ‖ ‖1, ‖ ‖2 et ‖ ‖∞ sont des normes. Quelles sont les “cercles unités” pour ces normes,définis par l’équation ‖(x, y)‖i = 1 ?

Voici maintenant quelques résultats importants pour la suite :

65

Page 66: Algèbre linéaire - 2 année universitaire 2018-2019

66 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Définition 3.2 On dit qu’une suite (xn)n∈N de E tend vers x ∈ E si ‖xn − x‖ −→ 0 quandn −→∞.

Définition 3.3 Deux normes ‖ ‖1 et ‖ ‖2 sont équivalentes s’il existe α, β > 0 tels que pourtout x ∈ E :

α‖x‖1 6 ‖x‖2 6 β‖x‖1

Les suites convergentes pour ‖ ‖1 ou ‖ ‖2 sont alors les mêmes et ont la même limite.

Théorème 3.4 Si E est de dimension finie alors toutes les normes sont équivalentes.

Proposition 3.5 Si E est de dimension finie muni d’une base (e1, · · · , en) alors toute suite

(xk)k∈N de E telle que xk =

n∑i=1

xk,iei pour tout k ∈ N tend vers x =

n∑i=1

xiei si et seulement si

pour tout i ∈ {1, · · · , n} :xk,i −→ xi quand k −→∞

Preuve: Il suffit de prendre la norme sup, définie par ‖∑n

i=1 xiei‖∞ = supi |xi|, pour obtenirl’équivalence indiquée.

Proposition 3.6 Si (E, ‖ ‖) est un K-espace vectoriel normé de dimension finie alors (E, ‖ ‖)est complet. Autrement dit toute suite de Cauchy dans E est convergente. On rappelle qu’unesuite (xn)n∈N est de Cauchy si :

∀ε > 0 , ∃N ; ∀p, q > N , ‖xp − xq‖ < ε

Preuve: Si on utilise la norme sup ‖ ‖∞, cela résulte de la Proposition 3.5.

Définition 3.7 Si (E, ‖ ‖E) et (F, ‖ ‖F ) sont deux espaces vectoriels normés, alors f : E −→ Fest continue en x ∈ E si pour toute suite (xn)n∈N de E telle que lim

n−→∞xn = x pour la norme

‖ ‖E alors limn−→∞

f(xn) = f(x) pour la norme ‖ ‖F . Là encore si E et F sont de dimensionfinie l’ensemble des fonctions continues est le même quel que soit le choix des normes sur E etF .

À partir de maintenant (E, ‖ ‖) est un espace vectoriel normé de dimension finie n.

Donnons un exemple important de norme dans un espace vectoriel de dimension finie : soit

(e1, · · · , en) est une base de E. Pour tout x =

n∑i=1

xiei, posons :

‖x‖1 =n∑i=1

|xi|

Alors ‖ ‖1 est une norme sur E.

Page 67: Algèbre linéaire - 2 année universitaire 2018-2019

3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 67

Définition 3.8 Soit∑k>0

uk une série de E. On dit∑k>0

uk converge absolument si la série∑k>0

‖uk‖ converge.

Proposition 3.9 Soit∑k>0

uk une série de E qui converge absolument. Alors∑k>0

uk est conver-

gente.

Preuve: Posons SN =N∑k=0

uk. Alors pour tout p > q :

‖Sp − Sq‖ =

∥∥∥∥∥∥p∑

k=q+1

uk

∥∥∥∥∥∥ 6p∑

k=q+1

‖uk‖

Comme∑k>0

‖uk‖ est une série convergente la suite

(N∑k=0

‖uk‖

)N∈N

est de Cauchy. Alors, pour

tout ε > 0 :

∃N ; ∀p, q > N ,

p∑k=q+1

‖uk‖ < ε

Donc :∀p, q > N , ‖Sp − Sq‖ < ε

Donc (SN )N∈N est de Cauchy dans E qui est complet car de dimension finie. Donc (SN )N∈N estune suite convergente ce qui signifie que

∑k>0

uk converge.

3.1.2 Norme sur l’espace des endomorphismes et sur les matrices

Dans toute cette partie (E, ‖ ‖) est une espace vectoriel normé de dimension finie n.

Proposition 3.10 Soit u ∈ L(E). Alors il existe une constante M telle que pour tout x ∈ E :

‖u(x)‖ 6M‖x‖

De plus u est continue sur (E, ‖ ‖).

Preuve: Soit (e1, · · · , en) une base de E et x =

n∑i=1

xiei alors :

‖u(x)‖ =

∥∥∥∥∥n∑i=1

xiu(ei)

∥∥∥∥∥ 6n∑i=1

|xi|‖u(ei)‖ 6 max16i6n

(‖u(ei)‖)n∑i=1

|xi| = max16i6n

(‖u(ei)‖)‖x‖1

Page 68: Algèbre linéaire - 2 année universitaire 2018-2019

68 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Or toutes les normes étant équivalentes il existe un réel β > 0 tel que pour tout x ∈ E, ‖x‖1 6β‖x‖. Donc posant M = β max

16i6n(‖u(ei)‖), on a prouvé que pour tout x ∈ E :

‖u(x)‖ 6M‖x‖

Maintenant si (xk)k∈N est une suite de E qui converge vers x, alors :

‖u(xk)− u(x)‖ = ‖u(xk − x)‖ 6M‖xk − x‖

Comme limk−→∞

‖xk − x‖ = 0, on conclut que limk−→∞

u(xk) = u(x) et u est continue.

Exemple 3.11 Soit fA : Rn → Rn l’application linéaire associée à une matrice A = (ai,j), etsoit la norme ‖ ‖1 sur Rn. On a ‖AX‖1 ≤

(∑i,j |ai,j |

)‖X‖1.

Preuve: En effet, ∑i

∑j |ai,jxj | ≤

∑i,j |ai,jxj |

=∑

i,j |ai,j | |xj |≤

(∑i,j |ai,j |

)(∑

k |xk|)

De la proposition on déduit que supx∈E‖x‖=1

‖u(x)‖ est bien défini.

Proposition 3.12 Pour tout u ∈ L(E) définissons :

‖|u‖| := supx∈E‖x‖=1

‖u(x)‖

Alors ‖| ‖| est une norme sur E qui satisfait :1. ∀x ∈ E , ‖u(x)‖ 6 ‖|u‖|‖x‖.2. ∀(u, v) ∈ (L(E))2 , ‖|u ◦ v‖| 6 ‖|u‖|‖|v‖|.

‖| ‖| s’appelle norme d’algèbre.

Preuve: En effet, on déduit de la définition de ‖|u‖| que ‖u(x)‖ ≤ ‖|u‖| ‖x‖ pour tout x ∈ E.Soit maintenant x ∈ E, on a

‖u ◦ v(x)‖ ≤ ‖|u‖| ‖v(x)‖ ≤ ‖|u‖| ‖|v‖| ‖x‖ ,

en appliquant deux fois cette propriété.

Proposition 3.13 On considère l’espace vectoriel des matrices colonnes E = Mn,1(K) munid’une norme ‖ ‖. Soit A ∈Mn(K) et définissons :

‖|A‖| := supX∈E‖X‖=1

‖AX‖

Alors ‖| ‖| est une norme sur E qui satisfait :

Page 69: Algèbre linéaire - 2 année universitaire 2018-2019

3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 69

1. ∀X ∈ E , ‖AX‖ 6 ‖|A‖|‖X‖.2. ∀(A,B) ∈ (Mn(K))2 , ‖|AB‖| 6 ‖|A‖|‖|B‖|.

‖| ‖| s’appelle norme matricielle.

Preuve: Pour tout A ∈Mn(K), considérons l’application :

fA : E −→ EX 7−→ AX

Alors fA est un endomorphisme de E et ‖|A‖| = ‖|fA‖|. L’assertion 1. est évidente. Pour l’as-sertion 2. on a :

‖|AB‖| = ‖|fAB‖| = ‖|fA ◦ fB‖| 6 ‖|fA‖|‖|fB‖| = ‖|A‖|‖|B‖|

3.1.3 Dérivabilité et intégration des fonctions à variable réelle et à valeursdans un espace vectoriel

Dans toute cette partie (E, ‖ ‖) est une espace vectoriel normé de dimension finie n.

Définition 3.14 Soit I un intervalle non vide de R. On dit que la fonction f : I −→ E estdérivable en t0 ∈ I, s’il existe un vecteur de E noté f ′(t0) tel que :∥∥∥∥1

h(f(t0 + h)− f(t0))− f ′(t0)

∥∥∥∥ −→ 0

quand h −→ 0.Si f est dérivable sur I, l’application :

f ′ : I −→ Et 7−→ f ′(t)

s’appelle la dérivée de f sur I.

Proposition 3.15 Soit I un intervalle non vide de R. On suppose que E est muni d’une base B.Soit f : I −→ E une fonction. Notons (f1, · · · , fn) les fonctions composantes de f dans la base

B (i.e. ∀t ∈ I , f(t) =

n∑i=1

fi(t)ei). Alors f est dérivable en t0 ∈ I si et seulement si les fonctions

fi sont dérivables en t0 ∈ I pour tout i ∈ {1, · · · , n}, et dans ce cas f ′(t0) =∑

i f′i(t0)ei.

Preuve: On peut supposer que ‖x‖ = ‖x‖1 où ‖x‖1 est défini via la base B. Soit d =∑aiei :

on a ∥∥∥∥1

h(f(t0 + h)− f(t0))−

∑aiei

∥∥∥∥ −→ 0

Page 70: Algèbre linéaire - 2 année universitaire 2018-2019

70 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

si et seulement si ∑i

∣∣∣∣1h(fi(t0 + h)− fi(t0))− ai∣∣∣∣ −→ 0 ,

ce qui équivaut finalement à

∀i,∣∣∣∣1h(fi(t0 + h)− fi(t0))− ai

∣∣∣∣ −→ 0 ,

soit le fait que chaque fonction fi est dérivable en t0 de dérivée f ′i(t0) = ai.

Proposition 3.16 Soit I un intervalle non vide de R et soit f : I −→ E une fonction.1. Soient B et C deux bases de E. Alors les fonctions composantes de f dans B sont intégrables

au sens de Riemann sur I si et seulement si les fonctions composantes de f dans C sontintégrables au sens de Riemann sur I. Si les fonctions composantes de f dans une basesont intégrables, on dira alors que f est intégrable.

2. Soit B = (u1, · · · , un) une base de E et (f1, · · · , fn) les composantes de f dans B. Alorsla quantité :

n∑i=1

∫I

(fi(t)dt)ui

ne dépend pas de la base choisie et est notée∫If(t)dt.

Preuve: On note B = (u1, · · · , un) et C = (v1, · · · , vn). On note aussi P la matrice de passagede B à C, de sorte que par définition ∀j, vj =

∑i Pi,jui. Soient (fi) les coordonnées de f dans B

et (gj) les coordonnées de f dans C : on va exprimer une relation entre les fonctions (fi) et (gj).Pour cela, on calcule :

∑i

fi(t)ui = f(t) =∑j

gj(t)vj =∑j

gj(t)

(∑i

Pi,jui

)=∑i

∑j

Pi,jgj(t)

ui .

On en déduit que∀i, fi(t) =

∑j

Pi,jgj(t) .

Ainsi, si les fonctions gj sont intégrables, les fonctions fi le sont aussi. Par symétrie, on obtientl’équivalence.

De plus, ∑i

(∫I fi(t)dt

)ui =

∑i

(∫I

∑j Pi,jgj(t)dt

)ui

=∑

j

(∫I gj(t)dt

)∑i Pi,jui

=∑

j

(∫I gj(t)dt

)vj .

Ceci montre que la quantité∑n

i=1

∫I (fi(t)dt)ui ne dépend pas de la base (ui) choisie.

Désormais l’espace E = Mn,1(K) est muni d’une norme et Mn(K) est muni de la normematricielle associée.

Page 71: Algèbre linéaire - 2 année universitaire 2018-2019

3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 71

Proposition 3.17 Soient :

A : I −→ Mm,n(K)t 7−→ A(t)

,B : I −→ Mn,p(K)

t 7−→ B(t)

deux fonctions dérivables sur I. Alors la fonction

AB : I −→ Mn(K)t 7−→ A(t)B(t)

est dérivable sur I et :∀t ∈ I, (AB)′(t) = A′(t)B(t) +A(t)B′(t).

Preuve: Soit t, h ∈ R tels que [t− h, t+ h] ⊂ I. Comme A et B sont dérivables en t, on a

A(t+ h) = A(t) + hA′(t) + o(h)B(t+ h) = B(t) + hB′(t) + o(h)

On en déduit que A(t+ h)B(t+ h) = A(t)B(t) + h(A(t)B′(t) +A′(t)B(t)) + o(h). Ainsi, AB estdérivable en t et (AB)′(t) = A(t)B′(t) +A′(t)B(t).

3.1.4 Exponentielle d’une matrice

Proposition et définition 3.18 Pour tout A ∈Mn(K), la série∑k>0

1

k!Ak est convergente. Sa

somme notée eA ou exp(A) s’appelle l’exponentielle de A. De plus :

‖|eA‖| 6 e‖|A‖|

Preuve:∥∥∥∥∣∣∣∣ 1

k!Ak∥∥∥∥∣∣∣∣ 6

1

k!‖|Ak‖| 6 1

k!‖|A‖|k. Or la série

∑k>0

1

k!‖|A‖|k est convergente donc

∑k>0

1

k!Ak est convergente. Posons sk =

k∑i=0

1

i!Ai. Comme :

∥∥∥∥∥∣∣∣∣∣k∑i=0

1

i!Ai

∥∥∥∥∥∣∣∣∣∣ 6

k∑i=0

∥∥∥∥∣∣∣∣ 1i!Ai∥∥∥∥∣∣∣∣ 6 k∑

i=0

1

i!‖|A‖|i 6 e‖|A‖|,

on a ‖|sk‖| ≤ e‖|A‖| pour tout k. Soit ε > 0 et soit k0 tel que ‖|eA−sk‖| ≤ ε pour tout k ≥ k0 : onen déduit que ‖|eA‖| ≤ ‖|sk + (eA− sk)‖| ≤ ‖|sk‖|+ ‖|eA− sk‖| ≤ eA + ε. Comme cette inégalitéest vraie pour tout ε, on a ‖|eA‖| 6 e‖|A‖|.

Proposition 3.19 1. Soit A ∈Mn(K) et P ∈ GLn(K). Alors :

eP−1AP = P−1eAP

Page 72: Algèbre linéaire - 2 année universitaire 2018-2019

72 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

2. Soit (A,B) ∈Mn(K)2. Si AB = BA alors :

eAeB = eA+B = eBeA

etBeA = eAB

3. Soit A ∈Mn(K), alors eA est toujours inversible et :

(eA)−1 = e−A

Preuve:

1. Soit A ∈Mn(K) et P ∈ GLn(K). Alors :

P−1

(k∑i=0

1

i!Ai

)P =

k∑i=0

1

i!P−1AiP =

k∑i=0

1

i!(P−1AP )i

Or l’application X 7−→ P−1XP est un endomorphisme de Mn(K) qui est de dimensionfinie, donc elle est continue et :

P−1eAP = P−1

(lim

k−→∞

k∑i=0

1

i!Ai

)P = lim

k−→∞P−1

(k∑i=0

1

i!Ai

)P .

Cette limite vaut donc

limk−→∞

k∑i=0

1

i!(P−1AP )i = eP

−1AP .

2. Pour montrer le point 2. nous avons besoin du lemme suivant :

Lemme 3.20 Soient A =∑k>0

Ak et B =∑k>0

Bk deux séries absolument convergentes de

Mn(K). Alors la série C =∑k>0

(k∑l=0

AkBk−l

)est absolument convergente et C = AB.

Notons, par convergence uniforme de A et B,

a :=∑i≥0‖|Ai‖| et b :=

∑i≥0‖|Bj‖| .

La convergence uniforme est conséquence de la remarque suivante :∑nl=0 ‖|Cl‖| ≤

∑nl=0

(∑lk=0 ‖|AkBl−k‖|

)≤

∑nl=0

∑lk=0 ‖|Ak‖| ‖|Bl−k‖|

≤∑n

i=0

∑nj=0 ‖|Ai‖| ‖|Bj‖|

≤ (∑n

i=0 ‖|Ai‖|)(∑n

j=0 ‖|Bj‖|)

≤ (∑∞

i=0 ‖|Ai‖|)(∑∞

j=0 ‖|Bj‖|)

≤ ab .

Page 73: Algèbre linéaire - 2 année universitaire 2018-2019

3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 73

Ces inégalités montrent d’ailleurs que la série de terme général cl :=∑l

k=0 ‖|Ak‖| ‖|Bl−k‖|est convergente. Soit donc N tel que ∀n ≥ N ,

∑i>n ‖|Ai‖| < ε∑j>n ‖|Bj‖| < ε∑

l>n cl < ε

La dernière inégalité implique que ‖|C −∑n

l=0Cl‖| ≤∑

l>n cl ≤ ε.Pour montrer que C = AB, on fixe ε > 0 et on montre que ‖|C −AB‖| ≤ (a+ b+ 2)ε.On a :

‖|C −∑

i,j≤nAiBj‖| ≤ ‖|C −∑n

l=0Cl‖|+ ‖|∑n

l=0Cl −∑

i,j≤nAiBj‖|≤ ε+

∑i,j≤n;i+j>n ‖|AiBj‖|

≤ ε+∑

i,j≤n;i+j>n ‖|Ai‖| ‖|Bj‖|≤ ε+

∑i,j:n<i+j≤2n ‖|Ai‖| ‖|Bj‖|

= ε+∑2n

l=n+1 cl≤ 2ε

Par ailleurs, on a aussi :

‖|AB −∑

i,j≤nAiBj‖| = ‖|∑

i≥0AiB −∑

i,j≤nAiBj‖|= ‖|

∑i≤nAi(B −

∑j≤nBj) +

∑i>nAiB‖|

≤∑

i≤n ‖|Ai‖| ‖|B −∑

j≤nBj‖|+ ‖|(∑

i>nAi)B‖|≤

∑i≤n ‖|Ai‖|ε+ ‖|

∑i>nAi‖| ‖|B‖|

≤ aε+ εb≤ (a+ b)ε

En mettant ensemble les deux dernières inégalités obtenues, on déduit :

‖|C −AB‖| ≤ ‖|C −∑i,j≤n

AiBj‖|+ ‖|∑i,j≤n

AiBj −AB‖| ≤ 2ε+ (a+ b)ε ,

comme souhaité.

Montrons maintenant le point 2. Comme A et B commutent on peut appliquer la formuledu binôme de Newton :

1

k!(A+B)k =

1

k!

k∑i=0

(ki

)AiBk−i

=1

k!

k∑i=0

k!

i!(k − i)!AiBk−i

=

k∑i=0

(1

i!Ai)(

1

(k − i)!Bk−i

)

Page 74: Algèbre linéaire - 2 année universitaire 2018-2019

74 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Comme∑k>0

1

k!Ak et

∑k>0

1

k!Bk sont absolument convergentes, d’après le lemme la série

∑k>0

1

k!(A+B)k est absolument convergente et :

∞∑k=0

1

k!(A+B)k =

∞∑k=0

k∑i=0

(1

i!Ai)(

1

(k − i)!Bk−i

)=

( ∞∑k=0

1

k!Ak

)( ∞∑k=0

1

k!Bk

)

d’où le résultat.

Proposition 3.21 Soit A ∈Mn(K). Alors l’application R −→Mn(K) , t 7−→ etA est de classeC∞ et (etA)′ = AetA.

Preuve: Montrons d’abord que t 7−→ etA est dérivable :∥∥∥∥∣∣∣∣1h(e(t+h)A − etA)−AetA∣∣∣∣∥∥∥∥ =

∥∥∥∥∣∣∣∣etA(1

h(ehA − I)−A

)∣∣∣∣∥∥∥∥=

∥∥∥∥∥∣∣∣∣∣etA

( ∞∑k=2

hk−1

k!Ak

)∣∣∣∣∣∥∥∥∥∥

= |h|

∥∥∥∥∥∣∣∣∣∣etA

( ∞∑k=2

hk−2

k!Ak

)∣∣∣∣∣∥∥∥∥∥

Supposons |h| 6 1. Donc :∥∥∥∥∣∣∣∣1h(e(t+h)A − etA)−AetA∣∣∣∣∥∥∥∥ 6 |h|‖|etA|‖

∞∑k=2

1

k!‖|A|‖k

6 |h|‖|etA|‖e‖|A|‖ −→ 0

quand h −→ 0. Ceci montre que t 7→ etA est dérivable de dérivée t 7→ AetA.

Proposition 3.22 Soit D =

λ1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 λn

une matrice diagonale. Alors :

eD =

eλ1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 eλn

En particulier pour tout λ ∈ K, on a eλIn = eλIn.

Page 75: Algèbre linéaire - 2 année universitaire 2018-2019

3.2. CALCUL PRATIQUE DE L’EXPONENTIELLE D’UNE MATRICE 75

Preuve: eD = limN−→+∞

(N∑k=0

1

k!Dk

). Or :

N∑k=0

1

k!Dk =

N∑k=0

1

k!

λk1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 λkn

=

N∑k=0

1

k!λk1 0 · · · 0

0. . . . . .

......

. . . . . . 0

0 · · · 0

N∑k=0

1

k!λkn

NotonsN∑k=0

1

k!Dk = (xNij )16i,j6n et eD = (xij)16i,j6n. Pour tout i, j ∈ {1, · · · , n}, notons Eij la

matrice dont tous les coefficients sont nuls sauf celui de la ligne i et de la colonne j qui est égalà 1.

Les coefficients deN∑k=0

1

k!Dk et eD ne sont rien d’autre que les coordonnées respectivement

deN∑k=0

1

k!Dk et de eD dans la base {Eij}16i,j6n. Comme lim

N−→+∞

(N∑k=0

1

k!Dk

)= eD, xNij −→ xij

ce qui prouve que :

eD =

+∞∑k=0

1

k!λk1 0 · · · 0

0. . . . . .

......

. . . . . . 0

0 · · · 0

+∞∑k=0

1

k!λkn

=

eλ1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 eλn

3.2 Calcul pratique de l’exponentielle d’une matrice

De manière générale si A ∈Mn(K) et si son polynôme caractéristique est scindé, alors d’aprèsla décomposition de Dunford, il existe une matrice D diagonalisable et une matrice N nilpotentetelles que :

1. A = D +N .2. DN = ND.

Donc comme D et N commutent :

eA = eD+N = eDeN

Page 76: Algèbre linéaire - 2 année universitaire 2018-2019

76 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Comme D est diagonalisable il existe P ∈ GLn(K) telle que :

P−1DP =

µ1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 µn

D’autre part N est nilpotente donc il existe un entier p 6 n tel que Np = 0. Donc :

eA = P

eµ1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 eµn

P−1(In +N +

1

2!N2 + · · ·+ 1

(p− 1)!Np−1

)

En fait on n’a pas besoin de calculer D et N . En effet soient λ1, · · · , λr les valeurs propresde A et pour tout i ∈ {1, · · · , r}, Cλi = Ker(A − λiIn)αi les sous-espaces caractéristiques deA. Pour tout i ∈ {1, · · · , r} on construit une base Bi de chacun des sous-espaces Cλi . Comme

Mn,1(K) =r⊕i=1

Cλi , B =r⋃i=1

Bi est une base de Mn,1(K). Soit P la matrice de B. Comme les

sous-espaces caractéristiques sont stables on a :

A′ = P−1AP =

A1 O. . .

O Ar

où les matrices Ai ∈Mαi(K). Dans cette base D est diagonale, c’est-à-dire que

P−1DP =

λ1Iα1 O. . .

O λrIαr

Posons N ′ = P−1NP alors :

N ′ = P−1NP = P−1(A−D)P = A′ −

λ1Iα1 O. . .

O λrIαr

et :

eA = P

eλ1Iα1 0 · · · 0

0. . . . . .

......

. . . . . . 00 · · · 0 eλrIαr

(In +N ′ +

1

2!N ′2 + · · ·+ 1

(p− 1)!N ′p−1

)P−1

Page 77: Algèbre linéaire - 2 année universitaire 2018-2019

3.3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 77

On peut encore raffiner les choses. De manière similaire à la preuve de la proposition 3.22 onpeut montrer que :

eA = ePA′P−1

= PeA′P−1 = P

eA1 O

. . .O eAr

P−1

Calculons eAi pour tout i ∈ {1, · · · , r}. Alors :

eAi = e(Ai−λiIαi )+λiIαi = eλie(Ai−λiIαi )

Or :

N ′ = A′ −

λ1Iα1 O. . .

O λrIαr

=

A1 − λ1Iα1 O. . .

O Ar − λrIαr

On a donc pour tout i ∈ {1, · · · , r}, (Ai − λiIαi)p = 0 et même (Ai − λiIαi)βi = 0 où βi estl’indice de Ai − λiIαi :

eAi = eλi(Iαi +N ′i +

1

2!N ′2i + · · ·+ 1

(βi − 1)!N ′βi−1i

)où N ′i = Ai − λiIαi .

Remarque 3.23 On a vu dans la proposition 3.12 que l’on pouvait munir L(E) de la normed’algèbre ‖| ‖|. De la même manière que pour les matrices on peut définir l’exponentielle d’unendomorphisme et tous les énoncés précédents sont transposables dans le cadre des endomor-phismes.

3.3 Systèmes différentiels linéaires à coefficients constants

K = R ou C et I désigne un intervalle non vide de R. À partir de maintenant on identifieMn,1(K) et Kn.

Définition 3.24 Soit n ∈ N?. Pour tout i ∈ {1, · · · , n}, soit bi : I −→ K une fonction continueet pour tout (i, j) ∈ {1, · · · , n}2 soit aij ∈ K.

1. Le système :

(SL)

y′1 = a11y1+ · · · +a1nyn + b1...

......

y′n = an1y1+ · · · +annyn + bn

s’appelle système différentiel linéaire d’ordre 1 à coefficients constants.2. Le système :

(SH)

y′1 = a11y1+ · · · +a1nyn...

......

y′n = an1y1+ · · · +annyn

s’appelle système différentiel linéaire homogène associé à (SL).

Page 78: Algèbre linéaire - 2 année universitaire 2018-2019

78 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Résoudre (SL) ou (SH) revient à trouver un intervalle non vide J ⊂ I et des fonctions y1, · · · , yn

dérivables sur J et vérifiant le système considéré. Si on note A = (aij)16i,j6n, Y =

y1...yn

et

B =

b1...bn

alors :

(SL)⇐⇒ (L) Y ′ = AY +B

et(SH)⇐⇒ (H) Y ′ = AY

Résoudre (L) ou (H) revient à trouver un intervalle non vide J ⊂ I et une fonction Y : J −→ Kndérivable sur J et vérifiant respectivement (L) ou (H).

3.3.1 Système différentiel linéaire homogène

Notons C(I,Kn) l’espace vectoriel des fonctions continues de I dans Kn.

Théorème 3.25 L’ensemble SH des solutions sur R de H : Y ′ = AY est un sous-espace vectorielde C(R,Kn) de dimension n formé de fonctions de classe C∞.

Plus précisément :SH := {t 7−→ etAC où C ∈ Kn}

De plus pour tout (t0, Y0) ∈ R×Kn il existe une unique solution Y de H telle que Y (t0) = Y0.

Preuve: Il est immédiat que la fonction nulle appartient à SH et que si (Y1, Y2) ∈ S2H alors

pour tout (λ1, λ2) ∈ K2 :λ1Y1 + λ2Y2 ∈ SH

Donc SH est un sous-espace vectoriel de C(R,Kn).Maintenant soit Y ∈ SH et soit Z(t) = e−tAY (t). Alors :

Z ′(t) = −Ae−tAY (t) + e−tAY ′(t) = −Ae−tAY (t) + e−tAAY (t)

Or A et e−tA commutent donc Z ′(t) = 0 pour tout t ∈ R. Donc il existe C ∈ Kn tel que Z(t) = Cpour tout t ∈ R et Y (t) = etAC.

Réciproquement on vérifie facilement que pour tout C ∈ Kn, la fonction t 7→ Y (t) = etACest solution de SH.

D’autre part soit (t0, Y0) ∈ R×Kn. Alors :

Y (t0) = Y0 ⇐⇒ et0AC = Y0 ⇐⇒ C = e−t0AY0

Page 79: Algèbre linéaire - 2 année universitaire 2018-2019

3.3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 79

Théorème 3.26 Soit A ∈Mn(K) telle que χA est scindé. Notons µ1, · · · , µn les valeurs propresde A comptées avec multiplicité et soit (U1, · · · , Un) une base de Kn constituée de vecteurs ap-partenant aux sous-espaces caractéristiques. Plus précisément on suppose que :

∀i ∈ {1, · · · , n} , Ui ∈ Cµi(A)

Alors :

SH =

t 7−→n∑i=1

cieµit

(βi−1∑k=0

tk

k!(A− µiIn)kUi

)où

c1...cn

∈ Kn

où βi est la multiplicité de µi dans µA.En particulier si A est diagonalisable alors :

SH =

t 7−→n∑i=1

cieµitUi où

c1...cn

∈ Kn

Et dans ce cas (U1, · · · , Un) est une base de Kn constituée de vecteurs propres de A.

Preuve: Le polynôme caractéristique χA étant scindé on a :

χA(λ) = (−1)nr∏i=1

(λi − λ)αi

et comme Kn =r⊕i=1

Cλi(A), on choisit une base B = (U1, · · · , Un) de E telle que B =r⋃i=1

Bi où

pour tout i ∈ {1, · · · , r}, Bi est une base de Cλi(A).Y est une solution de H : Y ′ = AY sur R si et seulement si Y (t) = etAC où C ∈ Kn. Notons

(c1, · · · , cn) les coordonnées de C dans la base B. Alors C =

n∑i=1

ciUi. Pour tout i ∈ {1, · · · , n},

Ui ∈ Cµi(A) où µ1, · · · , µn sont les valeurs propres de A comptées avec multiplicité. Donc :

Y (t) =n∑i=1

cietAUi =

n∑i=1

cieµitIn+t(A−µiIn)Ui

=n∑i=1

cieµitInet(A−µiIn)Ui =

n∑i=1

cieµitet(A−µiIn)Ui

D’autre part on a vu que si γi désigne la multiplicité de µi dans le polynôme minimal de A,alors :

Ker(A− µiIn)γi−1 Ker(A− µiIn)γi = Cµi(A)

De plus comme Ui ∈ Cµi(A), pour tout k > γi, (A− µiIn)kUi = 0 et il s’ensuit que :

Y (t) =

n∑i=1

cieµit

(γi−1∑k=0

tk

k!(A− µiIn)kUi

)

Page 80: Algèbre linéaire - 2 année universitaire 2018-2019

80 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Remarque 3.27 1. Les formules du théorème donnent un calcul implicite de etA. En effet,en vertu de la formule de changement de coordonnées, et comme Y (0) = C =

∑ciUi,

on a

c1...cn

= P−1C où P est la matrice de passage de la base canonique de Kn à B.

Autrement dit les colonnes de P sont U1, · · · , Un et

Y (t) = etAP

c1...cn

ce qui permet de déduire que les colonnes de etAP sont respectivement :

eµ1t

(γ1−1∑k=0

tk

k!(A− µ1In)kU1

), · · · , eµnt

(γn−1∑k=0

tk

k!(A− µnIn)kUn

)2. On peut remarquer d’autre part que si N est la matrice nilpotente de la décomposition de

Jordan de A, alors en utilisant la forme de N apparaissant dans la preuve du théorème2.78 du chapitre 2 on a pour tout i ∈ {1, · · · , n} :

etNUi =

(γi−1∑k=0

tk

k!(A− µiIn)kUi

)

3.3.2 Système différentiel linéaire non homogène

Soient I un intervalle de R, B : I −→ Kn une fonction continue et A ∈Mn(K).

Théorème 3.28 On suppose que l’ensemble SL des solutions de L : Y ′ = AY +B est non vide.Soit ϕ0 ∈ SL. Alors :

SL := {I −→ Kn, t 7−→ etAC + ϕ0(t) où C ∈ Kn}

Preuve: Soit Y une solution de L sur I. Alors :

(Y − ϕ0)′(t) = Y ′(t)− ϕ′0(t) = (AY (t) +B(t))− (Aϕ0(t) +B(t)) = A(Y (t)− ϕ0(t))

Donc Y − ϕ0 est solution de l’équation homogène H : Y ′ = AY . Donc Y (t) = etAC + ϕ0(t) oùC ∈ Kn.

Réciproquement, on vérifie facilement que toutes les fonctions de la forme Y (t) = etAC+ϕ0(t)pour tout t ∈ I sont solutions.

Théorème 3.29 (Méthode de la variation de la constante) L’ensemble SL est non vide.Plus précisément pour tout t0 ∈ I :

ϕ0 : I −→ Kn

t 7−→ ϕ0(t) :=

∫ t

t0

e(t−x)AB(x)dx

est une solution de L.

Page 81: Algèbre linéaire - 2 année universitaire 2018-2019

3.4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 81

Preuve: Soit pour tout t ∈ I, la fonction ϕ0(t) :=

∫ t

t0

e(t−x)AB(x)dx. Montrons que ϕ0 est

solution de L.Remarquons d’abord que puisque tA et −xA commutent alors e(t−x)A = etAe−xA et ϕ0(t) =

etA∫ t

t0

e−xAB(x)dx. De plus :

ϕ′0(t) = AetA∫ t

t0

e−xAB(x)dx+ etAe−tAB(t) = Aϕ0(t) +B(t)

D’où le résultat.

Remarque 3.30 — Les solutions de H : Y ′ = AY s’écrivent Y (t) = etAC avec C ∈ Kn. Sil’on cherche une fonction dérivable C : I −→ Kn telle que ϕ0(t) = etAC(t) soit solutionde L on a :

0 = ϕ′0(t)− (Aϕ0(t) +B(t)) = AetAC(t) + etAC ′(t)− (AetAC(t) +B(t))= etAC ′(t) +B(t).

Donc C ′(t) = e−tAB(t) et on retrouve l’expression donnée dans le théorème. Cette façonde trouver une solution de L explique l’expression de "Méthode de la variation de laconstante".

— Pour résoudre L il suffit tout simplement de trouver une solution particulière ϕ0 de L ettoutes les autres solutions s’écrivent comme la somme de ϕ0 et d’une solution de H.

3.4 Équations différentielles linéaires à coefficients constants

K = R ou C et I désigne un intervalle non vide de R.

Définition 3.31 Soient n > 1, (a0, · · · , an−1) ∈ Kn et b : I −→ K continue.1. L’équation :

(L) y(n) + an−1y(n−1) + · · ·+ a1y

′ + a0y = b

s’appelle équation différentielle linéaire à coefficients constants.2. L’équation :

(H) y(n) + an−1y(n−1) + · · ·+ a1y

′ + a0y = 0

s’appelle équation différentielle linéaire homogène associée à L.

Résoudre (L) ou (H) revient à trouver un intervalle non vide J ⊂ I et une fonction y dérivablesur J vérifiant (L) ou (H).

Définition 3.32 Soient n > 1, (a0, · · · , an−1) ∈ Kn et b : I −→ K continue. On appelle équa-tion caractéristique de l’équation différentielle :

(L) y(n) + an−1y(n−1) + · · ·+ a1y

′ + a0y = b

l’équation :xn + an−1x

n−1 + · · ·+ a1x+ a0 = 0

Page 82: Algèbre linéaire - 2 année universitaire 2018-2019

82 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

Théorème 3.33 Soient n > 1, (a0, · · · , an−1) ∈ Kn. Considérons l’équation homogène :

(H) y(n) + an−1y(n−1) + · · ·+ a1y

′ + a0y = 0

Supposons que les racines de l’équation caractéristique soient λ1, · · · , λr de multiplicité respectivesα1, · · · , αr. Alors l’ensemble des solutions SH définies sur R de (H) est un sous-espace vectorielde C(R,C). Plus précisément :

SH := {y ∈ C∞(R,C) ; ∃(P1, · · · , Pr) ∈ Cα1−1[X]× · · · × Cαr−1[X] ; y(t) =r∑i=1

eλitPi(t)}

Preuve: Posons Y =

y(n−1)

...y′

y

. Alors :

Y ′ =

−an−1 −an−2 · · · · · · −a0

1 0 · · · · · · 0

0 1. . .

......

. . . . . . . . ....

0 · · · 0 1 0

Y

Notons A la matrice du système différentiel obtenu. Les solutions de ce système sont de la forme :

Y (t) = etAC

où C ∈ Cn. Calculons le polynôme caractéristique de A. Alors :

χA(λ) = (−1)n(λn + an−1λ

n−1 + · · ·+ a1λ+ a0)

et les racines de χA sont exactement les racines de l’équation caractéristique. Donc

χA(X) = (−1)nr∏i=1

(X − λi)αi

Comme Cn =

r⊕i=1

Cλi(A), il existe (U1, · · · , Ur) ∈r∏i=1

Cλi(A) tel que C =

r∑i=1

Ui. Donc par un

raisonnement similaire à la preuve du théorème 3.26 :

Y (t) =r∑i=1

etAUi =r∑i=1

eλitIn+t(A−λiIn)Ui =r∑i=1

eλitet(A−λiIn)Ui =r∑i=1

eλitαi−1∑k=0

tk

k!(A− λiIn)kUi

Il s’ensuit que la dernière coordonnée de Y (t) qui n’est rien d’autre que y(t) vérifie :

y(t) =r∑i=1

eλitαi−1∑k=0

αkitk =

r∑i=1

eλitPi(t)

Page 83: Algèbre linéaire - 2 année universitaire 2018-2019

3.4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 83

où Pi est un polynôme de degré au plus αi − 1.Réciproquement, l’espace des solutions SH est donc inclus dans l’espace S ′ des éléments de

la forme y(t) =∑r

i=1 eλitPi(t) avec chaque Pi de degré au plus αi − 1. Comme S ′ a comme

famille génératrice les éléments eλittm avec 0 ≤ m ≤ αi − 1, qui sont en nombre∑αi = n, on a

dimS ′ ≤ n.Par ailleurs le K-espace vectoriel des y(t) vérifiant (H) et le K-espace vectoriel des Y (t)

vérifiant Y ′ = AY sont isomorphes. En effet, à y on peut associer le vecteur Y = (y(n−1), . . . , y′, y)et à Y = (y1, . . . , yn) on peut associer yn : ce sont des isomorphismes inverses l’un de l’autre. Onen déduit que dimSH = n. Comme SH ⊂ S ′, on obtient S = S ′.

Deuxième preuve de la réciproque, plus explicite :

Réciproquement il faut vérifier que si y(t) =

r∑i=1

eλitPi(t) où Pi est un polynôme de degré au

plus αi − 1 alors y est solution de (H). Considérons l’endomorphisme suivant :

p : E −→ Ey 7−→ p(y) = y′

où E = C∞(R,C). Alors si y ∈ SH, on a :

y(n)+an−1y(n−1)+· · ·+a1y′+a0y = (pn+an−1p

(n−1)+· · ·+a1p′+a0p)(y) =r∏i=0

(p−λiIdE)αi(y) = 0

On va alors montrer le lemme suivant :

Lemme 3.34 Soit λ ∈ C et α > 1 un entier. Alors :

(p− λIdE )α(tα−1eλt) = 0

Preuve: On a :

(p− λIdE )(tα−1eλt) = p(tα−1eλt)− λtα−1eλt

= (α− 1)tα−2eλt + λtα−1eλt − λtα−1eλt

= (α− 1)tα−2eλt

Soit j ∈ {1, . . . , α− 1}. Pour j = 1, on vient de montrer que :

(p− λIdE )j(tα−1eλt) = (α− 1)tα−1−jeλt

Pour j > 2, supposons que :

(p− λIdE )j(tα−1eλt) = (α− 1)(α− 2) . . . (α− j)tα−1−jeλt

et montrons que cette relation reste vraie au rang j + 1.

(p− λIdE )j+1(tα−1eλt) = (p− λIdE )((α− 1)(α− 2) . . . (α− j)tα−1−jeλt)= (α− 1)(α− 2) . . . (α− j)(p(tα−1−jeλt)− λtα−1−jeλt)= (α− 1)(α− 2) . . . (α− j)(α− 1− j)tα−1−(j+1)eλt

Page 84: Algèbre linéaire - 2 année universitaire 2018-2019

84 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES

La relation est donc vraie au rang j + 1 et on conclut qu’elle est vraie pour tout j ∈ {1, . . . , α}.En prenant j = α, on obtient la relation désirée.

De ce lemme on déduit immédiatement que pour tout Pi ∈ Cαi−1[X], la fonction t 7−→eλitPi(t) ∈ SH.