23
K M n (K) M n (K) AX = B K R C K mnp q a i,j a ij

Chapitre 11 : Calcul matriciel

  • Upload
    others

  • View
    11

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Chapitre 11 : Calcul matriciel

Chapitre 11 : Calcul matriciel

PCSI � LGT Baimbridge

2021-2022

� Il était environ trois heures du matin lorsque la solution aboutie du calcul

m'apparut. Je fus tout d'abord profondément secoué. J'étais si excité que je ne

pouvais songer à dormir. J'ai donc quitté la maison et attendu l'aube au sommet

d'un rocher. �

Werner Heisenberg (1901-1976).

Table des matières

1 Matrices à coe�cients dans K 21.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Combinaisons linéaires de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Transposition 82.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 L'algèbre Mn(K) des matrices carrées 93.1 Opérations dans Mn(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.3 Puissances de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.4 Transposition des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4 Application aux systèmes linéaires 184.1 Interprétation matricielle d'un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184.2 Calcul pratique de l'inverse : résolution du système générique AX = B . . . . . . . . . . . . . . . 204.3 Opérations élémentaires sur les lignes et les colonnes d'une matrice . . . . . . . . . . . . . . . . . 214.4 Calcul pratique de l'inverse : méthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 22

Introduction

Nous initions dans ce chapitre l'étude du concept clé de matrice qui fut introduit en 1850 par Sylvester. En

première approche, une matrice peut être vue comme un simple tableau de nombres, ce qui en fait un objet très

général mais assez peu structuré. Nous allons voir qu'il est possible de dé�nir des opérations d'addition et de

multiplication de matrices qui permettent de réaliser des calculs avec ces tableaux de nombres de manière très

similaire à ce qu'il est possible de faire avec de simples nombres.

Si nous adoptons dans ce chapitre un point de vue essentiellement calculatoire, nous verrons dans un chapitre

ultérieur que ceci re�ète en fait des phénomènes mathématiques plus profonds, lesquels motiveront a posteriori

les dé�nitions données dans ce chapitre.

Notations

Dans tout ce chapitre, nous adoptons les notations suivantes :

� K désigne R ou C. Les éléments de K sont appelés des scalaires.

� m, n, p et q désignent des entiers naturels non nuls.

� Si ai,j est un scalaire muni de deux indices, on le note aussi aij (sans virgule) si cela ne crée pas d'ambiguïté.

1

Page 2: Chapitre 11 : Calcul matriciel

1 Matrices à coe�cients dans K

1.1 Généralités

Dé�nition 1.1.1: Matrices à coe�cients dans K

On appelle matrice à n lignes et p colonnes à coe�cients dans K une famille à double indice :

A = (ai,j)1≤i≤n1≤j≤p

On la représente sous la forme d'un tableau de scalaires

A =

a1,1 a1,2 a1,3 · · · a1,p

a2,1 a2,2 a2,3 · · · a2,p...

......

......

an,1 an,2 an,3 · · · an,p

Pour tout (i, j) ∈ J1, nK × J1, pK, le scalaire ai,j s'appelle coe�cient ou entrée d'indice (i, j) de la

matrice A. On note alors ai,j = [A]i,j .

Les coe�cients ai,i sont appelés coe�cients diagonaux de A.

L'ensemble des matrices à n lignes et p colonnes à coe�cients dans K est noté Mn,p(K).

Remarque 1.1.2

On retiendra que, pour un coe�cient ai,j :

� le premier indice correspond à la ligne sur laquelle se situe le coe�cient ;

� le second indice correspond à la colonne sur laquelle se situe le coe�cient.

Le raisonnement analogue fonctionne pour la notation Mn,p(K).

Remarque 1.1.3: Inclusion de Mn,p(R) dans Mn,p(C)

Puisque R ⊂ C, toute matrice de Mn,p(R) est aussi une matrice de Mn,p(C). La réciproque est évidem-

ment fausse.

Dé�nition 1.1.4: Matrices carrées

Une matrice ayant le même nombre de lignes et de colonnes est appelée une matrice carrée.

L'ensemble des matrices carrées à n lignes et n colonnes et à coe�cients dans K est noté Mn(K).

Remarque 1.1.5

Avec ces notations, on a Mn(K) = Mn,n(K) et une matrice de Mn(K) est dite carrée de taille n.

Plus généralement si M ∈ Mn,p(K), on dit parfois que M est rectangulaire de taille (n, p) ou � n

par p �..

2 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 3: Chapitre 11 : Calcul matriciel

Exercice 1.1.6

À quels ensembles de matrices appartiennent les matrices suivantes ?

A =

(1 2 3

4 5 6

), B =

1 2

3 4

5 6

, C =

(cos(θ) − sin(θ)

sin(θ) cos(θ)

), D =

(1 + i 2− i

i√2 0

).

Dé�nition 1.1.7: Matrices lignes, matrices colonnes

Un élément de Mn,1(K) est appelé matrice colonne.

Un élément de M1,p(K) est appelé matrice ligne.

Remarque 1.1.8

Les matrices colonnes de Mn,1(K) (resp. les matrices lignes de M1,p(K)) s'identi�ent naturellement avec

les vecteurs de Kn (resp. de Kp) et on utilise parfois cette identi�cation de manière légèrement abusive.

Néanmoins, pour les besoins du calcul matriciel, on prendra garde de bien distinguer les vecteurs des

matrices lignes et des matrices colonnes.

Remarque 1.1.9

Une matrice A ∈ Mn,p(K) peut être vue comme la juxtaposition de p matrices colonnes C1, . . . , Cp,

appelées colonnes de A, ou comme la superposition de n matrices lignes L1, . . . , Ln, appelées lignes de

A. On note alors

A =(

C1 · · · Cp

)ou A =

L1

...

Ln

.

Ces lignes et colonnes joueront en particulier un rôle important dans la résolution des systèmes d'équa-

tions linéaires.

1.2 Combinaisons linéaires de matrices

Dé�nition 1.2.1: Somme de matrices carrées

Soient A = (ai,j) et B = (bi,j) deux matrices de Mn,p(K). On appelle somme de A et de B la matrice

de Mn,p(K) dé�nie par :

A+B = (ai,j + bi,j)1≤i≤n1≤j≤p

.

Explicitement,a1,1 a1,2 · · · a1,p

a2,1 a2,2 · · · a2,p

.

.

.

.

.

.

.

.

.

.

.

.

an,1 an,2 · · · an,p

+

b1,1 b1,2 · · · b1,p

b2,1 b2,2 · · · b2,p.

.

.

.

.

.

.

.

.

.

.

.

bn,1 bn,2 · · · bn,p

=

a1,1 + b1,1 a1,2 + b1,2 · · · a1,p + b1,p

a2,1 + b2,1 a2,2 + b2,2 · · · a2,p + b2,p.

.

.

.

.

.

.

.

.

.

.

.

an,1 + bn,1 an,2 + bn,2 · · · an,p + bn,p

.

Remarque 1.2.2: Interprétation de la somme

La somme de deux matrices de mêmes tailles est donc dé�nie comme la somme terme à terme des

di�érents coe�cients des deux matrices.

3 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 4: Chapitre 11 : Calcul matriciel

Remarque 1.2.3: Somme et taille des matrices

� La somme de deux matrices n'est dé�nie que pour des matrices de même taille. Il n'est pas possible

de sommer des matrices de tailles di�érentes.

Proposition 1.2.4

La somme ainsi dé�nie est associative et commutative.

Dé�nition 1.2.5: Multiple d'une matrice

Soit A = (ai,j) ∈ Mn,p(K) et λ ∈ K. On pose

λA = Aλ = (λai,j)1≤i≤n1≤j≤p

.

Explicitement,

λ

a1,1 a1,2 · · · a1,p

a2,1 a2,2 · · · a2,p

.

.

.

.

.

.

.

.

.

.

.

.

an,1 an,2 · · · an,p

=

λa1,1 λa1,2 · · · λa1,p

λa2,1 λa2,2 · · · λa2,p

.

.

.

.

.

.

.

.

.

.

.

.

λan,1 λan,2 · · · λan,p

.

Lemme 1.2.6: Distributivité

Soient A et B des matrices de Mn,p(K) et (λ, µ) ∈ K2. Alors

(λ+ µ)A = λA+ µA,

λ(A+B) = λA+ λB.

Dé�nition 1.2.7: La matrice nulle

La matrice nulle de Mn,p(K) est la matrice dont tous les coe�cients sont nuls. On la note 0Mn,p(K)

ou 0n,p ou simplement 0 s'il n'y a pas d'ambiguïté. Si n = p, on la note aussi 0n.

Explicitement :

0n,p =

0 · · · · · · 0...

...

0 · · · · · · 0

∈ Mn,p(K).

Remarque 1.2.8

1. La matrice nulle est neutre pour l'addition au sens où, pour toute matrice A ∈ Mn,p(K), on a

A+ 0n,p = A ;

2. Pour toute matrice A ∈ Mn,p(K), on a 0A = 0n,p et 1A = A ;

3. Pour toute matrice A ∈ Mn,p(K), on pose −A = (−1)A et, par distributivité

A+ (−A) = A+ (−1)A = (1 + (−1))A = 0A = 0n,p.

Ainsi, −A est appelée matrice opposée de la matrice A.

4 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 5: Chapitre 11 : Calcul matriciel

Dé�nition 1.2.9: Combinaison linéaire de matrices

Soient A1, . . . , Am des matrices de Mn,p(K). On appelle combinaison linéaire de A1, . . . , Am toute

matrice de la formem∑i=1

λiAi = λ1A1 + · · ·+ λmAm.

On observe en particulier que Mn,p(K) est stable par combinaisons linéaires.

Exercice 1.2.10

Soient I =

(1 0

0 1

), J =

(0 1

1 0

)et K =

(1 1

0 0

)des matrices de M2(K). Déterminer une

condition nécessaire et su�sante sur (α, β, γ) ∈ K3 pour que αI + βJ + γK = 02.

Dé�nition 1.2.11: Matrices élémentaires

Pour tout (i, j) ∈ J1, nK× J1, pK, on appelle matrice élémentaire d'indice (i, j) de Mn,p(K) la matrice

Ei,j dont toutes les entrées sont nulles, sauf l'entrée d'indice (i, j) qui est égale à 1. Explicitement :

Ei,j =

j

0 · · · 0 0 0 · · · 0...

......

......

...... 0

......

i 0 · · · 0 1 0 · · · 0...

... 0...

......

......

......

0 · · · 0 0 0 · · · 0

Toute matrice est combinaison linéaire des matrices élémentaires. Plus précisément :

Proposition 1.2.12

Soit A = (ai,j) ∈ Mn,p(K). Alors

A =

n∑i=1

p∑j=1

ai,jEi,j .

Exemple 1.2.13

On a 1 0

0 −3

5 0

= E1,1 − 3E2,2 + 5E3,1.

1.3 Produit de matrices

Nous allons maintenant dé�nir une multiplication pour les matrices. Nous pourrions le faire terme à terme

comme nous l'avons fait pour la somme mais il s'avère qu'il est possible d'en dé�nir une autre apportant

beaucoup plus de structure. Pour l'instant la dé�nition va sembler un peu arti�cielle mais nous verrons au �l

des chapitres tout son intérêt.

5 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 6: Chapitre 11 : Calcul matriciel

1.3.A. Généralités

Dé�nition 1.3.1: Produit matriciel

Soient A = (ai,j) ∈ Mn,p(K) et B = (bi,j) ∈ Mp,q(K). Le produit de A par B est

AB = (ci,j) ∈ Mn,q(K)

telle que

∀(i, j) ∈ J1, nK × J1, qK, ci,j =

p∑k=1

ai,kbk,j

Méthode 1.3.2: Calcul pratique du produit

Le coe�cient ci,j de la matrice AB est obtenu comme suit :

1. On considère les p coe�cients de la i-ème ligne de A ;

2. On considère les p coe�cients de la j-ème colonne de B ;

3. On multiplie terme à terme cette ligne et cette colonne et on somme les valeurs obtenues.

Exercice 1.3.3

Calculer tous les produits de deux matrices possibles à l'aide de ces matrices :

A =

2 0

−1 3

−2 1

, B =

(4 0 2

−2 1 1

)et C =

2 2 2

0 5 −1

0 −3 2

Remarque 1.3.4: À propos de la taille des matrices dans les produits

� Le produit matriciel permet de dé�nir une application

µ :

{Mn,p(K)×Mp,q(K) −→ Mn,q(K)

(A,B) 7→ AB.

On observe qu'a�n que cette application soit dé�nie, il faut que le nombre de colonnes du premier facteur

coïncide avec le nombre de lignes du second. Il n'est donc pas possible de multiplier deux matrices

arbitraires.

Pour ne pas se tromper dans les tailles de matrices dans les produits, on pourra observer que les indices

se concatènent, au sens où un produit de la forme (n, p)× (p, q) est de la forme (n, q).

1.3.B. Propriétés du produit matriciel

Ainsi dé�ni, le produit matriciel permet de retrouver certaines des règles du calcul algébrique auxquelles

nous sommes habitués dans les ensembles de nombres. Néanmoins, certaines propriétés ne sont pas conservées

et il convient d'être très rigoureux dans l'application de ces règles de calcul.

Ce qui est commun aux calculs matriciels et réels ou complexes :

6 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 7: Chapitre 11 : Calcul matriciel

Proposition 1.3.5: Associativité du produit matriciel

Le produit matriciel est associatif. Autrement dit, si A ∈ Mm,n(K), B ∈ Mn,p(K) et C ∈ Mp,q(K),

on a

A(BC) = (AB)C.

De ce fait, le parenthésage est dispensable dans les produits.

Proposition 1.3.6: Distributivité du produit matriciel

Le produit matriciel est distributif sur l'addition. Autrement dit :

1. Si A ∈ Mm,n(K), B ∈ Mn,p(K) et C ∈ Mn,p(K), on a :

A(B + C) = AB +AC,

2. Si A ∈ Mm,n(K), B ∈ Mm,n(K) et C ∈ Mn,p(K), on a :

(A+B)C = AC +BC.

Proposition 1.3.7: Bilinéarité du produit matriciel

Si A ∈ Mm,n(K), B ∈ Mn,p(K) et λ ∈ K, on a

(λA)B = A(λB) = λ(AB).

Remarque 1.3.8: Conventions d'écriture

Par convention, on place toujours les scalaires devant les matrices dans une écriture littérale.

Par exemple, on écrit 2A+3B et non A2+B3, sauf éventuellement au cours des étapes techniques d'un

calcul.

Ce qui di�ère dans les calculs matriciels et réels ou complexes :

Remarque 1.3.9: Non-commutativité du produit matriciel

� Nous avons déjà observé qu'en général, si AB est dé�ni, le produit BA ne l'est pas nécessairement.

Mais dans le cas où ces deux produits sont dé�nis, on a en général AB ̸= BA. Dans le cas où l'on a

égalité, on dit que A et B commutent.

Exercice 1.3.10

Soit A =

(1 2

3 4

).

1. Soit B =

(1 1

0 1

). Calculer AB puis BA.

7 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 8: Chapitre 11 : Calcul matriciel

2. Soit I =

(1 0

0 1

)la matrice identité de M2(K). Calculer AI puis IA.

3. Déterminer toutes les matrices de M2(R) qui commutent avec A.

Remarque 1.3.11: Non-intégrité du produit matriciel

� On peut obtenir la matrice nulle en multipliant deux matrices non nulles.

Par exemple, si on pose

A =

1 0 0

0 0 0

0 0 1

et B =

0 0 0

1 2 3

0 0 0

,

alors

AB =

0 0 0

0 0 0

0 0 0

et BA =

0 0 0

1 0 3

0 0 0

Ceci va avoir des implications importantes dans les calculs littéraux. Ainsi, quand on travaille avec des

matrices, on ne peut en général pas simpli�er une égalité de la forme AB = AC en B = C, même

si A ̸= 0.

Exercice 1.3.12

Soit A =

1 2 0

2 1 0

0 1 0

∈ M3(R).

1. Déterminer toutes les matrices B de M3(R) telles que AB = 0

2. Déterminer toutes les matrices C de M3(R) telles que AC = CA = 0

2 Transposition

Nous allons maintenant dé�nir une opération propre aux matrices qui, malgré sa dé�nition élémentaire,

s'avère jouer un rôle crucial en algèbre linéaire.

2.1 Généralités

Dé�nition 2.1.1

Soit A = (ai,j) ∈ Mn,p(K). On appelle transposée de A la matrice de Mp,n(K) notée tA ou A⊤ dé�nie

par

∀(i, j) ∈ J1, pK × J1, nK, [A⊤]i,j = aj,i.

Autrement dit, A⊤ est la matrice dont les lignes (respectivement les colonnes) sont les colonnes (respec-

tivement les lignes) de A.

Exemple 2.1.2

1. Si A =

(1 2 3 4

5 6 7 8

), on a A⊤ =

1 5

2 6

3 7

4 8

;

8 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 9: Chapitre 11 : Calcul matriciel

2. I⊤n = In et 0⊤n = 0n.

3. Si T ∈ T +n (K) alors T⊤ ∈ T −n (K).

Proposition 2.1.3

Pour toute matrice A ∈ Mn,p(K), on a (A⊤)⊤= A.

Dé�nition 2.1.4: Transposition

On appelle transposition de Mn,p(K) l'application{Mn,p(K) −→ Mp,n(K)

A 7→ A⊤.

2.2 Propriétés

Proposition 2.2.1: Linéarité de la transposition

Soient A,B ∈ Mn,p(K) et (λ, µ) ∈ K2. Alors

λA+ µB⊤ = λA⊤ + µB⊤.

Proposition 2.2.2: Transposée d'un produit

Soient A ∈ Mn,p(K) et B ∈ Mp,q(K). Alors

(AB)⊤= B⊤A⊤.

Remarque 2.2.3

� On prendra garde à l'ordre des facteurs dans la proposition précédente.

3 L'algèbre Mn(K) des matrices carrées

Pour deux matrices carrées A et B de Mn(K), il est possible de dé�nir simultanément les produits AB et BA

et ces produits restent dans Mn(K). De ce fait, la structure de Mn(K) va être particulièrement riche puisque

nous pouvons à la fois considérer des combinaisons linéaires et des produits à l'intérieur de cet ensemble. Une

telle structure est appelée une algèbre.

3.1 Opérations dans Mn(K)

Remarque 3.1.1

En conséquence de ce qui a été établi pour le produit matriciel en général, nous savons que :

� L'addition dans Mn(K) est associative et commutative et 0n est l'élément neutre pour l'addition ;

� La multiplication dans Mn(K) est associative, non commutative et distributive sur l'addition.

� Il existe des produits nuls de matrices non nulles.

9 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 10: Chapitre 11 : Calcul matriciel

Nous allons maintenant introduire une matrice qui joue le rôle de l'unité dans l'algèbre des matrices.

Dé�nition 3.1.2: Matrice identité

On appelle matrice identité de Mn(K) la matrice In dont tous les coe�cient sont nuls sauf ses

coe�cients diagonaux qui sont égaux à 1.

Explicitement,

In =

1 0 · · · · · · 0

0 1.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 0

0 · · · · · · 0 1

∈ Mn(K).

Remarque 3.1.3: Symbole de Kronecker

Soit E un ensemble. On appelle symbole de Kronecker sur E l'application

δ :

{E × E −→ {0, 1}(i, j) 7→ δi,j

δi,j =

{1 si i = j

0 sinon.

Avec ces notations, pour tout (i, j) ∈ J1, nK2, on a

In = (δi,j)1≤i,j≤n .

Proposition 3.1.4

Soit A ∈ Mn(K). Alors,

AIn = InA = A.

La matrice identité est dite neutre pour le produit matriciel.

Remarque 3.1.5

Plus généralement, on peut montrer que pour toute matrice rectangulaire A ∈ Mn,p(K), on a InA = A

et AIp = A.

En particulier, si X ∈ Mn,1(K) est une matrice colonne, alors on a InX = X.

Exercice 3.1.6: Symbole de Kronecker

Donner, à l'aide du symbole de Kronecker, une expression explicite pour les coe�cients de la matrice

élémentaire Ei,j ∈ Mn,p(K).

10 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 11: Chapitre 11 : Calcul matriciel

3.2 Matrices inversibles

Nous avons pour l'instant dé�ni un élément neutre pour l'addition, lamatrice nulle, et la notion de matrice

opposée, qui est l'analogue dans Mn(K) de l'opposé −a d'un scalaire a ∈ K. Nous venons par ailleurs de dé�nirun élément neutre pour la multiplication, lamatrice identité, qui joue le rôle de l'unité dans K. Notre objectifest ici est de dé�nir l'inverse d'une matrice qui serait l'analogue de x 7→ 1

xpour les réels. Néanmoins, deux

problèmes viennent se poser :

� Le produit matriciel étant non-commutatif, nous n'utiliserons pas la notation1

Acar elle induirait des

ambiguïtés :B

Asigni�erait-il B × 1

Aou

1

A×B ?

� Dans K, on sait qu'un élément admet un inverse dès qu'il est non nul. Néanmoins, comme nous allons le

voir, la situation est loin d'être aussi simple dans Mn(K).

3.2.A. Généralités

Proposition/Dé�nition 3.2.1: Matrice inversible

Soit A ∈ Mn(K). On dit que A est inversible s'il existe une matrice B ∈ Mn(K) telle que

AB = BA = In.

Dans ce cas, la matrice B est unique. On l'appelle matrice inverse de A et on la note A−1.

L'ensemble des matrices inversibles de Mn(K) est appelé groupe linéaire et est noté GLn(K) :

GLn(K) = {A ∈ Mn(K) | A est inversible} .

Exemple 3.2.2

1. La matrice identité est inversible et I−1n = In ;

2. La matrice nulle n'est pas inversible.

Remarque 3.2.3

Nous démontrerons dans un chapitre ultérieur que, si A et B sont des matrices carrées, alors :

AB = In ⇔ BA = In.

Il su�t donc en pratique de véri�er l'une de ces deux égalités pour justi�er que B = A−1.

Exercice 3.2.4

Véri�er que la matrice P =

1 1 1

0 1 1

0 0 1

est inversible, d'inverse P−1 =

1 −1 0

0 1 −1

0 0 1

.

Exercice 3.2.5

Déterminer si les matrices suivantes sont inversibles et calculer leur inverse le cas échéant :

M =

(1 2

3 4

)et N =

(1 1

1 1

).

11 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 12: Chapitre 11 : Calcul matriciel

3.2.B. Propriétés du produit matriciel

Proposition 3.2.6: Produit de matrices inversibles

Soient A,B ∈ GLn(K). Alors AB ∈ GLn(K) et

(AB)−1 = B−1A−1.

Remarque 3.2.7

� On prendra garde à l'ordre des facteurs dans la proposition précédente.

Nous avons déjà eu l'occasion de mentionner que les produits de matrices ne sont pas simpli�ables en général.

Néanmoins, dans le cas de produits impliquant des matrices inversibles, on peut utiliser le résultat suivant :

Lemme 3.2.8: Simpli�abilité des matrices inversibles

Soit A ∈ GLn(K).

1. Pour toutes matrices B,C ∈ Mn,p(K), on a

AB = AC ⇔ B = C ;

2. Pour toutes matrices B,C ∈ Mm,n(K), on a

BA = CA ⇔ B = C.

3.2.C. Calcul pratique d'inverse de matrices

Dans le cas particulier des matrices d'ordre 2, on dispose du résultat suivant :

Proposition 3.2.9: Inversion d'une matrice d'ordre 2

Soit A =

(a b

c d

)∈ M2(K). Alors A est inversible si et seulement si ad− bc ̸= 0 et dans ce cas,

A−1 =1

ad− bc

(d −b

−c a

).

Le réel ad− bc est appelé déterminant de la matrice A et est noté det(A).

Dans le cas général, calculer l'inverse d'une matrice de Mn(K) en cherchant à résoudre un système en ses

coe�cients amène à résoudre n2 équations linéaires, ce qui est rapidement infaisable en pratique. Nous verrons

aux sections 4.2 et 4.4 des méthodes pour e�ectuer ces calculs en pratique.

12 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 13: Chapitre 11 : Calcul matriciel

3.3 Puissances de matrices

3.3.A. Généralités

Dé�nition 3.3.1: Puissances d'une matrice

Soit A ∈ Mn(K). Pour tout k ∈ N∗, on pose

Ak = A×A× · · · ×A︸ ︷︷ ︸k fois

.

Par convention, si A n'est pas la matrice nulle, on pose A0 = In.

Lemme 3.3.2

Soit A ∈ Mn(K) et k, ℓ des entiers naturels non nuls. Alors

Ak+ℓ = Ak ×Aℓ.

Exercice 3.3.3

Soit A =

(1 1

1 1

). Calculer An, pour tout n ∈ N.

Remarque 3.3.4

� Le produit matriciel n'étant pas dé�ni terme à terme, il est assez naturel que la puissance n-ième d'une

matrice carrée A ne soit en général pas la matrice des puissances n-ième des coe�cients de A. Il s'agit

là d'une erreur grossière à ne pas commettre.

Corollaire 3.3.5

Soit A ∈ GLn(K). Alors pour tout k ∈ N∗, Ak ∈ GLn(K) et

(Ak)−1 = (A−1)k.

On note A−k cette matrice.

3.3.B. Puissances de matrices diagonales

Dé�nition 3.3.6: Matrices diagonales

Une matrice A ∈ Mn(K) est dite diagonale si tous ses coe�cients non diagonaux sont nuls, c'est-à-dire

si,

∀(i, j) ∈ J1, nK2, (i ̸= j ⇒ ai,j = 0) .

13 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 14: Chapitre 11 : Calcul matriciel

Explicitement, c'est une matrice de la forme

A =

a1,1 0 · · · · · · 0

0 a2,2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 0

0 · · · · · · 0 an,n

et on note A = diag(a1,1, . . . , an,n).

Remarque 3.3.7

Une matrice diagonale est une matrice dont les coe�cients en-dehors de la diagonale sont nuls mais on

ne fait aucune hypothèse sur les coe�cients diagonaux, ils peuvent être nuls ou non nuls. Par exemple,

la matrice nulle est diagonale, tout comme la matrice identité.

Pour les matrices diagonales, les produits sont particulièrement simples :

Lemme 3.3.8

Soient A = diag(a1, . . . , an) et B = diag(b1, . . . , bn). Alors

AB = BA = diag(a1b1, . . . , anbn).

Corollaire 3.3.9

Soit D = diag(d1, . . . , dn) ∈ Mn(K) une matrice diagonale. Alors D est inversible si et seulement si tous

les coe�cients diagonaux sont non nuls. Dans ce cas,

D−1 = diag

(1

d1, . . . ,

1

dn

).

Corollaire 3.3.10

Si A = diag(a1, . . . , an), alors, pour tout k ∈ N∗, on a

Ak = diag(ak1 , . . . , akn).

3.3.C. Puissances de matrices triangulaires

Dé�nition 3.3.11: Matrices triangulaires supérieures et inférieures

1. Une matrice A ∈ Mn(K) est dite triangulaire supérieure si tous les coe�cients en-dessous de

sa diagonale sont nuls

∀(i, j) ∈ J1, nK2, (i > j ⇒ ai,j = 0) .

14 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 15: Chapitre 11 : Calcul matriciel

Explicitement, c'est une matrice de la forme

A =

a1,1 a1,2 · · · · · · a1,n

0 a2,2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. an−1,n

0 · · · · · · 0 an,n

On note T +

n (K) l'ensemble des matrices triangulaires supérieures de Mn(K).

2. Une matrice A ∈ Mn(K) est dite triangulaire inférieure si tous les coe�cients au-dessus de sa

diagonale sont nuls

∀(i, j) ∈ J1, nK2, (i < j ⇒ ai,j = 0) .

Explicitement, c'est une matrice de la forme

A =

a1,1 0 · · · · · · 0

a2,1 a2,2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 0

an,1 · · · · · · an,n−1 an,n

On note T −n (K) l'ensemble des matrices triangulaires inférieures de Mn(K).

Remarque 3.3.12

T +n (K) ∩ T −n (K) est l'ensemble des matrices diagonales de Mn(K).

Lemme 3.3.13

Soient A et B des matrices de T +n (K) (respectivement de T −n (K)), alors AB est dans T +

n (K) (respecti-

vement dans T −n (K)).

En outre, les coe�cients diagonaux de AB sont les produits terme à terme de ceux de A et de B.

Corollaire 3.3.14

Si A est une matrice de T +n (K) (respectivement de T −n (K)), alors pour tout k ∈ N∗, Ak est dans T +

n (K)

(respectivement dans T −n (K)).

En outre, les coe�cients diagonaux de A sont les puissances k-èmes de ceux de A.

Exercice 3.3.15

Soit M =

1 0 1

0 1 0

0 0 1

. Montrer que, pour tout k ∈ N∗, Mk =

1 0 k

0 1 0

0 0 1

.

15 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 16: Chapitre 11 : Calcul matriciel

3.3.D. Matrices nilpotentes

Dé�nition 3.3.16: Matrice nilpotente

Une matrice A ∈ Mn(K) est dite nilpotente s'il existe k ∈ N∗ tel que Ak = 0n.

Dans ce cas, on appelle indice de nilpotence de A l'entier

i0 = min{k ∈ N∗ | Ak = 0n

}.

Lemme 3.3.17

Si A ∈ Mn(K) est nilpotente d'indice i0, alors Ak = 0n pour tout k ≥ i0.

Remarque 3.3.18

Nous démontrerons dans un chapitre ultérieur que si A est nilpotente, alors son indice de nilpotence est

inférieur ou égal à n. En d'autres termes, si A ∈ Mn(K) et An ̸= 0, alors A n'est pas nilpotente.

Exercice 3.3.19

Soit A =

0 a b

0 0 c

0 0 0

∈ M3(K), avec (a, b, c) ∈ K3 tels que a et c sont non nuls. Montrer que A est

nilpotente d'indice 3.

Remarque 3.3.20

Nous démontrerons ultérieurement que toute matrice triangulaire ayant une diagonale nulle est nilpo-

tente. Néanmoins, toutes les matrices nilpotentes ne sont pas de cette forme, comme le montre l'exercice

ci-dessous.

Exercice 3.3.21

Soit N =

1 3 2

−1 −1 0

1 1 0

. Montrer que N est nilpotente d'indice 3.

Exercice 3.3.22

Montrer qu'une matrice nilpotente n'est pas inversible.

3.3.E. Puissances d'un produit et d'une somme

Remarque 3.3.23: Puissances d'un produit

� Le produit n'étant pas commutatif, on n'a pas en général (AB)k = AkBk. En e�et,

(AB)k = (AB)× (AB)× · · · (AB)︸ ︷︷ ︸k fois

= ABAB · · ·AB

mais rien ne permet en général de rassembler les A et les B.

Néanmoins, si A et B commutent, alors on a e�ectivement (AB)k = AkBk.

16 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 17: Chapitre 11 : Calcul matriciel

Théorème 3.3.24: Puissances d'une somme (formule du binôme)

Soient A,B ∈ Mn(K) deux matrices qui commutent. Alors, pour tout k ∈ N∗, on a

(A+B)k =

k∑i=0

(k

i

)AiBk−i.

Exercice 3.3.25

En considérant les matrices

A =

(0 1

0 0

)et B =

(0 0

1 0

),

véri�er que la condition de commutativité est nécessaire.

Exercice 3.3.26

Soit M =

3 3 2

−1 1 0

1 1 2

et N = M − 2I.

1. Calculer Nk, pour tout k ∈ N∗.

2. En déduire une expression simple de Mk, pour tout k ∈ N∗.

3.4 Transposition des matrices carrées

Dé�nition 3.4.1: Matrices symétriques, matrices antisymétriques

Soit A ∈ Mn(K).

1. On dit que A est symétrique si et seulement si A⊤ = A ;

2. On dit que A est antisymétrique si et seulement si A⊤ = −A.

Exemple 3.4.2

1. La matrice A =

1 2 3

2 4 5

3 5 6

est symétrique et la matrice B =

0 1 2

−1 0 3

−2 −3 0

est antisymé-

trique.

2. La matrice identité est symétrique, comme toute matrice diagonale.

3. La matrice nulle est symétrique et antisymétrique. C'est la seule matrice à véri�er cette propriété.

Remarque 3.4.3

Le fait pour une matrice d'être symétrique (respectivement antisymétrique) peut s'interpréter comme la

symétrie (respectivement l'antisymétrie) des coe�cients par rapport à la diagonale de la matrice.

Lemme 3.4.4

Si A ∈ Mn(K) est antisymétrique, tous ses coe�cients diagonaux sont nuls.

17 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 18: Chapitre 11 : Calcul matriciel

Proposition 3.4.5: Stabilité par combinaison linéaire

Soient A,B ∈ Mn(K) et (λ, µ) ∈ K2.

1. Si A et B sont symétriques, alors λA+ µB aussi ;

2. Si A et B sont antisymétriques, alors λA+ µB aussi.

Exercice 3.4.6

Soit M ∈ Mn(K). On pose

S =1

2(M +M⊤) et A =

1

2(M −M⊤).

1. Montrer que S est symétrique et que A est antisymétrique.

2. Montrer que toute matrice M ∈ Mn(K) se décompose de manière unique comme somme d'une

matrice symétrique et d'une matrice antisymétrique.

Proposition 3.4.7

Si A ∈ Mn(K) est inversible, alors A⊤ est inversible et

(A⊤)−1 = (A−1)⊤.

En particulier, si A est symétrique (resp. antisymétrique), alors A−1 aussi.

4 Application aux systèmes linéaires

Nous explicitons dans cette section le lien qui existe entre matrices et systèmes linéaires.

4.1 Interprétation matricielle d'un système linéaire

4.1.A. Écriture matricielle d'un système linéaire

On considère dans cette section un système d'équations linéaires à coe�cients dans K de la forme

(S) :

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = b1

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = b2...

...

an,1x1 + an,2x2 + · · ·+ an,pxp = bn

Pour tout (x1, . . . , xp) ∈ Kp, on pose

A =

a1,1 a1,2 a1,3 · · · a1,p

a2,1 a2,2 a2,3 · · · a2,p...

......

......

an,1 an,2 an,3 · · · an,p

, X =

x1

x2

...

xp

et B =

b1

b2...

bn

.

de sorte que

(x1, . . . , xp) ∈ SS ⇔ AX = B.

18 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 19: Chapitre 11 : Calcul matriciel

Dé�nition 4.1.1: Écriture matricielle d'un système linéaire

La relation AX = B est appelée écriture matricielle du système linéaire (S).

Exercice 4.1.2

Écrire sous forme matricielle les systèmes suivants :

a.

{2x+ y = 1

x− y = −2 b.

2x+ y = 1

x− y = −2

3x+ y = 5

c.

x− y + 3z = 0

2x+ z = −1

x+ 5y − z = 0

4.1.B. Structure des solutions d'un système linéaire

Comme pour les équations di�érentielles, on peut ramener l'étude d'un système linéaire la résolution du

système homogène associé et à la recherche d'une solution particulière.

Dé�nition 4.1.3: Système homogène associé à (S)

On appelle système homogène associé à (S) le système :

(H) :

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = 0

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = 0...

...

an,1x1 + an,2x2 + · · ·+ an,pxp = 0

En reprenant les notations précédentes, on a donc :

(x1, . . . , xp) ∈ SH ⇔ AX = 0.

On a alors le résultat suivant :

Proposition 4.1.4

Avec les notations précédentes, on si V0 ∈ Kp est une solution de (S), alors on a :

SS = {V0 +X | X ∈ SH} .

Autrement dit, on a l'égalité :

SH = V0 + SH .

Remarque 4.1.5: Nombre de paramètres des ensembles de solutions

Si on détermine le nombre de paramètres dans l'ensemble des solutions du système homogène (H) associé

à A, on aura le nombre de paramètres de l'ensemble des solutions du système de départ (S), sous réserve

que celui-ci admette au moins une solution.

Il est possible de caractériser l'existence de solutions pour un système linéaire donné à partir de son écriture

matricielle. Pour cela, on s'appuie sur la remarque suivante.

19 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 20: Chapitre 11 : Calcul matriciel

Remarque 4.1.6

On observe au passage que si A = (ai,j) ∈ Mn,p(K) et si X =

x1

...

xp

∈ Mp,1(K) est une matrice

colonne, alors

AX =

a1,1x1 + · · ·+ a1,pxp

a2,1x1 + · · ·+ a2,pxp

...

an,1x1 + · · ·+ an,pxp

Ainsi, si on note C1, . . . , Cn les colonnes de A, alors

AX = x1C1 + x2C2 + · · ·+ xpCp

est combinaison linéaire des colonnes de A.

On en déduit alors la caractérisation suivante :

Proposition 4.1.7: Condition nécessaire et su�sante de compatibilité des équations

Soit AX = B est l'écriture matricielle de (S). Alors (S) admet des solutions si et seulement si B est

combinaison linéaire des colonnes de A.

4.2 Calcul pratique de l'inverse : résolution du système générique AX = B

Théorème 4.2.1

Soit A ∈ Mn(K) une matrice inversible. Alors, pour toutes matrices colonnes X et B de Kn, on a :

AX = B ⇔ X = A−1B.

En particulier, dans ce cas, (S) possède une unique solution.

Application au calcul de A−1 : Le théorème précédent fournit une méthode pratique pour calculer

l'inverse de A dans le cas où A est une matrice inversible. On peut essentiellement la résumer de la manière

suivante.

Méthode 4.2.2: Inverser une matrice à l'aide d'un système générique

Pour inverser une matrice inversible A, on peut procéder comme suit :

� Poser un système générique AX = B associé à A,

� Le résoudre (typiquement, à l'aide du pivot de Gauss),

� Lire les coe�cients de A−1 dans l'expression de X en fonction de B.

A�n de ne pas alourdir les notations, nous montrons le fonctionnement de cette méthode sur un exemple.

Considérons la matrice

A =

0 1 1

1 0 1

1 1 0

.

20 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 21: Chapitre 11 : Calcul matriciel

Posons X =

x

y

z

et B =

a

b

c

deux matrices colonnes de K3. On a alors

AX = B ⇔

x+ y = a

x+ z = b

y + z = c.

On résout ce système avec les méthodes habituelles et on obtient :

AX = B ⇔

x = − 1

2a+ 12b+

12c

y = 12a− 1

2b+12c

z = 12a+ 1

2b−12c.

D'après le Théorème 4.2.1, cette dernière égalité est la traduction en système de X = A−1B. En revenant à la

forme matricielle, on a donc :

A−1 =

−1/2 1/2 1/2

1/2 −1/2 1/2

1/2 1/2 −1/2

.

Exercice 4.2.3

À l'aide de la méthode précédente, déterminer A−1 dans les cas suivants :

A =

(1 2

−1 1

), B =

0 1 0

1 0 0

0 0 1

et C =

1 1 1

0 1 1

0 0 1

Remarque 4.2.4

Si en appliquant la méthode précédente nous ne trouvons pas une unique solution au système générique,

cela signi�era simplement que A n'est pas inversible. Nous reviendrons sur ce point précis dans un

chapitre ultérieur.

4.3 Opérations élémentaires sur les lignes et les colonnes d'une matrice

Nous terminons ce chapitre par une traduction matriciele de la méthode de Gauss pour la résolution de

systèmes. Nous verrons en particulier comment utiliser l'algorithme de Gauss pour calculer l'inverse d'une

matrice.

Dé�nition 4.3.1: Opérations élémentaires sur les lignes d'une matrice

Étant donnée une matrice A ∈ Mn,p(K) composée des lignes L1, . . . , Ln, on appelle opération élé-

mentaire sur les lignes de A le fait de procéder à l'une des opérations suivantes :

� Échanger deux lignes de la matrice.

� Ajouter à une ligne un multiple d'une autre ligne,

� Multiplier une ligne de la matrice par un scalaire non nul.

Deux matrices A et A′ sont dites équivalentes en lignes si on peut passer de l'une à l'autre par une

suite �nie d'opérations élémentaires sur les lignes. On note alors

A ∼LA′.

21 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 22: Chapitre 11 : Calcul matriciel

Exercice 4.3.2

Montrer que :

a.

(1 2

3 4

)∼LI2, b.

1 1 1

0 1 1

0 0 1

∼LI3.

Chaque opération élémentaire appliquée sur les lignes d'une matrice A peut s'interpréter comme un produit

à gauche par une matrice inversible. En particulier, on a le résultat suivant :

Proposition 4.3.3

Soient A et A′ deux matrices de Mn,p(K). Alors sont équivalentes :

1. A ∼LA′,

2. il existe P ∈ GLn(K) telle que PA = A′.

Corollaire 4.3.4

Soit A ∈ Mn(K) telle que A ∼LIn. Alors A est inversible.

Remarque 4.3.5

Nous établirons dans un chapitre ultérieur que le précédent résultat est en fait une équivalence.

4.4 Calcul pratique de l'inverse : méthode de Gauss-Jordan

La méthode de Gauss-Jordan pour inverser une matrice inversible A ∈ Mn(K) repose sur l'idée suivante.

Si on arrive à établir une suite d'opérations élémentaires sur les lignes de A de manière à la transformer en

la matrice In, ces produits successifs correspondent à une certaine matrice inversible P telle que PA = In, de

sorte que P = A−1. Mais alors, la même suite d'opérations élémentaires appliquée sur les lignes de In reviendra

à calculer PIn = P = A−1.

Nous en déduisons la méthode suivante :

Méthode 4.4.1: Méthode de Gauss-Jordan pour inverser une matrice

Soit A ∈ GLn(K) et (A|In) ∈ Mn,2n(K) la matrice obtenue en juxtaposant A et la matrice identité.

1. On applique un algorithme de Gauss aux lignes de cette matrice de manière à transformer A en la

matrice identité.

2. On obtient une matrice de la forme (In|P ). Alors P = A−1.

Exemple 4.4.2

Inversons la matrice

A =

0 1 1

1 0 1

1 1 0

en appliquant la méthode de Gauss-Jordan.

22 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.

Page 23: Chapitre 11 : Calcul matriciel

On a

(A|In) =

0 1 1 1 0 0

1 0 1 0 1 0

1 1 0 0 0 1

∼L1↔L3

1 1 0 0 0 1

1 0 1 0 1 0

0 1 1 1 0 0

L2←L2−L1

1 1 0 0 0 1

0 −1 1 0 1 −1

0 1 1 1 0 0

L3←L3+L2

1 1 0 0 0 1

0 −1 1 0 1 −1

0 0 2 1 1 −1

L2←−L2

L3← 12L3

1 1 0 0 0 1

0 1 −1 0 −1 1

0 0 1 1/2 1/2 −1/2

L2←L2+L3

1 1 0 0 0 1

0 1 0 1/2 −1/2 1/2

0 0 1 1/2 1/2 −1/2

L1←L1−L2

1 0 0 −1/2 1/2 1/2

0 1 0 1/2 −1/2 1/2

0 0 1 1/2 1/2 −1/2

Ainsi, A est inversible et

A−1 =

−1/2 1/2 1/2

1/2 −1/2 1/2

1/2 1/2 −1/2

Remarque 4.4.3

� Si la matrice A n'est pas inversible, l'algorithme de Gauss-Jordan ne fonctionne pas. En e�et, dans ce cas

il n'est pas possible de transformer la matrice A en la matrice identité à l'aide d'opérations élémentaires

sur les lignes. Il convient donc de justi�er l'inversibilité de A avant de se lancer dans ces calculs.

Remarque 4.4.4: Opérations élémentaires sur les colonnes

Les opérations élémentaires étudiées précédemment étaient dé�nies sur les lignes de A ∈ Mn,p(K) par

analogie avec les opérations élémentaires sur les systèmes linéaires. Néanmoins, il est tout à fait possible

de dé�nir des opérations élémentaires sur les colonnes de A. Celles-ci se traduisent plus di�cilement en

termes de systèmes linéaires mais elles s'interprètent de la même manière en termes de produits à droite

par des matrices inversibles de Mp(K).

23 PCSI � LGT Baimbridge � Licence CC BY-NC-SA 4.0.