212
Algèbre linéaire André Roberge Version du 4 septembre 2016

Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Algèbre linéaire

André Roberge

Version du 4 septembre 2016

Page 2: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Table des matières

vi Préface

Autres ressources viRemerciements viiNote sur l’utilisation des couleurs vii

1 Chapitre 1Revue et introduction1.1 Les ensembles 1

1.1.1 Les nombre réels 21.1.2 Les nombres complexes 3

1.2 Les matrices 41.2.1 Définition et notation 41.2.2 Égalité de matrices 61.2.3 Addition de matrices 61.2.4 Multiplication par un scalaire 71.2.5 Soustraction de matrices 81.2.6 Propriétés diverses de l’addition 81.2.7 Multiplication 10

1.3 Les vecteurs dans R2 171.3.1 Généralisation à Rn 18

1.4 Les équations linéaires 181.5 Systèmes d’équations linéaires 20

1.5.1 Exemple trivial 211.6 Systèmes d’équations linéaires : quatre interpré-

tations 231.6.1 Interprétation géométrique 231.6.2 Équation matricielle 241.6.3 Combinaison linéaire 241.6.4 Transformation linéaire 25

26 Chapitre 2Matrices2.1 Matrice triangulaire 262.2 Trace d’une matrice 272.3 Transposée d’une matrice 272.4 Symétrie et anti-symétrie 28

i

Page 3: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Table des matières ii

2.5 Transposée d’un produit 292.6 Matrices complexes 30

2.6.1 Matrices hermitiennes et transconjuguées 312.7 Puissance d’une matrice carrée 322.8 Trace d’un produit et commutateur 332.9 Multiplication de matrices par blocs 342.10 Exercices divers 35

37 Chapitre 3Systèmes d’équations linéaires

3.1 Introduction 373.2 Élimination de Gauss-Jordan 37

3.2.1 Notation matricielle et matrices augmentées 403.2.2 Formes échelonnées 413.2.3 Systèmes consistant et inconsistant 443.2.4 Exemples et exercices divers 46

3.3 Rang 523.4 Nombre de solutions d’un système d’équations

linéaires 543.5 Systèmes homogènes 553.6 Exercices divers 59

61 Chapitre 4Inverse d’une matrice carrée4.1 Introduction 614.2 L’inverse d’une matrice 2× 2 654.3 Matrices élémentaires 664.4 Sur l’existence d’un inverse 684.5 Algorithme pour trouver un inverse 704.6 Exercices divers 71

73 Chapitre 5Espaces vectoriels

5.1 Introduction : le résumé du résumé 735.2 Introduction : le résumé 745.3 Définition d’un espace vectoriel 775.4 Sous-espace vectoriel 805.5 Combinaisons linéaires 815.6 Générateurs 835.7 Dépendance et indépendance linéaire 86

5.7.1 Que veut-on dire par dépendance linéaire ? 865.8 Base et dimension 885.9 Coordonnées 945.10 Exercices divers 97

Page 4: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Table des matières iii

98 Chapitre 6Transformations linéaires6.1 Introduction 986.2 Transformation du plan 100

6.2.1 Changements d’échelle : dilatation et contraction 1016.2.2 Cisaillement 1016.2.3 Rotation 1026.2.4 Réflexion 1026.2.5 Combinaison de transformations 1026.2.6 Projections 104

6.3 Translations 1046.4 Exercices divers 105

107 Chapitre 7Déterminants7.1 Mineur et cofacteur 1077.2 Le déterminant 109

7.2.1 Les matrices 2× 2 1107.2.2 Deux exemples de matrice de taille supérieure 111

7.3 Propriétés des déterminants 1127.3.1 Matrices diagonales et triangulaires 1127.3.2 Matrice ayant une colonne ou une ligne nulle 1137.3.3 Transposée 1137.3.4 Matrice élémentaires 1147.3.5 Déterminant, produit de matrices et inverse 1167.3.6 Opérations élémentaires sur les lignes 118

7.4 Règle de Cramer 1217.4.1 Inverse d’une matrice 123

7.5 Interprétation géométrique des déterminants 1257.5.1 Transformations linéaires 1267.5.2 Dimensions supérieures à deux 127

7.6 Exercices divers 127

129 Chapitre 8Vecteurs propres et valeurs propres

8.1 Introduction 1298.2 Polynôme caractéristique 1318.3 Diagonalisation 1358.4 Diagonalisation : un exemple détaillé 1398.5 Exercices divers 143

Page 5: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Table des matières iv

145 Chapitre 9Produit scalaire et orthogonalité

9.1 Introduction 1459.1.1 Exemples 148

9.2 Orthogonalité 149

156 Chapitre 10Géometrie vectorielle10.1 Notation utilisée dans ce chapitre 15610.2 Produit scalaire 15710.3 Produit vectoriel 157

10.3.1 Interprétation géométrique de la norme du pro-duit vectoriel 161

10.4 Équation paramétrique d’une droite 16210.4.1 Sous-espace vectoriel à une dimension 16210.4.2 Droite dans l’espace euclidien à trois dimensions 163

10.5 Distance d’un point à une droite 16510.6 Équation d’un plan 16710.7 Distance d’un point à un plan 169

172 Chapitre 11Applications diverses

11.1 Équilibrage des réactions chimiques 17211.1.1 Combustion incomplète 174

11.2 Courbes dans le plan 17511.2.1 Équation d’une droite dans le plan 17511.2.2 Équation d’un cercle dans le plan 17611.2.3 Mouvement des corps célestes 178

11.3 Série de Fourier 17911.3.1 Équations différentielles 18011.3.2 Application à la musique 181

11.4 Suite de Fibonacci 18111.5 Dynamique des populations 18311.6 Visages propres 18611.7 Régression linéaire 189

11.7.1 Généralisation à d’autres types de courbes 193

195 Annexe ADéfinitions et propriétés utiles

A.1 Définitions des scalaires 195A.2 Propriétés des scalaires (R ou C) 195

Page 6: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Table des matières v

A.3 Définitions des matrices 196A.4 Propriétés des matrices 197A.5 Définition d’un espace vectoriel 198A.6 Propriétés des espaces vectoriels 198A.7 Définition des déterminants 198A.8 Propriétés des déterminants 199A.9 Vecteurs et valeurs propres 199A.10 Produit scalaire 199A.11 Géométrie vectorielle 200

201 Annexe BRéférencesB.1 Source des images 201

202 Annexe CLicence cbna

203 Index

Page 7: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

PréfaceAutres ressources viRemerciements viiNote sur l’utilisation des couleurs vii

On ne termine jamais un livre . . . on l’abandonne à un éditeur.auteur inconnu

I prided myself in reading quickly. I was really amazed by my firstencounters with serious mathematics textbooks. I was very interestedand impressed by the quality of the reasoning, but it was quite hard tostay alert and focused. After a few experiences of reading a few pagesonly to discover that I really had no idea what I’d just read, I learnedto drink lots of coffee, slow way down, and accept that I needed to readthese books at 1/10th or 1/50th standard reading speed, pay attentionto every single word and backtrack to look up all the obscure numbersof equations and theorems in order to follow the arguments.

William Thurston, mathématicien célèbreL’algèbre linéaire est une branche des mathématiques qui s’intéresse

aux espaces linéaires, plus généralement nommés espaces vectoriels, incluantl’étude des vecteurs et des équations linéaires ainsi que les transformationslinéaires. Les techniques développées dans l’étude de l’algèbre linéaire sontutilisées dans tous les domaines scientifiques.

Dans ce manuel, je présente une introduction à l’algèbre linéaire. Plutôtque d’avoir un texte purement axé sur une approche formelle, c’est-à-direbasé uniquement sur une suite de théorème et démonstration, j’ai incorporéune multitude d’exemples. Le lecteur 1 doit cependant se rappeler qu’unexemple n’est pas une preuve, et qu’on ne peut pas toujours généraliser àpartir d’un exemple. Cependant, je suis d’avis que les exemples sont utilescomme guide pour mieux comprendre l’application des théorèmes.

Autres ressources

On retrouve sur Internet plusieurs sites, tel que Wikipédia, qui offrent desexplications et des dérivations mathématiques. On retrouve également desvidéos explicatives, tel que sur le site www.KhanAcademy.com ou encore à par-tir d’universités, tel que l’université Massachusetts Institute of Technologyet son MITOpenCourseware, pour n’en nommer qu’une parmi tant d’autres.Plusieurs professeurs mettent également des copies de leurs notes de coursavec un accès complètement libre sur Internet. J’encourage le lecteur à ex-plorer ces différentes ressources pour approfondir sa connaissance du sujet.Puisqu’il existe beaucoup plus de ressources en anglais qu’en français, je faismention à l’occasion des termes utilisés en anglais, surtout lorsque la tra-duction est loin d’être évidente, comme par exemple cross product (produit

1Pour simplifier l’écriture, je vais généralement utiliser le masculin pluriel comme termeinclusif pour désigner aussi bien les hommes que les femmes.

vi

Page 8: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Préface vii

vectoriel), ou eigenvalue (valeur propre) de façon à permettre aux intéressésde comprendre plus facilement le matériel disponible en anglais.

Remerciements

J’aimerais remercier mes enfants, Julien et Evelyne, ainsi que Alain Gamacheet Dany Sheehy pour m’avoir communiqué leurs impressions, commentaireset suggestions après avoir lu une ébauche des premiers chapitres de ce ma-nuel.

J’aimerais également remercier Monsieur Marcel B. Finan de l’ArkansasTech University qui m’a donné la permission d’adapter ses notes de courssur le même sujet ; ces notes ont surtout été utilisées dans la préparationdes premiers chapitre. Je remercie également Monsieur Joseph Khoury del’Université d’Ottawa pour m’avoir donné la permission d’utiliser et d’adap-ter les exemples d’applications de l’algèbre linéaire qui se trouve sur son siteInternet http://aix1.uottawa.ca/~jkhoury/linearnewf.htm.

Finalement, des étudiants ont noté des coquilles et ont offerts des sugges-tions qui m’ont permis d’améliorer ce manuel. En ordre alphabétique, j’ai-merais donc remercier Colin Bonnar, Valérie Carroll, Natalia Ensor, Marie-Josée Guyon, Mathieu Manuel, Andrée-Anne Rousselle et Lianne Saulnierpour leurs diverses contributions.

Note sur l’utilisation des couleurs

Dans ces notes, j’utilise parfois des couleurs comme le bleu et le rouge pouraccentuer certains termes. Si vous êtes daltonien et que vous ne distinguezpas certaines des couleurs que j’utilise, contactez-moi pour que je puissepréparer une autre version avec des couleurs plus appropriées pour vous.

Page 9: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

1 Revue et introduction1.1 Les ensembles 1

1.1.1 Les nombre réels 21.1.2 Les nombres complexes 3

1.2 Les matrices 41.2.1 Définition et notation 41.2.2 Égalité de matrices 61.2.3 Addition de matrices 61.2.4 Multiplication par un scalaire 71.2.5 Soustraction de matrices 81.2.6 Propriétés diverses de l’addition 81.2.7 Multiplication 10

1.3 Les vecteurs dans R2 171.3.1 Généralisation à Rn 18

1.4 Les équations linéaires 181.5 Systèmes d’équations linéaires 20

1.5.1 Exemple trivial 211.6 Systèmes d’équations linéaires : quatre interprétations 23

1.6.1 Interprétation géométrique 231.6.2 Équation matricielle 241.6.3 Combinaison linéaire 241.6.4 Transformation linéaire 25

Dans ce chapitre, nous allons d’abord faire une revue de concepts qui de-vraient être familiers à tous les étudiants 1 qui ont suivi un cours de mathé-matiques avancé au secondaire. Comme la notation que nous utilisons peutêtre légèrement différente de celle utilisée par vos enseignants du secondaire,il est important de lire tout le matériel et de s’assurer que les concepts sontbien compris. Ce chapitre termine par un aperçu de quelques sujets à venir.

1.1 Les ensembles

Les ensembles sont des collections d’objets ; ces objets sont appelés les élé-ments de l’ensemble. Par exemple, nous pouvons définir un ensemble E conte-nant les cinq plus petits entiers positifs impairs

E = {1, 3, 5, 7, 9}

et on dira que, par exemple, le chiffre 3 appartient à cet ensemble

3 ∈ E mais 2 /∈ E1Pour simplifier l’écriture, je vais généralement utiliser le masculin pluriel comme terme

inclusif pour désigner les étudiantes et les étudiants.

1

Page 10: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 2

L’ordre des éléments d’un ensemble n’a pas d’importance. Par exemple, onaurait pu écrire

E = {5, 3, 1, 9, 7}

Nous pouvons définir un sous-ensemble, S de E contenant les trois plus petitsentiers positifs impairs :

S = {1, 3, 5}

et on dira que S est inclus dans E

S ⊂ E mais E 6⊂ S

En fait, dans ce cas-ci, on peut dire que S est strictement inclus dans E

S ( E

alors que E est inclus dans lui-même : E ⊆ E. 2 L’ensemble vide, {}, est unensemble qui ne contient aucun élément ; c’est un sous-ensemble de tous lesensembles. On le dénote parfois par le symbole ∅.

Parmi les ensembles les plus utilisés en algèbre linéaire, on retrouve l’en-semble des réels, R, ainsi que celui des nombres complexes, C.

Exercice 1.1 Soit les ensembles A = {♥,♦,♣,♠} et B = {♥,♦}. Vrai oufaux :(a) ♥ ∈ A(b) ♠ ∈ B(c) B ∈ A(d) ♣ /∈ B(e) A ( B(f) B ⊂ A(g) B ( A

1.1.1 Les nombre réels

Vous devez être familiers avec les nombres réels. Ils obéissent les propriétéssuivantes que l’on retrouve également dans l’annexe A.

1. a+ b = b+ a commutativité de l’addition

2. (a+ b) + c = a+ (b+ c) associativité de l’addition

3. ab = ba commutativité de la multiplication

4. (ab)c = a(bc) associativité de la multiplication

5. a+ 0 = a élément neutre de l’addition

2Certaines personnes utilisent ⊂ comme synonyme de ⊆ alors que d’autres l’utilisentcomme synonyme de ( qui a un sens très différent. Dans ce livre, nous utiliserons ⊂lorsque ça ne fait aucune différence si les deux ensembles sont égaux ou non ; autrementnous utiliserons un symbole qui n’est pas ambigu.

Page 11: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 3

6. a+ (−a) = 0 inverse additif

7. 1a = a élément neutre de la multiplication

8. aa−1 = 1 inverse multiplicatif

9. a(b+ c) = ab+ ac distributivité de la multiplication sur l’addition

10.(ab)c

= abc puissance d’une puissance

11. abac = ab+c produit des puissances

1.1.2 Les nombres complexes

Un nombre complexe, z ∈ C est un nombre de la forme z = a+ bi où a et bsont des réels et i =

√−1. On dit de a que c’est la partie réelle de z et que b

est sa partie imaginaire. On dénote le conjugué d’un nombre complexe parconjuguéune barre horizontale au-dessus de la variable et sa valeur est obtenue en

faisant le remplacement i→ −i, ce qui nous donne z = a− bi. Il est évidentque le conjugué du conjugué d’un nombre complexe est identique au nombreoriginal, ¯z = z.

Exercice 1.2 Si z = 3 + i√

2, quelle est la valeur de z ?

Il est possible de représenter les nombres complexes dans une notationdite polaire, z = reiθ, ce qui nous donne aussi z = re−iθ. La notation polaireest utilisée dans la fameuse relation d’Euler :

eiπ = −1

On a également une autre relation utile prouvée par Euler et nommée d’aprèsde Moivre : eiθ = cos θ + i sin θ.

Exercice 1.3 Un petit défi : quelle est la racine carrée de i ? a

Suggestion : Utilisez la première relation d’Euler pour exprimer i en notationpolaire, calculez sa racine carrée en utilisant les règles d’exponentiation, puisutilisez la relation de de Moivre pour exprimer la réponse finale sous la formea+ bi. Vérifiez votre réponse en calculant son carré !

aSi z est la racine carrée de i, alors −z est également une racine carrée de i ; pourcet exercice, vous ne devez trouver qu’une seule des deux racines carrées possibles.

Le module d’un nombre complexe, |z| est un nombre réel positif défini par

|a+ bi| =√a2 + b2 a, b ∈ R

Une autre façon d’exprimer ceci est |z| =√zz

Les nombres complexes obéissent les mêmes propriétés que les nombresréels (commutativité, associativité, etc.) et qui ont été mentionnées dans lasection précédente. En plus, nous pouvons résumer les propriétés et défini-tions que nous venons de décrire.

Page 12: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 4

1. Nombre complexe : z ∈ C : z = a+ bi; a, b ∈ R; i =√−1

2. Conjugué : z = a+ bi = a− bi3. Forme polaire d’un nombre complexe : z = r eiθ r, θ ∈ R4. Conjugué, forme polaire : r eiθ = r e−iθ

5. Module d’un nombre complexe : |a+ bi| =√a2 + b2 a, b ∈ R

6. Module d’un nombre complexe : |r eiθ| = r r, θ ∈ R7. z = z

8. Relation d’Euler (ou de de Moivre) : eiθ = cos θ + i sin θ9. Relation d’Euler (cas particulier) : eiπ = −1

Ces définitions et propriétés sont également répétées dans l’annexe A.

1.2 Les matrices

1.2.1 Définition et notation

Définition 1.2.1Soit m et n deux entier positifs ; une matrice de taille a m × n est une collection de mn nombresarrangés dans un tableau rectangulaire :

n colonnes

m lignes

a11 a12 . . . a1na21 a22 . . . a2n

......

......

am1 am2 . . . amn

aAu lieu de taille, certains utilisent parfois le mot dimension. Cependant, le mot dimension peut également

désigner une autre caractéristique importante en algèbre linéaire et, pour cette raison, nous n’utilisons pas le motdimension comme synonyme de taille. À noter que taille m× n se lit taille m par n.

Par exemple,(

2 1 01 3 5

)est une matrice 2× 3. Au lieu d’utiliser des paren-

thèses, (. . .), on utilise parfois des crochets, [. . .] pour encadrer une matrice :[2 1 01 3 5

]On utilise habituellement une lettre majuscule, comme A, pour dénoter

une matrice. 3 Les nombres individuels apparaissant dans une matrice sontappelés coefficients de la matrice ; ces coefficients sont dénotés par des lettre

Coefficients d’une matriceminuscules 4, aij , où i, j sont des indices (entiers) avec 1 ≤ i ≤ m et 1 ≤ j ≤n. L’indice i est appelé l’indice de la ligne, et j est l’indice de la colonne.

indice3Dans ce manuel, nous utilisons des lettres en caractères gras pour dénoter des matrices

ou des vecteurs.4On sépare parfois les indices lignes et colonnes par une virgule ai,j pour éviter des

ambiguïtés ; considérez par exemple le cas i = 12, j = 3 qui donne a123, si on n’utilisepas la virgule. Ceci est la raison pour laquelle on ne peut pas répondre à la partie (b) del’exercice 1.4

Page 13: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 5

Ainsi, aij est le coefficient qui apparait dans la ligne i et dans la colonne j :

j

i

·

· · · aij · · · · · ····

Donc, dans la matrice(

2 1 01 3 5

), nous avons a11 = 2, a13 = 0, a23 = 5, etc.

Exercice 1.4(a) À quelle colonne et à quelle ligne retrouve-t-on l’élément c23 d’une matriceC quelconque ?(b) À quelle colonne et à quelle ligne retrouve-t-on l’élément d123 d’une matriceD quelconque ?Suggestion : Avez-vous lu tout le texte, y compris les notes en bas de page ?

Au lieu d’utiliser une lettre majuscule pour dénoter une matrice, on uti-lise parfois la notation [aij ]. Une matrice 1× n est souvent appelée un vec-teur ligne de dimension n ; une matrice n×1 est également souvent appelée

vecteur ligneun vecteur colonne de dimension n Pour de telles matrices ou vecteursvecteur colonnelignes ou colonnes 5 au lieu d’une simple lettre majuscule, nous utiliserons

parfois une lettre surmontée d’une flèche : ~x. Un des désavantages de cesdeux notations [lettre majuscule ou lettre surmontée d’une flèche] est qu’iln’y a aucune distinction entre un vecteur colonne et un vecteur ligne. 6

Si on dénote par Li un vecteur ligne, et par Cj un vecteur colonne, onpeut écrire une matrice m × n comme étant soit une collection de vecteurslignes :

A =

L1...

Lm

avec Li = (ai1 ai2 · · · ain) ou soit une collection de vecteurs colonnes :

A = (C1 C2 · · · Cn).

Une matrice nulle est une matrice dont tous les coefficients sont zéros.matrice nulleOn utilise habituellement le symbole 0 pour désigner une telle matrice et,

par convention, on omet les indices identifiant la taille de la matrice. 7 Unematrice carrée est une matrice n × n, c’est-à-dire une matrice ayant un

matrice carrée5Bien que les vecteurs soient également des matrices, on utilise habituellement le mot

composante plutôt que coefficient ; ces deux mots sont synonymes dans ce cas.6Il existe une notation inventée par Dirac qui permet d’identifier rapidement les vec-

teurs colonnes et les vecteurs lignes. On utilise cette notation principalement en mécaniquequantique.

7Lorsqu’on écrit 0 dans une équation, il est toujours sous-entendu que la taille de lamatrice nulle est telle que l’équation est définie.

Page 14: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 6

nombre de lignes égal au nombre de colonnes. Une matrice diagonale estmatrice diagonaleune matrice carré dont tous les éléments qui ne sont pas sur la diagonale,

c’est-à-dire les éléments de la forme aij , i 6= j, sont nuls ; seuls les élémentssur la diagonale, c’est-à-dire les éléments aii, peuvent être différents de zéro.

a11 0 0 . . . . . . 00 a22 0 . . . . . . 0

0 0 . . . 0 . . ....

...... 0 ajj 0

......

... 0 0 . . . 00 . . . . . . 0 0 ann

Finalement, la matrice identité In, également appelée matrice unité, est

matrice identitématrice unité

une matrice diagonale n×n dont tous les éléments sur la diagonale sont égauxà 1. À noter que l’on omet parfois l’indice n et qu’on dénote simplement parI la matrice identité lorsque sa taille est évidente d’après le contexte.

1.2.2 Égalité de matrices

Définition 1.2.2On dit de deux matrices qu’elles sont égales si elles ont la même taille et que leur coefficients sontégaux deux à deux, c’est-à-dire a

A = B ⇐⇒ [aij ] = [bij ] ∀i, jaLe symbole ∀ veut dire “quoi que ce soit” ou “pour tout”.

Exercice 1.5 Soient les matrices

A =(

2 13 4

)B =

(2 x3 4

)C =

(x 13 x

)Avec un choix approprié pour la variable x, est-il possible que A = B ? Est-ilpossible que A = C ?

1.2.3 Addition de matrices

Si deux matrices, A et B, sont de la même taille, alors il est possible de lesadditionner.

Page 15: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 7

Définition 1.2.3Soit, deux matrices, A et B ayant la même taille. L’addition de ces matrices est une matrice C de lamême taille dont les coefficients sont la somme des coefficients correspondants des matrices A et B.

A + B = C ⇐⇒ [aij ] + [bij ] = [aij + bij ] = [cij ]

Exemple 1.2.1

Soient les matrices A =(

2 13 4

)B =

(2 13 5

)C =

(2 1 03 4 0

).

Calculez, si possible, A + B,A + C et B + C.

Solution: Nous avons A + B =(

2 13 4

)+(

2 13 5

)=(

2 + 2 1 + 13 + 3 4 + 5

)=(

4 26 9

).

Les sommes A + C et B + C sont indéfinies parce que les matrices ne sont pas de la même taille.

Exercice 1.6 Soient les matrices

A =(

2 1 33 4 −1

)B =

(2 13 5

)C =

(2 1 03 4 0

)Calculez, si possible, A + B,A + C et B + C.

1.2.4 Multiplication par un scalaire

Par scalaire, on entend un nombre arbitraire, qui sera habituellement unscalaireréel ou qui pourrait être un nombre complexe (selon le contexte).

Définition 1.2.4Lorsqu’une matrice A est multipliée par un scalaire c, la matrice résultante est telle que chaquecoefficient est multiplié par c

c(aij) = (caij)

À noter que l’on écrit habituellement (−1)A = −A.Une matrice de la forme cIn, où In est la matrice identité, est appelée

une matrice scalaire Pourquoi pensez-vous qu’on donne le nom matrice scalaire à une matricematrice scalaire

de la forme cI ?

Page 16: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 8

Exemple 1.2.2Soit M une matrice m× n et c un scalaire. Démontrez que si cM = 0, alors soit c = 0 ou M = 0.

Solution: Écrivons M = [mij ] ; par conséquent, cM = [cmij ]. Supposons que cM = 0. Ceci impliqueque, cmij = 0 ∀i, j. Ceci est vrai si c = 0 ou que tous les mij sont égaux à zéro ; dans ce dernier cas,nous aurions M = 0.

1.2.5 Soustraction de matrices

Définition 1.2.5On définit la soustraction de deux matrices à partir de l’addition et en utilisant la multiplication parun scalaire comme suit :

A−B = A + (−B)

Corolaire : En vertu des définitions de l’addition de matrices et demultiplication par un scalaire, la soustraction de matrices peut être faitedirectement de la façon suivante :

A−B = C ⇐⇒ [aij ]− [bij ] = [aij − bij ] = [cij ]

Exemple 1.2.3Soit les matrices

A =(

2 3 41 2 1

)et B =

(0 2 71 −3 5

)Calculez A− 3B.

Solution: On vérifiera facilement que la réponse est

A− 3B =(

2 −3 −17−2 11 −14

)

Exercice 1.7 Soit les matrices

A =

2 45 42 1

et B =

0 4−5 6−2 3

Calculez 3A− 2B.

1.2.6 Propriétés diverses de l’addition

Les propriétés diverses de l’addition de matrices peuvent être résumées parle théorème suivant :

Page 17: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 9

Théorème 1.2.1Soient A,B et C des matrices m× n et soient c et d des scalaires. Alors :(a) A + B = B + A

(b) (A + B) + C = A + (B + C) = A + B + C

(c) A + 0 = 0 + A = A

(d) A + (−A) = 0(e) c(A + B) = cA + cB

(f) (c+ d)A = cA + dA

(g) (cd)A = c(dA)

Démonstration: Nous allons faire la démonstrations de seulement quelques unes de ces propriétés. L’étu-diant qui lit ceci doit être en mesure de démontrer chacune de ces propriétés.(a)

A + B = [aij ] + [bij ]= [aij + bij ] par la définition de l’addition

= [bij + aij ] commutativité de l’addition pour les scalaires

= [bij ] + [aij ] par la définition de l’addition

= B + A

CQFD(b) Voici une démonstration partielle :

(A + B) + C = ([aij ] + [bij ]) + [cij ]= ([aij + bij ]) + [cij ] par la définition de l’addition

= [aij + bij ] + [cij ] parenthèses superflues

= [aij + bij + cij ] par la définition de l’addition

= A + B + C

CQFD

Exercice 1.8 Dans chacun des case suivants, lorsque vous voyez le mot justi-fication, indiquez quelle propriété ou définition a été utilisée pour obtenir cetteéquation à partir de la précédente.(a)

A + 0 = [aij ] + [0] par la définition de la matrice nulle= [aij + 0] justification= [aij ] justification= A

(b)A + (−A) = [aij ] + [−aij ]

= [aij + (−aij)] justification= [0] justification= 0 justification

Page 18: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 10

(c)c(A + B) = c([aij ] + [bij ])

= c([aij + bij ]) justification= c[aij + bij ] élimination de parenthèses superflues= c[(aij + bij)] ajout de parenthèses= [c(aij + bij)] justification= [caij + cbij ] justification= [caij ] + [cbij ] justification= c[aij ] + c[bij ] justification= cA + cB

1.2.7 Multiplication

La multiplication de deux matrices est un peu plus complexe. Pour quel’on puisse multiplier une matrice de taille m × b par une matrice de taillec × p il faut que b = c autrement la multiplication n’est pas possible. Si lamultiplication est possible, on dit que les matrices sont compatibles, et la

compatiblesmatrice résultante sera de taille m× p :

Am×nBn×p = Cm×p

Exercice 1.9 Soit les matrices A5×3,B5×4,C3×5,D5×4,E4×5. Identifiez lespaires de matrices compatibles et indiquez quel serait la taille de la matricerésultante. Veuillez notez que l’ordre dans lequel on fait une multiplicationpeut changer le résultat.

Commençons par le cas le plus simple, soit celui de la multiplicationd’une matrice ligne avec trois coefficients

L = (`1 `2 `3)

par une matrice colonne comptant le même nombre de coefficients :

C =

c1c2c3

On a L1×3C3×1 = M1×1. Par définition, ce produit est égal à :

LC = (`1 `2 `3)

c1c2c3

= `1c1 + `2c2 + `3c3 =3∑i=1

`ici

Le résultat est une matrice de taille 1 × 1 que l’on traite habituellementcomme un simple nombre (scalaire) et non pas comme une matrice, et onappelle ce cas particulier le produit scalaire de deux vecteurs, ce que nousverrons en plus de détails plus tard dans ce manuel.

Page 19: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 11

Exemple 1.2.4

Calculez (2 5 − 3)

124

Solution:

(2 5 − 3)

124

= (2 · 1) + (5 · 2) + (−3 · 4) = 0

Exercice 1.10 Calculez (1 4)(−2

3

)

Le produit de deux matrices quelconque est une généralisation du casparticulier. Soit le produit de matrices XY = Z ; pour obtenir le coefficientzij de la matrice Z on multiplie la ligne i de la matrice X (représentéecomme une collection de vecteurs lignes) par la colonne j de la matrice Y(représentée comme une collection de vecteurs colonnes).

Xm×nY n×p =

L1...

Lm

(C1 . . . Cp) =

L1C1 . . . L1Cp...

...LmC1 . . . LmCp

[1.2.1]

Définition 1.2.6Soit une matrice Am×p et une matrice Bp×n. Le produit de ces deux matrices, AB est une matriceCm×n telle que

(cij) =( p∑k=1

aikbkj

)

Une façon graphique de représenter le produit matriciel estdonnée sur la couverture de ce manuel.

Alors que le produit de deux nombres,m et n, est commutatif,mn = nm,ceci n’est pas le cas en général pour le produit de deux matrices. Soit A3×2et B2×3 Nous aurons AB = C3×3 et BA = D2×2. Comme les tailles de Cet de D seront différentes, il est évident que ces matrices sont différentes.

Page 20: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 12

Exemple 1.2.5

Soit les matrices A =(

1 2 42 6 0

)B =

4 1 4 30 −1 3 12 7 5 2

; calculez, si possible, AB et BA.

Solution: Nous avons

AB =(

1 2 42 6 0

)4 1 4 30 −1 3 12 7 5 2

=(

4 + 0 + 8 1− 2 + 28 4 + 6 + 20 3 + 2 + 88 + 0 + 0 2− 6 + 0 8 + 18 + 0 6 + 6 + 0

)

=(

12 27 30 138 −4 26 12

)

Par contre, puisque BA = B3×4A2×3, on ne peut pas les multiplier ensemble : le nombre de colonnesde B (4) n’est pas égal au nombre de lignes de A (2).

Exemple 1.2.6Autre exemple d’un produit de matrices.

AB =

1 23 45 6

(1 2 3 45 6 7 8

)=

11 14 17 2123 30 37 4435 46 57 68

= C

Comme on le voit, le produit scalaire de la première rangée de A (indiqué en rouge) par la deuxièmecolonne de B également en rouge donne le coefficient c12 de la matrice C : 1× 2 + 2× 6 = 14. Vouspouvez vérifier les autres valeurs vous-mêmes.

Exercice 1.11 Calculez le produit suivant :

(2 3 45 6 7

)1 23 45 6

Page 21: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 13

Exemple 1.2.7Soit les matrices suivante :

A =(

2 13 4

), B =

(2 13 5

), C =

(−1 −211 4

)

(a) Comparez A(BC) et (AB)C.(b) Comparez A(B + C) et AB + AC.(c) Comparez AB et BA(d) Comparez AI2 et I2A où I2 est la matrice identité 2× 2.

Solution:(a) Nous avons

A(BC) =(

2 13 4

)([2 13 5

] [−1 −211 4

])

=(

2 13 4

)(9 0

52 14

)

=(

70 14235 56

)alors que

(AB)C =([

2 13 4

] [2 13 5

])(−1 −211 4

)

=(

7 718 23

)(−1 −211 4

)

=(

70 14235 56

)Donc, A(BC) = (AB)C.(b) Nous avons

A(B + C) =(

2 13 4

)([2 13 5

]+[−1 −211 4

])

=(

2 13 4

)(1 −1

14 9

)

=(

16 760 33

)alors que

AB + AC =(

2 13 4

)(2 13 5

)+(

2 13 4

)(−1 −211 4

)

=(

7 718 23

)+(

9 041 10

)

=(

16 759 33

)Nous concluons donc que A(B + C) = AB + AC dans ce cas ci. Cependant, même si cette propriétéest toujours vraie, on ne peut pas conclure ceci à partir d’un seul exemple comme nous l’avons fait.

Page 22: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 14

(c) Nous avons

AB =(

2 13 4

)(2 13 5

)

=(

7 718 23

)alors que

BA =(

2 13 5

)(2 13 4

)

=(

7 621 23

)Nous concluons que AB 6= BA.(d) On peut vérifier facilement que

AI2 =(

2 13 4

)(1 00 1

)=(

2 13 4

)A

=(

1 00 1

)(2 13 4

)= I2A

Nous avons donc AI2 = I2A = A. De façon générale, la matrice identité In commute (pour lamultiplication) avec n’importe quelle matrice carrée n× n.

Exercice 1.12 Soit A2×3, une matrice quelconque. Vérifiez que I2A =AI3 = A, c’est-à-dire que multiplier une matrice quelconque par la matriceidentité appropriée est la même chose que multiplier un nombre quelconquepar 1 ; on dit que la matrice identité est l’élément neutre de la multiplication.À noter que c’est pour cette raison qu’on appelle In la matrice identité.

Un autre exemple intéressant est le suivant.

Exemple 1.2.8Considérons les matrices suivantes :

A =(

1 00 0

), B =

(0 01 0

), C =

(0 00 1

)

On peut facilement vérifier que AB = AC = BC = 0, même si aucune de ces matrices n’est lamatrice nulle. Ceci ne serait pas le cas pour des nombres réels ou complexes.

Bien qu’elle soit différente de la simple multiplication de deux nombres,la multiplication de matrices a cependant plusieurs propriétés en communavec la multiplication de nombres dont celles indiquées dans le théorèmesuivant. 8

8À noter que nous avons déjà vu quelques exemples illustrant ces propriétés. Cepen-dant, il ne faut pas oublier qu’un exemple ne signifie pas qu’une propriété est toujoursvérifiée. Par contre, le théorème fournit la preuve que c’est bien le cas.

Page 23: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 15

Théorème 1.2.2Soit A une matrice m× n, et m,n, p, q des entiers arbitraires plus grand ou égal à 1 ; alors(a) A(BC) = (AB)C où B est une matrice n× p et C est une matrice p× q ;(b) A(B + C) = AB + AC, où B et C sont des matrices n× q ;(c) (B + C)A = BA + CA, où B et C sont des matrices p×m ;(d) k(AB) = (kA)B = A(kB) où k est un scalaire quelconque.

Démonstration:(a) Écrivons AB = D, BC = E (AB)C = DC = F et A(BC) = AE = G avec la notationhabituelle où nous dénotons un coefficient quelconque d’une matrice M par la lettre minuscule indicéemij . Nous voulons donc démontrer que fij = gij ,∀i, j.

De F = DC, nous avons

fij =p∑

k=1dikckj

etdik =

n∑`=1

ai`b`k

ce qui nous donne

fij =p∑

k=1

n∑`=1

ai`b`kckj

De G = AE, nous avons

gij =n∑`=1

ai`e`j

ete`j =

p∑k=1

b`kckj

ce qui nous donne

gij =n∑`=1

ai`

p∑k=1

b`kckj

Comme cette dernière expression ne comporte que des sommes de nombres ordinaires, on peut changerl’ordre des opérations sans changer le résultat :

gij =p∑

k=1

n∑`=1

ai`b`kckj

et on peut vérifier que fij = gij peu importe les choix de i et j. CQFD

Page 24: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 16

(b)

[A(B + C)]ij =n∑k=1

aik(bkj + ckj)

=n∑k=1

aikbkj︸ ︷︷ ︸[AB]ij

+n∑k=1

aikckj︸ ︷︷ ︸[AC]ij

CQFD(c)

[(B + C)A]ij =p∑

k=1(bik + cik)akj

=p∑

k=1bikakj︸ ︷︷ ︸

[BA]ij

+p∑

k=1cikakj︸ ︷︷ ︸

[CA]ij

CQFD(d) La preuve, qui est facile à faire, est laissée au lecteur.

Important Nous avons déjà mentionné que l’ordre de la multiplicationest important. Ainsi (A+B)(C +D) = AC +AD +BC +BD qu’on peutdémontrer en utilisant le théorème ci-dessus.

La définition suivante n’est probablement quelque chose que vous avezvu avant, et ne fait donc pas partie de la revue . . .mais c’est une définitiontellement simple et utile qu’elle devrait faire partie de toute introduction àl’algèbre linéaire.

Définition 1.2.7Le symbole de Kronecker est une fonction de deux variables entières qui est égale à 1 si les deuxvariables sont égales et à zéro autrement. Par convention, les deux variables apparaissent comme desindices et la fonction est identifiée par la lettre grecque minuscule δ :

δij ={

1 si i = j0 si i 6= j

Le symbole de Kronecker peut être utilisé pour identifier les coefficients dela matrice identité : I = (δij).

Exemple 1.2.9En utilisant le symbole de Kronecker, on peut facilement démontrer que le produit d’une matrice Apar la matrice identité est égal à la matrice A. De la définition de multiplication de matrices, nousavons :

AB = C

⇒∑j

aijbjk = cik

Page 25: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 17

Si on choisit B = I, on a : ∑j

aijδjk = cik

Mais, puisque δjk = 1 seulement si j = k, le seul terme de la somme qui reste est aikδkk = aik etdonc aik = cik, c’est-à-dire que les matrices A et C sont identiques.

1.3 Les vecteurs dans R2

Les vecteurs sont des segments de droites orientés : ils sont caractérisés par vecteursune grandeur (la longueur du segment), une direction (l’axe de la droite)et un sens. Par contraste, les scalaires (nombres ordinaires) n’ont qu’unegrandeur.

~A~B

~C

Figure 1.1 Trois vecteurs dans un plan.Les vecteurs ~A et ~B ont la même gran-deur, la même direction et le même sens :ils sont donc égaux, ~A = ~B.

~A~B

~C = ~A + ~B

Figure 1.2 Addition de vecteurs(connue, dans la francophonie, sous lenom de relation de Chasles).

L’ensemble des nombres réels, R, peut être représenté par une droiteinfinie, qu’on appelle la droite des réels. Un nombre quelconque x est repré-senté par un point sur cette droite. L’ensemble des couples de nombres réels,(x, y), peut être représenté par un point dans un plan. Ce plan, connu sousle nom de plan cartésien, ou R2, comporte deux axes : l’axe des abscisses(horizontal par convention) et l’axe des ordonnées (vertical par convention).

Les coordonnées d’un point (x, y) dans ce plan, représentent la distancex du point par rapport à l’axe des ordonnées et sa distance y par rapportà l’axe des abscisses. L’intersection des deux axes est l’origine du plan ; sescoordonnées sont (0, 0).

Au lieu de considérer un couple de nombre réels comme un point dansle plan, on peut considérer qu’il représente un vecteur. Dans ce cas, chaquecoordonnée représente une composante de ce vecteur, ~A = (Ax, Ay). 9 En composanteutilisant les composantes, l’addition des vecteurs se résume à de simplesaddition de nombres :

~A + ~B = ~C

(Ax, Ay) + (Bx, By) = (Ax +Bx, Ay +By) = (Cx, Cy)

Dans le plan cartésien, on utilise parfois les vecteurs unitaires 10 ~ı = (1, 0)vecteurs unitaires

9Une autre façon d’écrire un vecteur, qui est celle normalement utilisée en algèbre

linéaire, est en une colonne de composantes : ~A =(Ax

Ay

), c’est-à-dire une matrice 2× 1.

10Le mot unitaire fait référence au fait que la grandeur de ces vecteurs est l’unité = 1.

Page 26: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 18

et ~ = (0, 1) ce qui nous permet d’écrire ~A = Ax~ı +Ay~.

x

y

abscisse

ordonnéeorigine (0, 0)

(a, b)

a

b

Figure 1.3 Un point dans le plan carté-sien.

x

y

Ax~ı

Ay~~A

Figure 1.4 Un vecteur dans le plancartésien et sa représentation commela somme de deux vecteurs parallèle àchaque axe : les composantes.

1.3.1 Généralisation à Rn

Bien qu’il soit légèrement plus difficile de visualiser des vecteurs dans l’es-pace que dans le plan, et que ceci deviennent impossible à faire pour desdimensions égales ou supérieures à 4, il est facile de faire des opérationssur les vecteurs lorsqu’on utilise les composantes : chaque dimension cor-

dimensionrespond à une valeur de composante, et l’addition de vecteurs se fait parl’addition de composantes équivalentes, par une simple généralisation de cequ’on a vu pour deux dimensions 11. Ceci est en fait un simple cas particulierde l’addition de matrices que nous avons déjà vu. Veuillez prendre note :à partir d’ici, nous allons presque toujours représenter des vecteurs commedes matrices colonnes.

1.4 Les équations linéaires

Une équation linéaire à n variables est une équation de la forme suivante :équation linéaire

a1x1 + a2x2 + . . .+ anxn = b [1.4.1]

où les variables x1, x2, . . . , xn sont les inconnues et a1, a2, . . . , an sont lesinconnuescoefficients. La variable b est connue sous le nom de terme constantcoefficientsterme constantde l’équation linéaire. On note que l’équation ne compte aucun produit,

puissance ou fonction des inconnues.

11Ici on défini la dimension comme étant équivalente au nombre de coordonnées requisespour identifier un point. Ainsi, dans le plan, nous avons besoin de deux coordonnées,habituellement dénotées par x et y, pour identifier un point ; on dira qu’un plan a deuxdimensions. De la même façon, une droite a une dimension, et l’espace habituel a troisdimensions. Un point est un objet ayant zéro dimension. Plus tard, on verra une autredéfinition de dimension, lorsqu’on étudiera les espaces vectoriels.

Page 27: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 19

Exemple 1.4.1Déterminez si les équations suivantes sont linéaires ou non.(a) 3x1 − 4x2 + 5x3 = 6(b) 4x1 − 5x2 = x1x2(c) x2 = 2√x1 − 6(d) x− y = z + sin 3(e) x1 + sin x2 + x3 = 1

Solution:(a) Oui, car l’équation est de la forme [1.4.1].(b) Non, car on a un terme non-linéaire, x1x2, qui apparait dans l’équation.(c) Non, car on a un terme non-linéaire √x1(d) Oui, car on a trois variables (inconnues) différentes et un terme constant ; on peut réécrire cetteéquation comme x− y − z = sin 3 qui est exactement de la forme [1.4.1].(e) Non, car on a un terme non-linéaire sin x2.

Exercice 1.13 Déterminez si les équations suivantes sont linéaires ou non.(a) x2

1 + 3x2 − 2x3 = 5(b) x1 + x1x2 + 2x3 = 1

(c) x1 + 1x2

+ x3 = 1

(d) 5α+ 3β + 6γ = 9(e) xα+ yβ + zγ2 = a3

Une solution de l’équation linéaire [1.4.1] est une collection ordonnéesolutionde nombres s2, s2, . . . , sn qui vérifient [1.4.1] lorsque xi = si est substitué

dans [1.4.1]. L’ensemble de toutes les solutions d’une équation linéaire s’ap-pelle la solution générale.

solution générale

Exemple 1.4.2Démontrez que (5 + 4s− 7t, s, t), où s, t ∈ R, est une solution de l’équation

x1 − 4x2 + 7x3 = 5

Solution: En substituant x1 = 5 + 4s− 7t, x2 = s et x3 = t on obtient

x1 − 4x2 + 7x3 = 5 + 4s− 7t︸ ︷︷ ︸x1

−4s+ 7t = 5

ce qui est le résultat désiré.

Page 28: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 20

Les variables s et t de l’exemple précédent sont connues sous le nom deparamètres, et on dit que la solution est exprimée dans une forme para-

paramètresmétrique.forme paramétriqueUne équation linéaire peut avoir soit une solution, une infinité de solution,

ou aucune solution.

Exemple 1.4.3Déterminez le nombre de solutions pour chacune de ces équations.(a) 0x = 5(b) 2x = 4(c) x− 4y = 8

Solution:(a) Puisque le côté gauche de cette équation est 0, et que le côté droit est 5, cette équation n’a aucunesolution.(b) On peut vérifier facilement que x = 2 est l’unique solution de cette équation.(c) Si on attribue la valeur arbitraire s à y, on peut vérifier que x = 8 − 4s sera une solution decette équation. Comme s peut prendre une infinité de valeurs différentes, cette équation a une infinité desolutions.

Exemple 1.4.4Montrez que si x1 +kx2 = c et x1 + `x2 = d sont des équations équivalentes, alors on doit avoir k = `et c = d.

Solution: Comme on a une équation avec deux inconnues, on écrit la solution de la première équation sousune forme paramétrique avec la paire ordonnée, (c − kt, t) — la valeur de t étant totalement arbitraire.En substituant ces valeurs dans la deuxième équation, on trouve (c− kt) + `t = d. En choisissant t = 0,on trouve que c = d. En substituant cette valeur, on trouve le résultat désiré.

1.5 Systèmes d’équations linéaires

Un système d’équations linéaires est un ensemble de plusieurs équationssystème d’équations li-néaireslinéaires qui sont satisfaites simultanément.

Page 29: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 21

1.5.1 Exemple trivial

Soit le système de deux équations linéaires 12 :{x = 1y = 2

On obtient un système d’équations équivalentes, c’est-à-dire qu’il admet lamême solution (x = 1, y = 2) si on écrit les lignes dans un ordre différent :

L1 ↔ L2 ⇒{y = 2x = 1

On obtient un système d’équations équivalentes si on multiplie une des lignespar une constante différente de zéro

3L1 → L1 ⇒{

3y = 6x = 1

On obtient un autre système d’équations équivalentes si on multiplie unedes lignes par une constante différente de zéro et qu’on y ajoute une autreligne :

L1 + 4L2 → L1 ⇒{

3y + 4x = 10x = 1 [1.5.1]

Exercice 1.14 Vérifiez que (x = 1, y = 2) est toujours une solution del’équation [1.5.1].

Ces manipulations sur les lignes d’un système d’équations linéaires sont ap-pelées opérations élémentaires sur les lignes ; nous les reverrons en

opérations élémentaires surles lignesdétails dans les prochains chapitre. En utilisant ce type de manipulation, on

peut facilement résoudre les systèmes d’équations linéaires.

Exemple 1.5.1Trouvez la solution générale du système d’équations linéaires suivant :{

x1 + x2 = 72x1 + 4x2 = 18

Solution: En multipliant la première équation par -2 et en additionnant le résultat à la deuxième équationcomme suit :

−2L1 + L2 → L2⇒{x1 + x2 = 7

2x2 = 4

12Dans un système d’équations linéaires, chaque ligne contient une seule équation. Pourdes raisons qui deviendront plus claires dans les prochains chapitre, nous allons utiliser lemot ligne plutôt que le mot équation pour identifier une équation individuelle.

Page 30: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 22

on trouve que 2x2 = 4, et donc x2 = 2. En substituant ceci dans la première équation, on trouve quex1 = 5

Exercice 1.15 Trouvez la solution générale du système d’équations linéairessuivant : {

x1 + 2x2 = 83x1 − x2 = 4

Exemple 1.5.2En faisant le choix x3 = t avec t un paramètre arbitraire, trouvez la solution générale du systèmed’équations linéaires suivant : {

x1 + x2 + x3 = 72x1 + 4x2 + x3 = 18

Solution: Avec le choix x3 = t, on peut récrire le système d’équations linéaires sous la forme{x1 + x2 = 7− t

2x1 + 4x2 = 18− t

En multipliant la première équation par -2 et en additionnant le résultat à la deuxième équation commesuit

−2L1 + L2 → L2 ⇒{x1 + x2 = 7− t

2x2 = 4 + t

on trouve que 2x2 = 4 + t, et donc x2 = 2 + 12 t. En substituant ceci dans la première équation, on trouve

que x1 = 5− 32 t

Exercice 1.16 En faisant le choix x3 = t avec t un paramètre arbitraire,trouvez la solution générale du système d’équations linéaires suivant :{

x1 + 2x2 + x3 = 83x1 − x2 + x3 = 4

Page 31: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 23

1.6 Systèmes d’équations linéaires : quatre interprétations

Soit le système d’équations linéaires suivant :{x + 2y = 4x − y = 1 [1.6.1]

On peut vérifier facilement que la solution unique est donnée par x = 2, y =1. Ce système, tout simple, peut être interprété de quatre façons comme nousallons le voir ci-dessous. Ces interprétations donnent un tout petit aperçudes domaines d’utilisation de l’algèbre linéaire et de certains sujets que nousallons couvrir.

Figure 1.5 René Descartes,1596–1650. Mathématicien, phy-sicien et philosophe français,d’après qui l’on nomme le plancartésien.

1.6.1 Interprétation géométrique

Dans un premier temps, le système [1.6.1] peut être vu comme deux équa-tions de droites dans le plan cartésien. La solution correspond au pointd’intersection des deux droites. Si les deux droites sont parallèles (mais nonconfondues), il n’y a pas de point d’intersection et le système n’a pas desolutions. Si les deux droites sont confondues, alors il existe une infinité desolutions.

x

y

x− y = 1

x+ 2y = 4

2

1

Figure 1.6 L’intersection des deuxdroites représente la solution unique dusystème d’équations.

x

y

x+ 2y = 4

x+ 2y = 6

Figure 1.7 Un système à deux inconnuessans solution : les deux droites sont pa-rallèles. À noter qu’on pourrait avoir uneinfinité de solutions si les deux droitesétaient confondues.

Si on ajoute une inconnue, pour passer de deux à trois, alors chaqueéquation linéaire représente un plan dans l’espace. Si on a trois équations,on aura alors trois plans. Si ces trois plans s’intersectent en un seul point,alors il y aura une solution unique. Si deux plans sont parallèles, il n’yaura aucune solution. Il peut également n’y avoir aucune solutions si lesplans s’intersectent deux à deux, le long de droites, mais si ces droites sontparallèles entre elles. On peut également avoir une infinité de solutions, siles trois plans s’intersectent le long d’une droite commune.

Page 32: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 24

Figure 1.8 Intersection detrois plan avec un pointcommun aux trois.

Figure 1.9 Intersection detrois plan sans point com-mun : deux plans sont pa-rallèles.

Figure 1.10 Intersectionde trois plan sans pointcommun : les plans s’inter-sectent deux à deux, maisles trois droites ainsi for-mées sont colinéaires.

Figure 1.11 Jeu de mots anglaissur l’intersection des plans (ori-gine de l’image inconnue).

1.6.2 Équation matricielle

Il est facile de vérifier que le système d’équations linéaires [1.6.1] peut êtreécrit sous forme matricielle comme suit :(

1 21 −1

)(xy

)=(

41

)

Avec les choix

A =(

1 21 −1

), X =

(xy

), B =

(41

)

on obtient une équation toute simple : AX = B. Si on pouvait diviser unematrice par une autre, on serait tenté d’écrire que la solution serait :

X = B

A

Cependant, on ne peut pas faire ceci car la division par une matrice n’estpas une opération définie. Par contre, on peut parfois définir un inversemultiplicatif défini par la relation A−1A = I. Lorsque c’est le cas 13, onpeut alors écrire la solution comme

X = A−1B

tout comme si les matrices étaient de simples nombres.

1.6.3 Combinaison linéairecombinaison linéaireUne autre façon d’écrire le système d’équations linéaires [1.6.1] est la sui-

vante :x

(11

)+ y

(2−1

)=(

41

)13Nous verrons les conditions pour l’existence d’un tel inverse plus tard.

Page 33: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 1. Revue et introduction 25

Si on définit les vecteurs ~A, ~B et ~C de la façon suivante :

~A =(

11

), ~B =

(2−1

), ~C =

(41

)

on peut alors récrire l’équation sous la forme

x~A + y ~B = ~C

x

y

~A

~B~A

~A

~C = 2~A + ~B

Figure 1.12 Combinaison linéaire de vecteurs

On a donc une somme vectorielle avec deux inconnues. Ce type de sommede vecteurs s’appelle une combinaison linéaire. Un exemple plus abstrait estdonné en chimie par la méthode de combinaison linéaire d’orbitales ato-miques. Les combinaisons linéaires sont la base de l’étude des espaces vec-toriels que nous verrons plus tard.

espaces vectoriels

1.6.4 Transformation linéaire

Une quatrième interprétation est possible en considérant l’équation sousforme matricielle

AX = B

Selon cette interprétation, la matrice A effectue des transformations sur desvecteurs d’un domaine initial pour les transformer dans un domaine connusous le nom d’image de la transformation. Un exemple de telles transfor-mations est celui des rotations dans le plan, où le domaine initial et celuide l’image sont identiques. Un exemple différent est celui d’une projection :pour chaque point aux coordonnées (x, y, z), on fait sa projection dans leplan xy. Dans ce cas-ci, le domaine initial est R3 ; celui de l’image est R2.Sous forme d’équation matricielle, on écrirait une telle projection de la façonsuivante : (

1 0 00 1 0

)xyz

=(xy

)

Plusieurs autres exemples existent tel que nous le verrons plus tard. Maisauparavant, nous devons étudier un peu plus à fond les équations linéaireset les matrices.

Page 34: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

2 Matrices2.1 Matrice triangulaire 262.2 Trace d’une matrice 272.3 Transposée d’une matrice 272.4 Symétrie et anti-symétrie 282.5 Transposée d’un produit 292.6 Matrices complexes 30

2.6.1 Matrices hermitiennes et transconjuguées 312.7 Puissance d’une matrice carrée 322.8 Trace d’un produit et commutateur 332.9 Multiplication de matrices par blocs 342.10 Exercices divers 35

Les matrices sont des objets mathématiques qui sont essentiels dans l’étudede l’algèbre linéaire, en plus d’être utiles dans un grand nombre de domaines.Nous avons déjà revu quelques propriétés des matrices dans le chapitre précé-dent. Dans ce chapitre, nous allons présenter quelques définitions et quelquesautres propriétés, en terminant avec la multiplication par blocs qui sera uti-lisée dans les chapitres suivants.

2.1 Matrice triangulaire

Une matrice triangulaire supérieure est une matrice carrée dont tousmatrice triangulaire supé-rieureles coefficients sous la diagonale, aij , i > j, sont zéros. Par exemple :

5 4 7 3 90 2 1 5 60 0 1 4 80 0 0 4 70 0 0 0 3

Une matrice triangulaire inférieure est une matrice dont tous les

matrice triangulaire infé-rieurecoefficients au-dessus de la diagonale, aij , i < j, sont zéros. Par exemple

2 0 0 0 03 0 0 0 04 8 6 0 00 9 3 3 07 1 6 4 4

On note que d’autres coefficients peuvent être zéros tout en satisfaisant ladéfinition d’une matrice triangulaire. Une matrice diagonale est donc à la foisune matrice triangulaire supérieure et une matrice triangulaire inférieure.

26

Page 35: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 27

2.2 Trace d’une matrice

Définition 2.2.1Si A est une matrice carrée, alors la somme des coefficients sur sa diagonale principale est appeléela trace de A et est dénotée par Tr(A) :

Tr(An×n) =n∑i=1

aii

Exercice 2.1 Vérifiez que les traces des deux matrices triangulaires mention-nées précédemment sont égales.

Théorème 2.2.1Soit A et B deux matrices n× n et c un scalaire. Alors :(a) Tr(A + B) = Tr(A) + Tr(B)(b) Tr(cA) = cTr(A)

Démonstration:

(a) Tr(A + B) =n∑i=1

(aii + bii) =n∑i=1

aii +n∑i=1

bii = Tr(A) + Tr(B)

(b) Tr(cA) =n∑i=1

(caii) = cn∑i=1

aii = cTr(A) CQFD

2.3 Transposée d’une matrice

Définition 2.3.1Soit une matrice Am×n ; sa transposée, dénotée par A>, est la matrice n×m obtenue en interchan-geant les colonnes avec les lignes de A. Donc, si A = [aij ] alors A> = [aji].

Exemple 2.3.1

Quelle est la transposée de la matrice A =(

2 3 40 1 5

)

Solution:

A> =

2 03 14 5

Page 36: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 28

Le théorème suivant résume quelques propriétés de la transposée d’unematrice.

Théorème 2.3.1Soit A = [aij ] et B = [bij ] deux matrices m×n, C = [cij ] une matrice carrée (n×n) et k un scalaire.Alors :(a) (A>)> = A

(b) (A + B)> = A> + B>

(c) (cA)> = cA>

(d) Tr(C>) = Tr(C)

Démonstration:(a) (A>)> = ([aij ]>)> = (aji)> = (aij) = A

(b) Écrivons cij = aij + bij ; alors(A + B)> = [aij + bij ]> = [cij ]> = [cji] = [aji + bji] = [aji] + [bji] = A> + B>

(c) (cA)> = [caij ]> = [dij ]> = [dji] = [caji] = c[aji] = cA>

(d) Tr(C>) =n∑i=1

cii = Tr(C) CQFD

2.4 Symétrie et anti-symétrie

Une matrice symétrique S est une matrice carrée telle que S> = S. Unematrice symétriquematrice anti-symétrique 1 A est une matrice carrée telle que A> = −A.matrice anti-symétriquePar exemple, la matrice suivante est une matrice symétrique1 2 3

2 4 53 5 6

alors que la matrice suivante est une matrice anti-symétrique. 0 2 3

−2 0 5−3 −5 0

1En anglais, on utilise le terme skew-symmetric.

Page 37: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 29

Exemple 2.4.1

(a) Démontrez que, pour n’importe quelle matrice carrée M , la matrice S = 12(M + M>) est

symétrique et que la matrice A = 12(M −M>) est anti-symétrique.

(b) Démontrez que si M est une matrice carrée, alors on peut écrire M = S + A où S est unematrice symétrique et A est une matrice anti-symétrique.(c) Démontrez qu’il n’y a qu’une seule façon d’écrire une matrice M comme la somme d’une matricesymétrique et d’une matrice anti-symétrique.

Solution:(a) Tout d’abord, on se rappelle que la transposée d’une somme de matrices est égale à la somme destransposées. De plus, si on prend la transposée de la transposée d’une matrice, on retrouve la matriceoriginale. Utilisant ceci, nous avons :

S> = 12(M + M>)> = 1

2(M> + M) = S

S est donc une matrice symétrique. De plus

A> = 12(M −M>)> = 1

2(M> −M) = −A

A est donc une matrice anti-symétrique. Voici un exemple concret :

M =(

2 46 8

)M> =

(2 64 8

)S =

(2 55 8

)A =

(0 −11 0

)

(b) On vérifie facilement que, si on additionne A et S tel que définis de façon générale ci-dessus, onretrouve M .(c) Supposons qu’il existe deux autres matrices, A′ et S′ telles que M = S′ + A′. On aurait doncA + S = A′ + S′ que l’on peut réécrire comme S − S′ = A′ −A. On peut facilement vérifier que lasomme (ou la différence) de deux matrices [anti-] symétriques est une matrice [anti-] symétrique. Le côtégauche de l’égalité est donc une matrice symétrique et le côté droit est une matrice anti-symétrique. Laseule matrice qui est à la fois symétrique et anti-symétrique est la matrice nulle, 0. Donc, S = S′ etA = A′ : il n’y a qu’une seule façon de décomposer une matrice quelconque comme la somme d’unematrice symétrique et d’une matrice anti-symétrique.

2.5 Transposée d’un produit

En plus des propriétés semblables à celles des nombres, les matrices ontd’autres propriétés intéressantes. Par exemple, nous avons vu le concept detransposée d’une matrice. Le théorème suivant démontre comment obtenirla transposée d’un produit matriciel.

Page 38: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 30

Théorème 2.5.1Soit les matrices Am×n et Bn×p ; alors (AB)> = B>A>.

Démonstration: La manipulation d’indices peut être mélangeante lorsqu’on n’est pas habitué. Pour cetteraison, nous allons utiliser une façon détournée où nous allons définir trois matrices (C,D,E) qui vontnous permettre de mieux suivre ce qui se passe. Nous écrivons donc :

AB = C ⇒ [AB]ji =∑k

ajkbki = cji

A> = D ⇒ djk = akj ∀j, k

B> = E ⇒ eki = bik ∀i, k

Nous avons donc

[B>A>]ij = [ED]ij=

∑k

eikdkj

=∑k

bkiajk

=∑k

ajkbki commutativité de la multiplication des scalaires

= [AB]ji= [C]ji= [C>]ij=

[(AB)>

]ij

CQFD

Exemple 2.5.1Soit A une matrice quelconque. Démontrez que AA> et A>A sont des matrices symétriques.

Solution: En premier on note que, peu importe la taille de A, les produits AA> et A>A sont bien définiset sont en fait des matrices carrées : An×pA

>p×n = Cn×n et A>A = Dp×p. On a :

(AA>)> = (A>)>A> = AA>, et donc AA> est une matrice symétrique. Similairement,(A>A)> = A>(A>)> = A>A, et donc A>A est une matrice symétrique.

2.6 Matrices complexes

Dans la plupart des cas que vous allez rencontrer dans vos études, les coef-ficients des matrices seront tous réels. Cependant, dans certains domaines,comme la mécanique quantique, on utilise des matrices ayant des coefficientscomplexes.

Page 39: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 31

2.6.1 Matrices hermitiennes et transconjuguées

Si A dénote une matrice, on dénote sa conjuguée par A. Par exemple, lesdeux matrices ci-dessous sont des matrices conjuguées :

B =(

1− i i4 5− 2i

)B =

(1 + i −i

4 5 + 2i

)

Il est évident que si A est réelle 2, on doit avoir A = A.La transposée de la conjuguée d’une matrice est dénoté par A∗ = (A)>.

Si on a A∗ = A, on dit que la matrice est hermitienne. Si on a A∗ = −A,hermitienneon dit que la matrice est transconjuguée 3.transconjuguéeLes coefficients d’une matrice hermitienne doivent satisfaire aij = aji, et

donc les coefficients sur la diagonale doivent être des réels.

Exercice 2.2 Si A =(

1 + i 2 + 3ii 2− i

)trouvez

(a) A

(b) A∗

Exercice 2.3 Parmi les matrices suivantes :

A =(

0 i−i 0

)B =

(0 00 0

)C =

(1 2 + i

−2− i 3

)

D =(

2 3 + 4i3− 4i 4

)E =

(1 3−3 2

)F =

(0 2 + i

−2 + i 0

)

G =

0 3 + 2i 2i3 + 2i 0 1 + i

2i 1 + i 0

H =

0 2 2− i−2 0 −3i−2− i −3i 0

(a) Lesquelles sont des matrices hermitiennes.(b) Lesquelles sont des matrices transconjuguées.

Exercice 2.4 Démontrez que (A∗)∗ = A.

Exercice 2.5 Démontrez que (A + B)∗ = A∗ + B∗.

Exercice 2.6 Démontrez que les coefficients sur la diagonale d’une matricetransconjuguée sont soit zéro ou soit des nombres purement imaginaires (c’est-à-dire sans partie réelle).

2Une matrice réelle est une matrice qui n’a que des coefficients réels.3En anglais, on utilise le terme skew-hermitian

Page 40: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 32

Exercice 2.7 Démontrez que, si z ∈ C, alors (zA)∗ = zA∗

Exercice 2.8 Démontrez que, pour une matrice carrée A, AA∗ = (AA∗)∗.N.B. Pour toutes les démonstrations, vous pouvez supposer que les résultatsmentionnés dans les exercices précédents sont vrais, ce qui permet souvent defaire des démonstrations beaucoup plus courtes.

Exercice 2.9 Démontrez que, pour une matrice carrée A,A + A∗ = (A + A∗)∗

Exercice 2.10 Démontrez que, pour une matrice carrée A,A−A∗ = −(A−A∗)∗

Exercice 2.11 Démontrez que n’importe quelle matrice carrée peut être ex-primée comme la somme d’une matrice hermitienne et d’une matrice transcon-juguée.Suggestion : Vous pouvez vous inspirer de la démonstration d’un exemple précé-dent sur les matrices symétriques et anti-symétriques.

Exercice 2.12 Démontrez que toute matrice hermitienne peut être expriméecomme une somme A + Bi où A est une matrice symétrique réelle et B estune matrice réelle anti-symétrique.

Exercice 2.13 Démontrez que toute matrice transconjuguée peut être expri-mée comme une somme A + Bi où A est une matrice anti-symétrique réelle etB est une matrice réelle symétrique.

2.7 Puissance d’une matrice carrée

Pour les matrices carrées, on peut définir la puissance d’une matrice de lafaçon suivante. Soit une matrice An×n :

• A0 = In• A1 = A• Pour k ≥ 2, Ak = (Ak−1)A, où on se limite aux valeurs entières pourk.

Avec cette définition, on peut vérifier facilement que As+t = AsAt et que(As)t = Ast.

Page 41: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 33

2.8 Trace d’un produit et commutateur

Nous avons déjà vu la trace d’une matrice plus tôt ; nous allons bientôtvérifier une propriété de la trace d’un produit de matrices. Auparavant,nous définissons le commutateur de deux matrices A et B comme étant la commutateurdifférence des produits AB et BA. On dénote le commutateur de la façonsuivante : [·, ·], c’est-à-dire :

[A,B] = AB −BA

L’exemple 4 suivant utilise la trace et le commutateur.

Exemple 2.8.1Soit A et B deux matrices n× n.(a) Démontrez que Tr (AB) = Tr (BA).(b) Démontrez que [A,B] = In est impossible.

Solution:(a) Rappelons que la trace est donnée par Tr C =

n∑i=1

cii. Nous avons donc

Tr (AB) =n∑i=1

(n∑k=1

aikbki

)=

n∑i=1

n∑k=1

bkiaik =n∑k=1

(n∑i=1

bkiaik

)= Tr (BA)

où on a interchangé l’ordre des sommation dans l’avant-dernier terme de l’égalité.(b) Supposons que [A,B] = In soit vrai. Puisque Tr (AB) = Tr (BA), nous avons

0 = Tr (AB)− Tr (BA) = Tr (AB −BA) = Tr In

Mais, comme on peut facilement le vérifier, Tr In = n, et on obtient la contradiction 0 = n.

Exercice 2.14 Démontrez que Tr (ABC) = Tr (CAB) = Tr (BCA).On pourrait également démontrer que

Tr (A1A2A3 . . .Ap) = Tr (ApA1A2A3 . . .Ap−1)= Tr (Aq . . .Ap−1ApA1A2 . . .Aq−1)

4Le commutateur de deux matrices est une opération mathématique qui n’est essen-tiellement pas utilisée en algèbre linéaire. Par contre, c’est une opération qui est utiliséesouvent en mécanique quantique et mène aux relations d’incertitudes de Heisenberg. Unexemple qui peut sembler contredire l’exemple donné dans les texte est le suivant. Si ondénote par q l’opérateur matriciel correspondant à la coordonnée d’une position, et par p,sa quantité de mouvement, on observe alors que [q,p] = i~I où I est la matrice identité.La raison pour laquelle ceci est possible est que les matrices en question sont des matricesinfinies ; la démonstration que nous avons dérivée dans le texte est uniquement pour desmatrices finies.

Page 42: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 34

mais vous n’avez pas à le faire.

2.9 Multiplication de matrices par blocs

Il est parfois utile de partitionner des matrices en blocs, où chaque blocpeut être vu comme étant une sous-matrice. Par exemple, si nous avonsdeux matrices, A et B qui peuvent être partitionnées en blocs de façoncompatible, le produit AB peut être calculé en considérant chaque bloccomme un coefficient. Nous avons déjà vu ceci dans un cas particulier, àl’équation 1.2.1, où on a représenté des matrices soit comme une collectionde lignes ou une collection de colonnes. Nous allons démontrer ceci avec desblocs de formes différentes à l’aide de l’exemple numérique suivant, sans enfaire la démonstration générale qui est laissée au lecteur.

Soit les matrices suivantes :

A =

1 −1 7 8 03 2 5 6 71 3 −1 −2 −3

, B =

−2 0

5 81 12 0−4 6

Nous pouvons facilement vérifier que le produit est donné par

AB =

16 −1−7 6320 5

Nous pouvons calculer ce produit différemment. Supposons que nous parti-tionnons les deux matrices en blocs de la façon suivante :

A =

A1

{1 −1 7 8 0

}A23 2 5 6 7

A3{ 1 3 −1 −2 −3 }A4

B =

B1

−2 0

5 81 1

B2

{2 0−4 6

Le produit peut alors être écrit comme :

AB =(

A1 A2A3 A4

)(B1B2

)=(

A1B1 + A2B2A3B1 + A4B2

)Nous avons

A1B1 =(

1 −1 73 2 5

)−2 05 81 1

=(

0 −19 21

)

Page 43: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 35

A2B2 =(

8 06 7

)(2 0−4 6

)=(

16 0−16 42

)et donc

A1B1 + A2B2 =(

0 −19 21

)+(

16 0−16 42

)=(

16 −17 63

)

Nous avons également

A3B1 =(1 3 −1

)−2 05 81 1

=(12 23

)

etA4B2 =

(−2 −3

)( 2 0−4 6

)=(8 −18

)ce qui donne

A3B1 + A4B2 =(12 23

)+(8 −18

)=(20 5

)Ainsi,

AB =(

A1 A2A3 A4

)(B1 B2

)=(

A1B1 + A2B2A3B1 + A4B2

)=

16 −17 63

20 5

qui est le même résultat que nous avions obtenu auparavant.

2.10 Exercices divers

Exercice 2.15 Pour chacune des matrices suivantes :

A =

2 3 43 0 14 1 5

B =

0 −3 43 0 −4−4 4 0

C =

2 3 43 0 1−4 4 0

(a) Calculez la transposée.(b) Calculez la trace.(c) Calculez le carré.(d) Déterminez si la matrice est symétrique ou anti-symétrique (justifiez votre réponse). Si la matrice n’estni symétrique, ni anti-symétrique, écrivez-la comme unesomme de deux matrices, l’une symétrique et l’autreanti-symétrique.

Exercice 2.16 Soit les matrices suivantes :

A =

2 3 43 0 14 1 5

B =

1 7 43 0 1−4 4 3

Calculez le commutateur [A,B].

Exercice 2.17 Soit les matrices suivantes :

A =

2 3 43 0 14 1 5

B =

1 7 43 0 1−4 4 3

Partitionnez-les en quatre blocs compatibles avec, pourchaque matrice, un des blocs correspondant à une ma-trice 2×2, et évaluez le produit en multipliant par blocs.

Exercice 2.18 Déterminez les deux nombres, s et t quifont en sorte que la matrice suivante soit symétrique.

A =

2 s t2s 0 s+ t3 3 t

Page 44: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 2. Matrices 36

Exercice 2.19 Déterminez A :

A = 3(

2 1−1 0

)>

− 2(

1 −12 3

)

Exercice 2.20 On dit d’une matrice A qu’elle estidempotente si A2 = A.(a) Montrez que la matrice A suivante est idempotente.

A = 12

(1 11 1

)

(b) Montrez que si B est idempotente, alors la matrice(I −B) est également idempotente.

Exercice 2.21 Le but de cet exercice est de démontrerque certaines identités pour la multiplication de deux

nombres ne sont pas valides lorsqu’on multiplie des ma-trices. Soit les matrices suivantes :

A =(

2 −41 3

)B =

(3 2−1 5

)Comparez (AB)2 et A2B2.

Exercice 2.22 Démontrez que Tr (AA>) est la sommedes carrés de tous les coefficients de A.

Exercice 2.23 Démontrez que AB = BA si et seule-ment si A>B> = B>A>.

Exercice 2.24 Soit A et B deux matrices symétriques.Démontrez que AB sera symétrique si et seulement siAB = BA.

Page 45: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

3 Systèmes d’équations linéaires3.1 Introduction 373.2 Élimination de Gauss-Jordan 37

3.2.1 Notation matricielle et matrices augmentées 403.2.2 Formes échelonnées 413.2.3 Systèmes consistant et inconsistant 443.2.4 Exemples et exercices divers 46

3.3 Rang 523.4 Nombre de solutions d’un système

d’équations linéaires 543.5 Systèmes homogènes 553.6 Exercices divers 59

3.1 Introduction

Dans ce chapitre, nous allons voir une méthode systématique de résolu-tion des équations linéaires, appelée méthode d’élimination de Gauss-Jordan 1. Cette méthode peut être adaptée aux matrices et, comme on leverra dans le chapitre suivant, être utilisée pour trouver l’inverse d’une ma-trice. De plus, cette méthode peut être adaptée sous forme d’algorithmeinformatique permettant d’écrire des logiciels qui peuvent résoudre des sys-tèmes d’équations linéaires.

Figure 3.1 Johann Carl Frie-drich Gauss, 1777–1855. Sur-nommé le prince des mathéma-tiques, Gauss a laissé sa marquedans plusieurs branches des ma-thématiques dont, entre autres,l’algèbre linéaire.

3.2 Élimination de Gauss-Jordan

Comme on l’a vu au chapitre précédent, un système de m équations linéaireset n inconnues

a11x1 + a12x2 + . . . + a1nxn = b1a21x1 + a22x2 + . . . + a2nxn = b2

......

......

am1x1 + am2x2 + . . . + amnxn = bm

[3.2.1]

peut être écrit comme une équation matricielle AX = B c’est-à-dire :a11 a12 . . . a1na21 a22 . . . a2n

......

......

am1 am2 . . . amn

x1x2...

xn

=

b1b2...

bn

On appelle la matrice A lamatrice des coefficients du système d’équa-

matrice des coefficients1Bien que l’on nomme cette méthode d’après Gauss, né en 1777, et Jordan, né en

1842, les mathématiciens Chinois connaissaient cette méthode au premier siècle de notreère . . . et même possiblement au deuxième siècle avant notre ère, soit plus de 2000 ansavant la naissance de Gauss.

37

Page 46: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 38

tions linéaires.Comme on l’a vu dans le chapitre précédent, on obtiendra un système

équivalent si on effectue des opérations élémentaires sur les lignes, soit :opérations élémentaires surles lignes• on échange deux lignes : Li ↔ Lj

• on remplace une ligne donnée par son multiple αLi avec α 6= 0• on remplace une ligne donnée par l’addition de celle-ci avec le multipled’une autre ligne Li + βLj → Li

Dans l’exemple suivant, nous allons utiliser ces opérations élémentaires surles lignes d’abord pour mettre le système dans une forme échelonnée puis

forme échelonnéedans une forme échelonnée réduite. La première étape est connue sousforme échelonnée réduitele nom de méthode du pivot de Gauss ; l’ensemble des opérations estméthode du pivot de Gaussconnu sous le nom l’élimination de Gauss-Jordan. À noter qu’à chaqueélimination de Gauss-Jordanétape, on peut transformer plus qu’une ligne sujet aux conditions suivantes :

• on ne fait pas plus qu’une transformation pour une ligne donnée ;• on n’utilise pas une ligne sur laquelle on fait une transformation.

Par exemple, pour une étape donnée, on pourrait multiplier la première lignepar 2, et remplacer échanger la deuxième et la quatrième ligne ; cependant,dans cette étape, on ne pourrait pas remplacer la troisième ligne par lasomme de la troisième et de la première ligne (puisqu’on a transformé lapremière ligne), ni échanger la deuxième et la cinquième ligne (puisqu’onaurait déjà transformée la deuxième ligne).

Pour notre exemple, nous considérons le système d’équations linéairessuivant :

x + 2y − z = −32x + y + z = 63x + 4y + z = 5

[3.2.2]

que nous pouvons écrire sous forme matricielle AX = B. Nous introduisonsla matrice augmentée, [A|B] qui est une forme abrégée d’écriture d’un

matrice augmentéetel système d’équations linéaires

[A|B] =

1 2 −1 −32 1 1 63 4 1 5

Nous allons donc résoudre le système d’équations linéaires en faisant unesuite d’opérations élémentaires sur les lignes. En parallèle, nous allons suivrel’évolution de la matrice augmentée.

Tout d’abord, nous remplaçons la deuxième ligne par une combinaisonlinéaire d’elle-même et de -2 fois la première ligne pour que le coefficient dela variable x soit zéro :

L2 − 2L1 → L2 ⇒

x + 2y − z = −3− 3y + 3z = 12

3x + 4y + z = 5

1 2 −1 −30 −3 3 123 4 1 5

Nous faisons un remplacement semblable pour la troisième ligne, soit :

L3 − 3L1 → L3 ⇒

x + 2y − z = −3− 3y + 3z = 12− 2y + 4z = 14

1 2 −1 −30 −3 3 120 −2 4 14

Page 47: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 39

Nous pouvons simplifier les coefficients de la deuxième et de la troisièmeligne en divisant par un facteur commun. 2

−13 L2 → L2

12L3 → L3

x + 2y − z = −3

y − z = −4− y + 2z = 7

1 2 −1 −30 1 −1 −40 −1 2 7

Ensuite, pour que le coefficient de la variable y dans la troisième ligne

soit zéro, nous faisons le remplacement de la troisième ligne par elle-mêmeadditionnée de la deuxième ligne :

L3 + L2 → L3 ⇒

x + 2y − z = −3

y − z = −4z = 3

1 2 −1 −30 1 −1 −40 0 1 3

On voit que le système d’équations linéaires est dans une forme triangu-

laire qui est un cas particulier de ce qu’on appelle une forme échelonnée.forme échelonnéeNous continuons de résoudre le système.

L1 + L3 → L1L2 + L3 → L2

=⇒

x + 2y = 0

y = −1z = 3

1 2 0 00 1 0 −10 0 1 3

L1 − 2L2 → L1 =⇒

x = 2

y = −1z = 3

1 0 0 20 1 0 −10 0 1 3

[3.2.3]

Nous avons donc trouvé la solution du système d’équations linéaires [3.2.2].

Exercice 3.1 Vérifiez que [3.2.3] est bien la solution de [3.2.2].

Figure 3.2 Wilhelm Jordan1842–1899. Géodésiste allemandqui, en 1887 a donné une des-cription d’une version amélioréede la procédure d’élimininationde Gauss. Il est à noter qu’unmathématicien, B.I. Clasen, au-rait publié de façon indépen-dante une description semblablela même année.

La matrice augmentée apparaissant dans l’équation [3.2.3] a la forme[I|X] où I est la matrice identité. Ceci n’est pas un hasard, comme nous leverrons plus tard. Pour ceux qui sont curieux, nous donnons un aperçu. Nousavons débuté avec une matrice augmentée [A|B] correspondant à l’équationmatricielle AX = B. Si on pouvait avoir une matrice C telle que CA = I,alors, en multipliant de chaque côté de l’équation matricielle, on trouveraitIX = CB, ou encore X = CB. Comme nous l’avons vu, il est possiblede multiplier les matrices en blocs ; ainsi, on peut multiplier la matrice aug-mentée par la gauche par C, on trouve

C[A|B] = [CA|CB] = [I|X]

qui est le résultat recherché.2C’est toujours une bonne idée d’avoir des coefficients entiers aussi petits que possible.

Page 48: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 40

3.2.1 Notation matricielle et matrices augmentées

Nous avons déjà vu quelques exemples utilisant la notation matricielle etles matrices augmentées, dans un contexte plus général. Pour s’assurer quele tout est bien compris, nous fournissons un exemple détaillé et suggéronsquelques exercices.

Exemple 3.2.1Soit le système d’équations linéaires suivant

x1 − 2x2 + x3 = 02x2 − 8x3 = 8

−4x1 + 5x2 + 9x3 = −9

(a) Écrivez la matrice des coefficients et la matrice augmentée de ce système.(b) Écrivez ce système en utilisant la notation matricielle.

Solution:(a) La matrice des coefficients est 1 −2 1

0 2 −8−4 5 9

et la matrice augmentée est 1 −2 1 0

0 2 −8 8−4 5 9 −9

(b) Ce système peut être écrit de la façon suivante : 1 −2 1

0 2 −8−4 5 9

x1x2x3

=

08−9

À noter que, lorsqu’on demande d’écrire un système sous forme matricielle, on entend habituellement laforme explicite ci-dessus plutôt que la forme abstraite AX = B utilisée dans les démonstrations.

Exercice 3.2 Soit le système d’équations linéaires suivant 2x1 − 3x2 − 4x3 = 1−5x1 − 6x2 − 7x3 = −2

8x1 + 9x2 + x3 = −4

(a) Écrivez la matrice des coefficients et la matrice augmentée de ce système.(b) Écrivez ce système en utilisant la notation matricielle.

Page 49: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 41

Exemple 3.2.2Quel est le système d’équations linéaires dont la matrice augmentée est 2 −1 0 −1

−3 2 1 00 1 1 3

Solution: 2x1 − x2 = −1−3x1 + 2x2 + x3 = 0

x2 + x3 = 3

À noter qu’on aurait pu tout aussi bien choisir x, y, z comme variables plutôt que x1, x2, x3 ou tout autrechoix arbitraire.

Exercice 3.3 Quel est le système d’équations linéaires dont la matrice aug-mentée est −5 −1 0 4

0 −2 1 82 0 1 3

3.2.2 Formes échelonnées

Important : les définitions suivantes ne sont que pour les matrices descoefficients. Pour les matrices augmentées, on ne tient compte que des termesà la gauche de la barre verticale séparant la matrice des coefficients de lamatrice des termes constants.

Une matrice est en forme échelonnée si le nombre de zéros précédantforme échelonnéela première valeur non nulle d’une ligne augmente ligne par ligne jusqu’à

ce qu’il ne reste plus que des zéros. Une autre façon d’exprimer ceci est dedire qu’une matrice est en forme échelonnée si le premier coefficient non-nuld’une ligne donné est toujours à la droite du coefficient non-nul de la ligneprécédente. Ces premiers coefficients non-nuls d’une ligne donné s’appellentles pivots. La matrice suivante est dans une forme échelonnée ; les pivots

pivotssont identifiés par pi alors que les coefficients arbitraires sont représentés parun astérisque (∗).

p1 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗0 0 p2 ∗ ∗ ∗ ∗ ∗ ∗0 0 0 p3 ∗ ∗ ∗ ∗ ∗0 0 0 0 0 0 p4 ∗ ∗0 0 0 0 0 0 0 0 p50 0 0 0 0 0 0 0 0

Page 50: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 42

Une matrice est en forme échelonnée réduite si elle est en forme éche-forme échelonnée réduitelonnée, que tous ses pivots valent 1 et que les autres coefficients dans les

colonnes des pivots sont nuls, comme dans la matrice suivante :

1 ∗ 0 0 ∗ ∗ 0 ∗ 00 0 1 0 ∗ ∗ 0 ∗ 00 0 0 1 ∗ ∗ 0 ∗ 00 0 0 0 0 0 1 ∗ 00 0 0 0 0 0 0 0 10 0 0 0 0 0 0 0 0

Exemple 3.2.3Déterminez si chacune des matrice suivante est soit en forme échelonnée réduite ou en forme éche-lonnée (mais non réduite).(a) 1 −3 2 1

0 5 −4 80 0 0 1

(b) 1 0 0 29

0 1 0 160 0 1 1

Solution:(a) En regardant dans chaque rangée, de gauche à droite, le premier coefficient non-nul (pivot) esttoujours à la droite du coefficient non-nul de la ligne précédente : la matrice est donc dans la formeéchelonnée. En examinant les colonnes où on trouve des pivots, on note que certains sont non-nuls, telque 5 dans la deuxième rangée : la matrice n’est donc pas sous une forme réduite.(b) En regardant dans chaque rangée, de gauche à droite et à l’exception de la colonne des constantes, lepremier coefficient non-nul (pivot) est toujours à la droite du coefficient non-nul de la ligne précédente :la matrice est donc dans la forme échelonnée. En examinant les colonnes où on trouve les pivots, qui sonttous égaux à 1, on note que tous les autres coefficients de ces colonnes sont nuls : la matrice est doncsous forme réduite.

Dans un système d’équation linéaires en forme échelonnée réduite, lesvariables dépendantes correspondent aux pivots ; les variables indé-

variables dépendantespendantes également appelées variables libres sont les autres variables.variables indépendantesvariables libres

Page 51: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 43

Exemple 3.2.4Déterminez quelles sont les variables dépendantes et les variables indépendantes du système suivant :

x1 + 3x2 − 2x3 + 2x5 = 02x1 + 6x2 − 5x3 − 2x4 + 4x5 − 3x6 = −1

5x3 + 10x4 + 15x6 = 52x1 + 6x2 + 8x4 + 4x5 + 18x6 = 6

Solution: La matrice augmentée de ce système est1 3 −2 0 2 0 02 6 −5 −2 4 −3 −10 0 5 10 0 15 52 6 0 8 4 18 6

Nous pouvons utiliser la procédure d’élimination de Gauss de la façon suivante :

L2 − 2L1 → L215L3 → L3

L4 − 2L1 → L4

=⇒

1 3 −2 0 2 0 00 0 −1 −2 0 −3 −10 0 1 2 0 3 10 0 4 8 0 18 6

L3 + L2 → L3

L4 + 4L2 → L4=⇒

1 3 −2 0 2 0 00 0 −1 −2 0 −3 −10 0 0 0 0 0 00 0 0 0 0 6 2

L3 ↔ L4 =⇒

1 3 −2 0 2 0 00 0 −1 −2 0 −3 −10 0 0 0 0 6 20 0 0 0 0 0 0

La matrice est dans une forme échelonnée. Les variables correspondant aux pivots sont x1, x3 et x6 : cesont les variables dépendantes. Les variables x2, x4 et x5 sont les variables indépendantes, ou libres.

Exemple 3.2.5Résoudre le système suivant :

x1 + 2x2 + x4 = 6x3 + 6x4 = 7

x5 = 1

Solution: Le système est déjà sous une forme échelonnée réduite. Les variables libres sont x2 et x4.Choisissons de les paramétriser ainsi : x2 = s et x4 = t. Nous pouvons réécrire le système de la façon

Page 52: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 44

suivante : x1 = 6− 2s− t

x3 = 7− 6tx5 = 1

d’où l’on peut obtenir les valeurs des variables dépendantes directement.

Exercice 3.4 Résoudre le système suivant :x1 − 3x2 + x3 − x4 = 2x2 + 2x3 − x4 = 3

x3 + x4 = 1

Suggestion : Commencez par transformer le système sous une forme échelonnéeréduite.

3.2.3 Systèmes consistant et inconsistant

Dans un système d’équations linéaires exprimée sous forme matricielle, siune ligne de la matrice des coefficients est nulle (ou si tous les termes à lagauche de la barre verticale dans une matrice augmentée sont nuls), et que leterme constant (à la droite de la barre verticale dans une matrice augmentée)ne l’est pas, alors le système n’admet pas de solution : il est inconsistant.Autrement, on dira qu’il est consistant.

Reprenons l’exemple de la figure 1.7 qui est reproduit àcôté et qui correspond au système{

x + 2y = 4x + 2y = 6

La matrice augmentée de ce système peut être écritesous une forme échelonnée réduite en soustrayant lapremière ligne de la deuxième[

1 2 41 2 6

]⇒ L2 − L1 → L2 ⇒

[1 2 40 0 2

]Comme la dernière ligne de la matrice des coefficientsest nulle, mais que le terme constant est non-nul, cor-respondant à l’équation 0 = 2, le système n’admet pasde solutions.

x

y

x+ 2y = 4

x+ 2y = 6

Exemple 3.2.6Trouvez la solution générale du système d’équations linéaires dont la matrice augmentée est égale à 1 2 −7

−1 −1 12 1 5

Page 53: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 45

Solution: En utilisant la procédure d’élimination de Gauss, on trouve que :

L2 + L1 → L2L3 − 2L1 → L3

=⇒

1 2 −70 1 −60 −3 19

L3 + 3L2 → L3 =⇒

1 2 −70 1 −60 0 1

Comme la matrice augmentée a une rangée de la forme [0, 0|b] avec b 6= 0, le système n’admet aucunesolution : il est inconsistant.

Exemple 3.2.7Déterminez la valeur de a de telle sorte que le système soit consistant.

x2 − 4x3 = a2x1 − 3x2 + 2x3 = bx1 − 2x2 + 3x3 = c

Solution: La matrice augmentée de ce système est0 1 −4 a2 −3 2 b1 −2 3 c

En utilisant la procédure de Gauss-Jordan, on trouve

L1 ↔ L3 =⇒

1 −2 3 c2 −3 2 b0 1 −4 a

L2 − 2L1 → L2 =⇒

1 −2 3 c0 1 −4 b− 2c0 1 −4 a

L3 − L2 → L3 =⇒

1 −2 3 c0 1 −4 b− 2c0 0 0 a− b+ 2c

La seule façon que la troisième ligne peut mener à un système consistant est que l’on ait a− b+ 2c = 0.

Page 54: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 46

Exercice 3.5 Déterminez la valeur de c de telle sorte que le système soitconsistant. 2x1 + 5x2 − 3x3 = a

4x1 + 7x2 − 4x3 = b−6x1 − 3x2 + x3 = c

Exercice 3.6 Essayez soit de résoudre le système d’équations suivant ou dedémontrer qu’il est inconsistant.3x1 + 4x2 + x3 = 1

2x1 + 3x2 = 04x1 + 3x2 − x3 = −2

Exercice 3.7 Essayez soit de résoudre le système d’équations suivant ou dedémontrer qu’il est inconsistant.{

x1 − 3x2 = 4−3x1 + 9x2 = 8

Exercice 3.8 Déterminez pour quelle(s) valeur(s) de a la matrice augmentéesuivante correspondra à un système d’équations linéaires consistant.[

1 4 2−3 a −1

]

Exercice 3.9Déterminez la ou les conditions que doivent satisfaire les nombresa, b et c de telle sorte que le système x1 + 3x2 + x3 = a

−x1 − 2x2 + x3 = b3x1 + 7x2 − x3 = c

soit consistant. Trouvez la solution générale et donnez un exemple, en choisis-sant des valeurs particulières pour les nombres a, b et c ainsi que tout paramètrearbitraire que vous trouverez.

3.2.4 Exemples et exercices divers

Exemple 3.2.8Trouvez la solution générale du système d’équations linéaires dont la matrice augmentée est égale à1 −2 0 0 7 −3

0 1 0 0 −3 10 0 0 1 5 −4

Page 55: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 47

Solution: En additionnant deux fois la deuxième ligne à la première, le système prend la forme échelonnéeréduite :

L1 + 2L2 → L1 ⇒

1 0 0 0 1 −10 1 0 0 −3 10 0 0 1 5 −4

On a donc deux variables libres : x3 et x5. En choisissant de les paramétriser par x3 = s et x5 = t, ontrouve x1 = −1− t, x2 = 1 + 3t et x4 = −4− 5t.

On peut voir ceci plus facilement si on écrit le système d’équations linéaires correspondant à cettematrice augmentée ayant une forme échelonnée réduite :

x1 x2 x3 x4 x5x1 + t = −1

x2 − 3t = 1x4 + 5t = −4

Exemple 3.2.9Déterminez les valeurs de x1, x2 et x3 pour que les deux matrices suivantes soient égales :x1 + x2 + 2x3 0 1

2 3 2x1 + 4x2 − 3x34 3x1 + 6x2 − 5x3 5

=

9 0 12 3 14 0 5

Solution: Pour que les coefficients soient égaux, on doit avoirx1 + x2 + 2x3 = 9

2x1 + 4x2 − 3x3 = 13x1 + 6x2 − 5x3 = 0

Nous pouvons écrire la matrice augmentée de ce système et utiliser la procédure de Gauss-Jordan pour

Page 56: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 48

simplifier le tout. 1 1 2 92 4 −3 13 6 −5 0

L2 − 2L1 → L2L3 − 3L1 → L3

=⇒

1 1 2 90 2 −7 −170 3 −11 −27

L3 − L2 → L3 =⇒

1 1 2 90 2 −7 −170 1 −4 −10

L2 ↔ L3 =⇒

1 1 2 90 1 −4 −100 2 −7 −17

L3 − 2L2 → L3 =⇒

1 1 2 90 1 −4 −100 0 1 3

L1 − 2L3 → L1L2 + 4L3 → L2

=⇒

1 1 0 30 1 0 20 0 1 3

L1 − L2 → L1 =⇒

1 0 0 10 1 0 20 0 1 3

Nous avons donc x1 = 1, x2 = 2 et x3 = 3.

Exercice 3.10 Déterminez les valeurs de a, b, c et d qui font que les deuxmatrices suivantes sont égales.(

a− b b+ c3d+ c 2a− 4d

)=(

8 17 6

)

Exemple 3.2.10Résoudre le système d’équations linéaires suivant en utilisant la procédure d’élimination de Gauss-Jordan sur la matrice augmentée.

x1 − 2x2 + x3 = 02x2 − 8x3 = 8

−4x1 + 5x2 + 9x3 = −9

Page 57: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 49

Solution: La matrice augmentée est 1 −2 1 00 2 −8 8−4 5 9 −9

En appliquant la procédure d’élimination de Gauss-Jordan, on trouve :

12L2 → L2

L3 + 4L1 → L3 =⇒

1 −2 1 00 1 −4 40 −3 13 −9

L3 + 3L2 → L3 =⇒

1 −2 1 00 1 −4 40 0 1 3

L2 + 4L3 → L2L1 − L3 → L1

=⇒

1 −2 0 −30 1 0 160 0 1 3

L1 + 2L2 → L1 =⇒

1 0 0 290 1 0 160 0 1 3

et on a donc x1 = 29, x2 = 16 et x3 = 3.

Exemple 3.2.11Résoudre le système d’équations linéaires suivant en utilisant la procédure d’élimination de Gauss-Jordan sur la matrice augmentée.

x2 + 5x3 = −4x1 + 4x2 + 3x3 = −2

2x1 + 7x2 + x3 = −1

Solution: La matrice augmentée est 0 1 5 −41 4 3 −22 7 1 −1

Page 58: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 50

En appliquant la procédure d’élimination de Gauss-Jordan, on trouve :

L1 ↔ L2 =⇒

1 4 3 −20 1 5 −42 7 1 −1

L3 − 2L1 → L3 =⇒

1 4 3 −20 1 5 −40 −1 −5 3

L3 + L2 → L3 =⇒

1 4 3 −20 1 5 −40 0 0 −1

Ceci correspond au système d’équations :

x1 + 4x2 + 3x3 = −2x2 + 5x3 = −4

0 = −1

La dernière équation n’admet pas de solutions ; le système est donc inconsistant.

Exercice 3.11 Résoudre le système suivant en utilisant la notation matricielleet la procédure de Gauss-Jordan : x1 + 2x2 = 0

−x1 + 3x2 + 3x3 = −2x2 + x3 = 0

Exercice 3.12 Résoudre le système suivant en utilisant la notation matricielleet la procédure de Gauss-Jordan : x2 − 4x3 = 8

2x1 − 3x2 + 2x3 = 15x1 − 8x2 + 7x3 = 1

Exemple 3.2.12Utilisez la procédure de Gauss-Jordan pour transformer la matrice suivante d’abord dans une formeéchelonnée, puis dans une forme échelonnée réduite.

0 −3 −6 4 9−1 −2 −1 3 1−2 −3 0 3 −1

1 4 5 −9 −7

Page 59: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 51

Solution: Nous commençons tout d’abord par l’élimination de Gauss pour transformer la matrice sousune forme échelonnée.

L1 ↔ L4 =⇒

1 4 5 −9 −7−1 −2 −1 3 1−2 −3 0 3 −1

0 −3 −6 4 9

L2 + L1 → L2L3 + 2L1 → L3

=⇒

1 4 5 −9 −70 2 4 −6 −60 5 10 −15 −150 −3 −6 4 9

12L2 → L215L3 → L3

=⇒

1 4 5 −9 −70 1 2 −3 −30 1 2 −3 −30 −3 −6 4 9

L3 − L2 → L3L4 + 3L2 → L4

=⇒

1 4 5 −9 −70 1 2 −3 −30 0 0 0 00 0 0 −5 0

L3 ↔ L4 =⇒

1 4 5 −9 −70 1 2 −3 −30 0 0 −5 00 0 0 0 0

Nous avons donc transformé la matrice sous forme échelonnée. Nous continuons nos transformations

pour l’amener sous une forme réduite.

−15L3 → L3 =⇒

1 4 5 −9 −70 1 2 −3 −30 0 0 1 00 0 0 0 0

L2 + 3L3 → L2L1 + 9L3 → L1

=⇒

1 4 5 0 −70 1 2 0 −30 0 0 1 00 0 0 0 0

L1 − 4L2 → L1 =⇒

1 0 −3 0 50 1 2 0 −30 0 0 1 00 0 0 0 0

Exercice 3.13 Utilisez la procédure de Gauss-Jordan pour transformer lamatrice suivante d’abord dans une forme échelonnée, puis dans une forme éche-

Page 60: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 52

lonnée réduite. 0 3 −6 6 4 −53 −7 8 −5 8 93 −9 12 −9 6 15

3.3 Rang

Définition 3.3.1Le rang d’une matrice A, dénoté par rg(A), est égal au nombre de rangées non-nulles lorsque lamatrice A est écrite sous une forme échelonnée.

Exemple 3.3.1Déterminez le rang de la matrice suivante :

A =

2 1 43 −1 10 −1 1

Solution: On utilise la procédure d’élimination de Gauss pour transformer la matrice A sous sa formeéchelonnée.

L2 − 32L1 → L2 =⇒

2 1 40 −5

2 −50 −1 1

L3 − 25L2 → L3 =⇒

2 1 40 −5

2 −50 0 3

Comme le nombre de rangées non-nulles dans la forme échelonnée a est 3, nous avons rg(A) = 3.

aNotez que, si on continuait les transformations pour obtenir une forme échelonnée réduite, le nombre de pivots,et donc de rangées non-nulles, ne changerait pas et on obtiendrait la même réponse pour le rang . . .mais en faisantbeaucoup plus de travail.

Exercice 3.14 Déterminez le rang des matrices suivantes :(a)

A =

3 1 00 −2 122 −3 22

Page 61: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 53

(b)

B =

3 1 0 1 −90 −2 12 −8 −62 −3 22 −14 −17

Suggestion : Lorsque vous aurez trouvé le rang de la matrice A, vous pourrezimmédiatement déduire le rang de la matrice B sans avoir à faire d’autrescalculs ; ceci ne sera pas toujours le cas.

Exercice 3.15 Considérez le système suivant :{ax + by = kcx + dy = `

Prouvez que, si et seulement si ad − bc 6= 0 alors la forme échelonnée réduitede la matrice des coefficients de ce système est la matrice I2 :

I2 =(

1 00 1

)

Page 62: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 54

3.4 Nombre de solutions d’un système d’équations linéaires

Un autre titre pour cette section aurait pu être : 0, 1,∞

Théorème 3.4.1Un système d’équations linéaires peut avoir soit exactement une solution, une infinité de solutions,ou aucune solution.

1. Si la matrice augmentée dans une forme échelonnée a une ligne de la forme [0, 0, . . . , 0|b], où best une constante différente de zéro, alors le système n’a aucune solution.

2. Si la matrice augmentée dans une forme échelonnée a des variables indépendantes et aucuneligne sous la forme [0, 0, . . . , 0|b] avec b 6= 0, alors le système a une infinité de solutions.

3. Si la matrice augmentée dans une forme échelonnée n’a aucune variable indépendantes et qu’au-cune ligne ne soit sous la forme [0, 0, . . . , 0|b] avec b 6= 0, alors le système a une seule solution.

Démonstration:

1. Si la matrice augmentée dans une forme échelonnée a une ligne de la forme [0, 0, . . . , 0|b] avecb 6= 0, ceci veut dire que le système d’équations a une équation de la forme 0 + 0 + . . . + 0 = bavec b 6= 0 ce qui est une contradiction ; le système n’a donc aucune solution.

2. Si la matrice augmentée dans une forme échelonnée a des variables indépendantes et aucune lignesous la forme [0, 0, . . . , 0|b] avec b 6= 0, alors on peut traiter les variables indépendantes comme desparamètres arbitraires, et donc le système a une infinité de solutions.

3. Si la matrice augmentée dans une forme échelonnée n’a aucune variable indépendantes et qu’aucuneligne ne soit sous la forme [0, 0, . . . , 0|b] avec b 6= 0, ceci veut dire que le système correspondant,dans sa forme échelonnée réduite, est égal à

x1 = c1x2 = c2

. . . ......

xm = cm

qui est donc une solution unique.

En utilisant la notation matricielle, on peut démontrer d’une autre façonque, si un système d’équations linéaires a plus d’une solution, alors il doiten exister un nombre infini. Supposons que X1 et X2 soient deux solutionsde l’équation AX = B, c’est-à-dire

AX1 = BAX2 = B

On peut facilement vérifier que 12(X1 + X2) serait également une solution :

A(X1 + X2)

2 = AX1 + AX22 = B + B

2 = B

Page 63: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 55

On pourrait également vérifier que 2X1−X2 serait également une solution.En fait, on peut écrire une solution générale sous la forme

Xt = tX1 + (1− t)X2 t ∈ R

ce qu’on peut vérifier en substituant en multipliant par la gauche par A :

AXt = tAX1 + (1− t)AX2 = tB + (1− t)B = B

Donc, si on a deux solutions différentes, on peut en trouver une infinité,puisque le paramètre t peut prendre n’importe quelles valeurs.

3.5 Systèmes homogènes

Un système d’équation homogène est un système de la formesystème d’équation homo-gène

a11x1 + a12x2 + . . . + a1nxn = 0a21x1 + a22x2 + . . . + a2nxn = 0

......

......

am1x1 + am2x2 + . . . + amnxn = 0

On constate immédiatement que ce système a la solution x1 = x2 = . . . =xm = 0. On appelle cette solution la solution triviale. Toute autre solution

solution trivialeest appelée non-triviale. Par le théorème 3.4.1, un système homogène anon-trivialedonc soit une solution unique (la solution triviale) ou soit une infinité de

solutions.

Théorème 3.5.1Soit le système d’équations linéaires homogène AX = 0 ayant m équations avec n variables.1. Si rg A < n alors le système a une infinité de solutions différentes.2. Si le nombre d’inconnues excède le nombre d’équations, n > m, alors le système a une infinité

de solutions.

Démonstration:1. Imaginons que nous utilisions la procédure d’élimination de Gauss-Jordan sur la matrice augmentée,

[A|0] pour obtenir une matrice augmentée échelonnée réduite [B|0]. Dans ce cas, le nombre derangées non-nulles de B est égal au rang de A. Supposons, tel qu’il nous l’est donné, que rg A =r < m. Dans ce cas, le système BX = 0 aura r inconnues et m équations. Donc ce système auram−r variables libres, et a donc une infinité de solutions. Comme les systèmes d’équations BX = 0et AX = 0 sont équivalents, ils ont les mêmes solutions - une infinité dans ce cas-ci.

2. Comme nous avons m équations, nous savons que rg A ≤ m. Selon l’énoncé du théorème, m < net donc rg A ≤ m < n ⇒ rg A < n ce qui implique qu’il y aura une infinité de solutions.

Page 64: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 56

Exemple 3.5.1Démontrez que le système suivant est inconsistant :{

x1 + x2 + x3 = 02x1 + 2x2 + 2x3 = 4

Solution: On peut vérifier facilement que si on multiplie la première équation par −2 et qu’on additionne lerésultat à la deuxième équation, on obtient 0 = 4 ce qui est impossible. Le système est donc inconsistant.Ceci peut sembler contredire le théorème précédent puisque qu’on a plus d’inconnues que d’équations. . . mais il faut se rappeler que le théorème était pour les systèmes homogènes et que celui-ci ne l’est pas.

Exemple 3.5.2Résoudre le système homogène suivant en utilisant la procédure d’élimination de Gauss-Jordan.

2x1 + 2x2 − x3 + x5 = 0−x1 − x2 + 2x3 − 3x4 + x5 = 0x1 + x2 − 2x3 − x5 = 0

x3 + x4 + x5 = 0

Solution: La matrice augmentée de ce système est2 2 −1 0 1 0−1 −1 2 −3 1 0

1 1 −2 0 −1 00 0 1 1 1 0

Page 65: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 57

Nous pouvons réduire cette matrice de la façon suivante :

2L2 + L1 → L2

2L3 − L1 → L3=⇒

2 2 −1 0 1 00 0 3 −6 3 00 0 −3 0 −3 00 0 1 1 1 0

13L2 → L213L3 → L3

=⇒

2 2 −1 0 1 00 0 1 −2 1 00 0 −1 0 −1 00 0 1 1 1 0

−L3 − L2 → L3

L4 − L2 → L4=⇒

1 1 −1

2 0 12 0

0 0 1 −2 1 00 0 0 1 0 00 0 0 2 0 0

L1 + 1

2L2 → L1

L4 − 2L3 → L4=⇒

1 1 0 −1 1 00 0 1 −2 1 00 0 0 1 0 00 0 0 0 0 0

L1 + L3 → L1

L2 + 2L3 → L2=⇒

1 1 0 0 1 00 0 1 0 1 00 0 0 1 0 00 0 0 0 0 0

Ceci correspond au système

x1 + x2 + x5 = 0x3 + x5 = 0

x4 = 0

Les variable libres sont donc x2 = s et x5 = t, et la solution générale est donnée par :x1 = −s− t, x2 = s, x3 = −t, x4 = 0, x5 = t.

Exemple 3.5.3Résoudre le système homogène suivant en utilisant la procédure d’élimination de Gauss-Jordan.

x1 + 3x2 + 5x3 + x4 = 04x1 − 7x2 − 3x3 − x4 = 03x1 + 2x2 + 7x3 + 8x4 = 0

Solution: La matrice augmentée de ce système est :1 3 5 1 04 −7 −3 −1 03 2 7 8 0

Page 66: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 58

Nous pouvons la transformer sous une forme réduite de la façon suivante :

L2 − L3 → L2 =⇒

1 3 5 1 01 −9 −10 −9 03 2 7 8 0

L2 − L1 → L2L3 − 3L1 → L3

=⇒

1 3 5 1 00 −12 −15 −10 00 −7 −8 5 0

− 112L2 → L2 =⇒

1 3 5 1 00 1 5

456 0

0 −7 −8 5 0

L3 + 7L2 → L3 =⇒

1 3 5 1 00 1 5

456 0

0 0 34

656 0

43L3 → L3 =⇒

1 3 5 1 00 1 5

456 0

0 0 1 1309 0

La matrice augmentée est sous forme échelonnée. Nous continuons pour l’amener sous forme réduite.

L1 − 5L3 → L1

L2 − 54L3 → L2

=⇒

1 3 0 −641

9 00 1 0 −155

9 00 0 1 130

9 0

L1 − 3L2 → L2 =⇒

1 0 0 −176

9 00 1 0 −155

9 00 0 1 130

9 0

Nous avons donc une variable libre, x4 que nous pouvons paramétriser par x4 = t ce qui nous donne

x1 = 1769 t, x2 = 155

9 t et x3 = −1309 t. Alternativement, on peut écrire t = 9s, ce qui nous donnerait :

x1 = 176s, x2 = 155s, x3 = −130s, x4 = 9s.

Page 67: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 59

3.6 Exercices divers

Exercice 3.16 Trouvez la solution générale du systèmesuivant :{

x1 − 2x2 + 3x3 + x4 = −32x1 − x2 + 3x3 − x4 = 0

Exercice 3.17 Trouvez les valeurs de a, b et c telles quele système x1 + ax2 + cx3 = 0

bx1 + cx2 − 3x3 = 1ax1 + 2x2 + bx3 = 5

a comme solution x1 = 3, x2 = −1, x3 = 2.

Exercice 3.18 Trouvez une relation entre a, b et c pourque le système suivant soit consistant : x1 + x2 + 2x3 = a

x1 + x3 = b2x1 + x2 + 3x3 = c

Exercice 3.19 Pour quelles valeurs de k est-ce que lesystème aura(a) une seule solution ?(b) aucune solution ?(c) une infinité de solutions ? x1 + 2x2 − 3x3 = 4

3x1 − x2 + 5x3 = 24x1 + x2 + (k2 − 14)x3 = k + 2

Exercice 3.20 Trouvez les valeurs de A, B et C quisatisfont l’équation suivante :

x2 − x+ 3(x2 + 2)(2x− 1) = Ax+B

x2 + 2 + C

2x− 1

Exercice 3.21 Trouvez une équation quadratique dela forme y = ax2 + bx + c qui passe par les points(x, y) = (−2, 20), (1, 5), (3, 25).

Exercice 3.22 Pour quelles valeurs de k est-ce que lesystème aura(a) une seule solution ?(b) aucune solution ?(c) une infinité de solutions ?{

x1 − x2 = 32x1 − 2x2 = k

Exercice 3.23 Trouvez une équation linéaire aveccomme inconnues x1 et x2 ayant la solution généralex1 = 5 + 2t, x2 = t.

Exercice 3.24 Soit le système d’équations linéaires : 2x1 + 3x2 − 4x3 + x4 = 5−2x1 + x3 = 7

3x1 + 2x2 − 4x4 = 3

(a) Quelle est la matrice des coefficients de ce système ?

(b) Quelle est la matrice augmentée de ce système ?(c) Écrivez ce système en utilisant une notation matri-cielle.

Exercice 3.25 Trouvez la solution de ce système enutilisant la procédure de Gauss-Jordan.5x1 − 5x2 − 15x3 = 40

4x1 − 2x2 − 6x3 = 193x1 − 6x2 − 17x3 = 41

Exercice 3.26 Trouvez la solution de ce système enutilisant la procédure de Gauss-Jordan.2x1 + x2 + x3 = −1

x1 + 2x2 + x3 = 03x1 − 2x3 = 5

Exercice 3.27 Laquelle ou lesquelles des matrices sui-vantes n’est pas ou ne sont pas dans une forme échelon-née réduite ? Justifiez votre réponse.

(a)

1 −2 0 00 0 0 00 0 1 00 0 0 1

(b)

1 0 0 30 2 0 −20 0 3 0

(c)

1 0 40 1 −20 0 0

Page 68: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 3. Systèmes d’équations linéaires 60

Exercice 3.28 Utilisez la procédure d’élimination deGauss pour transformer cette matrice sous une formeéchelonnée.

1 −3 1 −1 0 −1−1 3 0 3 1 3

2 −6 3 0 −1 2−1 3 1 5 1 6

Exercice 3.29 Utilisez la procédure d’élimination deGauss-Jordan pour transformer cette matrice sous uneforme échelonnée réduite.

−2 1 1 156 −1 −2 −361 −1 −2 −11−5 −5 −5 −14

Exercice 3.30 Utilisez la procédure d’élimination deGauss-Jordan pour résoudre ce système.

3x1 + x2 + 7x3 + 2x4 = 132x1 − 4x2 + 14x3 − x4 = −105x1 + 11x2 − 7x3 + 8x4 = 592x1 + 5x2 − 4x3 − 3x4 = 39

Exercice 3.31 Déterminez le rang de chacune des ma-trices suivantes.

(a)

−1 −1 0 0

0 0 2 34 0 −2 13 −1 0 4

(b)

1 −1 32 0 4−1 −3 1

Exercice 3.32 Choisissez les valeurs de a et b pour que

le système qui suit(a) n’ait aucune solution ;(b) ait une seule solution ;(c) ait une infinité de solutions.{

x1 − 3x2 = 12x1 − ax2 = b

Exercice 3.33 Quelle est la solution du système dontla matrice augmentée échelonnée réduite est :1 0 0 −7 8

0 1 0 3 20 0 1 1 −5

Exercice 3.34 Quelle est la solution du système dontla matrice augmentée échelonnée est :1 −3 7 1

0 1 4 00 0 0 1

Exercice 3.35 Quelle est la solution du système dontla matrice augmentée est : 1 1 2 8

−1 −2 3 13 −7 4 10

Exercice 3.36 Pour quelle(s) valeur(s) de a est-ce quele système suivant a une solution non-triviale ? Trouvezla solution générale dans ce cas. x1 + 2x2 + x3 = 0

x1 + 3x2 + 6x3 = 02x1 + 3x2 + ax3 = 0

Page 69: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

4 Inverse d’une matrice carrée4.1 Introduction 614.2 L’inverse d’une matrice 2× 2 654.3 Matrices élémentaires 664.4 Sur l’existence d’un inverse 684.5 Algorithme pour trouver un inverse 704.6 Exercices divers 71

4.1 Introduction

Dans les différentes applications de l’algèbre linéaire, plusieurs problèmesse réduisent à résoudre une équation de la forme AX = B, où on désiredéterminer X. Si on traitait avec de simples nombres, la solution seraitimmédiate : X = B/A. Malheureusement, la division de matrices n’est pasune opération définie. Par contre, on peut parfois définir une matrice diteinverse qui peut jouer un rôle semblable. Ainsi, au lieu d’avoir une matriceinverse A−1 = 1

Aon peut avoir une matrice inverse obéissant l’opération

suivante : A−1A = I où I est la matrice identité. 1

Définition 4.1.1Une matrice carrée A d’ordre n est dite inversible ou régulière ou encore non singulière, s’ilexiste une matrice B d’ordre n telle que : AB = BA = In où In désigne la matrice unité d’ordren ; B est appelé l’inverse de A et est normalement désignée par A−1.

Une matrice carrée qui n’est pas inversible est dite non inversible ou sin-matrice inversiblegulière.matrice singulière

Exemple 4.1.1

Vérifiez que la matrice B =(−2 1

32 −1

2

)est l’inverse de la matrice A =

(1 23 4

)

Solution: En multipliant, on peut facilement vérifier que BA = AB = I2.

On prouvera au théorème 4.4.2 que, pour deux matrices carrées, il suffirad’avoir AB = In pour conclure que l’une est l’inverse de l’autre. En d’autresmots, une fois la démonstration fait, il ne sera plus nécessaire de vérifierégalement que BA = In.

1Dans ce texte, nous allons nous limiter aux matrices carrées ; pour les matrices non-carrées, il existe parfois un inverse à gauche (ou une infinité d’inverses) ou un inverse àdroite (ou une infinité d’inverses), selon que le nombre de lignes soit plus grand ou pluspetit que le nombre de colonnes.

61

Page 70: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 62

Exemple 4.1.2Démontrez que la matrice

A =(

1 00 0

)est singulière.

Solution: Soit B une matrice 2× 2 telle que C = BA. Pour que B soit l’inverse de A, il faudrait quec22 soit égal à 1. Mais c22 = b21a12 + b22a22 = 0 + 0 = 0. Il est donc impossible que C = I2 et donc Aest singulière.

Nous avons déjà mentionné, dans une note au bas de page, que pour lesmatrices non-carrées, le concept d’une matrice inverse ne mène pas à unedéfinition unique. Par exemple, considérez le cas suivant :

Exemple 4.1.3Soit les matrices A et B suivantes :

A =(

1 0 00 1 0

), B =

1 00 10 0

On peut facilement vérifier que AB = I2, et donc que A est l’inverse à gauche de B (et que B estl’inverse à droite de A. Par contre :

BA =

1 00 10 0

(1 0 00 1 0

)=

1 0 00 1 00 0 0

6= I3

Théorème 4.1.1L’inverse d’une matrice carrée est unique.

Démonstration: Supposons que A a deux inverses, B et C, et donc que BA = I et AC = I. Nousallons démontrer que B = C, c’est-à-dire que l’inverse est unique. Nous avons

B = BI = B(AC) = (BA)C = IC = C

CQFD

Ayant prouvé l’unicité de l’inverse, nous allons à partir de maintenant ledénoter par A−1. Également, pour tout entier n ≥ 1, nous définissons A−n =(A−1)n. Le théorème suivant donne quelques propriétés utiles des inverses.

Page 71: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 63

Théorème 4.1.2Soit A et B deux matrices carrées de la même taille (n× n).(a) I est inversible et I−1 = I.(b) Si A est inversible, alors A−1 est inversible et (A−1)−1 = A. Notez que ceci satisfait la loi desexposants.(c) Si A et B sont inversibles, alors AB est inversible et (AB)−1 = B−1A−1

(d) Si A1,A2, . . . ,Ak sont inversibles, alors A1A2 . . .Ak est inversible et (A1A2 . . .Ak)−1 =A−1k A−1

k−1 . . .A−12 A−1

1 est son inverse.(e) Si A est inversible, alors Ak est également inversible et (Ak)−1 = (A−1)k.(f) Si A est inversible, alors A> est inversible et (A>)−1 = (A−1)>.(g) Si A est inversible et que c est un nombre différent de zéro, alors cA est inversible et son inverseest (cA)−1 = 1

cA−1.

Démonstration:(a) Évident puisque I · I = I.(b) Puisque AA−1 = A−1A = I, alors A est l’inverse de A−1 et donc (A−1)−1 = A.(c) Si A et B sont inversibles, alors AA−1 = A−1A = I et BB−1 = B−1B = I. Nous avons

(AB)(B−1A−1) = ABB−1A−1 associativité de la multiplication

= A(BB−1)A−1

= AInA−1

= AA−1

= In

De la même façon, on peut démontrer que (B−1A−1)(AB) = In et donc que B−1A−1 est l’inverse deAB.(d) La démonstration est semblable à celle de (c).(e) La démonstration est semblable à celle de (c).(f) La transposée de chaque terme de l’équation AA−1 = A−1A = I est

(AA−1)> = (A−1A)> = I>

⇒ (A−1)>A> = A>(A−1)> = I

et donc A> est inversible et (A>)−1 = (A−1)>.

(g) Il est facile de vérifier que (cA)(1c

A−1)

=(1c

A−1)

(cA) = I. CQFD

Exemple 4.1.4Sous quelle(s) condition(s) une matrice diagonale est-elle inversible ?

Solution: Soit D = (dij) une matrice diagonale n × n et A une matrice quelconque n × n telle que

Page 72: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 64

DA = I. En toute généralité, écrivons DA = B = (bij). Ainsi, nous avons

bij =n∑k=1

dikakj = diiaij

puisque dik = 0 si i 6= k. Mais, B = I et donc bij = 0 si i 6= j. Par conséquent, aij = 0 si i 6= j et doncA est une matrice diagonale.

Puisque bii = 1, on trouve aii = 1dii

ce qui est possible si et seulement si dii 6= 0∀i.

Sachant que l’inverse d’une matrice diagonale est une autre matrice diago-nale, et parce que les manipulations de matrices diagonales (multiplicationou addition) sont relativement plus faciles que celles de matrices arbitraire,il est parfois utile de les considérer en premier lorsqu’on veut démontrercertaines propriétés comme dans l’exemple suivant.

Exemple 4.1.5Est-ce que la somme de deux matrices inversibles est nécessairement inversibles ?

Solution: Non. Par exemple, considérer les deux matrices diagonales (et inversibles) a

(1 00 −1

)et

(−1 0

0 1

)

Il est facile de vérifier que leur somme est la matrice nulle qui n’est pas inversible.aUn pur hasard : chacune de ces deux matrices est son propre inverse, i.e. A = A−1.

Ayant défini l’inverse d’une matrice, nous pouvons l’utiliser pour ré-soudre, en principe, des systèmes d’équations linéaires définies par le biaisde matrices, tel qu’indiqué par le théorème suivant.

Théorème 4.1.3Si A est une matrice inversible n×n et B est un vecteur colonne, alors l’équation AX = B a commesolution unique X = A−1B.

Démonstration: Puisque A(A−1B) = (AA−1)B = InB = B alors A−1B est une solution de l’équa-tion AX = B. Supposons que Y soit une solution de cette équation ; alors

Y = InY = (A−1A)Y = A−1(AY ) = A−1B

c’est-à-dire que c’est la même (et donc la seule) solution.

Page 73: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 65

4.2 L’inverse d’une matrice 2× 2

Nous allons maintenant procéder au calcul de l’inverse d’une matrice générale2 × 2 en se servant de ce que nous avons appris jusqu’à maintenant. Dansune prochaine section, nous allons voir un algorithme qui nous permettra decalculer plus facilement les inverses.

La matrice 2× 2 la plus générale peut être écrite de la façon suivante :

A =(a bc d

)

Écrivons son inverse comme suit :

A−1 =(w yx z

)de telle sorte que

AA−1 =(a bc d

)(w yx z

)=(aw + bx ay + bzcw + dx cy + dz

)=(

1 00 1

)Ceci nous donne le système d’équations suivant :

aw + bx = 1cw + dx = 0

ay + bz = 0cy + dz = 1

que l’on peut récrire sous la forme de deux systèmes indépendants :{aw + bx = 1cw + dx = 0 [4.2.1]

et {ay + bz = 0cy + dz = 1 [4.2.2]

Considérons le premier de ces deux systèmes. En multipliant la premièreéquation par −c et la deuxième par a et additionnant les deux équationsrésultantes, on trouve

(ad− bc)x = −c ⇒ x = −cad− bc

ce qui suppose que ad − bc 6= 0. En procédant de façon semblable pourtrouver les autres inconnues, on obtient

y = −bad− bc

w = d

ad− bcz = a

ad− bcqui sont toutes des solutions possibles pourvu que ad−bc 6= 0. On en conclutque l’inverse de A existe si 2 ad− bc 6= 0 et est alors donné par

A−1 = 1ad− bc

(d −b−c a

)2Notez que c’est la même condition que nous avions trouvé pour l’exercice 3.15 ; ceci

n’est pas un hasard.

Page 74: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 66

Nous avons donc trouvé l’inverse d’une matrice 2 × 2, s’il existe. Mais,pour ce faire, nous avons dû résoudre un système de 4 équations linéaires.En suivant cette procédure, pour trouver l’inverse d’une matrice n×n, nousaurions besoin de résoudre un système de n2 équations, ce qui devient rapi-dement peu pratique à faire. Il existe une meilleure façon de faire les chosesen utilisant les propriétés des matrices élémentaires que nous allons voir dansla section suivante.

4.3 Matrices élémentaires

Lorsque nous avons discuté de la procédure d’élimination de Gauss, nousavons introduit les opérations élémentaires sur les lignes. Il est possible dedéfinir des matrices, connues sous le nom de matrices élémentaires qui,

matrices élémentairespar le biais de la multiplication matricielle, jouent le même rôle. Une matriceélémentaire est obtenue à partir de la matrice identité en performant uneseule opération élémentaire sur les lignes.

De façon générale, nous désignerons ces matrices élémentaires soit parla lettre E ou par cette lettre avec un indice, Ek, lorsqu’il y aura plus d’unematrice élémentaire à considérer.

De façon spécifique, lorsque nous le pourrons, nous désignerons cesmatrices élémentaires par une notation spéciale 3 qui donnera l’informationcomplète sur la matrice, à l’exception de sa taille qui sera normalementconnue de par le contexte. C’est ainsi que : Une matrice élémentaire

est obtenue à partir de lamatrice identité en perfor-mant une seule opérationélémentaire sur les lignes.

— la matrice qui correspond à l’échange de deux lignes, Li ↔ Lj , seradésignée par Ei↔j ;

— la matrice qui correspond au remplacement d’une ligne donnée parson multiple, nLi → Li, n 6= 0, sera désignée par Ei(n) ;

— la matrice qui correspond au remplacement d’on ligne donnée parl’addition de celle-ci avec le multiple d’une autre ligne, Li + nLj →Li avec n 6= 0, sera désignée par Eij(n).

Exemple 4.3.1Identifiez les matrices suivantes et écrivez l’opération sur les lignes qui lui correspond.(a) 2 0 0

0 1 00 0 1

(b) 1 0 0

0 0 10 1 0

3 À noter qu’il n’y a pas de notation standard pour identifier les matrices élémentaires.Nous avons inventé notre propre notation pour les besoins de ce manuel.

Page 75: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 67

(c) 1 0 40 1 00 0 1

Solution: a

(a) E1(2) : 2L1 → L1.On peut vérifier ceci de la façon suivante :2 0 0

0 1 00 0 1

a1 a2 · · ·b1 b2 · · ·c1 c2 · · ·

=

2a1 2a2 · · ·b1 b2 · · ·c1 c2 · · ·

(b) E2↔3 : L2 ↔ L3.On peut vérifier ceci de la façon suivante :1 0 0

0 0 10 1 0

a1 a2 · · ·b1 b2 · · ·c1 c2 · · ·

=

a1 a2 · · ·c1 c2 · · ·b1 b2 · · ·

(c) E13(4) : L1 + 4L3 → L1.On peut vérifier ceci de la façon suivante :1 0 4

0 1 00 0 1

a1 a2 · · ·b1 b2 · · ·c1 c2 · · ·

=

a1 + 4c1 a2 + 4c2 · · ·b1 b2 · · ·c1 c2 · · ·

a Avec un peu de pratique, on peut identifier le type de matrice élémentaire sans avoir à faire de multiplication

avec une autre matrice. En cas de doute, il suffit de prendre un simple vecteur colonne X et de multiplier EX. Danscet exemple, nous utilisons des matrices arbitraires plus générale pour trouver la solution.

On peut également facilement vérifier que cette équivalence entre la mul-tiplication par une matrice élémentaire et les opérations élémentaires sur lesrangées d’une matrice A est toujours vérifiée peu importe la taille de lamatrice A, et aussi bien pour les matrices carrées que rectangulaires. Ce-pendant, en général, nous allons nous limiter aux matrices carrées.

Dans la pratique, nous n’allons pas multiplier par des matrices élémen-taires pour résoudre des systèmes d’équations ou trouver l’inverse de ma-trices. Cependant, nous allons utiliser les matrices élémentaires pour démon-trer certains théorèmes parce que la manipulation symbolique de matrices estbeaucoup plus simple que l’utilisation d’opérations élémentaires successives.

Pour chaque opération élémentaire sur les lignes, nous pouvons faire uneopération inverse ; l en découle que chaque matrice élémentaire a un inverseet cet inverse est une matrice élémentaire :

— Pour l’échange de deux lignes, Li ↔ Lj , l’opération inverse consisteà faire l’échange à nouveau ; donc E−1

i↔j = Ei↔j .

Page 76: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 68

— Pour le remplacement d’une ligne donnée par son multiple αLi avecα 6= 0, l’opération inverse consiste à remplacer cette nouvelle ligne,L′i par son multiple α−1L′i = Li ; donc E−1

i (n) = Ei(n−1).— Pour le remplacement d’une ligne donnée par l’addition de celle-ci

avec le multiple d’une autre ligne Li + βLj → Li avec β 6= 0,il suffit de remplacer le résultat, L′i par l’addition de celle-ci avec lemultiple−β de l’autre, L′i−βLj → L′i = Li ; donc E−1

ij (β) = Eij(−β).

Théorème 4.3.1Chaque matrice élémentaire a un inverse, et cet inverse est également une matrice élémentaire.

Démonstration: Voir l’explication dans le texte.

Exemple 4.3.2Sans faire de calculs compliqués, et en vous basant uniquement sur la correspondance des opérationsélémentaires sur les rangées, déterminez l’inverse des matrices élémentaires suivantes.

E1 =

0 1 01 0 00 0 1

E2 =

1 0 00 1 00 0 2

E3 =

1 0 30 1 00 0 1

Solution:

E−11 = E1 E−1

2 =

1 0 00 1 00 0 1

2

E−13 =

1 0 −30 1 00 0 1

4.4 Sur l’existence d’un inverse

Le théorème qui suit établit des équivalences utiles au sujet des conditionspour établir l’existence de l’inverse d’une matrice.

Théorème 4.4.1Si A est une matrice carrée n× n, alors les quatre énoncés suivants sont équivalents :

(a) A est inversible.(b) L’équation AX = 0 a seulement la solution triviale.(c) A peut être obtenue de I en utilisant seulement des opérations élémentaires sur les lignes.(d) rg A = n.

Démonstration:Nous allons démontrer que, si l’une de ces propositions est vraie, alors ceci implique que les autres le

Page 77: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 69

sont. Pour faire cette démonstration, il suffit de prouver que

(a)⇒ (b)⇒ (c)⇒ (d)⇒ (a)

(a) ⇒ (b) : Supposons que A soit inversible et que X0 est une solution de l’équation AX = 0.En d’autres termes, AX0 = 0. En multipliant de chaque côté de cette dernière équation par A−1, nousavons :

A−1AX0 = A−10⇒ X0 = 0

c’est-à-dire que seule la solution triviale existe.

(b) ⇒ (c) : Soit M la matrice résultant de la procédure transformant A sous une forme échelonnéeréduite (donc, en utilisant seulement des opérations élémentaires sur les lignes). Nous avons deux pos-sibilités : soit que M a une, ou plusieurs lignes nulles, ou soit que M n’a pas de lignes nulles, et doncque M est la matrice identité, I. Si M a une, ou plusieurs lignes nulles, alors il existe une infinité desolutions pour l’équation AX = 0, ce qui contredit l’hypothèse (b). Par conséquent, M = I.

(c)⇒ (d) : rg A = rg I = n.

(d) ⇒ (a) : Supposons que rg A = n. Ceci veut dire que A peut être obtenue à partir de I enfaisant des opérations élémentaires sur les rangées. Puisque les opérations élémentaires sur les rangéessont équivalentes à multiplier par des matrices élémentaires, nous avons

EkEk−1 . . .E2E1A = I

pour un nombre k fini d’opérations élémentaires. Appelons ce produit de matrice élémentaires B. Nousavons donc

BA = I

Puisque chaque matrice élémentaire est inversible, le produit de ces matrices élémentaires est égalementinversible. Donc, A est l’inverse de B et il découle que B = A−1, et donc que A est inversible.

Il existe un autre énoncé équivalent à ceux du théorème précédent, telque décrit dans le théorème suivant.

Théorème 4.4.2Si A et B sont deux matrices carrées et que AB = I alors B est l’inverse de la matrice carrée A(et vice-versa).

Démonstration: Étant donné la matrice B, cherchons un vecteur colonne X tel que BX = 0. Enmultipliant de chaque côté par A, on trouve ABX = 0. Mais, puisque AB = I, ceci se réduit àX = 0, et donc BX = 0 a seulement la solution triviale. Par le théorème 4.4.1, ceci veut dire que Best inversible. Écrivons l’inverse de B comme étant C. Nous avons donc

C = IC propriété de l’identité

= (AB)C par définition de AB

= A(BC) propriété de la multiplication

= A puisque BC = I

Page 78: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 70

et donc, A est l’inverse de B. CQFD

4.5 Algorithme pour trouver un inverse

Une application immédiate des théorèmes de la section précédente, nouspermet d’obtenir un algorithme pour trouver l’inverse d’une matrice carréeA de taille n× n. Pour ce faire, nous introduisons la matrice augmentée detaille n× 2n

[A|I]

En multipliant par la gauche par A−1, et en utilisant la notation de multi-plications par blocs, on trouve :

A−1 [A|I] =[A−1A|A−1I

]=

[I|A−1

]De façon complètement équivalente, si on écrit A−1 = EkEk−1 . . .E2E1, ona

EkEk−1 . . .E2E1 [A|I] = [EkEk−1 . . .E2E1A|EkEk−1 . . .E2E1I]=

[I|A−1

]c’est-à-dire qu’en faisant des opérations élémentaires sur les lignes de [A|I]jusqu’à ce que A soit transformée en matrice identité, alors I sera, par cesmêmes opérations sur les lignes, transformées en l’inverse de A.

Illustrons ceci par un exemple.

Exemple 4.5.1Trouvez l’inverse de la matrice suivante :

A =

1 2 32 5 31 0 8

Solution: En premier, nous écrivons la matrice augmentée [A|I]1 2 3 1 0 02 5 3 0 1 01 0 8 0 0 1

Puis, nous utilisons des opérations élémentaires successives sur les lignes pour transformer le bloc de

Page 79: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 71

gauche en la matrice identité

L2 − 2L1 → L2L3 − L1 → L3

1 2 3 1 0 00 1 −3 −2 1 00 −2 5 −1 0 1

L3 + 2L2 → L3 ⇒

1 2 3 1 0 00 1 −3 −2 1 00 0 −1 −5 2 1

−L3 → L3 ⇒

1 2 3 1 0 00 1 −3 −2 1 00 0 1 5 −2 −1

L1 − 3L3 → L1L2 + 3L3 → L2

1 2 0 −14 6 30 1 0 13 −5 −30 0 1 5 −2 −1

L1 − 2L2 → L1 ⇒

1 0 0 −40 16 90 1 0 13 −5 −30 0 1 5 −2 −1

Le bloc de gauche est la matrice identité ; le bloc de droite est donc la matrice inverse de A

A−1 =

−40 16 913 −5 −35 −2 −1

On aurait pu arriver à trouver cet algorithme à partir de ce qu’on avaittrouvé pour le cas de l’inverse d’une matrice 2 par 2. Nous avions alors deuxéquations :{

aw + bx = 1cw + dx = 0 4.2.1 et

{ay + bz = 0cy + dz = 1 4.2.2

Ces deux équations correspondent aux matrices augmentées[a b 1c d 0

]et

[a b 0c d 1

]

qui sont identiques, sauf pour la colonne des termes constants. L’algorithmeque nous utilisons regroupe ces deux colonnes de termes constants pour faireune seule matrice augmentée. [

a b 1 0c d 0 1

]

4.6 Exercices divers

Page 80: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 4. Inverse d’une matrice carrée 72

Exercice 4.1 Vérifiez en multipliant A et son inverseque la réponse trouvée à l’exemple 4.5.1 est correcte.

Exercice 4.2 Si E est une matrice élémentaire, démon-trez que E> est également une matrice élémentaire dumême type.

Exercice 4.3 Trouvez deux matrices 2×2 qui sont sin-gulières et dont la somme n’est pas singulière.

Exercice 4.4 Trouvez deux matrices 2× 2 qui sont in-versibles et dont la somme n’est pas inversible.

Exercice 4.5 Calculez A−3 si

A =(

1 21 3

)

Exercice 4.6 Trouvez A si

A−1 =(

2 −13 5

)

Exercice 4.7 Soit A et B deux matrices carrées tellesque AB = 0. Démontrez que si A est inversible, alorsB = 0.

Exercice 4.8 Pour chacune des matrices suivantes,identifiez s’il s’agit d’une matrice élémentaire et, sic’est le cas, identifiez la par la notation spécifique (parexemple E1↔5). S’il ne s’agit pas d’une matrice élémen-taire, expliquez pourquoi.(a) 1 1 0

0 0 10 1 0

(b) 1 0 0

0 1 90 0 1

(c)

2 0 0 20 1 0 00 0 1 00 0 0 1

(d) (

1 0−5 1

)Exercice 4.9 Soit A une matrice 4 × 3. Déterminez

la matrice élémentaire E qui, agissant comme un mul-tiplicateur à gauche sur A, c’est-à-dire, EA, performel’opération suivante sur A :(a) Multiplie la deuxième rangée de A par -2.(b) Ajoute 3 fois la deuxième rangée de A à la qua-trième rangée de A.(c) Interchange la première et la troisième rangée deA.

Exercice 4.10 Soit les matrices A,B,C suivantes :

A =

3 4 12 −7 −18 1 5

B =

8 1 52 −7 −13 4 1

C =

3 4 12 −7 −12 −7 3

Trouvez les matrices élémentaires E1,E2,E3,E4 quifont en sorte que :(a) E1A = B.(b) E2B = A.(c) E3A = C.(d) E4C = A.(e) Calculez E1E2E3E4.(f) Calculez E1E3E2E4.

Exercice 4.11 Trouvez l’inverse de :

A =(

sin θ cos θ− cos θ sin θ

)

Exercice 4.12 Trouvez l’inverse de :

A =

1 0 0 01 1 0 01 1 1 01 1 1 1

Exercice 4.13 Trouvez l’inverse de :

A =

0 1 21 0 34 −3 8

Exercice 4.14 En utilisant l’algorithme [A|I] ⇒[I|A−1] et en faisant le minimum d’opérations sur lesrangées, démontrez que la matrice suivante n’a pas d’in-verse :

A =

1 2 40 −1 51 1 9

Page 81: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

5 Espaces vectoriels5.1 Introduction : le résumé du résumé 735.2 Introduction : le résumé 745.3 Définition d’un espace vectoriel 775.4 Sous-espace vectoriel 805.5 Combinaisons linéaires 815.6 Générateurs 835.7 Dépendance et indépendance linéaire 86

5.7.1 Que veut-on dire par dépendance linéaire ? 865.8 Base et dimension 885.9 Coordonnées 945.10 Exercices divers 97

Dans ce chapitre nous allons introduire les espaces vectoriels. L’approcheque nous allons suivre va être plus mathématiquement rigoureuse que d’ha-bitude, dans le but d’illustrer le niveau de détails qu’un mathématicien doitutiliser pour bâtir des preuves formelles. De plus, nous allons introduire es-sentiellement toute la matière dans une seule section fournissant un résumédu chapitre, sans fournir un seul exemple autre que l’exemple initial. Cecinous permettra de nous concentrer sur le cheminement logique des diversesdéfinitions. Par la suite, nous reverrons chaque concept que nous illustre-rons de divers exemples. Ce type de présentation, basée uniquement sur desdéfinitions et des théorèmes, sans fournir d’exemples, est une façon de fairequi est habituellement utilisée en mathématiques avancées. C’est une façonconcise de faire les choses ... mais qui demande un niveau d’abstraction trèsélevé.

Avant de présenter ce résumé en détails . . . nous allons, en premier, faireun résumé du résumé !

5.1 Introduction : le résumé du résumé

Dans la section suivante, nous allons commencer par définir un ensemble Vd’éléments qui obéissent à 10 axiomes basés sur une définition d’addition deces éléments entre eux ou de multiplication par des nombres. Après avoir dé-fini quelques termes supplémentaires, nous verrons qu’il y a une relation desdifférents éléments de V qui fait en sorte que l’on peut en choisir un nombren fixe qui peuvent être combinés pour obtenir tous les autres éléments de V ,chaque élément étant obtenu par une combinaison unique. Chaque combi-naison unique est caractérisée par n nombres ; on peut écrire ces n nombresdans une matrice n× 1, c’est-à-dire un vecteur. Ainsi, chaque élément de Vest associé de façon unique à un vecteur. Pour cette raison, nous appelle-rons les éléments de V des vecteurs. Quant à V , on dira que c’est un espacevectoriel

73

Page 82: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 74

5.2 Introduction : le résumé

Nous commençons par la définition d’un espace vectoriel.espace vectoriel

Définition 5.2.1Un espace vectoriel est un ensemble V d’objets appelés vecteurs, sur lesquels on définit deuxopérations, soit l’addition ainsi que la multiplication par un scalaire, et pour lequel les axiomessuivant sont satisfaits pour tous les vecteurs u,v,w dans V et pour tous les scalaires α, β ∈ K.

1. La somme de u et v, dénotée par u + v, est dans V .2. u + v = v + u

3. (u + v) + w = u + (v + w)4. Il existe dans V un vecteur nul, dénoté par 0, tel que u + 0 = u.5. Pour chaque u dans V , il existe un vecteur −u dans V tel que u + (−u) = 0.6. La multiplication de u par un scalaire α est dénotée par αu et est dans V .7. α(u + v) = αu + αv

8. (α+ β)u = αu + βu

9. α(βu) = (αβ)u10. 1u = u

Par exemple, soit P2(t) l’ensemble des polynômes réels du deuxième de-gré, et soit u,v,w trois polynômes de cet ensemble, u,v,w ∈ P2(t). Defaçon plus explicite, nous avons

u = a0 + a1t+ a2t2

v = b0 + b1t+ b2t2

w = c0 + c1t+ c2t2

avec ai, bi, ci ∈ R ∀i

Soit également α, β, qui apparaissent dans la définition d’un espace vecto-riel, également des réels. On peut alors facilement vérifier que les 10 axiomesqui définissent un espace vectoriel sont satisfaits par les polynômes réelsdu deuxième degré. Par conséquent, P2(t) constitue un espace vectoriel etchaque polynôme qui appartient à cet ensemble est un vecteur. Ces vec- vecteurteurs ne ressemblent pas aux vecteurs auxquels vous êtes habitués et qu’onreprésente par une flèche dans le plan ou dans l’espace.

Exercice 5.1 Démontrez que chacun des 10 axiomes dans la définition d’unespace vectoriel est satisfait par l’ensemble P2(t).

Ayant défini un espace vectoriel, on étend la définition à une partie decet espace qu’on désignera sous le nom de sous-espace vectoriel.

Page 83: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 75

Définition 5.2.2Soit W un sous-ensemble d’un espace vectoriel V . On appelera W un sous-espace vectoriel a deV si les trois propriétés suivantes sont satisfaites :

1. Le vecteur zéro de V est dans W .2. W est fermé pour l’addition ; u,w ∈W ⇒ u + w ∈W .3. W est fermé pour la multiplication par un scalaire : w ∈W ⇒ kw ∈W pour k ∈ K, l’ensemble

de scalaires utilisés pour la définition de V .aOn omet parfois le mot vectoriel pour simplement écrire sous-espace pour signifier la même chose.

On peut facilement vérifier qu’un sous-ensembleW de V qui satisfait les troispropriétés mentionnées dans la définition ci-dessus est un espace vectoriel.

On introduit maintenant une autre définition, celle d’une combinaisonlinéaire.

Définition 5.2.3Soit V un espace vectoriel sur le corps K et soient les vecteurs v1,v2, . . . ,vn ∈ V . Un vecteurquelconque de la forme

a1v1 + a2v2 + . . .+ anvn avec ai ∈ K

est appelé une combinaison linéaire des vecteurs v1,v2, . . . ,vn

À partir de ces définitions, on peut démontrer le théorème suivant.

Théorème 5.2.1Soit S un sous-ensemble non-vide d’un espace vectoriel V . L’ensemble de toutes les combinaisonslinéaires des vecteurs de S, dénotée par Vect(S), est un sous-espace vectoriel de V contenant S. Deplus, si W est un autre sous-espace vectoriel de V contenant S, alors Vect(S) ⊆W .

Nous fournirons une démonstration plus tard. Ce qui est à retenir pour l’ins-tant est la définition de Vect(S). Nous introduisons deux autres définitions.

Définition 5.2.4Soit V un espace vectoriel sur le corps K. Les vecteurs v1, . . . ,vn ∈ V sont dits linéairementdépendants s’il existe des scalaires k1, . . . , kn ∈ K dont au moins un est différent de zéro tels que

k1v1 + . . .+ knvn = 0

Autrement, on dit que ces vecteurs sont linéairement indépendants.

Page 84: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 76

Définition 5.2.5La dimension d’un espace vectoriel V est n (dimV = n) s’il existe n vecteurs linéairement indépen-dants, e1, . . . , en qui engendrent V , c’est-à-dire Vect({e1, . . . , en}) = V . L’ensemble {e1, . . . , en} estappelé une base de V .

À partir de ces diverses définitions, il est possible de démontrer la validitédu théorème de l’unicité de la représentation.

théorème de l’unicité de lareprésentation

Théorème 5.2.2Soit B = {e1, . . . , en} une base pour l’espace vectoriel V . Alors, pour chaque vecteur v dans V , ilexiste un ensemble unique de scalaires, a1, . . . , an tel que

v = a1e1 + . . .+ anen

Ayant démontré que, pour chaque vecteur dans V avec une base donnée B,il existe un ensemble unique de scalaire, nous utilisons ceci pour définir lescoordonnées.

coordonnées

Définition 5.2.6Soit B = {e1, . . . , en} une base pour l’espace vectoriel V , et v un vecteur quelconque de V . Lescoordonnées de v par rapport à la base B sont les scalaires a1, . . . , an tels que

v = a1e1 + . . .+ anen

Avec cette définition, on utilise la notation [v]B pour représenter la matricedes coordonnées 1 de v (par rapport à la base B) :

matrice des coordonnées

[v]B =

a1...

an

Ceci est un résultat très important : on vient d’établir une corres-

pondance une-à-une entre tout vecteur de V (de dimension n) et un vecteurcorrespondant de Kn, où on aura habituellement K = R. On dit qu’un es-pace vectoriel V de dimension n défini sur le corps K est isomorphe 2 à Kn.Puisqu’on a habituellement K = R, et puisqu’on vient d’établir une corres-pondance entre les éléments d’un espace vectoriel V et les vecteurs de Rn,on peut donc comprendre pourquoi on a choisit d’utiliser le terme vecteurcomme synonyme d’élément de V et qu’on utilise l’adjectif vectoriel pourcaractériser ce même espace.

1Puisqu’il s’agit d’une matrice de taille n × 1, on dit parfois qu’il s’agit du vecteurdes coordonnées.

2Le mot isomorphe signifie ayant la même forme.

Page 85: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 77

5.3 Définition d’un espace vectoriel

Dans la section précédente, nous avons fait un survol rapide des conceptsimportants de ce chapitre, y compris la définition d’un espace vectoriel. Nousallons maintenant revoir le tout de façon plus détaillée, en commençant avecune définition d’un espace vectoriel où l’on donne un nom aux différentsaxiomes.

Définition 5.3.1Un espace vectoriel est un ensemble V d’objets appelés vecteurs, sur lesquels on définit deuxopérations, soit l’addition ainsi que la multiplication par un scalaire, et pour lequel les axiomessuivant sont satisfaits pour tous les vecteurs u,v,w dans V et pour tous les scalaires α, β ∈ K.

1. Fermeture sous l’addition : u + v ∈ V .2. Commutativité de l’addition : u + v = v + u

3. Associativité de l’addition : (u + v) + w = u + (v + w)4. Existence d’un élément neutre de l’addition : ∃0 ∈ V : u + 0 = u.5. Existence d’un inverse additif : ∀u ∈ V ∃ − u ∈ V : u + (−u) = 0.6. Fermeture sous la multiplication : αu ∈ V .7. Distributivité sur l’addition de vecteurs : α(u + v) = αu + αv

8. Distributivité de l’addition de scalaires : (α+ β)u = αu + βu

9. Associativité de la multiplication de scalaires : α(βu) = (αβ)u10. Élément neutre de la multiplication par un scalaire : 1u = u

Il est important de noter que nous n’avons pas défini de multiplicationd’un vecteur par un autre : ceci n’est pas une propriété requise pour avoirun espace vectoriel. Important : notez la distinction de la notation entrele chiffre (scalaire) zéro, 0, et le vecteur nul 0.

Dans ce qui suit, nous allons habituellement supposer que K = R estl’ensemble des scalaires qui est sous-entendu lorsqu’on considère la multipli-cation d’un vecteur par un scalaire ; techniquement, ceci veut dire qu’on selimite seulement aux espaces vectoriels réels.

À partir de ces axiomes, on peut prouver rigoureusement des propriétésqui sont évidentes.

Théorème 5.3.1Soit V un espace vectoriel et α un réel. Les propriétés suivantes peuvent être démontrées.(a) 0 + u = u.(b) −u + u = 0.

Démonstration:(a)

u + 0 = u élément neutre de l’addition ; axiome 4

0 + u = u commutativité de l’addition ; axiome 2

CQFD

Page 86: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 78

(b)u + (−u) = 0 inverse additif ; axiome 5

−u + u = 0 commutativité de l’addition ; axiome 2

CQFD

Théorème 5.3.2Soit V un espace vectoriel et α un réel. Les propriétés suivantes sont satisfaites :(a) 0u = 0.(b) α0 = 0.(c) (−1)u = −u.(d) Si αu = 0 alors soit α = 0 ou u = 0.

Démonstration:(a)

0u = [0 + 0]u 0 = 0+0 dans R

0u = 0u + 0u distributivité de l’addition de scalaire ; axiome 8

0u + (−0u) = [0u + 0u] + (−0u) addition de −0u de chaque côté.

0u + (−0u) = 0u + [0u + (−0u)] associativité de l’addition ; axiome 3

0 = 0u + 0 inverse additif ; axiome 5

0 = 0u élément neutre de l’addition ; axiome 4

CQFD

Les autres démonstrations sont laissées sous forme d’exercice.

Exercice 5.2 Soit V un espace vectoriel et α un réel. Dans ce qui suit, ondémontre que α0 = 0 où 0 ∈ V .

α0 = α(0 + 0) par l’axiome __α0 = α0 + α0 par l’axiome __

α0 + (−α0) = [α0 + α0] + (−α0) addition de (−α0) de chaque côté.α0 + (−α0) = α0 + [(α0) + (−α0)] par l’axiome __

0 = α0 + 0 par l’axiome __0 = α0 par l’axiome __

CQFD

Déterminez quel axiome a été utilisé dans chaque cas.

Exercice 5.3 Soit V un espace vectoriel et α un réel. Démontrez que (−1)u =−u.Suggestion : Démontrez en premier que u + (−1u) = 0.

Page 87: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 79

Exercice 5.4 Soit V un espace vectoriel et α un réel. Démontrez que siαu = 0 alors soit α = 0 ou u = 0.

Exercice 5.5 Soit V un espace vectoriel. Démontrez que −u est l’uniquevecteur dans V tel que u + (−u) = 0.

Exercice 5.6 Démontrez que l’ensemble des matrices m × n ayant des co-efficients réels, et qui sont multipliés par des scalaires (également réels) estun espace vectoriel. Pour faire cette démonstration, vous devez prouvez quechaque axiome est satisfait, basé sur les différentes définitions et les théorèmespertinents.

On note que le résultat de l’exercice 5.6 implique que les vecteurs habi-tuels de Rn (soit les matrices n × 1 ou 1 × n) forment un espace vectorielcomme on s’y attendait.

Exercice 5.7 Démontrez que l’ensemble des fonctions sur les nombres réelsest un espace vectoriel. Pour faire cette démonstration, vous devez prouvez quechaque axiome est satisfait, basé sur les différentes définitions et les théorèmespertinents. Soit les fonctions f, g ∈ V et le scalaire k ∈ R ; l’addition de fonctionest définie de la façon suivante :

(f + g)(x) = f(x) + g(x) ∀x ∈ R

et la multiplication par un scalaire est :

(kf)(x) = kf(x) ∀x ∈ R

Exercice 5.8 Soit l’ensemble V de tous les couples de nombres réels :

V = {(x, y) ;x, y ∈ R}

Démontrez, dans chacun des cas suivants, que V n’est pas un espace vectoriel sil’on définit l’addition dans V et la multiplication par un scalaire k de la façonsuivante :(a) (a, b) + (c, d) = (a+ c, b+ d) et k(a, b) = (ka, b).(b) (a, b) + (c, d) = (a, b) et k(a, b) = (ka, kb).(c) (a, b) + (c, d) = (a+ c, b+ d) et k(a, b) = (k2a, k2b).

Suggestion : : dans chacun des cas, il suffit de démontrer que l’un des axiomesn’est pas satisfait.

Page 88: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 80

5.4 Sous-espace vectoriel

Définition 5.4.1Soit W un sous-ensemble d’un espace vectoriel V . On appelera W un sous-espace vectoriel a deV si les trois propriétés suivantes sont satisfaites :

1. Le vecteur zéro de V est dans W .2. W est fermé pour l’addition : u,w ∈W ⇒ u + w ∈W .3. W est fermé pour la multiplication par un scalaire : w ∈W ⇒ kw ∈W pour k ∈ K, l’ensemble

de scalaires utilisés pour la définition de V .aOn omet parfois le mot vectoriel pour simplement écrire sous-espace pour signifier la même chose.

On peut facilement vérifier qu’un sous-ensembleW de V qui satisfait les troispropriétés mentionnées dans la définition ci-dessus est un espace vectoriel.

Pour tout espace vectoriel V , il existe deux sous-espaces vectoriels tri-viaux : le sous-ensemble contenant seulement le vecteur nul, {0}, appelésous-espace nul, ainsi que sous-espace total, constitué de l’espace V lui-même

Exemple 5.4.1

(a) Est-ce que R2 est un sous-espace de R3 ?(b) Est-ce que l’ensemble des vecteurs W dont la dernière composante est nulle

W =

ab

0

: a, b ∈ R

est un sous-espace de R3 ?(c) Est-ce que P1(t), l’ensemble des polynômes du premier degré est un sous-espace de P2(t) ?

Solution:(a) Non, les éléments de R2 sont des matrices ayant deux coefficients alors que ceux de R3 en ont trois ;les éléments de R2 ne sont pas des vecteurs de R3.(b) Oui, on peut vérifier que les éléments de W sont des éléments de R3, que W contient l’élément nul,qu’il est fermé sous l’addition et la multiplication par un scalaire. En fait, au lieu de faire la démonstrationséparée de la fermeture sous l’addition et la multiplication par un scalaire, on peut combiner les deux etvérifier que toute combinaison de vecteurs de la forme αv + βu ∈W

α

ab0

+ β

cd0

=

αa+ βcαb+ βd

0

=

ef0

∈W(c) Oui, on peut vérifier que les éléments de P1(t) sont des éléments de P2(t), que P(t) contient l’élémentnul, qu’il est fermé sous l’addition et la multiplication par un scalaire.

Page 89: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 81

Exercice 5.9 Est-ce que l’ensemble des monômes at, a ∈ R est un sous-espacede P2(t) ?

Exercice 5.10 Soit U etW deux sous-espaces d’un espace vectoriel V . Est-ceque leur intersection, U ∩W , est un sous-espace ?

Exercice 5.11 L’ensemble des matrices 2 × 2 à coefficients réels forme unespace vectoriel. Est-ce que l’ensemble des matrices 2× 2 symétriques à coeffi-cients réels forme un sous-espace ?

Exercice 5.12 L’ensemble des matrices 2 × 2 à coefficients réels forme unespace vectoriel. Est-ce que l’ensemble des matrices 2 × 2 anti-symétriques àcoefficients réels forme un sous-espace ?

Exercice 5.13 L’ensemble des matrices 2 × 2 à coefficients réels forme unespace vectoriel. Est-ce que l’ensemble des matrices 2 × 2 telles que A2 = Aforme un sous-espace ?Suggestion : Considérez les matrices I et 2I.

Exercice 5.14 Si m et b sont deux constantes réelles, est-ce qu’il est possibleque l’ensemble {(

xmx+ b

), x ∈ R

}soit un sous-espace de R2 ? Justifiez votre réponse.

5.5 Combinaisons linéaires

Définition 5.5.1Soit V un espace vectoriel sur le corps K et soient les vecteurs v1,v2, . . . ,vn ∈ V . Un vecteurquelconque de la forme

a1v1 + a2v2 + . . .+ anvn avec ai ∈ K

est appelé une combinaison linéaire des vecteurs v1,v2, . . . ,vn

Page 90: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 82

Exemple 5.5.1Soient les matrices

v1 =(

1 00 0

)v2 =

(0 10 0

)v3 =

(0 01 0

)

qui sont trois vecteurs de l’espace vectoriel des matrices 2 × 2. La matrice M =(

2 34 0

)est une

combinaison linéaire de ces trois vecteurs

M = 2v1 + 3v2 + 4v3

Exemple 5.5.2Écrire le vecteur v = (1,−2) comme une combinaison linéaire des vecteurs e1 = (1, 1)> et e2 = (1, 2)>.

Solution: Nous voulons écrire v sous la forme v = xe1 + ye2, avec x et y deux scalaires à déterminer.Ceci nous donne donc deux équations :

x + y = 1x + 2y = −2

Nous écrivons la matrice augmentée de ce système et la transformons sous une forme échelonnée réduitepour trouver la solution. [

1 1 11 2 −2

]

L2 − L1 → L2 ⇒[1 1 10 1 −3

]

L1 − L2 → L1 ⇒[1 0 40 1 −3

]Nous avons donc x, y = 4,−3, et v = 4e1 − 3e2

Exercice 5.15 Écrire le vecteur v = (1,−2, 5)> comme une combinaisonlinéaire des vecteurs e1 = (1, 1, 1)>, e2 = (1, 2, 3)> et e3 = (2,−1, 1)>.

Exercice 5.16 Pour quelle valeur de c le vecteur v = (1, c,−8)> de R3 est-ilune combinaison linéaire des vecteurs u = (3, 0, 2)> et w = (2,−1,−5)> ?

Page 91: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 83

Exercice 5.17 Écrire le polynôme réel −3 + 4t+ t2 comme une combinaisonlinéaire des polynômes p1 = 5− 2t+ t2,p2 = 3t− 2t2 et p3 = 3 + t.

5.6 Générateurs

Comme nous l’avons vu, il est possible d’exprimer un vecteur comme unecombinaison linéaire d’autres vecteurs. En fait, si on prend un ensemblequelconque de vecteurs et qu’on considère toute les combinaisons linéairespossibles de ces vecteurs, on obtient un espace vectoriel comme le théorèmesuivant le démontre.

Théorème 5.6.1Soit S un sous-ensemble non-vide d’un espace vectoriel V .

1. L’ensemble de toutes les combinaisons linéaires des vecteurs de S, dénotée par Vect(S), est unsous-espace vectoriel de V contenant S.

2. Si W est un autre sous-espace vectoriel de V contenant S, alors Vect(S) ⊆W .

Démonstration: Puisque S est non-vide, il doit contenir au moins un vecteur que nous dénotons par v.Parmi les combinaisons linéaires qui incluent ce vecteur, on a 0v = 0. Ainsi, 0 ∈ Vect(S) ce qui est unedes trois conditions qu’on doit avoir pour que Vect(S) soit un sous-espace vectoriel.

De façon plus générale, nous aurons v1,v2, . . . ,vn ∈ S où il est possible que n = 1. Parmi lescombinaisons linéaires possibles de ces vecteurs on retrouve 1vj ∀j et donc tous les vecteurs de S sontinclus dans Vect(S).

Considérons les deux vecteurs suivants qui sont des combinaisons linéaires des vecteurs de S et doncdes éléments de Vect(S) :

u = a1v1 + a2v2 + . . .+ anvn et w = b1v1 + b2v2 + . . .+ bnvn

Nous avons :u + w = (a1 + b1)v1 + (a2 + b2)v2 + . . .+ (an + bn)vn

et donc (u + w) ∈ Vect(S), c’est-à-dire que Vect(S) est fermé sous l’addition ce qui est la deuxièmecondition requise pour que Vect(S) soit un sous-espace vectoriel. De plus

ku = ka1v1 + ka2v2 + . . .+ kanvn

est une autre combinaison linéaire des vecteurs de S et donc ku ∈ Vect(S), c’est-à-dire que Vect(S) estfermé sous la multiplication par un scalaire ce qui est la troisième et dernière condition requise pour queVect(S) soit un sous-espace vectoriel. Vect(S) est donc un sous-espace vectoriel de V .

Pour ce qui est de la deuxième partie de ce théorème, supposons que W soit un sous-espace de Vqui contient S. En utilisant le même raisonnement que ci-dessus, on peut démontrer que Vect(S) est unsous-espace de W , et donc que Vect(S) ⊆W .

Page 92: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 84

Une autre façon d’exprimer la deuxième partie du théorème précédent estde dire que Vect(S) est le plus petit sous-espace de V contenant S.

On dit de Vect(S) qu’il est le sous-espace engendré par S. Par conven-sous-espace engendrétion, on considère que Vect({}) = {0}.

Étant donné un sous-espaceW de V , un ensemble générateur deW estensemble générateurun ensemble {v1, . . . ,vn} de vecteurs deW tels queW = Vect({v1, . . . ,vn}).

Exemple 5.6.11

00

,0

10

,1

10

est un ensemble générateur pour le sous-espace

ab

0

: a, b ∈ R

de R3. À

noter qu’il ne s’agit pas du plus petit ensemble générateur pour ce sous-espace.

Exemple 5.6.2Quelle condition doivent a, b, c satisfaire pour que le vecteur (a, b, c)> ∈ R3 appartienne à l’espaceengendré par u = (2, 1, 0)>,v = (3, 0, 2)>,w = (3, 3,−2)> ?

Solution: Écrivons le vecteur (a, b, c)> comme une combinaison linéaire des trois autres vecteurs :abc

= x

210

+ y

302

+ z

33−2

=

2x+ 3y + 3zx+ 3z

2y − 2z

Nous écrivons la matrice augmentée équivalente et nous utilisons l’élimination de Gauss-Jordan pourtrouver la condition recherchée. 2 3 3 a

1 0 3 b0 2 −2 c

L1 ↔ L2

12L3 → L3

1 0 3 b2 3 3 a0 1 −1 1

2c

L2 − 2L1 → L2 ⇒

1 0 3 b0 3 −3 a− 2b0 1 −1 1

2c

L3 − 13L2 → L3 ⇒

1 0 3 b0 3 −3 a− 2b0 0 0 1

2c−13(a− 2b)

Nous voyons donc que la troisième variable (z) est une variable libre et que nous devons avoir 0 =12c−

13(a− 2b) que l’on peut récrire 0 = 3c− 2a+ 4b. Notez que ce ne sont donc pas tous les vecteurs

de R3 qui peuvent être engendrés par u,v,w, mais seulement un sous-espace.

Page 93: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 85

Exercice 5.18 Montrez que les vecteurs u = (1, 2, 3)>,v = (0, 1, 2)>,w =(0, 0, 1)> engendrent R3.

Exercice 5.19 Soit l’ensemble S = {(1, 2, 0)>, (0, 1, 0)>}. Montrez que Vect(S)est le sous-ensemble {(a, b, 0)>; a, b ∈ R} de R3.

Page 94: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 86

5.7 Dépendance et indépendance linéaire

Définition 5.7.1Soit V un espace vectoriel sur le corps K. Les vecteurs v1, . . . ,vn ∈ V sont dits linéairementdépendants s’il existe des scalaires k1, . . . , kn ∈ K dont au moins un est différent de zéro tels que

k1v1 + . . .+ knvn = 0

Autrement, on dit que ces vecteurs sont linéairement indépendants.

Si des vecteurs v1, . . . ,vn sont linéairement dépendants, on dit que l’en-semble {v1, . . . ,vn} est un ensemble dépendant ; de la même façon, si de

ensemble dépendanttels vecteurs sont linéairement indépendants, on dira de leur ensemble qu’ils’agit d’un ensemble indépendant.

ensemble indépendant

5.7.1 Que veut-on dire par dépendance linéaire ?

Supposons que l’on ait des vecteurs qui soient linéairement dépendants ;c’est-à-dire qu’il existe une solution à l’équation

k1v1 + . . .+ knvn = 0

avec au moins un des ki qui est différent de zéro. Puisqu’on peut diviser parzéro sans problèmes, faisons ceci :

k1ki

v1 + . . .+ vi + . . .+ knki

vn = 0

Ceci veut dire qu’on peut donc écrire le vecteur vi comme une combinaisonlinéaire des autres vecteurs :

vi = −k1ki

v1 + . . .

Si on a des vecteurs linéairement indépendants, alors tous les ki sont zéro eton ne peut pas diviser l’équation par un d’entre eux pour exprimer un desvecteurs comme une combinaison linéaire des autres vecteurs.

Exemple 5.7.1Dans l’exemple 5.6.1, les trois vecteurs ne sont pas linéairement indépendants. Par exemple, il estfacile de vérifier que 1

10

=

100

+

010

Page 95: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 87

Exemple 5.7.2Soit P3 l’espace des polynômes réels de degré ≤ 3. Déterminez si p1,p2,p3 ∈ P3 sont linéairementdépendants ou linéairement indépendants si

p1 = 1 + 5t− 3t2 + t3

p2 = 2 + 8t− t2 + t3

p3 = 5 + 9t− 4t2 + 2t3

Solution: Écrivons une combinaison linéaire de ces trois polynômes que nous égalons au polynôme nul :

xp1 + yp2 + zp3 = 0

Ce faisant, on obtient les quatre équations suivantes :

x + 2y + 5z = 0 pour les termes constants

5x + 8y + 9z = 0 pour les termes en t

−3x − y − 4z = 0 pour les termes en t2

x + y + 2z = 0 pour les termes en t3

On peut écrire la matrice augmentée correspondante et résoudre ce système.1 2 5 05 8 9 0−3 −1 −4 0

1 1 2 0

L2 − 5L1 → L2L2 + 3L1 → L3L4 − L1 → L4

1 2 5 00 −2 −16 00 5 11 00 −1 −3 0

−18L2 → L2 ⇒

1 2 5 00 1 8 00 5 11 00 −1 −3 0

L3 − 5L2 → L3L4 + L2 → L2

1 2 5 00 1 8 00 0 29 00 0 5 0

De cette dernière matrice, on obtient z = 0, ce qui nous permet ensuite d’obtenir y = 0 et x = 0. Seulela solution triviale étant permise, les vecteurs sont linéairement indépendants.

Exercice 5.20 Soit P3 l’espace des polynômes réels de degré ≤ 3. Déterminezsi p1,p2,p3 ∈ P3 sont linéairement dépendants ou linéairement indépendants

Page 96: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 88

si

p1 = 3− 2t+ 4t2 + t3

p2 = 4− t+ 6t2 + t3

p3 = 7− 8t+ 8t2 + 3t3

Exercice 5.21 Soit V l’espace vectoriel des matrices réelles 2×2. Déterminezsi les matrices A,B,C sont dépendantes si :

(a) A =(

1 11 1

), B =

(1 00 1

), C =

(1 10 0

)(b) A =

(1 23 1

), B =

(3 −12 2

), C =

(1 −5−4 0

)

Exercice 5.22 Soient u,v,w des vecteurs indépendants. Montrez que a =u + v, b = u− v et c = u− 2v + w sont aussi trois vecteurs indépendants.

Exercice 5.23 Prouvez que tout ensemble de vecteurs comprenant le vecteurnul, 0, est linéairement dépendant.

Exercice 5.24 Prouvez que les vecteurs non nuls v1, . . . ,vn sont linéairementdépendants si et seulement si au moins l’un d’entre eux, vi est une combinaisonlinéaire des autres :

vi =∑j 6=i

kjvj

Exercice 5.25 Prouvez qu’un ensemble contenant un sous-ensemble dépen-dant est lui-même dépendant.

Exercice 5.26 Prouvez qu’un sous-ensemble quelconque d’un ensemble in-dépendant est un sous-ensemble indépendant.

5.8 Base et dimension

Définition 5.8.1La dimension d’un espace vectoriel V est n (dimV = n) s’il existe n vecteurs linéairement indépen-dants, e1, . . . , en qui engendrent V , c’est-à-dire Vect({e1, . . . , en}) = V . L’ensemble {e1, . . . , en} estappelé une base de V .

Page 97: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 89

Exemple 5.8.1Une base pour R3 est donnée par

100

,0

10

,0

01

Donc, dimR3 = 3

Exemple 5.8.2Déterminez si les vecteurs suivants forment une base de l’espace vectoriel R3.(a) (1, 1, 1)> et (1, 2, 3)>(b) (1, 1, 2)>, (1, 2, 5)> et (5, 3, 4)>

Solution:(a) Non, car une base de R3 doit être un ensemble de 3 éléments puisque dimR3 = 3.(b) Nous avons 3 vecteurs pour un espace à trois dimensions : ces vecteurs forment une base si etseulement si ils sont indépendants. Dénotons les vecteurs par

u = (1, 1, 2)>

v = (1, 2, 5)>

w = (5, 3, 4)>

Si les vecteurs sont linéairement indépendants, alors la seule solution du système d’équations linéairesdéfini par

xu + yv + zw = 0

est x = y = z = 0. Pour trouver la ou les solutions de ce système, nous écrivons la matrice augmentéecorrespondante : 1 1 5 0

1 2 3 02 5 4 0

On peut résoudre ceci de la façon suivante :

L2 − L1 → L2L3 − 2L1 → L3

1 1 2 00 1 −2 00 3 −6 0

L3 − 3L2 ↔ L3 ⇒

1 1 2 00 1 −2 00 0 0 0

et on peut voir qu’on a une matrice échelonnée avec une ligne nulle : le système a donc une infinité desolutions et les vecteurs ne sont pas linéairement indépendants. Par conséquent, ces vecteur ne formentpas une base pour R3.

Ce résultat aurait pu être obtenu d’une autre façon.

Page 98: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 90

Premièrement, on note que lorsqu’on fait des opérations élémentaires sur les lignes d’une matrice, onse trouve à faire des combinaisons linéaires de ces lignes. Deuxièmement, si des vecteurs sont linéairementdépendants, ceci veut dire qu’on peut exprimer au moins un des vecteurs comme une combinaison linéairedes autres. En soustrayant cette combinaison linéaire du vecteur lui-même, on obtient le vecteur nul.Ceci suggère donc de mettre plutôt les vecteurs dans les lignes d’une matrice et de faire des opérationsélémentaires sur les lignes de cette matrice : si on obtient une ligne nulle, alors les vecteurs sont linéairementdépendants. Si on peut mettre cette matrice sous une forme échelonnée sans lignes nulles, alors les vecteurssont linéairement indépendants. Utilisons cette approche par comparaison avec ce que nous avons faitci-dessus : 1 1 2

1 2 55 3 4

L2 − L1 → L2L3 − 5L1 → L3

1 1 20 1 30 −2 −6

L3 + 2L2 → L3 ⇒

1 1 20 1 30 0 0

Comme l’une de lignes de la matrice échelonnée est nulle, cela veut dire qu’un des vecteurs pouvaitêtre exprimé comme une combinaison linéaire des deux autres ; ces trois vecteurs sont donc dépendants(comme on l’avait déjà démontré) et ne forment pas une base de R3.

Exercice 5.27 Déterminez si les vecteurs suivants forment une base de l’es-pace vectoriel R3.(a) (1, 1, 1)>, (1, 2, 3)> et (2,−1, 1)>

(b) (1, 1, 1)>, (1, 2, 3)>, (2,−1, 1)> et (0, 0, 1)>

Exercice 5.28 Soit V l’espace vectoriel des matrices symétriques 2 × 2 àcoefficients réels. Quelle est la dimension de cet espace ? Écrivez une base pourcet espace.

Exemple 5.8.3Soit le système d’équations linéaires {

x = 1y = 2

Quelle est la dimension de l’espace des solutions ? S’agit-il d’un espace vectoriel ?

Page 99: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 91

Solution: La solution unique de ce système est un point dans R2 ; la dimension de cet espace est donc0. Ce point peut être représenté par un vecteur unique qui n’est pas le vecteur nul ; par conséquent, cen’est pas un espace vectoriel.

Exemple 5.8.4Soit l’équation linéaire

x+ y = b

Quelle est la dimension de l’espace des solutions ? S’agit-il d’un espace vectoriel ?

Solution: Ceci est l’équation d’une droite ; l’espace des solutions est donc de dimension 1.Si on paramétrise la variable y par un nombre réel t, on peut écrire une solution générale sous forme

vectorielle comme étant : (xy

)=(b− t

t

)=(b0

)+(−tt

)Pour que ceci soit un espace vectoriel, il faut que le vecteur nul appartienne à l’espace des solutions, cequi est possible seulement si b = 0. Dans ce cas, l’espace des solutions sera engendré par le vecteur(

−11

)

Dans les exemples précédents, on note que, pour que l’espace des solutionssoit un espace vectoriel, il faut que l’on ait un système d’équations linéaireshomogène.

Exemple 5.8.5Trouvez une base et la dimension de l’espace W des solutions du système homogène :

v + 2w − x + 2y + 3z = 02v + 4w + 5y + 4z = 03v + 6w + x + 8y + 5z = 0

Page 100: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 92

Solution: Écrivons la matrice augmentée du système et amenons-là sous une forme échelonnée réduite.1 2 −1 2 3 02 4 0 5 4 03 6 1 8 5 0

⇒ L2 − 2L1 → L2L3 − 3L1 → L3

1 2 −1 2 3 00 0 2 1 −2 00 0 4 2 −4 0

L3 − 2L2 → L3

1 2 −1 2 3 00 0 2 1 −2 00 0 0 0 0 0

12L2 → L2

1 2 −1 2 3 00 0 1 1

2 −1 00 0 0 0 0 0

L1 + L2 → L1

1 2 0 212 2 0

0 0 1 12 −1 0

0 0 0 0 0 0

Nous avons 3 variables libres (w, y, z) que nous pouvons paramétriser par 3 nombres réels (r, s, t) : ladimension de l’espace des solutions est donc 3. Si on écrit les équations linéaires correspondant à lamatrice réduite en utilisant les variables libres, nous aurons{

v = −2r − 212s − 2t

x = − 12s + t

L’espace des solutions sera constitué de vecteurs de la formevwxyz

=

−2r − 21

2s− 2tr

−12s+ tst

Pour obtenir une base, la façon la plus simple est de donner la valeur 1 à tour de rôle à chacune desvariables libres et zéro aux autres, de la façon suivante :

−2

1000

,−21

20−1

210

,−2

0101

Exercice 5.29 Trouvez une base et la dimension de l’espace W des solutionsde chacun des systèmes homogènes suivants.

(a)

x + 3y + 2z = 0x + 5y + z = 0

3x + 5y + 8z = 0

Page 101: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 93

(b)

x − 2y + 7z = 02x + 3y − 2z = 02x − y + z = 0

Exercice 5.30 Soit P l’espace engendré par les polynômes

u = 1− 2t+ 2t2 + t3

v = 4− t+ 3t2 + t3

w = 7 + 7t− t2 − 2t3

Trouvez une base et la dimension de P .

Il est important de biens comprendre la différence entre les questionsoù l’on demande de déterminer la dimension d’un espace engendré par desvecteurs (ou de déterminer si un groupe de vecteurs engendrent un espaceparticulier comme R3) et les questions où l’on demande de trouver la dimen-sion de l’espace des solutions d’un système d’équations linéaires. Nous allonsconsidérer un exemple très simple, soit celui où on a les vecteurs suivantsdans R3 :

v1 =

100

, v2 =

010

et v3 =

110

Sans faire aucun calculs, on peut tout de suite conclure que ces trois vecteursne peuvent pas engendrer R3 parce qu’on ne peut pas trouver de combinai-sons linéaires telles que la troisième composante des vecteurs sera différentede zéro.

Alternativement, on observe que v3 = v1 + v2 et donc qu’on n’a que2 vecteurs linéairement indépendants alors qu’on a besoin de trois vecteurslinéairement indépendants pour engendrer R3.

Supposons que l’on veuille démontrer que l’on n’a pas 3 vecteurs linéai-rement indépendants de la façon habituelle (lorsque les valeurs numériquessont telles que la solution n’est pas évidente) ; on écrira

xv1 + yv2 + zv3 = 0

ce qui nous donne le système d’équations :

x

100

+ y

010

+ z

110

=

000

⇒x + z = 0

y + z = 00 = 0

On voit tout de suite que la matrice augmentée sous sa forme réduite auraune ligne nulle : 1 0 1 0

0 1 1 00 0 0 0

Page 102: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 94

d’où l’on conclut que les 3 vecteurs n’étaient pas linéairement indépendants.Également, puisque la matrice augmentée sous sa forme réduite a deux lignesnon-nulles, on en conclut qu’on avait deux vecteurs linéairement indépen-dants, ce qu’on savait déjà ; ces deux vecteurs engendreront donc un espacevectoriel à deux dimensions (le plan xy dans ce cas-ci).

Revenons au système d’équations ci-dessus et supposons que l’on de-mande quelle sera la dimension de l’espace des solutions. On note que latroisième variable est une variable libre qu’on peut paramétriser par t, quel’on aura

x = −ty = −t

et que l’espace des solutions peut être écrit comme :

t

−1−1

1

Comme on n’a qu’un paramètre de libre, la dimension de l’espace des so-lutions sera égale à 1. Une base pour cet espace vectoriel peut être choisieen fixant la valeur du paramètre t ; par exemple, on peut choisir t = −1 etobtenir la base :

11−1

5.9 Coordonnées

Avant de définir ce qu’on entend par coordonnées, nous considérons lecoordonnéesthéorème de l’unicité de la représentation.théorème de l’unicité de lareprésentation

Théorème 5.9.1Soit B = {e1, . . . , en} une base pour l’espace vectoriel V . Alors, pour chaque vecteur v dans V , ilexiste un ensemble unique de scalaires, a1, . . . , an tel que

v = a1e1 + . . .+ anen

Démonstration: Puisque B est une base, par définition tout vecteur v peut être exprimé par une tellecombinaison linéaire. Supposons que v puisse être exprimé par une autre combinaison linéaire :

v = b1e1 + . . .+ bnen

Si l’on soustrait l’une de l’autre ces deux expressions, on obtient

0 = v − v = (a1 − b1)e1 + . . .+ (an − bn)en

Page 103: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 95

Puisque les ei forment une base, ils sont linéairement indépendants ; donc, par définition les coefficientsde cette dernière équation sont tous zéros :

ai − bi = 0 ∀i

et donc la décomposition de v en une composition linéaire des ei existe et elle est unique.

Ayant démontré que, pour chaque vecteur dans V avec une base donnéeB, il existe un ensemble unique de scalaire, nous utilisons ceci pour définirles coordonnées.

coordonnées

Définition 5.9.1Soit B = {e1, . . . , en} une base pour l’espace vectoriel V , et v un vecteur quelconque de V . Lescoordonnées de v par rapport à la base B sont les scalaires a1, . . . , an tels que

v = a1e1 + . . .+ anen

Avec cette définition, on utilise la notation [v]B pour représenter la ma-

trice des coordonnées 3 de v (par rapport à la base B) : [v]B =

a1...

an

matrice des coordonnées

Exemple 5.9.1Trouvez les coordonnées de v = (2, 3, 4)> par rapport à la base B = {e1, e2, e3} de R3 si :

(a) e1 =

100

, e2 =

010

, e3 =

001

(b) e1 =

100

, e2 =

110

, e3 =

111

Solution:(a) Cet exemple est trivial puisque B est la base canonique. Procédons quand même comme si ce n’étaitpas le cas. On veut trouver x, y, z tels que v = xe1 + ye2 + ze3. Ceci nous donne2

34

= x

100

+ y

010

+ z

001

=

xyz

d’où l’on obtient x = 2, y = 3, z = 4 et donc [v]B =

234

3Puisqu’il s’agit d’une matrice de taille n × 1, on dit parfois qu’il s’agit du vecteur

des coordonnées.

Page 104: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 96

(b) On veut trouver x, y, z tels que v = xe1 + ye2 + ze3. Ceci nous donne234

= x

100

+ y

110

+ z

111

=

x+ y + zy + z

z

d’où l’on obtient z = 4, puis, en substituant dans 3 = y+z, on trouve y = −1, et ensuite 2 = x+y+z =

x+ (−1 + 4) ce qui nous donne x = −1, et donc [v]B =

−1−1

4

Exercice 5.31 Soit V l’espace des matrices symétriques réelles 2×2. Trouvezle vecteur des coordonnées de la matrice

A =(a bb c

)par rapport à la base

B ={(

2 11 3

),

(1 −2−2 1

),

(4 −1−1 5

)}

Exercice 5.32 Soit V l’espace des matrices réelles 2× 2. Trouvez le vecteurdes coordonnées de la matrice

A =(

2 34 7

)par rapport à la base

B ={(

1 11 1

),

(0 −11 0

),

(1 −10 0

),

(1 00 0

)}

Finalement, pour tout espace vectoriel, il existe une base naturelle ; onappelle cette base la base canonique

Définition 5.9.2La base canonique est la base telle que, pour tout vecteur v, les coordonnées de v sont donnéespar les composantes mêmes (coefficients) qui constituent v.

Page 105: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 5. Espaces vectoriels 97

Exemple 5.9.2

(a) La base canonique de R2 est l’ensemble des deux vecteurs suivants :

e1 =(

10

), e2 =

(01

)

(b) La base canonique des matrice 2× 2 est l’ensemble des matrices suivantes :

e1 =(

1 00 0

), e2 =

(0 10 0

), e3 =

(0 01 0

), e4 =

(0 00 1

)

(c) La base canonique des polynômes du deuxième degré, P2(t) est l’ensemble des monômes suivants :e1 = 1, e2 = t, e3 = t2

5.10 Exercices divers

Exercice 5.33 L’ensemble des matrices n × n à coef-ficients réels forme un espace vectoriel. Est-ce que l’en-semble des matrices n × n à coefficients réels dont la

trace est égale à zéro forme un sous-espace ?

Exercice 5.34 L’ensemble des matrices 2 × 2 à coeffi-cients réels forme un espace vectoriel. Est-ce que l’en-semble des matrices 2 × 2 à coefficients réels dont ledéterminant est égal à zéro forme un sous-espace ? Ledéterminant d’une matrice A2×2 est a11a22 − a12a21.

Après avoir préparé la première version de ce ma-nuel, j’ai lu la deuxième édition d’un manuel 4 utilisépour un cours d’introduction à l’algèbre linéaire dansplusieurs autres universités, pour des étudiants de toutesles disciplines y compris ceux qui se dirigent en mathé-matiques Dans la préface de ce manuel, quelques phrasesm’ont frappé et je crois qu’elles pourraient servir à vousencourager. Je vais les citer telles qu’elles sont écrites(en anglais) :

Every teacher of linear algebra knows that the stu-dents "hit the wall" when the notion of an abstractvector space is introduced. One reason for this is thatthey are coping simultaneously with two new ideas : theconcept of an abstract structure, and mastering difficultnotions like spanning, independence, and linear trans-formations. This double jeopardy is difficult to deal withfor students, even the most talented ones.

On pourrait traduire comme suit :Chaque enseignant d’algèbre linéaire sait que les

étudiants "frappent un mur" lorsque la notion d’espacevectoriel abstrait est introduite. Une raison pour ceci estqu’ils ont à composer simultanément avec deux nou-velles idées : le concept d’une structure abstraite, etd’apprendre à maitriser des notions difficiles tels que

la génération d’un espace à partir d’une base, l’indépen-dance linéaire et les transformations linéaires. Compo-ser avec ce double défi est difficile pour les étudiants,même pour les plus talentueux.

L’auteur du livre en question a choisi, comme plu-sieurs autres auteurs de livres semblables, de mettre cematériel à la toute fin du livre. Lorsque j’ai pensé à l’or-ganisation du cours, j’ai choisi délibérément d’organi-ser la présentation pour introduire ces concepts le plustôt possible, justement parce que ces concepts étaientles plus difficiles. Ainsi, vous aurez plus de temps pourabsorber la matière et l’intégrer avec le reste du cours.Vous aurez également l’occasion de répondre à des ques-tions sur ce sujet lors d’un test, qui vous servira de pré-paration pour l’examen final. Vous verrez que d’avoir 4ou 5 semaines pour absorber des concepts tels que lestransformations linéaires, les espaces vectoriels, etc., lesrend beaucoup moins intimidants que si vous les ren-contriez seulement une semaine avant l’examen final.

Plus tard, j’ai pu constater que les éditions plus ré-centes du livre de Nicholson introduisaient les espacesvectoriels plus tôt, ce que j’ai pris comme une indicationque l’approche que j’avais choisie était la bonne.

4W. Keith Nicholson, Elementary Linear Algebra

Page 106: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

6 Transformations linéaires6.1 Introduction 986.2 Transformation du plan 100

6.2.1 Changements d’échelle : dilatation et contraction 1016.2.2 Cisaillement 1016.2.3 Rotation 1026.2.4 Réflexion 1026.2.5 Combinaison de transformations 1026.2.6 Projections 104

6.3 Translations 1046.4 Exercices divers 105

6.1 Introduction

Dans le chapitre précédent, nous avons vu les espaces vectoriels et démontréscomment ils étaient isomorphes à Rn. Dans ce chapitre nous allons considérercertaines propriétés des fonctions sur les espaces vectoriels. Pour illustrerceci, et sans perte de généralité, nous allons considérer Rn comme espacevectoriel.

Définition 6.1.1Une transformation (ou fonction ou application) T de Rn (le domaine de définition) vers Rm (lecodomaine, ou ensemble d’arrivée) est une règle qui associe à chaque vecteur v de Rn un vecteuru = T (v) de Rm. De façon résumée, on écrit parfois ceci comme T : Rn → Rm

Pour chaque v dans Rn, on dit de T (v) que c’est l’image de v. L’ensembleimagede toutes les images T (v) est appelé l’image de la transformation T , ou tout

simplement l’image de T .

Définition 6.1.2Une transformation T est une transformation linéaire si, pour tout u,v dans le domaine de T :

1. T (u + v) = T (u) + T (v)2. T (cv) = cT (v), où c est un scalaire.

On peut résumer ces deux propriétés en une seule, tel que démontré dansle théorème suivant.

98

Page 107: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 99

Théorème 6.1.1Soit T une transformation de Rn vers Rm. La transformation T est linéaire si et seulement si

T (cu + dv) = cT (u) + dT (v)

quels que soient les vecteurs u et v dans le domaine de définition de T et quels que soient les scalairesc et d.

Démonstration: Si T est une transformation linéaire, alors, en appliquant successivement les propriétés1 et 2, nous avons

T (cu + dv) = T (cu) + T (dv) = cT (u) + dT (v)

Inversement, siT (cu + dv) = cT (u) + dT (v)

en choisissant c = d = 1, nous obtenons la première propriété, et en choisissant d = 0, nous obtenons ladeuxième.

On remarque que nous avons également T (0) = 0, en choississant c = 0 dansla deuxième propriété de la définition d’une transformation linéaire.

Définition 6.1.3Une transformation matricielle est une transformation T qui est calculée par le produit matricielMv = u où M est une matrice m× n.

En raison des propriétés des matrices, toutes les transformations matri-cielles sont des transformations linéaires.

Exercice 6.1 Prouvez que toutes les transformations matricielles sont destransformations linéaires.

Si la matrice M d’une transformation linéaire a n colonnes, le domainede définition est Rn. Si la matrice M d’une transformation linéaire a mlignes, le codomaine est un sous-ensemble Rm.

Exemple 6.1.1Exemple de transformation matricielle T : R4 → R2

(1 2 3 45 6 7 8

)1234

=(

3070

)

Page 108: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 100

Théorème 6.1.2Soit T : Rn → Rm une transformation linéaire. Il existe une matrice unique, M , appelée la matricecanonique de la transformation, telle que T (x) = Mx pour tout x ∈ Rn.

Démonstration: Si on choisit la base canonique comme étant l’ensemble des colonnes de In, et doncIn = (e1 · · · en), on a

x = Inx = x1e1 + · · ·+ xnen

Utilisant la linéarité de T , on a

T (x) = T (x1e1 + · · ·+ xnen)= x1T (e1) + · · ·+ xnT (en)

= [T (e1) · · ·T (en)]︸ ︷︷ ︸M

x1...xn

= Mx

6.2 Transformation du plan

Nous allons tout d’abord considérer les transformations du plan, c’est-à-direR2 → R2.

M

(xy

)=(x′

y′

)Notre but, en faisant ceci, est de donner des exemples simples où les calculssont faciles à suivre et où il est facile d’illustrer l’effet des transformations.Graphiquement, nous allons généralement considérer une seule configura-tion initiale de quatre points formant un carré et démontrer l’effet de latransformation sur ces quatre points, ainsi que sur l’aire de la figure qu’ilscomposent.

x

y

1

1

-1

-1

2

2

Figure 6.1 Figure initiale.

x

y

1

1

-1

-1

2

2

Figure 6.2 La figure initiale, en bleupale, est transformée et représentée enbleu foncé hachuré.

Page 109: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 101

x

y

1

1

-1

-1

2

2

Figure 6.3 Dilatation.(2 00 2

)(xy

)=(

2x2y

)

x

y

1

1

-1

-1

2

2

Figure 6.4 Dilatation verticale etcontraction horizontale(

12 00 2

)(xy

)=(

12x2y

)

Pour les transformations linéaires du plan, la matrice la plus générale 1

a la formeM =

(a bc d

)Parmi toutes les combinaisons possibles, nous allons maintenant considérerquelques cas particuliers. Veuillez noter que l’on peut combiner des trans-formations linéaires : il suffit de multiplier les matrices correspondant auxtransformations individuelles.

6.2.1 Changements d’échelle : dilatation et contraction

Une transformation linéaire du plan peut résulter en un changement d’échelle,soit une contraction ou une dilatation, si la matrice de transformation estune matrice diagonale, avec des éléments positifs sur la diagonale :

M =(d1 00 d2

), di > 0

6.2.2 Cisaillement

Une matrice correspondant à une transformation de cisaillement horizon-tal a la forme

cisaillement horizontalM =

(1 k0 1

)De la même façon, une matrice correspondant à une transformation de ci-saillement vertical a la forme

cisaillement vertical1 Il est facile de vérifier qu’une telle transformation linéaire fait en sorte que le vec-

teur nul, (0, 0)>, ne changera pas. Par conséquent, la figure 6.2 ne représente pas unetransformation linéaire du plan ; c’est une transformation affine.

Page 110: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 102

M =(

1 0k 1

)

x

y

1

1

-1

-1

2

2

Figure 6.5 Cisaillement horizontal

(1 11

20 1

)(xy

)=(x+ 11

2yy

)

x

y

1

1

-1

-1

2

2

Figure 6.6 Rotation de π/4.

(√2

2−√

22√

22

√2

2

)(xy

)=(√

22 x−

√2

2 y√2

2 x+√

22 y

)

6.2.3 Rotation

Une matrice correspondant à une rotation d’un angle θ des axes autour del’origine a la forme

R(θ) =(

cos θ − sin θsin θ cos θ

)Notez que, par convention, on utilise habituellement la lettre R pour dénoterdes rotations.

6.2.4 Réflexion

La matrice correspondant à une réflexion par rapport à l’axe vertical est lamatrice :

M =(−1 0

0 1

)La matrice correspondant à une réflexion par rapport à l’axe horizontal estla matrice :

M =(

1 00 −1

)

6.2.5 Combinaison de transformations

En faisant des combinaisons de transformations simples, on peut arriverà en créer des complexes. L’exemple le plus simple est possiblement celuide la matrice −I, qui correspond à une réflexion par rapport aux deuxaxes ce qui peut être vu comme une première réflexion faite par rapport à

Page 111: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 103

x

y

1

1

-1

-1

2

2

Figure 6.7 Réflexion par rapport à l’axedes y.(

−1 00 1

)(xy

)=(−xy

)

x

y

1

1

-1

-1

2

2

Figure 6.8 Réflexion par rapport auxdeux axes.

(−1 0

0 −1

)(xy

)=(−x−y

)

l’axe horizontal, suivie par une deuxième réflexion, faite par rapport à l’axevertical. Veuillez noter que le résultat n’est pas le même que si nous avionsfait une seule réflexion par rapport à la droite y = −x.

Exercice 6.2 Trouvez la matrice qui correspond à une réflexion par rapportà la droite y = −x. Faites un diagramme qui illustre ceci.

Un exemple un peu plus intéressant est celui d’une réflexion par rapportà un axe quelconque passant par l’origine 2. Pour produire une réflexion parrapport à un axe quelconque passant par l’origine, vous devriez pouvoir vousconvaincre qu’il suffit de suivre la procédure suivante.

1. Déterminer l’angle θ que fait l’axe par rapport à l’axe horizontal.2. Faire une rotation de −θ.3. Faire une réflexion par rapport à l’axe horizontal4. Faire une rotation de θ pour revenir à l’orientation initiale.

Comme ceci correspond à trois transformations, la transformation peut êtreexprimée sous la forme d’un produit de trois matrices comme suit :(

cos θ − sin θsin θ cos θ

)(1 00 −1

)(cos θ sin θ− sin θ cos θ

)=(

cos2 θ − sin2 θ 2 sin θ cos θ2 sin θ cos θ sin2 θ − cos2 θ

)

À noter que l’ordre des opérations est de droite à gauche !2La raison pour laquelle on mentionne que l’axe passe par l’origine est pour que l’on

ait T (0) = 0 ce qui est requis pour que la transformation soit linéaire.

Page 112: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 104

x

y

1

1

-1

-1

2

2

Figure 6.9 Projection sur l’axe des x.Les points noir et rouge sont confondus,ainsi que les points bleu et vert.(

1 00 0

)(xy

)=(x0

)

x

y

1

1

-1

-1

2

2

Figure 6.10 Projection sur la droite y =x. Les points rouge et vert sont confon-dus et le carré est devenu un segment dedroite.

12

(1 11 1

)(xy

)= 1

2

(x+ yx+ y

)

6.2.6 Projections

Les projections dans le plan consistent à calculer la composante d’un vecteurselon un axe et de lui donner cette valeur. Le cas le plus simple est celui dela projection sur l’axe des x (ou, de façon semblable, sur l’axe des y) :(

1 00 0

)(xy

)=(x0

)

Ce type de transformation linéaire n’est pas inversible : une fois la projectionsur l’axe des x effectuée, nous perdons toute connaissance de la valeur initialede la coordonnée y, et donc, nous ne pouvons pas la retrouver.

Une autre façon d’exprimer ceci est de noter que la matrice qui effectuela projection n’a pas d’inverse.

6.3 Translations

Une translation est une transformation qui correspond à l’addition d’unvecteur constant à tous les vecteurs d’un domaine : T (x) = x+x0. Une telletransformation n’est pas une transformation linéaire : T0 6= 0 sauf dans lecas trivial où x0 = 0. On désigne sous le nom de transformation affine unetelle transformation et on peut la représenter sous forme matricielle commesuit :

Mx = x + b

ce qui ne correspond pas à notre définition d’une transformation matricielle.On peut cependant utiliser un truc pour représenter une telle transformationpar une transformation matricielle. Puisqu’on a déjà prouvé que les transfor-mations matricielles sont des transformations linéaires, le truc en questionfait en sorte que la transformation devient une transformation linéaire.

Page 113: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 105

Considérons une translation dans le plan. 3 Le truc consiste à considérerce plan comme un sous-espace d’un espace vectoriel de dimension plus élevée.Par exemple, on peut supposer que notre plan est le plan z = 1 dans R3.Ainsi, au lieu de considérer des vecteurs arbitraires en 2-dimensions, onconsidère des vecteurs dans ce plan en trois dimensions :

(xy

)=⇒

xy1

Une matrice de translation prend donc la forme :

1 0 x00 1 y00 0 1

et correspond

donc à un cisaillement parallèle au plan xy. Ce genre de truc peut êtregénéralisé et fait partie de l’étude de la géométrie projective, domaine quiest très utilisé en informatique lorsqu’on veut produire des images perçuescomme des projections d’objets en trois dimensions mais qui va au-delà ducontenu de ce cours.

6.4 Exercices divers

Exercice 6.3 Déterminez la position du point (−1, 3)suite à une rotation de π/2 du plan par rapport à l’ori-gine.

Exercice 6.4 Déterminez la position du point (√

3, 1)suite à une rotation de π/6 du plan par rapport à l’ori-gine.

Exercice 6.5 Déterminez la position du point (2,√

3)suite à une rotation de π/3 du plan par rapport à l’ori-gine.

Exercice 6.6 Déterminez la position du point (1,−2)suite à une rotation de π/4 du plan par rapport à l’ori-gine.

Exercice 6.7 Faites un graphique de la courbe x2−xy+y2 = 9 ainsi que de la même courbe suite à une rotationde π/4. (Obtenez l’équation de la nouvelle courbe.)

Exercice 6.8 Vérifiez que R(θ)R(γ) = R(γ)R(θ)

Exercice 6.9 On appelle invariant une quantité quine change pas sous une transformation. Prouvez que la

distance entre deux points est un invariant sous une ro-tation du plan par rapport à l’origine.

Exercice 6.10 Déterminez quelle sera l’équation de ladroite y = mx+ b sous la transformation(

2 00 3

)

Exercice 6.11 Déterminez quelle sera l’équation de ladroite y = mx+ b sous la transformation(

0 −1−1 0

)

Exercice 6.12 Déterminez quelle sera l’équation de ladroite y = mx+ b sous la transformation(

0 −11 3

)

Exercice 6.13 La transformation du plan correspon-dant à la matrice élémentaire

E1(a) =(a 00 1

)a < −1

correspond à une dilatation horizontale accompagnéed’une réflexion par rapport à l’axe verticale. Identifiezles 12 autres types de transformations du plan corres-pondant aux diverses matrices élémentaires 2 × 2. Il y

3On peut facilement généraliser la procédure décrite pour un espace de dimensionarbitraire.

Page 114: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 6. Transformations linéaires 106

en a 13 au total : 10 pour les matrices Ei(c), 1 chacunepour les matrices de type Eij(a) et une pour la matriceE1↔2.

Exercice 6.14 Soit la transformation T (x) = Mx.Trouvez un vecteur x dont l’image est le vecteur y si

M =

1 0 −1−2 1 4

3 −2 −2

, y =

123

Déterminez si le vecteur x est unique.

Exercice 6.15 Soit la transformation T (x) = Mx.Trouvez un vecteur x dont l’image est le vecteur y si

M =

3 2 3−1 −1 −4

5 2 −6

, y =

123

Déterminez si le vecteur x est unique.

Exercice 6.16 Soit la transformation T (x) = Mx.Trouvez un vecteur x dont l’image est le vecteur y si

M =

1 −2 −1−2 1 4

1 0 1

, y =

123

Déterminez si le vecteur x est unique.

Exercice 6.17 Soit la transformation T (x) = Mx.Trouvez un vecteur x dont l’image est le vecteur y si

M =(

1 0 −1−2 1 4

), y =

(12

)Déterminez si le vecteur x est unique.

Exercice 6.18 Soit Rz(α) une matrice de rotation au-tour de l’axe des z (donc dans le plan x− y) dans R3 :

Rz(α) =

cosα − sinα 0sinα cosα 0

0 0 1

On note que cette matrice appliquée à un vecteur nechange pas sa composante z. On peut définir de façonsemblable les matrices Rx(α) et Ry(α).(a) Trouvez une expression pour Rx(π/2).(b) Trouvez une expression pour Ry(π/2).(c) Calculez le commutateur [Rx(π/2),Ry(π/2)].(d) (Optionel) Faites un dessin qui illustre la situationde la partie (c).Suggestion : Au besoin, vous pouvez consulter Wikipedia pour trouverla forme exacte des matrices de rotation.

Page 115: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

7 Déterminants7.1 Mineur et cofacteur 1077.2 Le déterminant 109

7.2.1 Les matrices 2× 2 1107.2.2 Deux exemples de matrice de taille supérieure 111

7.3 Propriétés des déterminants 1127.3.1 Matrices diagonales et triangulaires 1127.3.2 Matrice ayant une colonne ou une

ligne nulle 1137.3.3 Transposée 1137.3.4 Matrice élémentaires 1147.3.5 Déterminant, produit de matrices et inverse 1167.3.6 Opérations élémentaires sur les lignes 118

7.4 Règle de Cramer 1217.4.1 Inverse d’une matrice 123

7.5 Interprétation géométrique des déterminants 1257.5.1 Transformations linéaires 1267.5.2 Dimensions supérieures à deux 127

7.6 Exercices divers 127

À chaque matrice carrée A, on peut associer un scalaire, appelé le déter-minant de la matrice et dénoté soit par det(A) ou par |A|. Nous avons la

déterminantmême notation lorsque nous avons une matrice sous forme explicite :

det(a bc d

)=∣∣∣∣∣a bc d

∣∣∣∣∣Le déterminant d’une matrice 1× 1 est simplement le coefficient :

det(a) = |a| = a

À noter qu’en dépit de la notation des barres verticales, il ne s’agit pasd’une valeur absolue ! Dans ce qui suit, nous allons définir le déterminantd’un manière récursive, à partir de la définition ci-dessus pour une matrice1× 1. Mais, auparavant, il est utile de définir deux termes.

7.1 Mineur et cofacteur

Soit une matrice carrée A de taille n × n. Soit M ij la matrice carrée (n −1)× (n− 1) obtenue en supprimant la ligne i et la colonne j de A.

Exemple 7.1.1Soit la matrice

A =

1 2 34 5 67 8 9

107

Page 116: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 108

. À partir de cette matrice, en éliminant une ligne et une colonne, on peut définir 9 matrices dontles trois suivantes :

M11 =

1 2 34 5 67 8 9

=(

5 68 9

)

M12 =

1 2 34 5 67 8 9

=(

4 67 9

)

M33 =

1 2 34 5 67 8 9

=(

1 24 5

)

Définition 7.1.1Soit une matrice carrée A = (aij) de taille n×n. On appelle lemineur de l’élément aij le déterminantde la matrice carrée M ij obtenue en supprimant la ligne i et la colonne j de A.

Exemple 7.1.2

Soit la matrice A =

1 2 34 5 67 8 9

. À partir de cette matrice, en éliminant une ligne et une colonne, on

peut définir 9 mineurs associés au neufs éléments aij tel qu’illustré par les trois exemples suivants :

a11 → |M11| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ =∣∣∣∣∣5 68 9

∣∣∣∣∣

a12 → |M12| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ =∣∣∣∣∣4 67 9

∣∣∣∣∣a33 → |M33| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ =∣∣∣∣∣1 24 5

∣∣∣∣∣

Exercice 7.1 Obtenez les 6 autres mineurs pour l’exemple 7.1.2.

Page 117: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 109

Définition 7.1.2Soit une matrice carrée A = (aij) de taille n × n. On appelle le cofacteur de l’élément aij , dénotépar Cofij(A), le déterminant de la matrice carrée M ij obtenue en supprimant la ligne i et la colonnej de A multiplié par le facteur (−1)i+j .

Cof ij(A) = (−1)i+j |M ij |

Remarques :1. Le cofacteur, Cofij(A), est un scalaire, et que M ij est une matrice.2. Les facteurs de (−1)i+j sont dans une forme d’échiquier dans une ma-

trice, avec les + sur la diagonale principale+ − + − . . .− + − + . . .+ − + − . . .− + − + . . ....

......

... . . .

Exemple 7.1.3

Soit la matrice A =

1 2 34 5 67 8 9

. À partir de cette matrice, en éliminant une ligne et une colonne,

on peut définir 9 cofacteurs associés au neufs coefficients de la matrice tel qu’illustré par les troisexemples suivants a

Cof11(A) = (−1)1+1|M11| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ =∣∣∣∣∣5 68 9

∣∣∣∣∣Cof12(A) = (−1)1+2 = −|M12| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ = −∣∣∣∣∣4 67 9

∣∣∣∣∣Cof33(A) = (−1)3+3 = |M33| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ =∣∣∣∣∣1 24 5

∣∣∣∣∣aComme nous n’avons pas encore défini le déterminant d’une matrice 2× 2, nous ne pouvons pas compléter entiè-

rement les calculs.

Exercice 7.2 Obtenez les 6 autres cofacteurs pour l’exemple 7.1.3.

7.2 Le déterminant

Page 118: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 110

Définition 7.2.1Le déterminant d’une matrice A = (aij) carrée de taille n × n est égal a à la somme des produitsde tous les coefficients d’une ligne (ou d’une colonne) quelconque par leur cofacteurs respectifs :

|A| = ap1 Cofp1(A) + ap2 Cofp2(A) + . . .+ apn Cofpn(A) =n∑i=1

api Cofpi(A)

ou|A| = a1` Cof1`(A) + a2` Cof2`(A) + . . .+ an` Cofn`(A) =

n∑j=1

aj` Cofj`(A)

aRemarque : Dans la majorité des livres, on choisit une autre définition du déterminant d’une matrice, basé surdes permutations, et on présente la définition ci-dessus comme un théorème qui en découle. Dans la pratique, puisqu’onutilise la définition ci-dessus pour calculer les déterminants, il nous semble plus logique de l’introduire directement etde passer outre à la définition standard.

7.2.1 Les matrices 2× 2

Dans plusieurs livres, on donne la valeur du déterminant d’une matrice 2×2essentiellement comme une définition et on utilise cette valeur pour calcu-ler les déterminants des matrices n × n. Nous avons choisi plutôt d’utiliserdirectement la définition du déterminant pour obtenir, à partir de la valeurdu déterminant pour une matrice 1 × 1 celle d’une matrice 2 × 2. De plus,comme la définition du déterminant indique qu’on peut choisir n’importequelle ligne ou n’importe quelle colonne, nous allons considérer séparémentles 4 cas pour illustrer que le résultat est le même peu importe le choix qu’onfait. Nous commençons par calculer les quatres cofacteurs de la matrice gé-nérale en terme du déterminant d’une matrice 1 1× 1.

A =(a bc d

)

Cof11(A) = (−1)1+1∣∣∣∣∣ a b

c d

∣∣∣∣∣ = |d| = d

Cof12(A) = (−1)1+2∣∣∣∣∣ a b

c d

∣∣∣∣∣ = −|c| = −c

Cof21(A) = (−1)2+1∣∣∣∣∣ a b

c d

∣∣∣∣∣ = −|b| = −b

Cof22(A) = (−1)2+2∣∣∣∣∣ a b

c d

∣∣∣∣∣ = |a| = a

Calculons maintenant le déterminant. En premier, nous le faisons en utilisantla première ligne :

|A| = a11 Cof11(A) + a12 Cof12(A) = ad+ b(−c) = ad− bc1Nous rappelons qu’il ne faut pas confondre les deux barres verticales du déterminant

avec une valeur absolue.

Page 119: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 111

En utilisant la deuxième ligne :

|A| = a21 Cof21(A) + a22 Cof22(A) = c(−b) + da = ad− bc

En utilisant la première colonne :

|A| = a11 Cof11(A) + a21 Cof21(A) = ad+ c(−b) = ad− bc

En utilisant la deuxième colonne :

|A| = a12 Cof12(A) + a22 Cof22(A) = b(−c) + ad = ad− bc

Nous voyons que le résultat est identique dans tous les cas. À partir de main-tenant, nous allons utiliser ce résultat directement et toujours calculer lesdéterminants de manière récursive jusqu’à ce qu’on arrive à des combinaisonsde déterminants de matrices 2× 2.

Exercice 7.3 Calculez le déterminant de la matrice(c c6 2c

)où c est un scalaire. Pour quelle(s) valeur(s) de c est-ce que le déterminant seraégal à zéro ?

7.2.2 Deux exemples de matrice de taille supérieure

Nous allons considérer deux exemples pour illustrer le calcul de déterminantsavant de considérer certaines propriétés des déterminants dans la sectionsuivante.

Exemple 7.2.1

Calculons le déterminant de la matrice A =

1 2 34 5 67 8 9

En choisissant de faire l’expansion à partir

de la première ligne, nous avons :

|A| =

∣∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣∣ =∣∣∣∣∣5 68 9

∣∣∣∣∣ − 2∣∣∣∣∣4 67 9

∣∣∣∣∣ + 3∣∣∣∣∣4 57 8

∣∣∣∣∣= (5 · 9− 6 · 8) − 2(4 · 9− 6 · 7) + 3(4 · 8− 5 · 7)= −3 + 12 − 9= 0

Page 120: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 112

Exemple 7.2.2

Calculez le déterminant de la matrice A =

4 5 3 30 0 2 02 6 7 08 4 9 0

Solution: Puisqu’il s’agit d’une matrice 4 × 4, nous pouvons écrire le déterminant comme une sommede 4 termes, chacun contenant un déterminant d’une matrice 3 × 3. Pour réduire la quantité de calculqu’on doit faire, on note que, si on choisit de faire l’expansion suivant la deuxième ligne, trois des quatrestermes seront zéros parce que chaque terme sera multiplié par le coefficient 0. Donc, le déterminant deA est ∣∣∣∣∣∣∣∣∣

4 5 3 30 0 2 02 6 7 08 4 9 0

∣∣∣∣∣∣∣∣∣ = −2

∣∣∣∣∣∣∣4 5 32 6 08 4 0

∣∣∣∣∣∣∣On note ici que la troisième colonne ne contient qu’un coefficient différent de zéro. Nous choisissons donccette colonne pour faire l’expansion suivante :

|A| = (−2)(3)∣∣∣∣∣2 68 4

∣∣∣∣∣ = (−2)(3)(2 · 4− 6 · 8) = 240

Exercice 7.4 Calculez le déterminant de la matrice de l’exemple précédenten faisant d’abord l’expansion suivant la première ligne.

7.3 Propriétés des déterminants

7.3.1 Matrices diagonales et triangulaires

Théorème 7.3.1

(a) Le déterminant de la matrice identité In est égal à 1.(b) Le déterminant d’une matrice diagonale D est le produit des éléments de la diagonale :

det D =n∏i=1

dii

(c) Le déterminant d’une matrice triangulaire est le produit des éléments de la diagonale.

Démonstration: Nous allons prouver ces propriétés par induction. On démontre tout d’abord que c’estvrai dans le cas n = 1, ou n = 2, puis, on suppose que c’est vrai dans le cas n− 1 pour démontrer quececi implique que c’est vrai pour n.

Page 121: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 113

(a) Le déterminant de I1 = (1) = 1. Il Considérons le déterminant de la matrice In :

|In| =

∣∣∣∣∣∣∣1 0 . . .0...

In−1

∣∣∣∣∣∣∣En faisant le développement par la première ligne (ou par la première colonne !), on trouve :

|In| = |In−1|

Mais puisque, par hypothèse, |In−1| = 1, cela implique que |In| = 1. CQFD(b) Le déterminant de D1 = (d11) = d11. Le déterminant de D2 est :∣∣∣∣∣d11 0

0 d22

∣∣∣∣∣ = d11d22 − 0 =2∏i=1

dii

Considérons le déterminant de la matrice Dn :

|Dn| =

∣∣∣∣∣∣∣d11 0 . . .0...

Dn−1

∣∣∣∣∣∣∣En faisant le développement par la première ligne (ou par la première colonne !), on trouve :

|Dn| = d11|Dn−1|

Mais puisque, par hypothèse, |Dn−1| =n−1∏i=1

, cela implique que |Dn| =2∏i=1

dii. CQFD

(c) La preuve, qui est semblable à la précédente, est laissée à faire en exercice.

Exercice 7.5 Prouvez que le déterminant d’une matrice triangulaire est leproduit des éléments de la diagonale.

7.3.2 Matrice ayant une colonne ou une ligne nulle

Théorème 7.3.2Si une matrice carrée A a une ligne ou une colonne remplie de zéros, alors |A| = 0.

Démonstration: : Il suffit de faire l’expansion du déterminant selon la ligne (ou la colonne) qui estremplie de zéros.

7.3.3 Transposée

Page 122: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 114

Théorème 7.3.3Le déterminant d’une matrice est égal au déterminant de sa transposée : |A| = |A>|.

Démonstration: Écrivons B = A>. Si l’on compare le déterminant de A selon la ligne j :

|A| =n∑`=1

aj` Cofj`(A)

avec le déterminant de sa transposée selon la colonne j :

|A>| = |B| =n∑`=1

b`j Cof`j(B)

on constate qu’ils sont égaux puisque b`j = aj` et similairement Cof`j(B) = Cofj`(A) par la définitionde la transposée.

7.3.4 Matrice élémentaires

Avant de continuer à prouver diverses propriétés, nous allons calculer le dé-terminant de trois matrices élémentaires 2×2. Tout d’abord, nous calculonsle déterminant de la matrice qui, lorsqu’on la multiplie à une autre ma-trice de la même taille, correspond à multiplier la première rangée par uneconstante :

|E1(k)| =∣∣∣∣∣k 00 1

∣∣∣∣∣ = k

Ensuite, nous calculons le déterminant de la matrice qui correspond à l’échangede deux lignes :

|E1↔2| =∣∣∣∣∣0 11 0

∣∣∣∣∣ = 0− 1 = −1

Finalement, nous calculons le déterminant de la matrice qui correspond àremplacer la première ligne par l’addition d’elle-même à k fois la deuxièmeligne :

|E12(k)| =∣∣∣∣∣1 k0 1

∣∣∣∣∣ = 1− k · 0 = 1

On note qu’il y a une quatrième possibilité, soit E21(k) mais

|E21(k)| = |E>12(k)| = |E12(k)| = 1

où nous avons utilisé le fait que le déterminant de la transposée d’une matriceest égal au déterminant de la matrice elle-même.

Maintenant, nous sommes prêt à calculer le déterminant du produit detelles matrices. Soit une matrice A de taille 2× 2 avec des coefficients arbi-traires :

A =(a bc d

)

Page 123: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 115

Son déterminant est ad− bc. Maintenant, évaluons le produit d’une des troismatrices élémentaires précédentes par cette matrice. Nous allons vérifier que,dans chacun des trois cas, |EA| = |E||A|.

|E1(k)A| =∣∣∣∣∣(k 00 1

)(a bc d

)∣∣∣∣∣ =∣∣∣∣∣ka kbc d

∣∣∣∣∣ = kad−kbc = k(ad−bc) = |E1(k)||A|

|E1↔2A| =∣∣∣∣∣(

0 11 0

)(a bc d

)∣∣∣∣∣ =∣∣∣∣∣c da b

∣∣∣∣∣ = bc− ad = −(ad− bc) = |E1↔2||A|

|E12(k)A| =∣∣∣∣∣(

1 k0 1

)(a bc d

)∣∣∣∣∣ =∣∣∣∣∣a+ kc b+ kd

c d

∣∣∣∣∣ = (a+ kc)d− (b+ kd)c

= ad− bc = |E12(k)||A|

Pour les matrices élémentaires n× n, nous avons :1. Les matrices Ei(k) sont des matrices diagonales ; leur déterminant est

le produit des coefficients diagonaux qui sont tous égaux à 1 sauf pourcelui de la ligne i qui est égal à k. Donc, leur déterminant est k.

2. Les matrices Eij(k) sont des matrices triangulaires ; leur déterminantest le produit des coefficients diagonaux qui sont tous égaux à 1. Donc,leur déterminant est 1.

3. À l’exception des lignes i et j, les matrices Ei↔j n’ont que des coeffi-cients égaux à 1 sur la diagonale. En faisant l’expansion du déterminanten premier selon ces autres lignes, on trouve le déterminant d’une ma-trice plus petite mais du même type, jusqu’à ce qu’on en arrive à unematrice 2×2 du même type, et dont le déterminant est égal à -1. Donc,le déterminant des matrices n× n de ce type est également -1.

Théorème 7.3.4Soit A une matrice n× n quelconque et E une matrice élémentaire n× n. Alors

det EA = (det E)(det A)

Démonstration: Pour démontrer ce résultat, nous allons procéder par induction. Nous avons déjà vu quececi était vrai dans le cas 2× 2. Supposons que nous avons vérifié le résultat dans le cas (n− 1)× (n− 1)et considérons le cas n × n. Le résultat de multiplier E et A ensemble est de changer soit une ou deuxdes lignes de A. Considérons une ligne de A, dénotée par i qui n’a pas changée et écrivons EA = B.Nous pouvons faire le calcul du déterminant de A selon cette ligne :

det(EA) = det(B) =n∑j=1

bij det Bij

Puisque nous considérons une rangée inchangée, dans chaque terme nous avons bij = aij , ce qui donne

det(EA)n∑j=1

aij det Bij

Page 124: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 116

Également, dans chaque terme, le mineur Bij , de taille (n − 1) × (n − 1) a été obtenu du mineurcorrespondant Aij par une opération élémentaire sur les lignes via une multiplication par une matriceélémentaire que nous dénotons par E(j) et qui est dans chaque cas du même type que celle opérant surla matrice A originale. Par hypothèse, nous savons que pour cette matrice de taille (n− 1)× (n− 1)

det Bij = det(E(j)) det(Aij)

et doncdet(EA) =

n∑j=1

aij(det E(j))(det Aij)

Comme toutes les matrices E(j) dans cette somme sont du même type, le déterminant est une constantequi a la même valeur que le déterminant de la matrice E originale ; cette constante peut être sortie de lasomme et nous avons :

det(EA) = (det E)n∑j=1

aij(det Aij) = (det E)(det A)

CQFD

Corollaire : Si on a une matrice qui a deux lignes identiques (ou deuxcolonnes identiques), son déterminant sera nul. En effet, on sait que si oninterchange les deux lignes identiques, la matrice ne changera pas mais sondéterminant changera de signe. Le seul scalaire qui est égal à son inverseadditif est zéro.

Corollaire : Si on a une matrice dont une ligne est un multiple d’uneautre (ou dont deux colonnes sont des multiples), son déterminant sera nul.En effet,il suffit de multiplier une ligne par le multiple pour avoir deux lignesidentiques ; le déterminant sera égal à zéro (divisé par le multiple par lequelon aurait multiplié la ligne ou la colonne).

Exercice 7.6 Soit la matrice A =(

1 23 4

)(a) Calculez det A

(b) Si E =(

1 20 1

)calculez det(EA) et comparez le résultat avec (det E)(det A).

(c) Si E =(

0 11 0

)calculez det(EA) et comparez le résultat avec (det E)(det A).

(d) Si E =(

4 00 1

)calculez det(EA) et comparez le résultat avec (det E)(det A).

(e) Calculez det(4A).

7.3.5 Déterminant, produit de matrices et inverse

Page 125: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 117

Théorème 7.3.5Soit A et B deux matrices n× n.(a) Si A est inversible, son déterminant est différent de zéro.(b) Si A n’est pas inversible, son déterminant est zéro.

Démonstration:(a) Si A est inversible, on peut obtenir A en effectuant des opérations élémentaires successives à partirde la matrice identité, ou encore

A = E1E2 . . .EmIn

En utilisant successivement la propriété det(EB) = (det E)(det B), on peut obtenir :

det A = det(E1) det(E2) . . . det(Em) det(In)

Comme chacun des déterminants individuels du côté droit de l’équation est différent de zéro, le déterminantde A est différent de zéro.(b) Si A n’est pas inversible, en appliquant successivement des opérations élémentaires, on peut obtenirune matrice échelonnée M dont au moins une rangée est égale à zéro. Par conséquent, le déterminantde cette matrice est zéro. Nous avons donc

det(E1E2 . . .EmA) = det(E1) det(E2) . . . det(Em) det(A) = det(M) = 0

Comme le déterminant des matrices élémentaires est différent de zéro, on doit avoir det A = 0. CQFD

Théorème 7.3.6

(a) Soit A et B deux matrices n × n. Le déterminant de leur produit est égal au produit de leurdéterminant :

det(AB) = (det A)(det B)

(b) Si A est inversible, son déterminant est l’inverse multiplicatif du déterminant de la matriceinverse :

det(A) = 1det A−1

Démonstration:(a) Nous devons considérez deux cas. Premièrement, si A n’est pas inversible, alors leur produit ABn’est également pas inversible et nous avons trivialement

0 = det(AB) = 0(det B) = (det A)(det B)

Deuxièmement, si A est inversible, alors on peut écrire A comme un produit de matrice élémentairesmultipliées par la matrice identité :

A = E1E2 . . .EmIn

Page 126: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 118

et doncAB = E1E2 . . .EmInB = E1E2 . . .EmB

En prenant le déterminant de chaque côté, on obtient

det(AB) = det(E1E2 . . .EmB)= (det E1)(det E2) . . . (det Em)(det B)= (det A)(det B)

Dans les deux cas, nous avons donc det(AB)(det A)(det B). CQFD(b) Il suffit de considérer

1 = det I = det(AA−1) = (det A)(det A−1)

d’oùdet(A) = 1

det A−1

Exercice 7.7 Soit la matrice

A =

1 1 11 2 01 1 2

Calculez le déterminant de A7.

7.3.6 Opérations élémentaires sur les lignes

Puisque la multiplication par une matrice élémentaire est équivalente à fairedes opérations sur les lignes, et vice-versa, on peut se servir de ceci pourcalculer les déterminants. De plus, et ceci est important, comme le déter-minant de la transposée d’une matrice est le même que celui de la matrice(non-transposée), on peut, lors du calcul des déterminants :

1. transposer une matrice2. faire une opération élémentaire sur ses lignes3. transposer la matrice résultante

et ce résultat est équivalent à faire une opération élémentaire sur les co-lonnes directement, sans avoir à faire d’abord une transposition puis determiner par une transposition.

Pour démontrer ceci, reprenons la matrice de l’exemple 7.2.2 et calculons

le déterminant de la matrice A =

4 5 3 30 0 2 02 6 7 08 4 9 0

Nous allons faire ceci en

utilisant au maximum les opérations élémentaires sur les lignes (et sur lescolonnes). Nous n’allons pas faire les calculs de la façon la plus efficace :

Page 127: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 119

nous allons plutôt faire des transformations visant à soit faire une expansion(à partir d’une ligne ou d’une colonne) qui n’aura qu’un seul terme avec lecoefficient 1 dans la première ligne et la première colonne, ou soit à extraireau maximum des facteurs communs pour que l’on ait de petits chiffres àmanipuler. Le but est d’illustrer les diverses opérations possibles.∣∣∣∣∣∣∣∣∣

4 5 3 30 0 2 02 6 7 08 4 9 0

∣∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∣0 1 0 01 0 0 00 0 1 00 0 0 1

∣∣∣∣∣∣∣∣∣

∣∣∣∣∣∣∣∣∣0 0 2 04 5 3 32 6 7 08 4 9 0

∣∣∣∣∣∣∣∣∣ = −

∣∣∣∣∣∣∣∣∣0 0 2 04 5 3 32 6 7 08 4 9 0

∣∣∣∣∣∣∣∣∣où le signe − vient du déterminant de la matrice élémentaire faisant l’inter-change de deux lignes (1 et 2). À partir de maintenant, nous n’allons pasécrire la matrice élémentaire requise 2 et indiquer seulement le résultat dechaque opération. ∣∣∣∣∣∣∣∣∣

0 0 2 04 5 3 32 6 7 08 4 9 0

∣∣∣∣∣∣∣∣∣ = −

∣∣∣∣∣∣∣∣∣2 0 0 03 5 4 37 6 2 09 4 8 0

∣∣∣∣∣∣∣∣∣où le signe − vient de l’interchange de deux colonnes (1 et 3).∣∣∣∣∣∣∣∣∣

2 0 0 03 5 4 37 6 2 09 4 8 0

∣∣∣∣∣∣∣∣∣ = 2

∣∣∣∣∣∣∣∣∣1 0 0 03 5 4 37 6 2 09 4 8 0

∣∣∣∣∣∣∣∣∣où le facteur de 2 vient de la division de la première ligne par 2 (l’opéra-tion élémentaire consisterait à multiplier la première ligne du côté droit parle facteur de 2 pour obtenir le côté gauche de l’équation). Important :veuillez noter que lorsqu’on multiplie un déterminant par un scalaire, cen’est pas comme la multiplication d’une matrice par un scalaire : ce n’estpas équivalent à multiplier tous les coefficients de la matrice par le scalaire ;c’est équivalent à multiplier les coefficients sur une seule ligne (ou une seulecolonne) par ce scalaire.

En faisant l’expansion le long de la première ligne, on n’a qu’un terme :∣∣∣∣∣∣∣∣∣1 0 0 03 5 4 37 6 2 09 4 8 0

∣∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣5 4 36 2 04 8 0

∣∣∣∣∣∣∣On peut interchanger la première et la troisième colonne :∣∣∣∣∣∣∣

5 4 36 2 04 8 0

∣∣∣∣∣∣∣ = −

∣∣∣∣∣∣∣3 4 50 2 60 8 4

∣∣∣∣∣∣∣2Ou, dans le cas d’opérations sur les colonnes, les trois opérations requises : transpo-

sition, opération élémentaire sur les lignes, transposition

Page 128: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 120

Si on divise la première colonne par 3, on obtient∣∣∣∣∣∣∣3 4 50 2 60 8 4

∣∣∣∣∣∣∣ = 3

∣∣∣∣∣∣∣1 4 50 2 60 8 4

∣∣∣∣∣∣∣En faisant l’expansion par la première colonne, on a∣∣∣∣∣∣∣

1 4 50 2 60 8 4

∣∣∣∣∣∣∣ =∣∣∣∣∣2 68 4

∣∣∣∣∣Finalement, faisons deux opérations, soit de diviser la première ligne par 2et la deuxième par 4 : ∣∣∣∣∣2 6

8 4

∣∣∣∣∣ = (2)(4)∣∣∣∣∣1 32 1

∣∣∣∣∣En résumé, nous avons∣∣∣∣∣∣∣∣∣4 5 3 30 0 2 02 6 7 08 4 9 0

∣∣∣∣∣∣∣∣∣ = (−1)(−1)(2)(−1)(3)(2)(4)∣∣∣∣∣1 32 1

∣∣∣∣∣ = −48[1·1−3·2] = (−48)(−5) = 240

ce qui est le même résultat que nous avions eu auparavant. Pour cet exemple-ci, les différentes étapes que nous avons suivi ont fait en sorte que le calcul aété beaucoup plus long que la façon que nous avions utilisée précédemment.Cependant, dans certains cas, les opérations élémentaires sur les lignes per-mettent de simplifier beaucoup les calculs ... et sont très utiles si on a debonnes raisons de croire que le déterminant d’une matrice est égal à zéro !

Exercice 7.8 Soit |A| =

∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣ = 5. Obtenez les déterminants des ma-

trices suivantes. Justifiez vos réponses, soit comme nous l’avons fait pour lapartie (a) dont la réponse est donnée, ou en écrivant une simple phrase indi-quant les types d’opérations qui ont été effectuées. Veuillez noter que certainsdéterminants ont été obtenus en faisant plus qu’une opération.

(a)

∣∣∣∣∣∣a b c

2d 2e 2fg h i

∣∣∣∣∣∣Réponse : On peut voir que le déterminant a été obtenu à partir de |A| enmultipliant la deuxième ligne par 2, ou encore :∣∣∣∣∣∣

a b c2d 2e 2fg h i

∣∣∣∣∣∣ =

∣∣∣∣∣∣1 0 00 2 00 0 1

∣∣∣∣∣∣∣∣∣∣∣∣a b cd e fg h i

∣∣∣∣∣∣ = 2 · 5 = 10.

(b)

∣∣∣∣∣∣a+ 2d b+ 2e c+ 2f

d e fg h i

∣∣∣∣∣∣

Page 129: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 121

(c)

∣∣∣∣∣∣d e fa b cg h i

∣∣∣∣∣∣(d)

∣∣∣∣∣∣a d gb e hc f i

∣∣∣∣∣∣(e)

∣∣∣∣∣∣a b c

2d+ a 2e+ b 2f + cg h i

∣∣∣∣∣∣(f)

∣∣∣∣∣∣a 2d gb 2e hc 2f i

∣∣∣∣∣∣(g)

∣∣∣∣∣∣a g 3db h 3ec i 3f

∣∣∣∣∣∣7.4 Règle de Cramer

Selon la description de Wikipédia :La règle de Cramer (ou méthode de Cramer) est un théo-

règle de Cramerrème en algèbre linéaire qui donne la solution d’un système deCramer, c’est-à-dire un système d’équations linéaires avec autantd’équations que d’inconnues et dont le déterminant de la matricede coefficients est non nul, en termes de quotients de détermi-nants.

En calcul, la méthode est moins efficace que la méthode de ré-solution de Gauss pour des grands systèmes (à partir de 4 équa-tions) dont les coefficients dans le premier membre sont explici-tement donnés. Cependant, elle est d’importance théorique pourla raison qu’elle donne une expression explicite pour la solutiondu système, et elle s’applique dans des systèmes où par exempleles coefficients du premier membre dépendent de paramètres, cequi peut rendre la méthode de Gauss inapplicable.

Définition 7.4.1Soit une matrice A de taille n×n. Nous pouvons représenter cette matrice comme une collection devecteurs colonnes :

A = [a1 . . .an]

Soit un vecteur b ∈ Rn. Nous définissions la matrice Ai(b) comme étant la matrice obtenue de lamatrice A en remplaçant la colonne i par b :

Ai(b) = [a1 · · ·ai−1b ai+1 · · ·an]

Page 130: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 122

Théorème 7.4.1Règle de CramerSoit A une matrice inversible n × n. Pour tout b ∈ Rn, la solution unique x de l’équation Ax = best donnée en terme de ses coefficients a par

xj = det Aj(b)det A

, j = 1, 2, . . . , n

Démonstration: Dénotons par a1 . . .an les colonnes de la matrice A et par e1 . . . en les colonnes dela matrice In. On sait que A = AI ; en écrivant ces matrices sous la forme de vecteurs colonnes, et enutilisant la multiplication par blocs du côté droit de l’équation ci-dessous,

A = AI[a1 · · ·an] = A[e1 · · · en]

= [Ae1 · · ·Aen]

on peut vérifier que Aej = aj .Maintenant, considérons le produit AIj(x) :

AIj(x) = A[e1 · · ·x · · · en]= [Ae1 · · ·Ax · · ·Aen]= [a1 · · · b · · ·an]= Aj(b)

Par les propriétés des déterminants, nous avons :

(det A)(det Ij(x)) = det Aj(b)

Si on fait l’expansion du déterminant det Ij(x) suivant la rangée j, on trouve xj det In−1 = xj , et donc

xj det A = det Aj(b)

Puisque la matrice A est inversible, det A 6= 0, et on obtient le résultat désiré. CQFDaOu, puisqu’il s’agit d’un vecteur, on peut utiliser composante au lieu de coefficient.

Exemple 7.4.1Résoudre le système d’équation

Ax =

1 1 −13 5 21 −2 −3

x1x2x3

=

18−1

= b

en utilisant la méthode de Cramer.

Solution: Tout d’abord, calculons le déterminant de la matrice des coefficients en faisant l’expansion par

Page 131: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 123

la première ligne

|A| =

∣∣∣∣∣∣∣1 1 −13 5 21 −2 −3

∣∣∣∣∣∣∣ =∣∣∣∣∣ 5 2−2 −3

∣∣∣∣∣−∣∣∣∣∣3 21 −3

∣∣∣∣∣−∣∣∣∣∣3 51 −2

∣∣∣∣∣ = (−15 + 4)− (−9− 2)− (−6− 5) = 11

On peut trouver la solution en utilisant l’équation

xj = det Aj(b)det A

, j = 1, 2, 3

Ainsi, toujours en faisant l’expansion par la première ligne,

x1 = 111

∣∣∣∣∣∣∣1 1 −18 5 2−1 −2 −3

∣∣∣∣∣∣∣ = 111 ((−15 + 4)− (−24 + 2)− (−16 + 5)) = 2

x2 = 111

∣∣∣∣∣∣∣1 1 −13 8 21 −1 −3

∣∣∣∣∣∣∣ = 111 ((−24 + 2)− (−9− 2)− (−3− 8)) = 0

x3 = 111

∣∣∣∣∣∣∣1 1 13 5 81 −2 −1

∣∣∣∣∣∣∣ = 111 ((−5 + 16)− (−3− 8) + (−6− 5)) = 1

et donc x =

201

est la solution recherchée.

Exercice 7.9 Résoudre le système d’équation

Ax =

1 1 10 1 10 0 1

x1x2x3

=

234

= b

en utilisant la méthode de Cramer. Ce serait peut-être une bonne idée de vérifiervotre réponse en trouvant la solution en utilisant la méthode de Gauss-Jordan.

7.4.1 Inverse d’une matrice

En utilisant la règle de Cramer, nous pouvons calculer l’inverse d’une matricedirectement. Soit une matrice A de taille n× n ; la colonne j de l’inverse decette matrice est un vecteur X tel que

AX = ej

où ej est la colonne j de la matrice identité. Si on dénote le coefficient i, j dela matrice inverse par (A−1)ij , en utilisant la règle de Cramer, on trouve :

(A−1)ij = xi = det Ai(ej)det A

Page 132: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 124

En faisant l’expansion par la colonne 3 j on trouve

det Ai(ej) = Cofji(A)

où Cofji(A) est le cofacteur de la matrice A correspondant au coefficientaji. En utilisant ce résultat, nous trouvons :

A−1 = 1det A

Cof11(A) Cof21(A) · · · Cofn1(A)Cof12(A) Cof22(A) · · · Cofn2(A)

......

...Cof1n(A) Cof2n(A) · · · Cofnn(A)

On appelle la matrice de droite la matrice des cofacteurs, ou la coma-

matrice des cofacteurstrice, ou encore l’adjointe classique de la matrice A, et on la dénote parcomatriceadjointe classique

adj A ce qui nous permet d’écrire

A−1 = 1det A

adj A

Exemple 7.4.2Calculez l’inverse de la matrice

A =

1 1 −13 5 21 −2 −3

en utilisant la méthode de Cramer.

Solution:

A−1 = 1det A

∣∣∣∣∣ 5 2−2 −3

∣∣∣∣∣ −∣∣∣∣∣ 1 −1−2 −3

∣∣∣∣∣∣∣∣∣∣1 −15 2

∣∣∣∣∣−∣∣∣∣∣3 21 −3

∣∣∣∣∣∣∣∣∣∣1 −11 −3

∣∣∣∣∣ −∣∣∣∣∣1 −13 2

∣∣∣∣∣∣∣∣∣∣3 51 −2

∣∣∣∣∣ −∣∣∣∣∣1 11 −2

∣∣∣∣∣∣∣∣∣∣1 13 5

∣∣∣∣∣

On a déjà trouvé dans un exemple précédent que |A| = 11. Nous avons donc

A−1 = 111

−11 5 711 −2 −5−11 3 2

3Si l’ordre des indices vous mélange, faites le calcul en faisant l’expansion par la lignej de la transposée.

Page 133: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 125

Exercice 7.10 En utilisant la méthode de Cramer, trouver l’inverse de lamatrice

A =

1 2 32 5 31 0 8

que l’on a vu à l’exemple 4.5.1.

7.5 Interprétation géométrique des déterminants

Soit la matrice suivante, que l’on peut considérer comme une collection dedeux vecteurs colonnes :

M =(a 00 b

)=([a0

] [0b

])

Ces deux vecteurs colonnes forment les côtés d’un rectangle d’aire ab quiest égal à la valeur du déterminant de cette matrice. Si on transforme lamatrice M via un cisaillement parallèle à l’axe horizontal, on obtient unparallélogramme ayant la même aire que le rectangle précédent, et le mêmedéterminant.

M =(a c0 b

)Ce résultat est général : en deux dimensions, le déterminant d’une matriceest égal à l’aire de la surface engendré par les deux vecteurs colonnes com-posant la matrice. 4 Qu’arrive-t-il si l’une des deux colonnes correspond au

x

y

b

a

Figure 7.1 Rectangle d’aire ab engendrépar les vecteurs

(a

0

)et(0b

).

x

y

b

ac

Figure 7.2 Parallélogramme d’aire ab

engendré par les vecteurs(a

0

)et(c

b

).

À noter que l’on obtient un tel paral-lélogramme via une transformation li-néaire de cisaillement (avec un déter-minant égal à 1) faite sur un rectangled’aire ab.

vecteur nul ou que l’une des deux colonnes soit un multiple de l’autre ? Dansce cas, nous avons effectivement un seul vecteur qui définit un parallélépi-pède d’aire nulle. Finalement, si on interchange deux colonnes, on trouve

4On obtient le même résultat si on considère les deux vecteurs lignes.

Page 134: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 126

que le déterminant change de signe. Puisqu’une aire est définie comme étantune valeur positive, lorsqu’on donne une interprétation géométrique au dé-terminant, on ignore simplement le signe. 5

7.5.1 Transformations linéaires

Imaginons que nous avons une surface S correspondant à un parallélogrammed’aire A ; nous pouvons concevoir ce parallélogramme comme étant engendrépar les vecteurs colonnes de la matrice B comme on l’a déjà vu ci-dessus.Supposons que nous faisions une transformation linéaire T (S), via la matriceM , pour obtenir un nouveau parallélogramme d’aire A′. Nous avons

A′ = det(MB) = (det M)(det B) = (det M)A

Ce résultat se généralise à d’autres formes que les parallélogrammes si onconsidère une surface S comme étant une somme (infinie) de petits rectangles(et que l’on passe à la limite).

Exemple 7.5.1Une application intéressante du calcul d’aires est celle d’une ellipse.

x2

a2 + y2

b2 = 1

Soit un point(uv

)tel que u2 + v2 ≤ 1. Ce point est situé à l’intérieur d’un cercle unitaire, d’aire

égale à π. Appliquons la transformation linéaire :

A =(a 00 b

)

à ce point. On obtient un point(xy

)situé à l’intérieur de l’ellipse x

2

a2 + y2

b2 ≤ 1 Nous avons donc :

[aire de l’ellipse] =∣∣∣∣∣a 00 b

∣∣∣∣∣ [aire du cercle] = abπ

5En fait, on peut considérer le signe si on définit des surfaces ou des systèmes d’axesorientés, l’orientation changeant de signe lorsqu’on fait une réflexion par rapport à un axe,par exemple.

Page 135: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 127

7.5.2 Dimensions supérieures à deux

Si au lieu d’un plan, on considère un espace à trois dimensions, le déterminantnous donnera le volume du parallélépipède engendré par les trois vecteurs.Si le déterminant est nul, cela signifie que les trois vecteurs (colonnes) sontco-planaires. Dans les dimensions plus élevées, on généralise ces notions eton parle de l’hypervolume engendré par les vecteurs.

Pour les transformations linéaires, si le déterminant est nul, cela veut direque l’on a fait une projection sur une, ou plusieurs dimensions. Par exemple,on a pris des points dans un espace à trois dimensions et on les a projetésur un plan. En faisant une telle transformation, on perd l’information sur lahauteur relative des points par rapport au plan sur lequel ils ont été projetés ;ceci explique pourquoi une telle transformation est irréversible.

7.6 Exercices divers

Exercice 7.11 Calculez∣∣∣∣∣∣1 2 41 3 91 5 25

∣∣∣∣∣∣Exercice 7.12 Calculez le déterminant des matricessuivantes.

(a)

1 0 0 0 00 1 0 0 00 0 1 0 00 0 0 4 30 0 0 5 4

(b)

4 4 0 0 03 5 0 0 00 0 1 0 00 0 0 1 00 0 0 0 1

(c)

1 0 0 77 −80 1 0 9 30 0 1 24 50 0 0 4 30 0 0 5 4

Exercice 7.13 Soit les matrices :

A =(

1 00 −1

)B = I

C =(

0 11 0

)D =

(0 10 0

)E =

(A BC D

)Calculez det E et det(AD −CB). Est-ce que vous ob-tenez le même résultat dans les deux cas ?

Exercice 7.14 Soit A et D deux matrices carrées. Ensuivant ce que vous avez fait pour trouver les réponsesde l’exercice 7.12, démontrez que

(a) det(

A 00 In

)= det A

Réponse : Un début de réponse est comme suit :Comme la matrice A est une matrice une matrice car-rée, supposons qu’elle est de taille m × m. En faisantl’expansion du déterminant par la dernière ligne, tousles termes sont zéros sauf un, dont le coefficient est à laligne m+ n et à la colonne m+ n et on trouve

det(

A 00 In

)= (−1)2m+2n det

(A 00 In−1

)

(b) det(

In 0C D

)= det D

(c) Utilisez les résultats précédents pour démontrer que

det(

A 0C D

)= (det A)(det D)

(d) det(

A B0 D

)= (det A)(det D)

Exercice 7.15 Soit An×n et Dm×m deux matrices car-rées. Vous pouvez supposer que A−1 existe.(a) Trouvez les matrices X et Y telles que(

A BC D

)=(

I 0X I

)(A B0 Y

)et utilisez ce résultat pour démontrer que∣∣∣∣A B

C D

∣∣∣∣ = (det A)(det(D −CA−1B))

(b) Quelle doit être la valeur de m pour qu’il soit pos-sible d’avoir AC = CA ?

Page 136: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 7. Déterminants 128

(c) Démontrer que, si AC = CA, alors∣∣∣∣A BC D

∣∣∣∣ = det(AD −CB)

Exercice 7.16 Soit la matrice A =

1 a a2

1 b b2

1 c c2

qui

est un exemple d’une matrice de Vandermonde. En uti-lisant des opérations sur les lignes, démontrez que le dé-terminant de cette matrice peut être écrit sous la forme :∣∣∣∣∣∣

1 a a2

1 b b2

1 c c2

∣∣∣∣∣∣ = xy

∣∣∣∣∣∣1 a a2

0 1 a+ b0 1 a+ c

∣∣∣∣∣∣

Puis, en continuant de faire des opérations sur les lignes,démontrez que∣∣∣∣∣∣

1 a a2

1 b b2

1 c c2

∣∣∣∣∣∣ = (b− a)(c− a)(c− b)

Vérifiez votre résultat en comparant avec ce que vousaviez obtenu pour l’exercice 7.11.

Page 137: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

8 Vecteurs propres et valeurs propres8.1 Introduction 1298.2 Polynôme caractéristique 1318.3 Diagonalisation 1358.4 Diagonalisation : un exemple détaillé 1398.5 Exercices divers 143

8.1 Introduction

Dans ce chapitre, nous allons étudier certaines propriétés des transformationslinéaires T d’un espace vectoriel V à lui-même.

Définition 8.1.1Soit une transformation T faite sur des vecteurs d’un espace vectoriel V sur un corps K. Un scalaireλ ∈ K est appelé valeur propre a de T s’il existe un vecteur non nul v ∈ V tel que

T (v) = λv

Tout vecteur v satisfaisant cette relation est appelé un vecteur propre de T correspondant à lavaleur propre λ.

a Le mot propre est utilisé dans le sens d’appartenance ; en anglais on utilise les termes eigenvalue et eigenvectorqui sont dérivés de l’allemand.

On remarque qu’en raison des propriétés des transformations linéaires, toutmultiple d’un vecteur propre est également un vecteur propre :

T (kv) = kT (v) = kλv = k(λv)

Théorème 8.1.1Soit λ une valeur propre d’un opérateur T : V → V . L’ensemble Vλ de tous les vecteurs propres deT correspondant à la valeur propre λ est un sous-espace de V .

Démonstration: Soient u,v ∈ Vλ, c’est-à-dire T (u) = λu et T (v) = λv. Soient a, b ∈ K et w = au+bvAlors

T (w) = T (au + bv) = aT (u) + bT (v) = a(λu) + b(λv) = λ(au + bv) = λw

et donc w ∈ Vλ.

129

Page 138: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 130

Théorème 8.1.2Soient v1, . . . ,vn les vecteurs propres non-nuls d’un opérateur T : V → V correspondant aux valeurspropres distinctes λ1, . . . , λn. Alors v1, . . . ,vn sont linéairement indépendants.

Démonstration: La démonstration de ce théorème se fait par récurrence. Si n = 1, alors v1 est linéaire-ment indépendant puisqu’il est non-nul et donc la seule façon que l’équation β1v1 peut être satisfaite estsi β1 = 0.

Supposons que les n− 1 premiers vecteurs propres soient linéairement indépendants, c’est-à-dire quela seule solution possible pour

β1v1 + · · ·+ βn−1vn−1 = 0

est telle que tous les βj soient égaux à zéro. Considérons l’équation

α1v1 + · · ·+ αnvn = 0 (1)

En appliquant T à cette équation, et en raison de la linéarité de l’opérateur T , nous avons

α1T (v1) + · · ·+ αnT (vn) = 0

Mais, puisque T (vj) = λjvj , ceci devient

α1λ1v1 + · · ·+ αnλnvn = 0 (2)

Multiplions l’équation (1) par λn et soustrayons-la de l’équation (2)

α1(λ1 − λn)v1 + · · ·+ αn−1(λn−1 − λn)vn−1 + αn(λn − λn)vn = 0

Le dernier terme (en rouge) de cette équation est égal à zéro. Puisque les valeurs propres sont toutesdistinctes, la seule façon possible de satisfaire cette équation est si tous les αj , 1 ≤ j ≤ n− 1 sont égauxà zéro puisque, par hypothèse, les n−1 premiers vecteurs sont linéairement indépendants. En remplaçantles n− 1 premiers αj par zéro dans l’équation (1), on trouve que αn doit également être égal à zéro, etdonc que tous les vecteurs sont linéairement indépendants.

Puisque les vecteurs propres sont linéairement indépendants, le nombremaximal qu’on puisse avoir est égal à la dimension de l’espace vectoriel, etces vecteurs formeront alors une base de cet espace vectoriel.

Exemple 8.1.1Soit la matrice

A =(

5 00 2

)

On peut facilement vérifier que cette matrice a 5 comme valeur propre, avec le vecteur propre(

10

),

ainsi que la valeur propre 2 et le vecteur propre(

01

)

Page 139: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 131

Le concept de valeurs propres et de vecteurs propres n’est pas limités auxtransformations linéaires exprimées sous la forme de matrices. L’exemplesuivant illustre ceci dans le cas de fonctions réelles et du calcul différentiel

Exemple 8.1.2Soit l’opérateur d

dtsur des fonctions réelles f . On note que cet opérateur est un opérateur linéaire :

d(af(t) + bg(t))dt

= ad f(t)dt

+ bd g(t)dt

Nous avonsd e3t

dt= 3e3t

et donc 3 est une valeur propre de d

dt, et e3t est un vecteur propre correspondant à cette valeur

propre.

8.2 Polynôme caractéristique

Supposons que nous cherchons les valeurs propres et les vecteurs propresd’une matrice carrée A, c’est-à-dire qu’on cherche des solutions (vecteurspropres) non-nulles à l’équation AX = λX. Une façon de procéder seraitde choisir un vecteur arbitraire X et d’obtenir un système de n équationslinéaires ayant n+ 1 inconnues : les n coefficients de X ainsi que λ. Commeon aura plus d’inconnues que d’équations, on aura une infinité de solutions. . . ce qui n’est pas surprenant puisque tout multiple d’un vecteur propreest également un vecteur propre. À première vue, le problème peut paraîtredifficile à résoudre. En pratique, il existe une méthode qui facilite la recherched’une solution.

Reprenons l’équation à résoudre, AX = λX ; en utilisant la matriceidentité, I, on peut réécrire ceci comme :

AX = λIX⇒ (A− λI)X = 0

Au théorème 4.4.1, nous avons démontré que, pour une matrice carrée M ,l’équation MX = 0 admet seulement la solution triviale si M est inversible.Inversement, nous aurions pu démontrer que si M n’est pas inversible, ilexiste une infinité de solutions. 1 Au théorème 7.3.5 nous avons démontréque si M n’est pas inversible, alors son déterminant est zéro. En combinantces deux résultats, nous concluons que nous pourrons trouver des vecteurspropres non-nuls si

|A− λI| = 0Pour une matrice n × n, l’équation ci-dessus résultera en un polynôme dedegré n en λ, appelé polynôme caractéristique de A. Notons que la

polynôme caractéristiquematrice A− λI est appelée la matrice caractéristique de A.matrice caractéristique

1Nous rappelons que pour les équations homogènes, nous avons toujours au moins unesolution (la solution triviale) ce qui nous laisse deux possibilités : une seule solution ouune infinité de solutions.

Page 140: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 132

Exemple 8.2.1Reprenons l’exemple simple du début du chapitre :

A =(

5 00 2

)

La matrice caractéristique de A est :

A− λI =(

5 00 2

)− λ

(1 00 1

)=(

5− λ 00 2− λ

)

et son déterminant est (5− λ)(2− λ). Le polynôme caractéristique est donc

(5− λ)(2− λ) = 0

qui a deux solutions pour λ (2 et 5), qui sont donc les deux valeurs propres de A comme nous l’avionsvu auparavant.

Exemple 8.2.2Trouvez les vecteur propres et les valeurs propres de la matrice

A =(

1 11 1

)

Solution: Le polynôme caractéristique est obtenu en calculant |A− λI| = 0 :∣∣∣∣∣1− λ 11 1− λ

∣∣∣∣∣ = (1− λ)2 − 1 = λ(λ− 2) = 0

On a donc deux solutions : λ = 0 et λ = 2, qui sont les deux valeurs propres. Trouvons les vecteurspropres correspondant, en utilisant l’équation Av = λv qu’on peut récrire comme (A − λI)v = 0. Enpremier, considère λ = 2 : (

1− 2 11 1− 2

)(xy

)=(−1 1

1 −1

)(xy

)=(

00

)

Ceci nous donne le système homogène

−x+ y = 0x− y = 0

On peut voir immédiatement que la deuxième équation nous donne la même information que la première.On n’a donc qu’une seule équation et deux variables. Suivant la convention habituelle, on choisit la variable

Page 141: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 133

y comme variable libre et la solution générale est de la forme

t

(11

)

Comme le multiple d’un vecteur propre est également un vecteur propre, on peut choisir t de façon tout àfait arbitraire (en autant que le résultat ne soit pas le vecteur nul). Un choix naturel est de prendre t = 1et on obtient donc que le vecteur propre qui correspond à la valeur propre 2 est(

11

)

Exercice 8.1 Vérifiez qu’un vecteur propre qui correspond à la valeur propre

0 dans l’exemple 8.2.2 ci-dessus est le vecteur(

1−1

). Vérifiez également que le

déterminant est égal au produit des valeurs propres (2 · 0 = 0), et que la traceest égale à la somme des valeurs propres..

Exercice 8.2 Trouvez les valeurs propres et les vecteur propres de la matrice

A =(

2 43 3

)Vérifiez également que le déterminant est égal au produit des valeurs propres,et que la trace est égale à la somme des valeurs propres.

Puisque la multiplication d’une matrice par un de ses vecteurs propresredonne le même vecteur propre multiplié par un scalaire on sait que, sansfaire de calculs, la matrice de rotation des vecteurs réels(

cos θ − sin θsin θ cos θ

)n’a pas de valeurs propres réelles, sauf dans le cas trivial où θ = 2nπ, n ∈ Zet cette matrice devient la matrice identité. L’exemple suivant vérifie cecidans un cas particulier.

Exemple 8.2.3Démontrer que la matrice de rotation par un angle de π/2 n’a pas de valeurs propres réelles.

Solution: La matrice de rotation par un angle de π/2 est

R =(

0 −11 0

)

Page 142: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 134

Pour trouver les valeurs propres, nous trouvons les solutions de |R− λI| = 0 :∣∣∣∣∣−λ −11 −λ

∣∣∣∣∣ = λ2 + 1 = 0

Comme le carré d’un nombre réel est un nombre positif, cette équation n’a pas de solutions réelles.

Exercice 8.3 En considérant les nombres complexes, trouvez les deux valeurspropres et les vecteurs propres correspondant de la matrice de rotation a :

R =(

0 −11 0

)aUne observation potentiellement intéressante : si on représente les nombres com-

plexes dans un plan, avec deux axes perpendiculaires, l’un correspondant à la partieréelle et l’autre à la partie complexe, la multiplication par i d’un nombre complexecorrespond à une rotation de π/2 dans le plan complexe.

Définition 8.2.1La multiplicité algébrique d’une valeur propre λ est l’ordre de la racine correspondante dans lepolynôme caractéristique. Par exemple, si le polynôme caractéristique est

(λ− 2)3(λ+ 4)5(λ− 6) = 0

alors la multiplicité algébrique de la valeur propre 2 sera 3, la multiplicité algébrique de la valeurpropre -4 sera 5, et la multiplicité algébrique de la valeur propre 6 sera 1.

On remarque que, si on remplace λ par zéro dans le polynôme caractéristique,l’expression qui reste est égale au produits des valeurs propres élevées à leurordre de multiplicité algébrique ; cette expression est également égale audéterminant de la matrice.

Définition 8.2.2La multiplicité géométrique d’une valeur propre λ est le nombre de vecteurs propres linéairementindépendants correspondant à cette valeur propre.

Comme des vecteurs linéairement indépendants permettent de définirune base d’un espace, la multiplicité géométrique sera égale à la dimensionde l’espace propre associé à une valeur propre.

Page 143: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 135

8.3 Diagonalisation

Soit l’équation AX = λX où la matrice A est une matrice n×n. Supposonsque nous ayons trouvé un ensemble linéairement indépendant de n vecteurspropres {Xi}. Construisons la matrice P en utilisant les vecteurs propresde A, avec un vecteur propre différent pour chaque colonne :

P = (X1 · · ·Xn)

Nous avons donc

AP = A(X1 · · ·Xn) = (AX1 · · ·AXn) = (λ1X1 · · ·λnXn)

Puisque les colonnes de P sont linéairement indépendantes, ceci veut direqu’elle est inversible. Écrivons son inverse comme une collection de vecteurslignes :

P−1 =

Y 1...

Y n

tels que Y iXj = δij , où δij est le symbole de Kronecker. Nous avons alors :

P−1AP =

Y 1...

Y n

A(X1 · · ·Xn) =

Y 1...

Y n

(λ1X1 · · ·λnXn) = (λjδij) = D

c’est-à-dire que le produit D = P−1AP est une matrice diagonale, avec lesvaleurs propres de A comme éléments non-nuls. Les vecteurs propres de Dpeuvent être choisis comme étant :

{Zi} =

10...0

, · · · ,

0...01

En fait, on a 2 :AX = λX

IAIX = λIXP P−1AP P−1X = λP P−1XP P−1AP P−1X = λP (P−1X)

P DZ = λP ZDZ = λZ

La matrice P−1, qui permet de changer de la base {Xi} à la base {Zi} estconnue sous le nom de matrice de passage : ceci est le nom qu’on donne

matrice de passageà toute matrice qui permet de changer la base d’un espace vectoriel. Ainsi,P est également une matrice de passage (de la base {Zi} à la base {Xi}).

2En fait, ce n’est pas nécessairement tout à fait exact : il est probable que les vecteursobtenus dans la nouvelle base utilisant la matrice de passage seront des multiples différentsde la base ci-dessus, où tous les coefficients non-nuls étaient égaux à 1.

Page 144: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 136

Définition 8.3.1Les matrices A et B sont des matrices semblables s’il existe une matrice de passage P telle queB = P−1AP

Théorème 8.3.1Des matrices semblables ont le même polynôme caractéristique.

Démonstration: Le polynôme caractéristique de B est donné par l’équation

|B − λI| = 0

Puisque B et A sont des matrices semblables, et que I = P−1IP , nous pouvons remplacer récrire lemembre de gauche de l’équation ci-dessus comme

|B − λI| = |P−1AP − λP−1IP | = |P−1||A− λI||P | = |A− λI|

Exemple 8.3.1Soit la matrice A de l’exemple 8.2.2 :

A =(

1 11 1

)Cette matrice a comme valeurs propres 0 et 2, et les vecteurs propres vλ correspondant

v0 =(

1−1

)v2 =

(11

)

En utilisant ces vecteurs, on peut obtenir la matrice de passage a

P = (v2v0) =((

11

)(1−1

))=(

1 11 −1

)

On peut vérifier que l’inverse de cette matrice est

P−1 =

12

12

12 −1

2

et que l’on peut diagonaliser A de la façon suivante :

P−1AP =

12

12

12 −1

2

1 1

1 1

1 1

1 −1

=

12

12

12 −1

2

2 0

2 0

=(

2 00 0

)= D

aLe choix de l’ordre des colonnes est arbitraire.

Page 145: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 137

Exercice 8.4 Soit la matrice

A =(

2 43 3

)de l’exercice 8.2. Trouvez une matrice de passage pour cette matrice et ensuitetransformez la matrice A dans une forme diagonale.

Exemple 8.3.2Soit la matrice A

A =(

1 11 1

)Calculez A31.

Solution: On pourrait trouver la réponse en faisant toute une série de multiplications . . . mais il y aune façon plus simple d’obtenir la réponse. On sait que l’on peut diagonaliser la matrice A en faisant latransformation

P−1AP = D

Si on multiplie cette équation de la gauche par P et de la droite par P−1, on obtient :

A = P DP−1

On observe que l’on a

A2 = (P DP−1)2 = P DP−1P DP−1 = P D2P−1

et, de façon plus généraleAn = P DnP−1

On peut facilement vérifier que, si élève une matrice diagonale à la puissance n la matrice résultante seraégalement une matrice diagonale dont les coefficients seront les coefficients de la matrice initiale élevés àcette même puissance n : d11 0 · · ·

0 d22 0 · · ·... 0 . . .

n

=

dn11 0 · · ·0 dn22 0 · · ·... 0 . . .

En utilisant les matrices qu’on avait trouvées dans les exemples précédents, on a donc

A31 =

1 1

1 −1

2 0

0 0

3112

12

12 −1

2

=

1 1

1 −1

231 0

0 0

12

12

12 −1

2

=

1 1

1 −1

(230 230

0 0

)

A31 =(

230 230

230 230

)

Page 146: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 138

Exercice 8.5 Soit la matrice

A =(

2 43 3

)de l’exercice 8.2. Calculez A31. Note : vous pouvez laisser les valeurs numériquessous la forme ab + cd, comme par exemple 53 + 63, de telle sorte que vous nedevriez pas avoir besoin d’utiliser une calculatrice.

Exemple 8.3.3

Est-il possible de diagonaliser la matrice A =(

1 10 1

)?

Solution: La réponse à cette question est non . . . ce que nous allons démontrer de deux façons. Dans unpremier temps, nous allons démontrer ceci d’une façon applicable à tout problème de ce genre. Puis, nousallons utiliser des propriétés particulières de cette matrice pour faire la démonstration d’une autre façon.

Le polynôme caractéristique de cette matrice est donné par l’équation 0 = |A− λI|

0 =∣∣∣∣∣1− λ 1

0 1− λ

∣∣∣∣∣ = (1− λ)2

Nous avons donc une seule valeur propre, λ = 1, ayant une multiplicité algébrique égale à 2. Calculonsle ou les vecteurs propres linéairement indépendants correspondant à cette valeur propre en utilisantl’équation (A− λI)X = 0 avec λ = 1(

0 10 0

)(xy

)=(y0

)=(

00

)⇒ y = 0

x est donc une variable libre et, si nous choisissons la valeur 1 pour cette variable, on obtient le vecteurpropre (

10

)Comme on n’a qu’un seul vecteur propre, la multiplicité géométrique de la valeur propre est 1, ce qui estplus petit que sa multiplicité algébrique. Avec un seul vecteur propre, on ne peut pas obtenir une matricede passage P qui soit inversible et donc on ne peut pas diagonaliser la matrice A.

Une autre façon de voir ceci est la suivante. La seule matrice diagonale 2 × 2 qui a la valeur 1 pourses deux coefficients sur la diagonale est la matrice identité. Supposons qu’on ait une matrice de passageP qu’on utilise pour obtenir une matrice semblable à la matrice diagonale (mais différente d’elle). Latransformation habituelle serait :

P DP−1 = A

Dans ce cas-ci, puisque D = I, on obtient :

P IP−1 = I 6= A

Page 147: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 139

Théorème 8.3.2On peut diagonaliser une matrice A si la multiplicité algébrique de chacune de ses valeurs propresest égale à la multiplicité géométrique de ces mêmes valeurs propres.

Démonstration: On sait que les vecteurs propres qui appartiennent a des valeurs propres distinctes sontlinéairement indépendants entre eux. Si la multiplicité algébrique est égale à la multiplicité géométriquepour chacune des valeurs propres, alors ceci veut dire (par la définition de la multiplicité géométrique)que les vecteurs propres qui appartiennent à la même valeur propre sont linéairement indépendants. Donc,tous les vecteurs propres sont linéairement indépendants et, pour une matrice de taille n×n, nous auronsn vecteurs propres linéairement indépendants. Comme ces vecteurs sont linéairement indépendants, onpeut s’en servir comme colonnes d’une matrice P de taille n× n qui sera alors inversible et pourra doncêtre utilisée comme matrice de passage.

Bien qu’il ne soit pas toujours possible de diagonaliser une matrice, on La trace d’une matrice estégale à la somme de ses va-leurs propres ; le détermi-nant d’une matrice est égalau produit de ses valeurspropres.

peut démontrer 3 qu’il est possible de toujours possible de trouver une ma-trice qui permet de transformer cette matrice dans une forme triangulairede la façon suivante :

P−1AP = T

Comme Tr(T ) = Tr(P−1AP ) = Tr(AP P−1) = Tr(A) et que les valeurspropres d’une matrice triangulaire sont les termes sur la diagonale, alorsla trace d’une matrice carrée est égale à la somme de ses valeurs propres.De la même façon, le déterminant d’une matrice est égal au produit de sesvaleurs propres. Évidemment, si on peut diagonaliser une matrice, ces deuxpropriétés sont alors évidentes.

8.4 Diagonalisation : un exemple détaillé

Soit la matrice

A =

2 + c 3 c+ 3c −1 c− 3−c −3 −c− 1

Calculons le polynôme caractéristique à partir de l’équation |A − λI| = 0.Nous allons faire l’expansion suivant la première colonne :∣∣∣∣∣∣∣2 + c− λ 3 c+ 3

c −1− λ c− 3−c −3 −c− 1− λ

∣∣∣∣∣∣∣ = (2 + c− λ)∣∣∣∣∣−1− λ c− 3

−3 −c− 1− λ

∣∣∣∣∣− c∣∣∣∣∣ 3 c+ 3−3 −c− 1− λ

∣∣∣∣∣− c∣∣∣∣∣ 3 c+ 3−1− λ c− 3

∣∣∣∣∣= (2 + c− λ)((1 + λ)[c+ 1 + λ] + 3[c− 3])

−c(−3[c+ 1 + λ] + 3[c+ 3])− c(3[c− 3] + [c+ 3](1 + λ))= (2 + c− λ)(4c− 8 + (c+ 2)λ+ λ2)

−c(−3λ+ 6)− c(4c− 6 + (c+ 3)λ)= 4c2 − 16 + (c2 + 12)λ− λ3

−c2λ− 4c2

3Cette démonstration requiert des concepts qui ne sont pas inclus dans ce manuel.

Page 148: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 140

= −(λ3 − 12λ+ 16) = 0

On constate 4, que le résultat est indépendant de la valeur de c. La valeurdu déterminant de la matrice A est -16, ce que l’on obtient en remplaçantλ par zéro.

Normalement, la factorisation d’un tel polynôme n’est pas chose facile.Cependant, pour les exemples et les exercices de ce cours, onpeut supposer que les valeurs propres seront des entiers. Commeon sait que le produit des valeurs propres élevées à l’ordre de leur multi-plicité algébrique est égal au déterminant, on n’a que quelques choix pos-sibles pour les valeurs propres si on suppose qu’on a des valeurs entières :±1,±2,±4,±8,±16, car ces valeurs doivent être des diviseurs de -16. En sub-stituant dans l’équation, on peut vérifier facilement que les seules solutionspossibles sont 2 et -4, et on peut vérifier que

(λ3 − 12λ+ 16) = (λ− 2)2(λ+ 4)

Nous avons donc une valeur propre (-4) avec une multiplicité algébrique de1, et l’autre (2) avec une multiplicité algébrique de 2.

Nous procédons maintenant au calcul des vecteurs propres. Ces vecteursvont satisfaire l’équation (A−λI)X = 0. Commençons avec la valeur propre-4.

(A+4I)X =

6 + c 3 c+ 3c 3 c− 3−c −3 −c+ 3

xyz

=

(6 + c)x+ 3y + (3 + c)zcx+ 3y + (c− 3)z−cx− 3y + (3− c)z

=

000

Nous avons donc un système de 3 équations homogènes à résoudre. On re-marque que la troisième équation est la négation de la deuxième ; nous avonsdonc seulement deux équations différentes et trois variables, ce qui veut direqu’une de ces variables sera une variable libre. 5

Choisissons la variable z comme variable libre et écrivons-la comme leparamètre t. Le système d’équations à résoudre devient :{

3y + (6 + c)x = −(3 + c)t3y + cx = (3− c)t

où nous avons choisi d’écrire en premier la variable y pour éviter d’avoirla constante inconnue c comme coefficient de la première variable dans lapremière ligne. 6

4Ceci n’est pas un hasard, comme vous vous en doutez peut-être : j’ai choisi des valeursbien particulières pour faire en sorte que ceci soit le cas.

5À noter que l’on doit toujours avoir une variable libre puisque le multiple d’un vecteurpropre est également un vecteur propre ; donc, on ne peut pas avoir une solution unique.Cependant, bien que l’on ait pu identifier ce fait rapidement dans ce cas-ci, ce ne sera pastoujours le cas.

6Si on n’avait pas fait ce choix, on aurait eu 6 + c comme premier coefficient dans lapremière ligne. Pour faire en sorte que l’on ait la valeur 1 comme pivot, on aurait eu àdiviser par 6 + c, ce qui n’aurait pas été permis si on avait c = −6. Nous aurions donc duconsidérer ce cas séparément, et doubler le travail à faire.

Page 149: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 141

Écrivons la matrice augmentée correspondant à ce système.[3 6 + c −(3 + c)t3 c (3− c)t

]

De façon temporaire, écrivons c = 3d et divisons les deux lignes par 3 :[1 2 + d −(1 + d)t1 d (1− d)t

]⇒ L2 − L1 → L2 ⇒

[1 2 + d −(1 + d)t0 −2 2t

]

⇒ −12L2 → L2 ⇒

[1 2 + d −(1 + d)t0 1 −t

]

⇒ L1 − (2 + d)L2 → L1 ⇒[1 0 t0 1 −t

]

En se rappelant que la variable y correspond à la première colonne de lamatrice augmentée, nous avons donc :

x = −ty = tz = t

Comme tout multiple non nul d’un vecteur propre est également un vecteurpropre, nous pouvons faire le choix t = 1 et nous avons qu’un vecteur proprecorrespondant à la valeur propre -4 est−1

11

On observe que ce résultat est indépendant de la valeur de la variable c.

Passons maintenant au cas de la valeur propre 2.

(A− 2I)X =

c 3 c+ 3c −3 c− 3−c −3 −c− 3

xyz

=

cx+ 3y + (c+ 3)zcx− 3y + (c− 3)z−cx− 3y − (c+ 3)z

=

000

Ceci correspond à un système de 3 équations homogènes à résoudre. Cepen-dant, on remarque que la troisième équation est la négation de la première :nous n’avons donc que deux équations indépendantes et nous pouvons choisirune variable comme étant une variable libre. Faisons le choix de x comme va-riable libre que nous paramétrisons par t. Le système d’équations à résoudredevient : {

3y + (c+ 3)z = −ct−3y + (c− 3)z = −ct

Écrivons temporairement c = 3d et trouvons la solution en utilisant la ma-trice augmentée de la façon habituelle[

3 3d+ 3 −3dt−3 3d− 3 −3dt

]⇒

13L1 → L113L2 → L2

⇒[

1 d+ 1 −dt−1 d− 1 −dt

]

L2 + L1 → L2 ⇒[1 d+ 1 −dt0 2d −2dt

]

Page 150: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 142

Supposons que d (qui est égal à c3) soit différent de zéro. Dans ce cas, nous

pouvons diviser la deuxième ligne par 2d et obtenir[1 d+ 1 −dt0 1 −t

]

En soustrayant d+ 1 fois la deuxième ligne de la première, on obtient[1 0 t0 1 −t

]

et nous avons donc comme solution :xyz

= t

11−1

Bien que la multiplicité algébrique de la valeur propre 2 soit 2, nous n’avonsqu’un seul vecteur 7 propre correspondant et sa multiplicité géométriqueest 1. On ne peut donc pas trouver de matrice de passage dans ce cas, etdiagonaliser la matrice.

Cependant, on se rappelle que, pour obtenir ce résultat, on avait supposéque d était différent de zéro. Qu’arrive-t-il si d = 0 ? Dans ce cas, la matriceaugmentée devient [

1 1 00 0 0

]et on a une deuxième variable libre. Si on paramétrise z par le scalaire s, lasolution devient : xy

z

=

t−ss

Comme on a deux paramètres, on peut avoir deux vecteurs propres linéaire-ment indépendants. En choisissant les combinaisons (s, t) = (0, 1) et (−1, 0)on obtient 1

00

et

01−1

Si on ajoute le troisième vecteur correspondant à la valeur propre -4,−1

11

on peut former une matrice de passage :

P =

1 0 −10 1 10 −1 1

7À l’exception d’un facteur multiplicatif, comme toujours.

Page 151: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 143

On peut trouver l’inverse de cette matrice suivant la procédure habituelle1 0 −1 1 0 00 1 1 0 1 00 −1 1 0 0 1

⇒ L3 + L2 → L3 ⇒

1 0 −1 1 0 00 1 1 0 1 00 0 2 0 1 1

⇒ 1

2L3 → L3 ⇒

1 0 −1 1 0 00 1 1 0 1 00 0 1 0 1

212

⇒ L1 + L3 → L1L2 − L3 → L2

1 0 0 1 1

212

0 1 0 0 12 −1

2

0 0 1 0 12

12

Nous avons donc

P−1 =

1 1

212

0 12 −1

2

0 12

12

On peut vérifier que

P−1AP =

1 1

212

0 12 −1

2

0 12

12

2 + c 3 c+ 3

c −1 c− 3−c −3 −c− 1

1 0 −1

0 1 10 −1 1

=

1 1

212

0 12 −1

2

0 12

12

2 + c −c 4

c 2− c −4−c c− 2 −4

=

2 + c −c 0c 2− c 00 0 −4

Cette matrice est diagonale si et seulement si c = 0.

8.5 Exercices divers

Pour chacune des matrices de l’exercice 8.6 à l’exercice8.10 :

1. Trouvez les valeurs propres et leur multiplicité al-gébrique.

2. Pour chaque valeur propre, trouvez ses vecteurspropres et déterminez sa multiplicité géomé-trique.

3. Si cela est possible, trouvez la matrice de passagepermettant de diagonaliser la matrice.

4. Si cela est possible, obtenez la matrice semblablediagonale.

Veuillez noter que, si dans un système d’équations li-néaires, une variable n’apparait nulle part, c’est qu’il

s’agit d’une variable libre.

Exercice 8.6 A =

2 −1 21 0 20 0 3

Exercice 8.7 A =

1 0 60 1 40 0 3

Exercice 8.8 A =

0 0 −21 2 11 0 3

Exercice 8.9 A =

1 3 6−3 −5 −6

3 3 4

Page 152: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 8. Vecteurs propres et valeurs propres 144

Exercice 8.10 A =

−2 −1 −16 5 1−6 −7 −3

Page 153: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

9 Produit scalaire et orthogonalité9.1 Introduction 145

9.1.1 Exemples 1489.2 Orthogonalité 149

La notion de produit scalaire permet de définir la longueur, ou norme d’unvecteur, ainsi que l’orthogonalité de deux vecteurs. Ces deux propriétés,norme et orthogonalité, permettent à leur tour de définir des bases ditesorthonormées pour les espaces vectoriels. L’utilisation de base orthonorméespermet de simplifier énormément les calculs. En fait, lorsqu’on introduit lesvecteur dans le plan R2 ou dans l’espace R3, on utilise tout naturellementdes bases orthonormées parce qu’elles constituent un choix naturel.

Dans ce chapitre, nous allons présenter le produit scalaire dans sa formela plus générale et donner un simple aperçu de la procédure pour obtenirune base orthonormée. Bien que ceci puisse, en principe, permettre d’étudierplusieurs applications intéressantes, nous devrons passer outre à leur étudefaute de temps.

9.1 Introduction

Définition 9.1.1Soit V un espace vectoriel sur le corps R. Pour chaque paire de vecteurs u,v on peut associer unscalaire dénoté par 〈u,v〉, qu’on désigne sous le nom de produit scalaire de ces deux vecteurs etsatisfaisant les axiomes suivants :

1. 〈au + bv,w〉 = a〈u,w〉+ b〈v,w〉 pour u,v,w ∈ V et a, b ∈ R.2. 〈u,v〉 = 〈v,u〉3. 〈u,u〉 ≥ 04. 〈u,u〉 = 0 si et seulement si u = 0.

Exercice 9.1 Lorsqu’on a des nombres complexes, on ne peut pas définirun ordre, du plus grand au plus petit. a Sachant ceci, lorsqu’on définit unproduit scalaire sur le corps des complexes, expliquez comment la modificationdu deuxième axiome à

2. 〈u,v〉 = 〈v,u〉fait en sorte que le troisième axiome devienne possible. b

aPour donner un exemple concret, pour les réels on sait que −1 < 0 < 1 ; si ona le nombre complexe i =

√−1, pouvez-vous décider si ce nombre est plus petit ou

plus grand que zéro ?

145

Page 154: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 146

bRappelons que lorsqu’on met une barre au-dessus d’un nombre complexe, ceciindique que l’on prend son conjugué, remplaçant i par −i.

En utilisant le premier et le deuxième axiome, on peut vérifier que :

〈w, au + bv〉 = a〈w,u〉+ b〈w,v〉

Exercice 9.2 Si on définit le produit scalaire sur le corps des complexes avecla modification mentionnée à l’exercice 9.1, démontrez que

〈w, au + bv〉 = a〈w,u〉+ b〈w,v〉

On définit également la norme ou longueur d’un vecteur comme le normenombre réel non négatif suivant :

‖u‖ =√〈u,u〉

À noter qu’en raison des propriétés de l’addition des vecteur, y comprisle vecteur nul 0, nous avons 〈u + 0,v〉 = 〈u,v〉 ; également, en utilisantle premier axiome de la définition ci-dessus, nous devons avoir 〈u + 0,v〉 =〈u,v〉+〈0,v〉, d’où l’on tire 〈0,v〉 = 0. De la même façon, on peut démontrerque 〈v, 0〉 = 0 Nous pouvons maintenant prouver une importante propriétéconnue sous le nom d’inégalité de Cauchy-Schwarz.

inégalité de Cauchy-Schwarz

Théorème 9.1.1Soit V un espace vectoriel sur le corps R. Pour tout vecteur u,v ∈ V nous avons |〈u,v〉| ≤ ‖u‖ ‖v‖.Cette inégalité est connue sous le nom d’inégalité de Cauchy-Schwarz.

Démonstration: On note que l’inégalité est satisfaite si v = 0. Nous allons maintenant considérer le casv 6= 0 Définissons d’abord z = 〈u,v〉. Considérons ensuite l’inégalité

0 ≤ ‖w‖2 = 〈w,w〉

avec le vecteur w = u− αzv où α est un nombre réel que nous définirons plus tard. Ceci nous donne :

0 ≤ 〈u− αzv,u− αzv〉= 〈u,u〉 − αz〈v,u〉 − αz〈u,v〉+ α2z2〈v,v〉= ‖u‖2 − 2αz2 + α2z2‖v‖2

Choisissons maintenant α = 1‖v‖2

; ceci nous donne

0 ≤ ‖u‖2 − 2 z2

‖v‖2+ z2

‖v‖2= ‖u‖2 − z2

‖v‖2

d’où l’on obtient ‖u‖2‖v‖2 ≥ z2 = 〈u,v〉2. En prenant la racine carrée de chaque côté, on obtient lerésultat recherché.

Page 155: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 147

Exercice 9.3 Soit V un espace vectoriel sur le corps C. Démontrez l’inégalitéde Cauchy-Schwarz. Vous voudrez utiliser z = 〈u,v〉, et donc z = 〈v,u〉 ;rappelons que, pour les nombres complexes, zz = |z|2

Puisqu’une valeur absolue doit être positive, l’inégalité de Cauchy-Schwarzpeut être écrite comme

0 ≤ |〈u,v〉|‖u‖ ‖v‖

≤ 1

Pour les vecteurs réels, en enlevant la valeur absolue du numérateur,nous pouvons écrire

−1 ≤ 〈u,v〉‖u‖ ‖v‖

≤ 1

Nous pouvons utiliser ceci pour définir un angle θu,v entre les vecteurs u etv par la relation :

cos θu,v = 〈u,v〉‖u‖ ‖v‖

[9.1.1]

Nous verrons au prochain chapitre que cette définition correspond bien ànotre définition d’angle dans Rn.

L’inégalité de Cauchy-Schwarz nous permet de démontrer une autre in-égalité connue sous le nom d’inégalité triangulaire :

inégalité triangulaire

‖u + v‖ ≤ ‖u‖+ ‖v‖

La démonstration de cette inégalité pour les vecteurs réels est la suivante :

‖u + v‖2 = 〈u + v,u + v〉= 〈u,u〉+ 〈u,v〉+ 〈v,u〉+ 〈v,v〉= ‖u‖2 + 2〈u,v〉+ ‖v‖2 〈u,v〉 = 〈v,u〉

≤ ‖u‖2 + 2|〈u,v〉|+ ‖v‖2≤ ‖u‖2 + 2‖u‖‖v‖+ ‖v‖2 par l’inégalité de Cauchy-Schwarz

= (‖u‖+ ‖v‖)2

~u

~v

~u + ~v

Figure 9.1 Illustration de l’in-égalité du triangle dans le plancartésien : la somme des lon-gueurs de deux des côtés d’untriangle est plus grande que lalongueur du troisième côté.

et donc ‖u + v‖2 ≤ (‖u‖+ ‖v‖)2. En prenant la racine carrée de chaquecôté, on obtient le résultat recherché.

Exercice 9.4 Démontrez l’inégalité triangulaire pour les vecteurs complexes.Vous voudrez possiblement utiliser le fait que, pour un nombre complexe de laforme a+ bi, nous avons

a+ bi+ a+ bi = 2a ≤√a2 + b2 = |a+ bi|

Page 156: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 148

9.1.1 Exemples

Pour chaque espace vectoriel, on peut définir un produit scalaire. En voiciquelques exemples.

1. Soit V l’espace des matrices m× n sur R. On peut définir un produitscalaire de la façon suivante :

〈A,B〉 = Tr(B>A)

On note qu’en raison des propriétés de la multiplication des matrices,

(aA> + bB>)C = aA>C + bB>C

l’axiome 1 de la définition d’un produit scalaire est automatiquementsatisfait.

2. Soit V l’espace des matrices m× n sur C. On peut définir un produitscalaire de la façon suivante :

〈A,B〉 = Tr(B∗A)

3. Soit V l’espace des fonctions continues réelles sur l’intervalle a ≤ x ≤ b.On peut définir un produit scalaire de la façon suivante :

〈f, g〉 =∫ b

af(x)g(x)dx

Exercice 9.5 Considérez des matrices générales réelles de taille 3× 2 :

A =

a11 a12a21 a22a31 a32

et B =

b11 b12b21 b22b31 b32

Démontrez qu’en général B>A 6= A>B mais que, néanmoins, les axiomes 2, 3et 4 de la définition d’un produit scalaire sont satisfait si on a

〈A,B〉 = Tr(B>A)

Exercice 9.6 Calculez la norme des matrices(

0 14 8

)et(

4 −1−4 4

)en uti-

lisant la définition mentionnée ci-dessus pour le produit scalaire de matrices.

Un cas particulier du premier exemple est celui des matrices m×1 c’est-à-dire les vecteurs de Rn. Par exemple, pour R3, on peut avoir :

X =

x1x2x3

et Y =

y1y2y3

Page 157: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 149

et donc

〈X,Y 〉 = Tr(Y >X) = Tr

(y1 y2 y3)x1

x2x3

= Tr(y1x1+y2x2+y3x3) = y1x1+y2x2+y3x3

Habituellement, par convention pour les vecteurs de Rn, au lieu d’utiliserla notation 〈X,Y 〉 on écrira plutôt 1 X · Y = 〈Y ,X〉 et on traitera unematrice 1×1 comme un scalaire ce qui nous permettra d’omettre le symbolepour la trace. Ceci veut dire qu’on écrira pour le produit dans R3

X · Y =(x1 x2 x3

)y1y2y3

= x1y1 + x2y2 + x3y3

On peut facilement vérifier que X · Y = Y · X, que X · X ≥ 0 et queX ·X = 0 si et seulement si X = 0.

9.2 Orthogonalité

Définition 9.2.1Deux vecteurs u et v sont dits orthogonaux si 〈u,v〉 = 0.

Une base formée de vecteurs orthogonaux est appelée une base ortho-gonale.

base orthogonale

Exercice 9.7 Vérifiez que les matrices suivantes sont orthogonales :(1 00 0

) (0 10 0

) (0 01 0

) (0 00 1

)

Théorème 9.2.1Théorème de Pythagore : Deux vecteurs réels, u et v, sont orthogonaux si et seulement si :

‖u + v‖2 = ‖u‖2 + ‖v‖2

Démonstration: Si on a deux vecteurs réels, alors 〈u,v〉 = 〈v,u〉 et

‖u + v‖2 = 〈u + v,u + v〉= 〈u,u〉+ 〈u,v〉+ 〈v,u〉+ 〈v,v〉= ‖u‖2 + 2〈u,v〉+ ‖v‖2

d’où l’on obtient ‖u + v‖2−‖u‖2−‖v‖2 = 2〈u,v〉. Si les deux vecteurs sont orthogonaux, le côté droitde l’égalité est zéro et le théorème de Pythagore est satisfait. Si le théorème de Pythagore est satisfait,

1En raison du point qui est utilisé entre les vecteurs pour indiquer la multiplication sca-laire, on appelle ceci dot product en anglais. Le produit scalaire général est habituellementappelé inner product en anglais.

Page 158: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 150

alors le côté gauche de l’égalité est zéro, ce qui signifie que le produit scalaire des deux vecteurs est égalà zéro et donc qu’ils sont orthogonaux.

Le concept d’orthogonalité est relié à celui d’indépendance linéaire ;orthogonalitéindépendance linéaire

en fait, on pourrait dire qu’il s’agit d’un cas extrême d’indépendance linéaire.Supposons que l’on ait deux vecteurs orthogonaux non nuls, u et v, et quel’on essaie de trouver deux constantes, α et β telles que

αu + βv = 0

En prenant le produit scalaire de cette équation avec u on trouve α‖u‖2 = 0ce qui implique que α = 0. En prenant le produit scalaire de cette équationavec v, on trouve que β = 0. Donc, la seule façon que l’on puisse avoir

αu + βv = 0

est si les deux constantes, α et β sont zéros. Par la définition de la dépendancelinéaire, ceci veut dire que les vecteurs u et v sont linéairement indépendants.Par contre l’inverse n’est pas vrai : deux vecteurs linéairement indépendantsne sont pas nécessairement orthogonaux. Par contre, étant donné un en-semble de vecteurs linéairement indépendants, on peut obtenir un ensemblede vecteurs orthogonaux. Supposons que l’on a deux vecteurs linéairementindépendants, u et v. Écrivons le vecteur w comme la combinaison linéairesuivante :

w = v + αu

et choisissons α tel que w et u soit orthogonaux :

0 = 〈w,u〉 = 〈(v + αu),u〉 = 〈v,u〉+ α〈u,u〉

⇒ α = −〈v,u〉‖u‖2

On peut vérifier que Vect({u,w}) = Vect({u,v}).On peut généraliser ceci à la situation où on a n vecteurs linéairement

indépendants. Soit un tel ensemble {v1, . . .vn}. Choisissons u1 = v1. Puis

u2 = v2 −〈v2,u1〉‖u1‖2

u1

On peut vérifier que

〈u2,u1〉 = 〈v2,u1〉 −〈v2,u1〉‖u1‖2

〈u1,u1〉 = 0

On peut continuer avec le troisième vecteur :

u3 = v3 −(〈v3,u1〉‖u1‖2

u1 + 〈v3,u2〉‖u2‖2

u2

)

Page 159: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 151

ou, de façon générale, le nième vecteur

un = vn −(〈vn,u1〉‖u1‖2

u1 + . . .+ 〈vn,un−1〉‖un−1‖2

un−1

)de telle sorte que {uj} sera un ensemble orthogonal et que Vect({uj}) =Vect({vj}). La méthode que nous venons d’utiliser pour obtenir un ensemblede vecteurs orthogonaux à partir d’un ensemble de vecteurs linéairementindépendants est connue sous le nom de procédé d’orthogonalisation deGram-Schmidt. Voyons-en un exemple concret.

procédé d’orthogonalisationde Gram-Schmidt

Exemple 9.2.1Soient une base de R3 formée par l’ensemble des vecteurs

{u1,u2,u3} =

1

10

,0

11

,1

01

À partir de cette base, obtenez un autre base contenant le vecteur u1 et uniquement des vecteursorthogonaux.

Solution: Nous utilisons la procédure de Gram-Schmidt. Nous avons :

v1 = u1

v2 = u2 −〈u2,v1〉‖v1‖2

v1

avec

‖v1‖2 = Tr

(1 1 0)1

10

= 2

et

〈u2,v1〉 = Tr

(1 1 0)0

11

= 1

de telle sorte que

v2 =

011

− 12

110

=

−1

212

1

Le troisième vecteur est obtenu de façon semblable

Page 160: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 152

v3 = u3 −〈u3,v1〉‖v1‖2

v1 −〈u3,v2〉‖v2‖2

v2

avec

‖v2‖2 = Tr

(−12

12 1

)−1

212

1

= 3

2

〈u3,v1〉 = Tr

(1 1 0)1

01

= 1

et

〈u3,v2〉 = Tr

(−12

12 1

)101

= 1

2

ce qui nous donne

v3 =

101

− 12

110

− 13

−1

212

1

=

23

−2323

La base recherchée est donc

110

,−1

212

1

,

23

−2323

Exercice 9.8 Soit la base suivante pour les matrices symétrique 2× 2

{u1,u2,u3} ={(

2 00 0

),

(1 11 0

),

(0 11 2

)}À partir de cette base, obtenez un autre base contenant le vecteur a u1 et uni-quement des vecteurs orthogonaux en utilisant la procédure de Gram-Schmidt.

aJ’utilise ici le mot vecteur dans le sens général d’élément d’un espace vectoriel ;il s’agit bel et bien d’une matrice. La raison pour laquelle je mentionne ceci est qu’ilexiste un type de matrice qu’on appelle une matrice orthogonale et qui n’a rien à voiravec le produit scalaire. On dit d’une matrice A qu’elle est orthogonale si elle obéitl’équation A> = A−1.

Exercice 9.9 Utilisez la méthode habituelle (matrice augmentée, éliminationde Gauss-Jordan, etc.) pour exprimer la matrice symétrique

A =(

1 44 3

)

Page 161: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 153

comme une combinaison linéaire des trois vecteur orthogonaux (matrices dela base) trouvés à l’exercice 9.8. Vérifiez que la combinaison linéaire que vousavez trouvée est effectivement égale à la matrice ci-dessus.

Définition 9.2.2Un ensemble de vecteurs vj est dit orthonormé si tous les vecteurs sont orthogonaux et que lanorme de chaque vecteur est égale à 1

〈vi,vj〉 = δij ={

0 si i 6= j1 si i = j

Une base formée de tels vecteurs est appelée soit base orthonormée ou base orthonormale.

Exemple 9.2.2À partir de la base orthogonale trouvée dans l’exemple 9.2.1, obtenez une base orthonormée.

Solution: Il suffit de diviser chacun des vecteurs par sa norme. wj = vj‖vj‖

On peut vérifier que ‖v1‖ =√

2, ‖v2‖ =√

32 , ‖v3‖ =

√43 ce qui nous permet d’écrire la base orthonormée

de la façon suivante :

{w1,w2,w3} =

22

110

, √66

−112

, √33

1−1

1

Exercice 9.10 Vérifiez que la norme de chacune des matrices de l’exercice9.7 est 1, et donc que ces matrices forment un ensemble orthonormé.

Page 162: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 154

Exercice 9.11 À partir de la base orthogonale trouvée dans l’exercice 9.8,obtenez une base orthonormée.

Le grand avantage des bases orthonormées est qu’elles nous permettentde trouver rapidement décomposition d’un vecteur quelconque dans cettebase. Par exemple, supposons que la base {w1,w2,w3} et que l’on veuilleécrire un vecteur quelconque v comme une combinaison linéaire des troisvecteurs de cette base :

v = α1w1 + α2w2 + α3w3

Pour trouvez les trois inconnues, αj , il suffit de prendre le produit scalaireavec le vecteur wj ; par exemple :

〈v,w1〉 = α1 〈w1,w1〉︸ ︷︷ ︸1

+α2 〈w1,w2〉︸ ︷︷ ︸0

+α3 〈w1,w3〉︸ ︷︷ ︸0

= α1

puisque 〈w1,wj〉 = δ1j . Nous n’avons donc pas de système d’équations li-néaires à résoudre !

Exemple 9.2.3Exprimez le vecteur v = (x, y, z)> comme une combinaison linéaire des vecteurs de la base orthonor-mée de l’exemple 9.2.2.

Solution: Nous avons

〈v,w1〉 = Tr

√22(1 1 0

)xyz

=

√2

2 (x+ y)

〈v,w2〉 = Tr

√66(−1 1 2

)xyz

=

√6

6 (−x+ y + 2z)

et

〈v,w2〉 = Tr

√33(1 −1 1

)xyz

=

√3

3 (x− y + z)

ce qui nous permet d’écrirexyz

= x+ y

2

110

+ −x+ y + 2z6

−112

+ x− y + z

3

1−1

1

Page 163: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 9. Produit scalaire et orthogonalité 155

Exercice 9.12 Utilisez les produits scalaires pour exprimer la matrice symé-trique

A =(

1 44 3

)comme une combinaison linéaire des trois vecteurs orthonormées (matrices dela base) trouvés à l’exercice 9.11. Vérifiez que la combinaison linéaire que vousavez trouvée est effectivement égale à la matrice ci-dessus.

Page 164: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

10 Géometrie vectorielle10.1 Notation utilisée dans ce chapitre 15610.2 Produit scalaire 15710.3 Produit vectoriel 157

10.3.1 Interprétation géométrique de lanorme du produit vectoriel 161

10.4 Équation paramétrique d’une droite 16210.4.1 Sous-espace vectoriel à une dimension 16210.4.2 Droite dans l’espace euclidien à

trois dimensions 16310.5 Distance d’un point à une droite 16510.6 Équation d’un plan 16710.7 Distance d’un point à un plan 169

Dans ce chapitre, nous allons utiliser certaines notions de l’algèbre linéairepour étudier la géométrie vectorielle dans R3, également connu sous le nomd’espace euclidien à trois dimensions. Nous allons nous intéresser à

espace euclidien à trois di-mensionsquatre type d’objets : 1) les points, objet à zéro dimension, que nous allons

représenter par 2) des vecteurs ; 3) les droites, qui sont des objets ayant unedimension, et 4) les plans, qui sont des objets à deux dimensions.

Avant de débuter la matière du chapitre, répondez à la question suivante.

Exercice 10.1 Vrai ou faux : l’équation y = mx+ b représente une droite.

10.1 Notation utilisée dans ce chapitre

Dans ce chapitre, nous allons utiliser une notation légèrement différente decelle utilisée dans le reste de ce livre pour adopter une notation tradition-nellement utilisée dans les cours d’introduction aux vecteurs dans l’espaceeuclidien (R3) ainsi que dans les sciences naturelles telle que la physique.Ainsi, un vecteur sera représenté soit par un symbole surmonté d’une flèche,~r, ou par un triplet de nombres, (x, y, z) qui est simplement un vecteur ligne 1

où on utilise des virgules pour séparer les coefficients dans le but d’évitertoute ambiguïté. Nous allons utiliser la base de vecteurs suivante :

~ı = (1, 0, 0) vecteur unitaire le long de l’axe des x

~ = (0, 1, 0) vecteur unitaire le long de l’axe des y~k = (0, 0, 1) vecteur unitaire le long de l’axe des z

ce qui nous donne une autre façon de représenter un vecteur :

~r = (x, y, z) = x~ı + y~ + z~k

1C’est-à-dire une matrice 1× 3

156

Page 165: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 157

Avec la notation que nous avons utilisée dans les autres chapitres, avec {ej}comme base de l’espace vectoriel, nous aurions plutôt écrit :

r =

xyz

= xe1 + ye2 + ze3

10.2 Produit scalaire

Nous avons déjà vu le produit scalaire de deux vecteurs, 〈u,v〉 = Tr(v>,u).Dans la notation utilisée dans ce chapitre, nous écrivons le produit scalairede la façon suivante :

~u · ~v = u1v1 + u2v2 + u3v3

Supposons que nous choisissons l’orientation de notre système d’axes de tellesorte que le vecteur ~u est dans le plan xy et que le vecteur ~v est le long del’axe des x tel qu’illustré à la figure 10.1.

~u = (a, b, 0)~v = (v, 0, 0)

Si on fait le calcul, on trouve que le produit scalaire est ~u · ~v = av. Enexaminant la figure 10.1, on constate que a = u cos θ de telle sorte que 2

~u · ~v = uv cos θ où u = ‖~u‖ et v = ‖~v‖.

x

y

θ

~u

~v

b

a v

Figure 10.1 Deux vecteurs séparés par un angle θ. Lorsqu’on fait le produit scalaire deces deux vecteurs, ceci revient à multiplier la longueur d’un de ces deux vecteurs (v = ‖~v‖)par la projection de l’autre (u cos θ = a).

10.3 Produit vectoriel

Soient les vecteurs ~u, ~v, ~w ∈ R3. Nous pouvons construire une matrice 3× 3telle que chaque ligne est un de ces vecteurs :

M =

~u~v~w

=

u1 u2 u3v1 v2 v3w1 w2 w3

2Ce résultat est ce que nous avions défini à l’équation [9.1.1] pour le cosinus de l’angle

entre deux vecteurs.

Page 166: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 158

Si on calcule le déterminant de cette matrice 3 en faisant l’expansion par lapremière rangée, on trouve :

|M | =

∣∣∣∣∣∣∣u1 u2 u3v1 v2 v3w1 w2 w3

∣∣∣∣∣∣∣ = u1

∣∣∣∣∣ v2 v3w2 w3

∣∣∣∣∣− u2

∣∣∣∣∣ v1 v3w1 w3

∣∣∣∣∣+ u3

∣∣∣∣∣ v1 v2w1 w2

∣∣∣∣∣On peut écrire ceci comme un produit scalaire de deux vecteurs :

|M | = (u1~ı + u2~ + u3~k) ·(∣∣∣∣∣ v2 v3w2 w3

∣∣∣∣∣~ı−∣∣∣∣∣ v1 v3w1 w3

∣∣∣∣∣~ +∣∣∣∣∣ v1 v2w1 w2

∣∣∣∣∣ ~k)

Nous définissons le produit vectoriel des vecteurs ~v, ~w comme étant leproduit vectorieldeuxième vecteur apparaissant dans le produit scalaire ci-dessus :

~v × ~w =∣∣∣∣∣ v2 v3w2 w3

∣∣∣∣∣~ı−∣∣∣∣∣ v1 v3w1 w3

∣∣∣∣∣~ +∣∣∣∣∣ v1 v2w1 w2

∣∣∣∣∣ ~k =

∣∣∣∣∣∣∣~ı ~ ~kv1 v2 v3w1 w2 w3

∣∣∣∣∣∣∣de telle sorte que, avec cette définition, le déterminant de la matrice M peutêtre écrit : ∣∣∣∣∣∣∣

~u~v~w

∣∣∣∣∣∣∣ = ~u · (~v × ~w)

l’expression ~u·(~v×~w) étant connue sous le nom de produit mixte. Quelquesproduit mixteremarques sur le produit vectoriel :

1. Puisque le déterminant d’une matrice qui a deux lignes identiques estégal à zéro, cela veut dire que si on choisit ~u = ~v, le déterminant seranul, et donc ~v · (~v × ~w) = 0 ce qui veut dire que le vecteur ~v × ~w estorthogonal au vecteur ~v.

2. De la même façon, si on choisit ~u = ~w, on conclut que le vecteur ~v× ~west orthogonal au vecteur ~w.

3. Le vecteur ~v × ~w est donc perpendiculaire au plan engendré par lesvecteurs ~v et ~w.

4. Puisque le déterminant change de signe si on interchange deux lignes,on en conclut que

~v × ~w = −~w × ~v

5. On observe que le produit vectoriel d’un vecteur par lui-même est nul :~v × ~v = ~0

6. La direction d’un vecteur résultant d’un produit vectoriel est donnépar la règle de la main droite illustrée par la figure dans la marge.

Figure 10.2 Règle de la maindroite donnant la direction d’unproduit vectoriel.

7. Le résultat d’un produit vectoriel est un pseudo-vecteur : si fait uneréflexion par rapport aux trois axes, un vecteur change de signe alorsqu’un pseudo-vecteur reste inchangé.

3Puisque le déterminant d’une matrice et de sa transposée sont égaux, on aurait pudéfinir une telle matrice en utilisant chaque vecteur comme une colonne de la matriceplutôt que comme une ligne.

Page 167: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 159

8. Le produit vectoriel n’est pas une opération définie dans tous les es-paces vectoriels : on peut seulement le définir 4 dans R3 et R7 ; dans cedernier cas, le produit ne peut pas être exprimé comme un simple dé-terminant de la même façon que nous avons défini le produit vectorieldans R3.

Finalement, calculons la longueur de ce vecteur :

‖~v × ~w‖2 = (v2w3 − v3w2)2 + (v1w3 − v3w1)2 + (v1w2 − v2w1)2

= (v2w3)2 + (v3w2)2 − 2(v2v3w2w3) + (v1w3)2 + (v3w1)2 − 2(v1v3w1w3)+ (v1w2)2 + (v2w1)2 − 2(v1v2w1w2)

+ (v1w1)2 + (v2w2)2 + (v3w3)2

− (v1w1)2 − (v2w2)2 − (v3w3)2

= v21(w2

1 + w22 + w2

3) + v22(w2

1 + w22 + w2

3) + v23(w2

1 + w22 + w2

3)− (v1w1)2 − (v2w2)2 − (v3w3)2 − 2(v1v2w1w2)− 2(v1v3w1w3)− 2(v2v3w2w3)

= (v21 + v2

2 + v23)(w2

1 + w22 + w2

3)− (u1v1 + u2v2 + u3v3)2

= ‖~v‖2‖~w‖2 − (~v · ~w)2

= ‖~v‖2‖~w‖2 − ‖~v‖2‖~w‖2 cos2 θ= ‖~v‖2‖~w‖2(1− cos2 θ)= ‖~v‖2‖~w‖2 sin2 θ

On obtient donc ‖~v × ~w‖ = ‖~v‖‖~w‖ sin θ = vw sin θ où θ est l’angle entreles deux vecteurs.

Exemple 10.3.1Soient les vecteurs ~v = (1, 2, 3) et ~u = (0, 4,−5).(a) Calculez le produit scalaire ~v · ~u.(b) Calculez le produit vectoriel ~v × ~u.

Solution:(a) Le produit scalaire

~v · ~u = (1, 2, 3) · (0, 4,−5)= 1 · 0 + 2 · 4 + 3 · (−5) = −7

On note que ces vecteurs ne sont pas orthogonaux parce que leur produit scalaire n’est pas nul.(b) Le produit vectoriel ~v × ~u est obtenu en calculant le déterminant suivant :

~v × ~u =

∣∣∣∣∣∣∣~ı ~ ~k1 2 30 4 −5

∣∣∣∣∣∣∣Pour calculer un tel déterminant, il est toujours plus simple de faire l’expansion par la première ligne carceci nous donne directement les composantes du nouveau vecteur. Nous avons donc

~v × ~u =

∣∣∣∣∣∣∣~ı ~ ~k1 2 30 4 −5

∣∣∣∣∣∣∣ = ~ı

∣∣∣∣∣2 34 −5

∣∣∣∣∣ −~∣∣∣∣∣1 30 −5

∣∣∣∣∣+ ~k

∣∣∣∣∣1 20 4

∣∣∣∣∣= −22~ı + 5~ + 4~k

4La preuve pour ceci requiert des notions allant au-delà de ce cours.

Page 168: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 160

et donc ~v × ~u = (−22, 5, 4). On note que ces vecteurs ne sont pas parallèles parce que leur produitvectoriel n’est pas nul.

Exercice 10.2 Vérifiez que les propriétés suivantes des vecteurs unitairessont satisfaites.

~ı×~ = ~k = −~×~ı~× ~k =~ı = −~k ×~~k ×~ı = ~ = −~ı× ~k~ı×~ı = ~×~ = ~k × ~k = 0

Suggestion : ~ı = (1, 0, 0)

Les vecteurs de l’exemple précédent ne sont ni orthogonaux, ni parallèles.On peut calculer de deux façons l’angle entre ces deux vecteurs, tel qu’illustrédans l’exemple suivant.

Exemple 10.3.2Calculez l’angle entre les vecteurs ~v = (1, 2, 3) et ~u = (0, 4,−5).

Solution: Comme nous avons déjà calculé le produit scalaire ainsi que le produit vectoriel de ces deuxvecteurs dans l’exemple précédent, à première vue on pourrait penser qu’on pourrait soit utiliser ~v · ~u =uv cos θ ou ‖~v× ~u‖ = uv sin θ pour déterminer l’angle θ entre ces deux vecteurs. Dans les deux cas, nousdevons calculer la norme de chacun de ces vecteurs. Nous avons

v = ‖~v‖ =√~v · ~v =

√12 + 22 + 32 =

√14

etu = ‖~u‖ =

√~u · ~u =

√02 + 42 + (−5)2 =

√41

Comme nous avons trouvé que ~v · ~u = −7, nous obtenons

cos θ = −7√14√

41⇒ θ = 1, 867 . . . rad ou approx. 107 degrés

Nous aurions pu également utiliser le résultat du produit vectoriel.

‖~v × ~u‖ =√

(−22, 5, 4) · (−22, 5, 4) =√

525

etsin θ =

√525√

14√

41= 73, 01 . . . degrés . . . ou 107 [= 180− 73]

Comme on le voit, si on utilise le produit vectoriel, on ne peut pas décider si l’angle est entre 0 et π/2ou entre π/2 et π, tel qu’illustré à la figure 10.3 ; pour cette raison, il est préférable d’utiliser le produitscalaire pour déterminer l’angle entre les vecteurs.

Page 169: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 161

Habituellement, lorsque le produit vectoriel est présenté pour la premièrefois, la méthode de calcul choisie utilise les propriétés du produit vectorieldes vecteurs unitaires telle que listée à l’exercice 10.2 et présente la multi-plication suivant le même modèle qu’on utiliserais pour multiplier des poly-nômes, plutôt que d’utiliser l’expansion d’un déterminant. L’exemple suivantdémontre ceci.

Exemple 10.3.3Calculez le produit vectoriel des vecteurs ~v = (1, 2, 3) et ~u = (0, 4,−5).

Solution: Comme nous pouvons écrire ~v =~ı + 2~ + 3~k et ~u = 4~− 5~k, nous avons

~v × ~u = (~ı + 2~ + 3~k)× (4~− 5~k)= 4~ı×~− 5~ı× ~k + 2 · 4~×~− 2 · 5~× ~k + 3 · 4~k ×~− 3 · 5~k × ~k= 4~k + 5~ + 0− 10~ı− 12~ı + 0= −22~ı + 5~ + 4~k

et donc, ~v × ~u = (−22, 5, 4) comme on l’avait vu à l’exemple 10.3.1.

Exercice 10.3 Calculez le produit scalaire, le produit vectoriel et l’angle entreles vecteurs ~u = (3,−5, 4) et ~v = (3, 5, 4). Utilisez la méthode du déterminantpour calculer le produit vectoriel.

Exercice 10.4 Calculez le produit scalaire, le produit vectoriel et l’angle entreles vecteurs ~u = (3,−5, 4) et ~v = (2,−1, 0). Utilisez la méthode du produit depolynômes pour calculer le produit vectoriel.

10.3.1 Interprétation géométrique de la norme du produit vecto-riel

Supposons que nous avons deux vecteurs, ~u et ~v et que nous choisissions 5

nos axes de telle sorte que ~u soit orienté le long de l’axe des x, ~u = (u, 0, 0),et que ~u soit dans le plan xy, ~v = (a, b, 0), tel qu’illustré sur la figure 10.3.Le produit vectoriel ~u× ~v est obtenu en calculant le déterminant :

~u× ~v =

∣∣∣∣∣∣∣~ı ~ ~ku 0 0a b 0

∣∣∣∣∣∣∣5Peu importe les deux vecteurs qu’on nous donne, il est toujours possible de choisir

un système d’axes ayant l’orientation que nous décrivons.

Page 170: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 162

Puisque la troisième colonne ne contient qu’un terme non-nul, le calcul dudéterminant est simplifié si on fait l’expansion suivant cette colonne :

~u× ~v = ~k

∣∣∣∣∣u 0a b

∣∣∣∣∣ = ub ~k

Ceci nous donne une interprétation géométrique 6 : la norme de ce produitest ub ce qui est égal à l’aire du parallélogramme engendré par les deuxvecteurs ~u et ~v. En examinant la figure 10.3, on observe que b = v sin θ etdonc on peut écrire la norme comme étant uv sin θ comme on l’avait obtenuauparavant dans le cas général.

x

y

θ

~v

~u

α

~w

~u

v sin θ

uv sin θ = ‖~u× ~v‖ uw sinα = ‖~u× ~w‖

Figure 10.3 L’aire du parallélogramme engendré par les vecteurs ~u et ~v est égale à lanorme de leur produit vectoriel. La même chose est vraie pour les vecteurs ~u et ~w. Onnote que l’aire des deux parallélogrammes est la même, même si les vecteurs ~v et ~w sontdifférents et que les angles θ et α sont différents, parce que sin θ = sinα et v = w.

10.4 Équation paramétrique d’une droite

Une droite est un objet ayant une dimension. On peut définir des droites dansdes espaces euclidiens à n dimensions ; nous allons nous limiter à leur étudedans un espace euclidien à trois dimensions et, parfois pour simplifier lesdiagrammes, nous allons simplement les représenter dans un espace euclidienà deux dimensions (le plan de la feuille de papier ou de l’écran d’ordinateuroù vous lisez ce manuel).

10.4.1 Sous-espace vectoriel à une dimension

Nous avons déjà vu que, pour un espace vectoriel arbitraire V à n dimen-sions, nous pouvions avoir un sous-espace vectorielW à une dimension. Nouspouvons choisir tout vecteur non-nul v ∈ W pour définir une base {v} dece sous-espace de telle sorte que tout vecteur arbitraire w ∈ W peut êtrereprésenté par Vect{v}, c’est-à-dire l’ensemble de toutes les combinaisons

6Puisqu’on a choisi de définir le produit vectoriel en partant d’un déterminant d’unematrice de trois vecteurs, nous avions essentiellement déjà vu ceci dans la section 7.5.Dans la plupart des autres livres, on présente une autre définition du produit vectoriel etle calcul en utilisant un déterminant est présenté comme un "truc" utile.

Page 171: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 163

linéaires possibles des vecteurs de la base. Puisqu’on a un seul vecteur, lesseules combinaisons linéaires possibles peuvent être paramétrisées par unscalaire t de telle sorte que

w = tv

Parmi tous ces vecteurs, on retrouve le vecteur nul qui correspond au choixt = 0.

10.4.2 Droite dans l’espace euclidien à trois dimensions

Un sous-espace vectoriel à une dimension dans l’espace euclidien est unedroite passant par l’origine. Étant donné un vecteur ~v, l’ensemble des pointsde la forme

~r = t~v

où ~r = (x, y, z), forme une droite passant par l’origine. Si on veut représen-ter une droite arbitraire ne passant pas nécessairement par l’origine 7, maispassant par un point identifié par le vecteur constant ~v0, on peut simplementécrire :

~r = ~v0 + t~v

Le vecteur ~v, qui donne la direction de droite, s’appelle le vecteur di-recteur de la droite, et cette équation est l’équation paramétrique de la

vecteur directeuréquation paramétrique

droite. Au lieu de la notation ~v0, on utilisera plutôt parfois P0 où la variableP indique un point dans le plan ; le vecteur ~v0 sera donc le vecteur joignantl’origine O au point P0 et sera parfois représenté par −−→OP0. On utilise parfoisla lettre ∆ pour représenter une droite.

Par exemple, soit la droite ∆ : y = 3 parallèle à l’axe des x dans leplan cartésien et illustrée à la figure 10.4. Un point quelconque sur cettedroite peut être dénoté par ~r = (x, y) = (x, 3) = (0, 3) + x(1, 0), commepar exemple le point (4, 3). De façon alternative, en utilisant les vecteursunitaires de base, on peut représenter un point appartenant à cette droite~r = t~ı + 3~ ∈ ∆ où on a utilisé la variable t comme paramètre plutôt que lavariable x qui est généralement réservée pour identifier une coordonnée d’unpoint.

À noter que l’équation ~r = ~v0+t~v dénote une droite générale, tel qu’illus-tré à la figure 10.5.

Est-ce que l’équation sous forme paramétrique est toujours valable dansl’espace à trois dimensions ?Réponse : oui, contrairement à l’équation y = mx + b qui, dans ce cas etcomme nous le verrons, représente un plan ! On peut obtenir l’équation d’unedroite en termes de coordonnées de la façon suivante.

~r = ~v0 + t~v⇒ (x, y, z) = (x0, y0, z0) + t(v1, v2, v3)

x− x0 = tv1y − y0 = tv2z − z0 = tv3

7Et donc, ne formant pas un sous-espace vectoriel puisqu’elle n’inclut pas le vecteurnul

Page 172: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 164

x

y

~v0 = 3~

~v = 4~ı

~v0 + ~v

Figure 10.4 La droite y = 3, indiquéeen rouge.

x

y~v

~v0~v0 + 3,2~v

~v0 − 2~v

Figure 10.5 Une droite arbitraire dansle plan.

Puisque le paramètre t est le même dans les trois équations, on écrit habi-tuellement ceci comme

t = x− x0v1

= y − y0v2

= z − z0v3

sans inclure le paramètre t et où on suppose qu’aucuns des dénominateursn’est égal à zéro. En fait, habituellement, on ne connait pas le vecteur direc-teur ~v mais on connait deux points ; à partir de ces points, on peut obtenir~v de la façon suivante :

~v = −−→OP1 −−−→OP0 = (x1 − x0, y1 − y0, z1 − z0)

de telle sorte que l’équation sous forme symétrique devientx− x0x1 − x0

= y − y0y1 − y0

= z − z0z1 − z0

et en se rappelant que si l’un des dénominateurs s’annule (par exemple z1 =z0), alors le numérateur doit s’annuler également (par exemple z = z0).Cette façon d’écrire l’équation d’une droite est parfois appelée la formesymétrique. Lorsqu’une droite est exprimée ainsi, on voit que ça correspond

forme symétriquebien au fait qu’on ne peut avoir qu’une seule droite qui passe par deux pointsdistincts ; les points ici seraient P0 = (x0, y0, z0) et P1 = (x1, y1, z1).

Exemple 10.4.1Soit l’équation d’une droite dans le plan exprimée sous la forme traditionnelle :

y = 2x+ 3

Obtenez une forme paramétrique de cette droite ainsi qu’une forme symétrique.

Solution: La façon la plus simple est de trouver deux points appartenant à cette droite. Par exemple, sion choisis x = 1 alors on aura y = 5. Appelons ce point P0 = (1, 5). On peut choisir un autre point, parexemple P1 = (2, 7). En utilisant ces valeurs, on peut obtenir directement la forme symétrique commesuit :

x− 12− 1 = y − 5

7− 5 ⇒ x− 1 = y − 52

Page 173: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 165

On peut vérifier facilement que cette équation est équivalente à l’équation dans sa forme traditionnelle.Pour obtenir la forme paramétrique, on écrit

~v = −−−→P1P0 = −−→OP1 −−−→OP0 = (2, 7)− (1, 5) = (1, 2)

et donc~r = (x, y) = (1, 5) + t(1, 2)

On peut vérifier que si t = 0 alors ~r = P0, et si t = 1, alors ~r = P1.

10.5 Distance d’un point à une droite

Soit une droite obéissant l’équation ~r = ~v0 + t~v ; on veut trouver la distanceentre cette droite et un point P . Pour trouver cette distance, on commencepar choisir un point arbitraire de la droite. Puisqu’on connait déjà le pointP0 défini par −−→OP0 = ~v0, c’est le point qu’on va utiliser, bien que tout autrepoint pourrait être choisi. Si P = P0, il est évident que la distance recherchéeest zéro ; dans ce qui suit, nous allons considérer le cas P 6= P0. En raisonde la loi d’addition des vecteurs, nous avons

−−→OP0 +−−→P0P = −−→OP

P0

O

P

d

Figure 10.6 Distance entre le point Pet la droite passant par le point P0.

P0

P

d

~vθ

Figure 10.7 Visualisation de l’angle θentre le vecteur directeur ~v et le vecteurjoignant les points P0 et P .

Si on observe la figure 10.7 on observe que la distance recherchée est dqui est le côté opposé à l’angle θ du triangle rectangle dont l’hypoténuse estégale à −−→P0P . Donc, nous avons

d = ‖−−→P0P‖ sin θ

Page 174: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 166

Nous savons également que la norme du produit vectoriel ~v ×−−→P0P est

‖~v ×−−→P0P‖ = v‖

−−→P0P‖ sin θ

En comparant ces deux expressions, on obtient

d = ‖~v ×−−→P0P‖

‖−−→P0P‖

qui est le résultat recherché.

Exemple 10.5.1Trouver l’équation paramétrique ainsi que l’équation sous forme symétrique de la droite passant parles points P0 = (3, 4, 0) et P1 = (2, 4, 5). De plus, trouver la distance entre le point P = (1, 2, 3) etcette droite.

Solution: Un vecteur directeur est donné par un multiple du vecteur −−−→P0P1 :

~v = −−−→P0P1 = −−→OP1 −−−→OP0 = (2, 4, 5)− (3, 4, 0) = (−1, 0, 5)

Similairement, on peut choisir ~v0 = −−→OP0 = (3, 4, 0) et donc l’équation paramétrique peut être écritecomme

~r = (3, 4, 0) + t(−1, 0, 5)

La forme symétrique de la droite est obtenue directement à partir des points originaux mais en notantque y est constant :

y = 4 et x− 32− 3 = z − 0

5− 0 ⇒ x− 3−1 = z

5À noter que, si on avait interchangé P0 et P1 et tenter d’utiliser l’équation telle que nous l’avions dérivée,nous aurions obtenu une division par zéro, ce qui n’est évidemment pas permis. Donc, pour obtenir uneforme symétrique, on doit parfois obtenir en premier la forme paramétrique, en déduire la valeur de deuxpoints distincts qui n’ont pas de composantes de coordonnées qui sont nulles, et ensuite utiliser ces deuxpoints pour obtenir une forme symétrique.

La distance du point P à cette droite est obtenue simplement en calculant

d = ‖~v ×−−→P0P‖

‖−−→P0P‖

où −−→P0P = (1, 2, 3)− (3, 4, 0) = (−2,−3, 3)et donc

d = ‖(−1, 0, 5)× (−2,−2, 3)‖‖(−2,−3, 3)‖

Mais

(−1, 0, 5)× (−2,−2, 3) =

∣∣∣∣∣∣∣~ı ~ ~k−1 0 5−2 −2 3

∣∣∣∣∣∣∣ =~ı

∣∣∣∣∣ 0 5−2 3

∣∣∣∣∣−~∣∣∣∣∣−1 5−2 3

∣∣∣∣∣+ k

∣∣∣∣∣−1 0−2 −2

∣∣∣∣∣ = 10~ı− 7~ + 2~k

Page 175: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 167

et doncd = ‖(10,−7, 2)‖‖(−2,−2, 3)‖ =

√153√17

Exercice 10.5 Trouver l’équation paramétrique ainsi que l’équation sousforme symétrique de la droite passant par les points P0 = (9, 0, 3) etP1 = (5, 3, 0). De plus, trouver la distance entre l’origine et cette droite.

Exercice 10.6 Trouver l’équation paramétrique ainsi que l’équation sousforme symétrique de la droite passant par les points P0 = (1, 2, 3) etP1 = (4,−1, 7). De plus, trouver la distance entre le point P = (2,−5, 1) etcette droite.

10.6 Équation d’un plan

Soit deux vecteurs linéairement indépendants 8, ~v1 et ~v2. L’ensemble despoints formés par l’ensemble de toutes les combinaisons linéaires de ces deuxvecteurs forme un plan passant par l’origine. Si on ajoute à chacune de cescombinaisons linéaires un vecteur constant ~v0, on peut obtenir n’importequel plan Π dans l’espace euclidien

Π : ~r = ~v0 + s~v1 + t~v2

Cette équation vectorielle est équivalente aux trois équations paramétriquessuivantes :

x = x0 + s x1 + t x2y = y0 + s y1 + t y2z = z0 + z x1 + t z2

On peut démontrer qu’on peut trouver une expression équivalente appe-lée l’équation cartésienne du plan

équation cartésienne duplan

Ax+By + Cz +D = 0

Soit le point P = (x, y, z) appartenant au plan Π ; le vecteur −−→P0P sera doncdans le plan engendré par les vecteurs ~v1 et ~v2. Par la définition du produitmixte, on sait que

−−−→P0P · (~v1 × ~v2) = 0

où on a choisit de mettre un signe - devant l’expression simplement pourchanger l’ordre des termes dans une expression à venir pour faciliter la com-paraison avec l’équation cartésienne du plan écrite ci-dessus. Si on écrit

8On dit de deux vecteurs linéairement dépendants qu’ils sont colinéaires.

Page 176: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 168

−−→P0P = −−→OP0 −

−−→OP , le produit mixte ci-dessus peut être écrit comme la dif-

férence de deux déterminants

0 =

∣∣∣∣∣∣∣−−→OP~v1~v2

∣∣∣∣∣∣∣−∣∣∣∣∣∣∣−−→OP0~v1~v2

∣∣∣∣∣∣∣On peut récrire ceci comme

0 =

∣∣∣∣∣∣∣x y zx1 y1 z1x2 y2 z2

∣∣∣∣∣∣∣−∣∣∣∣∣∣∣x0 y0 z0x1 y1 z1x2 y2 z2

∣∣∣∣∣∣∣Faisons l’expansion de ces deux déterminants selon la première ligne.

0 = x

∣∣∣∣∣y1 z1y2 z2

∣∣∣∣∣− y∣∣∣∣∣x1 z1x2 z2

∣∣∣∣∣+ z

∣∣∣∣∣x1 y1x2 y2

∣∣∣∣∣− x0

∣∣∣∣∣y1 z1y2 z2

∣∣∣∣∣+ y0

∣∣∣∣∣x1 z1x2 z2

∣∣∣∣∣− z0

∣∣∣∣∣x1 y1x2 y2

∣∣∣∣∣Définissons les trois variables suivantes :

A =∣∣∣∣∣y1 z1y2 z2

∣∣∣∣∣B = −

∣∣∣∣∣x1 z1x2 z2

∣∣∣∣∣C =

∣∣∣∣∣x1 y1x2 y2

∣∣∣∣∣Ceci nous permet d’obtenir l’expression recherchée

Ax+By + Cz − (Ax0 +By0 + Cz0) = Ax+By + Cz +D = 0

où D = −(Ax0 +By0 + Cz0).De plus, on observe que ~v1×~v2 = (A,B,C) est un vecteur orthogonal au

plan. Au lieu du mot orthogonal, on utilise habituellement le mot normal 9.normalFinalement, on note que si on a C = 0, on peut définir m = −A/B et

b = −D/A ce qui nous permet d’avoir l’équation du plan y = mx+ b !9Perpendiculaire, orthogonal et normal sont presque des synonymes. Ceci peut parfois

porter à confusion, d’autant plus si l’on inclut un faux ami comme la norme (ou longueur)d’un vecteur ainsi que l’adjectif normé, signifiant de longueur unitaire. [normé 6= normal]On a vu une combinaison de deux termes avec les bases orthonormées qui décrivent desvecteur orthogonaux (le préfixe ortho) de longueur unitaire (le suffixe normées). Cela dit,on utilise habituellement l’adjectif orthogonal lorsqu’on veut décrire la propriété de deuxobjets semblables (par exemple : des vecteurs orthogonaux) et l’adjectif normal lorsque lesdeux objets sont différents (par exemple : le vecteur normal à un plan ou à une droite).L’adjectif perpendiculaire est réservé aux objets qui se trouvent dans un même plan.

Page 177: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 169

10.7 Distance d’un point à un plan

Soit un point 10 P = (x, y, z). On veut trouver la distance de ce point auplan donné par l’équation cartésienne

Π : Ax+By + Cz +D = 0

Π

P = (x, y, z)

P⊥

P1 P2~n

Figure 10.8 La distance du point P au plan Π égale à la longueur du segment de droitejoignant les points P et P⊥ ; cette distance est inférieure à la distance entre P et tout autrepoint du plan, tel que P1 ou P2. Notez que le point aurait pu être choisi sous le plan, etdonc dans une direction opposée à celle du vecteur normal indiqué sur la figure.

Cette distance sera égale à la longueur du segment de droite joignant lepoint P à sa projection sur le plan indiquée par le point P⊥. Pour fins declarification, il est important de noter que le point P⊥ appartient au plan Πet que nous avons donc

Π : Ax⊥ +By⊥ + Cz⊥ +D = 0

Par contre, le point P n’appartient pas nécessairement au plan Π.Le segment de droite joignant les points P⊥ et P est colinéaire à la

normale de ce plan que nous désignons par ~n. Nous avons donc −−→P⊥P = k~n,et la distance recherchée est donc

d = ‖−−→P⊥P‖ = |k| ‖~n‖

Nous avons vu précédemment que le vecteur (A,B,C) était un vecteur nor-mal au plan. Ceci nous permet d’écrire(

x⊥ − x, y⊥ − y, z⊥ − z)

= k(A,B,C

)Nous avons donc le système d’équations linéaires suivant :

x⊥ = x+ kAy⊥ = y + kBz⊥ = z + kC

Ax⊥ +By⊥ + Cz⊥ +D = 010Nous avons choisi d’utiliser les variables x, y, z pour dénoter les coordonnées du point.

Par contre, tel qu’il est indiqué dans le texte, ceci ne veut pas nécessairement dire que cescoordonnées obéiront l’équation Ax+By + Cz +D = 0.

Page 178: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 170

En substituant les valeurs des variables des trois premières équations dansla quatrième, on trouve

Ax+By + Cz +D + k(A2 +B2 + C2) = 0

Pour un plan quelconque, il peut arriver que l’une, voire deux des variablesA,B,C soit égale à zéro, mais jamais les trois en même temps. Donc, nousavons

k = −Ax+By + Cz +D

A2 +B2 + C2

ce qui nous permet d’écrire

d = |k| ‖~n‖ = |Ax+By + Cz +D|A2 +B2 + C2

√A2 +B2 + C2

et doncd = |Ax+By + Cz +D|√

A2 +B2 + C2

On observe que si le point P appartient au plan, alors le numérateur s’annuleet la distance au plan est évidemment égale à zéro.

Exemple 10.7.1Obtenez l’équation cartésienne du plan passant par les points P1 = (1, 0, 0), P2 = (0, 1, 0) et P3 =(0, 0, 1) et déterminez la distance entre l’origine et ce plan.

Solution: Avant de présenter la solution, nous notons qu’aucun des points n’est indiqué comme étant lepoint P0. Ceci n’est pas un hasard : bien que dans la dérivation, le point P0 semble jouer un rôle particulier,dans la pratique on peut choisir n’importe quel point comme étant le point P0 de la dérivation. Nouscommençons par choisir deux vecteurs qui sont parallèles au plan :

~v1 = −−−→P2P3 = (0, 0, 1)− (0, 1, 0) = (0,−1, 1)

et~v1 = −−−→P1P3 = (0, 0, 1)− (1, 0, 0) = (−1, 0, 1)

Choisissons ensuite le point P3 pour jouer le rôle du point P0 de notre dérivation. Nous devons avoir

0 = −−−→P3P · (~v1 × ~v2) =

∣∣∣∣∣∣∣−−→OP~v1~v2

∣∣∣∣∣∣∣−∣∣∣∣∣∣∣−−→OP3~v1~v2

∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣x y z0 −1 1−1 0 1

∣∣∣∣∣∣∣−∣∣∣∣∣∣∣

0 0 10 −1 1−1 0 1

∣∣∣∣∣∣∣ = −x− y − z + 1

et donc l’équation cartésienne du plan peut s’écrire : x+y+z = 1. On peut vérifier facilement que les troispoints qui nous étaient donnés satisfont cette équation. Si on compare avec la forme Ax+By+Cz+D = 0,on a A = B = C = 1 et D = −1.

La distance d’un point à un plan est donnée par l’équation

d = |Ax+By + Cz +D|√A2 +B2 + C2

Page 179: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 10. Géometrie vectorielle 171

Ici, le point qui nous intéresse est l’origine (0, 0, 0) et donc la distance recherchée est

d = 1√12 + 12 + 12

= 1√3

=√

33

Exercice 10.7 Obtenez l’équation cartésienne du plan passant par les pointsP1 = (1, 2, 3), P2 = (1,−3, 2) et P3 = (0, 0, 1) et déterminez la distance entrele point P = (2, 2, 2) et ce plan.

Exercice 10.8 Obtenez l’équation cartésienne du plan passant par les pointsP1 = (4,−3, 6), P2 = (5, 2,−8) et P3 = (3, 1, 2) et déterminez la distance entrele point P = (1, 2, 3) et ce plan.

Page 180: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre

11 Applications diverses11.1 Équilibrage des réactions chimiques 172

11.1.1 Combustion incomplète 17411.2 Courbes dans le plan 175

11.2.1 Équation d’une droite dans le plan 17511.2.2 Équation d’un cercle dans le plan 17611.2.3 Mouvement des corps célestes 178

11.3 Série de Fourier 17911.3.1 Équations différentielles 18011.3.2 Application à la musique 181

11.4 Suite de Fibonacci 18111.5 Dynamique des populations 18311.6 Visages propres 18611.7 Régression linéaire 189

11.7.1 Généralisation à d’autres types de courbes 193

L’algèbre linéaire est utilisée dans un grand nombre de domaines. Certainesapplications ne font appel qu’aux notions couvertes dans ce manuel alorsque d’autres requièrent des notions plus avancées. Dans ce chapitre, voustrouverez plusieurs exemples d’applications de l’algèbre linéaire.

Tel que je l’ai mentionné dans la préface, j’aimerais remercir MonsieurJoseph Khoury de l’Université d’Ottawa pour m’avoir donné la permissiond’utiliser et d’adapter les exemples d’applications de l’algèbre linéaire qui setrouve sur son site Internet.

11.1 Équilibrage des réactions chimiques

Les techniques de l’algèbre linéaire peuvent être utilisées pour faire de qu’onappelle l’équilibrage des réactions chimiques 1. Par exemple, considérons lacombustion du propane (C3H8), gaz qui est utilisé dans la cuisson ainsi quepour le chauffage de certaine maisons. Lorsqu’on le combine avec l’oxygène(O2), les produits de combustion sont le gaz carbonique (CO2) et l’eau (H2O)ce qu’on écrit de la façon suivante :

wC3H8 + xO2 −−→ yCO2 + zH2O

L’équilibrage des réactions chimique consiste à déterminer la valeur desconstantes w, x, y, z qui font en sorte que le nombre d’atomes d’un mêmetype (hydrogène, oxygène et carbone) de chaque côté de la flèche −−→qui indique la transformation soit identique. Par convention, on choisit desvaleurs entières pour ces constantes.

1Un exemple semblable se trouve sur la page http://aix1.uottawa.ca/~jkhoury/chemistryf.htm

172

Page 181: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 173

Nous avons donc trois équations linéaires :

C : 3w = yH : 8w = 2zO : 2x = 2y + z

Bien qu’il ne soit pas nécessaire d’utiliser la procédure de Gauss-Jordanpour résoudre un système d’équations linéaires aussi simple, nous allonsnéanmoins l’utiliser pour mieux faire le lien avec ce que nous avons vu dansle cours. Nous commençons par écrire le système d’équations linéaires dansune forme plus familière

− y + 3w = 0− 2z + 8w = 0

2x − 2y − z = 0

Nous avons donc un système d’équations linéaires homogène avec 3 équa-tions et 4 inconnues ; nous savons, par le théorème 3.5.1 que nous aurons uneinfinité de solutions ; une façon équivalente de dire ceci est que nous auronsdonc au moins une variable libre.

Ceci nous donne 20 −1 0 3 00 0 −2 8 02 −2 −1 0 0

⇒ L1 ↔ (−L3)L2 → −1

2L2⇒

2 −2 −1 0 00 0 1 −4 00 1 0 −3 0

L1 − L2 + 2L3 → L1 ⇒

2 0 0 −10 00 0 1 −4 00 1 0 −3 0

12L1 → L1L2 ↔ L3

1 0 0 −5 00 1 0 −3 00 0 1 −4 0

Tel que nous l’avions prédit, nous avons une variable libre (w), que l’on peutparamétriser par t et la solution est :

x = 5ty = 3tz = 4tw = t

Si on revient au problème du départ, le fait qu’on ait une variable libre n’estpas surprenant : si on double (ou triple, ou prend un multiple quelconque)le nombre de chaque type de molécules, l’équation de la réaction chimiquedevrait être toujours valable.

Le choix du paramètre t qui donne les plus petites valeurs entières àtoutes les variables est t = 1. Avec ce choix, l’équation décrivant la réactionchimique est

C3H8 + 5O2 −−→ 3CO2 + 4H2Oqui est la solution recherchée.

2N.B. nous faisons plus que de simples opérations élémentaires sur les lignes à chaqueétape

Page 182: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 174

11.1.1 Combustion incomplète

La réaction de combustion précédente est une réaction complète en ce sensque le produit de réaction contenait uniquement du dioxyde de carbone. Onpeut parfois avoir une réaction incomplète où on a également du monoxydede carbone qui est produit :

wC3H8 + xO2 −−→ yCO2 + zH2O + vCO

Le nombre d’équations étant déterminé par les éléments présents, nous au-rons toujours 3 équations et 5 inconnues : nous aurons donc une variablelibre supplémentaire. Les équations sont :

C : 3w = y + vH : 8w = 2zO : 2x = 2y + z + v

Au lieu d’écrire le système d’équations linéaires dans la forme familière, oùtoutes les inconnues sont du côté gauche du signe de l’égalité, écrivons-lesen gardant l’inconnue v du côté droit du signe de l’égalité

− y + 3w = v− 2z + 8w = 0

2x − 2y − z = v

On a donc un système tout à fait semblable au précédent sauf que ce ne serapas un système homogène en général en raison de la variable libre v. Il y adeux raisons pour lesquelles nous avons choisi de l’écrire ainsi. Premièrement,ceci nous permet de suivre exactement les mêmes étapes que précédemmentpour résoudre le système (la matrice des coefficients). Deuxièmement, onsait que, lorsqu’on a des variables libres, on les paramétrise par des scalaireset on les met de l’autre côté du signe d’égalité ; c’est ce que nous avons faitimmédiatement. La solution est obtenue comme précédemment0 −1 0 3 v

0 0 −2 8 02 −2 −1 0 v

⇒ L1 ↔ (−L3)L2 → −1

2L2⇒

2 −2 −1 0 v0 0 1 −4 00 1 0 −3 −v

L1 − L2 + 2L3 → L1 ⇒

2 0 0 −10 −v0 0 1 −4 00 1 0 −3 −v

12L1 → L1L2 ↔ L3

1 0 0 −5 −12v

0 1 0 −3 −v0 0 1 −4 0

Nous avons donc deux variables libres ; choisissons de paramétriser w par tcomme précédemment ; nous aurons

x = 5t − 12v

y = 3t − vz = 4tw = t

Page 183: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 175

Ceci nous donne

tC3H8 + (5t− 12v) O2 −−→ (3t− v) CO2 + 4tH2O + vCO

Écrivons v = 2st où s est un paramètre arbitraire. Ceci nous permetd’avoir uniquement des valeurs entières pour les coefficients

tC3H8 + t(5− s) O2 −−→ t(3− 2s) CO2 + 4tH2O + 2stCO

De plus, on voit que chaque terme est multiplié par la variable libre t commeprécédemment, ce que nous avions expliqué en indiquant que nous pouvonsdoubler ou tripler (etc.) la quantité des substances en jeu sans changer laréaction. Faisons le choix t = 1 comme précédemment, ce qui nous donne

C3H8 + (5− s) O2 −−→ (3− 2s) CO2 + 4 H2O + 2sCO

Mathématiquement, on ne peut pas en dire plus sur la valeur de la variablelibre s. Dans la pratique, cette valeur va dépendre des conditions physiques :alimentation en air frais, évacuation des produits de combustion, etc. Commele monoxyde de carbone est un poison pour les humains, il est essentield’assurer une bonne alimentation en air frais et une bonne ventilation desgaz de combustion pour les fournaises, de façon à assurer une combustioncomplète !

11.2 Courbes dans le plan

Dans le chapitre précédent, nous avons étudié brièvement la géométrie vecto-rielle. Nous avons vu, entre autres, comment obtenir l’équation d’une droitedans l’espace. Dans cette section, nous allons nous restreindre notre étudesaux courbes dans le plan, et allons voir brièvement comment nous pouvonsobtenir les équations de courbes passant par des points définis. La méthodeque nous allons utiliser est différente de celle du chapitre précédent : nousallons uniquement utiliser des propriétés des déterminants, sans utiliser lesvecteurs 3.

11.2.1 Équation d’une droite dans le plan

Commençons par l’exemple le plus simple, soit celui d’une droite. Soit deuxpoints

P1 = (x1, y1) = (1,−2)P2 = (x2, y2) = (−5, 2)

Nous voulons trouver les valeurs a, b, c telles que l’équation ax+by+c = 0 estl’équation de la droite passant par ces deux points. Nous savons que ceci esttoujours possible, et que la solution n’est certainement pas a = b = c = 0 ;gardez ceci en tête.

3Ces exemples ont été adaptés du site http://aix1.uottawa.ca/~jkhoury/geometryf.htm.

Page 184: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 176

Pour trouver cette solution, nous considérons un troisième point appar-tenant à cette droite que nous allons dénoter ainsi :

P = (x, y)

À noter que nous ne connaissons pas, pour l’instant du moins, les valeursexactes des coordonnées x, y de ce point ; tout ce que nous savons est qu’ilexiste et satisfait l’équation de la droite. Nous avons donc le système d’équa-tions linéaires homogènes suivant

ax + by + c = 0ax1 + by1 + c = 0ax2 + by2 + c = 0

où les inconnues recherchées sont a, b et c. Une solution de ce systèmeest la solution a = b = c = 0, ce qui n’est certainement pas la solutionrecherchée. Comme nous savons qu’il existe au moins une autre solution,celle de l’équation de la droite, nous en concluons qu’il en existe une infinitéde solutions et que les trois équations linéaires ci-dessus sont linéairementdépendantes. Ceci veut dire que le déterminant de la matrice des coefficients 4

est égal à zéro : ∣∣∣∣∣∣∣x y 1x1 y1 1x2 y2 1

∣∣∣∣∣∣∣ = 0

En faisant l’expansion par la première ligne, on trouve

x(y1 − y2)− y(x1 − x2) + (x1y2 − x2y1) = 0

En substituant les valeurs originales des points P1 et P2, nous trouvons

−4x− 6y − 8 = 0

Une solution possible est donc a = −4, b = −6, c = −8. Une autre solution,totalement équivalent mais avec des coefficients plus simple, est obtenue endivisant chacune de ces valeurs par −2 pour nous donner l’équation de ladroite :

2x+ 3y + 4 = 0

On peut vérifier que la droite passe effectivement par les points P1 et P2.

11.2.2 Équation d’un cercle dans le plan

Soient les points P1 = (6, 4), P2 = (−1, 5) et P3 = (−3, 1). On désire trouverl’équation du cercle qui passe par ces trois points.

L’équation d’un cercle de rayon r dont le centre est situé au point (xc, yc)est donnée par :

(x− xc)2 + (y − yc)2 = r2

4Rappelons que les inconnues du système d’équations linaires sont a, b, c.

Page 185: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 177

x

y

(xc, yc)

P1 = (6, 4)P2 = (−1, 5)

P3 = (−3, 1)

Figure 11.1 Unique cercle passant par trois points qui ne sont pas situés sur une droite.

Donc, on cherche les valeurs des constantes xc, yc, r qui font en sorte que lecercle passera par les trois points donnés. En faisant l’expansion des différentstermes, on peut écrire ceci comme

x2 − 2xxc + x2c + y2 − 2yyc + y2

c − r2 = 0

Ceci n’est pas une équation linéaire pour les inconnues xc, yc, r. Ce qu’onpeut faire est introduire de nouvelles constantes a, b, c, d telles que l’équationci-dessus peut être écrite sous la forme

a(x2 + y2) + bx+ cy + d = 0

qui est une équation linéaire. On remarque que l’on a apparemment uneconstante superflue (a) qui devrait être égale à 1 selon l’équation originale.En fait, ceci correspond, comme on le verra sous peu, à la présence d’unevariable libre dans le système à résoudre, ce qui nous permet d’utiliser laméthode d’écrire un déterminant qui s’annule pour obtenir l’équation re-cherchée.

Si on suppose que l’on a un quatrième point arbitraire, (x, y) qui appar-tient à ce cercle, on obtient un système d’équations linéaires homogène avec4 équations et 4 inconnues (a, b, c, d) :

a(x2 + y2) + bx + cy + d = 0a(x2

1 + y21) + bx1 + cy1 + d = 0

a(x22 + y2

2) + bx2 + cy2 + d = 0a(x2

3 + y23) + bx3 + cy3 + d = 0

On sait que la solution triviale a = b = c = d = 0 existe . . . et qu’il yaura une infinité de solutions si le déterminant de la matrice des coefficients

Page 186: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 178

s’annule ∣∣∣∣∣∣∣∣∣(x2 + y2) x y 1(x2

1 + y21) x1 y1 1

(x22 + y2

2) x2 y2 1(x2

3 + y23) x3 y3 1

∣∣∣∣∣∣∣∣∣ = 0

Plutôt que d’obtenir l’équation générale, substituant les valeurs données ini-tialement et calculons ce déterminant∣∣∣∣∣∣∣∣∣(x2 + y2) x y 1

52 6 4 126 −1 5 110 −3 1 1

∣∣∣∣∣∣∣∣∣ = (x2+y2)

∣∣∣∣∣∣∣6 4 1−1 5 1−3 1 1

∣∣∣∣∣∣∣−x∣∣∣∣∣∣∣52 4 126 5 110 1 1

∣∣∣∣∣∣∣+y∣∣∣∣∣∣∣52 6 126 −1 110 −3 1

∣∣∣∣∣∣∣−∣∣∣∣∣∣∣52 6 426 −1 510 −3 1

∣∣∣∣∣∣∣ = 0

En faisant les calculs on trouve

30(x2 + y2)− 120x− 60y − 600 = 0

Si on divise par 30, cette équation devient

(x2 + y2)− 4x− 2y − 20 = 0

qui est l’équation recherchée. En comparant avec l’équation du départ, ontrouve que

−4 = −2xc ⇒ xc = 2−2 = −2yc ⇒ yc = 1

−20 = x2c + y2

c − r2 ⇒ r2 = 25

ce qui nous permet d’écrire

(x− 2)2 + (y − 1)2 = 25

On vérifiera que les trois points donnés satisfont cette équation.

11.2.3 Mouvement des corps célestes

Supposons que l’on observe un nouvel objet, tel que possiblement une co-mète, qui se dirige vers l’intérieur du système solaire. Si on néglige l’effet desplanètes, le mouvement du nouvel objet sera affecté par l’attraction gravita-tionnelle du Soleil 5 et résultera en une trajectoire qui sera dans un plan etcorrespondra à une section conique 6 (ellipse, parabole ou hyperbole). Si lavitesse de l’objet est inférieure à ce qu’on appelle la vitesse d’échappement,la trajectoire suivie sera une ellipse ; si la vitesse est supérieure à la vitessed’échappement, la trajectoire suivie sera une hyperbole.

5On peut toujours utiliser la loi d’attraction gravitationnelle pour déterminer la tra-jectoire de l’objet si on tient compte de la présence des planètes mais, dans ce cas, latrajectoire sera beaucoup plus compliqué qu’une simple section conique. De plus, saufdans le cas où l’objet passerait tout près d’une planète, l’effet de l’attraction gravitation-nelle des planètes sur l’objet sera négligeable comparativement à celui de l’attraction duSoleil.

6La démonstration de ce fait requiert la résolution d’un système d’équation différen-tielles non-linéaire du deuxième degré, ce qui est fait normalement dans un cours de calculdifférentiel et intégral de deuxième année universitaire.

Page 187: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 179

L’équation générale d’une section conique dans le plan peut être écritesous la forme suivante :

ax2 + +bxy + cy2 + dx+ ey + f = 0

Il s’agit donc d’une équation avec 6 inconnues. Il suffit de déterminer laposition de 5 points pour obtenir un système d’équations linéaires homogèneavec 6 équations et 6 inconnues et de procéder comme nous l’avons faitprécédemment dans le cas de l’équation d’un cercle pour déterminer la valeurdes inconnues.

Ce genre de calcul peut être très utile pour déterminer si la Terre serafrappée par un nouvel objet céleste dont on détecterait la présence dans lesystème solaire !

11.3 Série de Fourier

Au chapitre 9, nous avons mentionné que l’espace des fonctions continuesréelles sur l’intervalle a ≤ x ≤ b était un espace vectoriel sur lequel onpouvait définir un produit scalaire de la façon suivante :

〈f, g〉 =∫ b

af(x)g(x)dx

Considérons l’intervalle −L ≤ x ≤ L. Pour cet intervalle, le mathématicienJean Baptiste Joseph Fourier (1768-1830) a démontré que l’ensemble desfonctions 7 {

cos nπxL

, sin nπxL

}où n désigne un entier, formait une base pour cet espace, et donc, qu’onpouvait représenter toute fonction continue définie sur cet intervalle par unecombinaison linéaire de ces fonctions. De façon plus explicite, nous avonspour une fonction f(x)

f(x) = a02 +

∞∑n=1

[an cos nπx

L+ bn sin nπx

L

]avec

an = 1L

∫ L

−Lf(x) cos nπx

Ldx = 〈f, cos nπxL 〉

bn = 1L

∫ L

−Lf(x) sin nπx

Ldx = 〈f, sin nπx

L 〉

Pour simplifier l’écriture, écrivons Cn = cos nπxL

, Sn = sin nπxL

et C0 = 1√2 ,

ce qui nous permet d’écrire 8

f(x) =∞∑n=0

[〈f, Cn〉Cn + 〈f, Sn〉Sn

]7Pour comprendre tous les aspects des séries de Fourier, il est essentiel d’être familier

avec le calcul différentiel et intégral ; cependant, le lien avec les sujets traités dans le coursd’algèbre linéaire, en particulier l’expansion en une combinaison linéaire des vecteurs d’unebase, devraient être suffisamment clairs même pour ceux qui sont peu familiers avec lecalcul différentiel et intégral.

8À noter que S0 = 0.

Page 188: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 180

où l’on voit mieux l’expansion en terme des vecteurs de la base, avec lescoefficients obtenus par le produit scalaire.

Figure 11.2 Expansion partielle d’unefonction "onde carrée" en une série deFourier. L’image du haut inclut seule-ment le premier terme de la série etles autres incluent respectivement les2, 3 et 4 premiers termes de la série.Image adaptée de Wikipedia. http://en.

wikipedia.org/wiki/Fourier_series

Figure 11.3 Série partielle de Fourier pourune fonction "onde carrée" où l’on inclut lepremier terme (en rouge), les quatre premierstermes (en vert), et les cent premiers (enbleu).

11.3.1 Équations différentielles

Les fonctions trigonométriques, qui forment la base de l’espace vectoriel pourles séries de Fourier, obéissent l’équation différentielle suivante :

d2

dx2 f = −n2π2

L2 f ⇒ D2f = λf

c’est-à-dire qu’elles ont la forme requise 9 pour être des vecteurs propres d’unespace vectoriel. En fait, plusieurs problèmes qui sont formulés comme deséquations différentielles prennent une forme semblable, et la connaissance del’algèbre linéaire peut faciliter la recherche de solutions.

Par exemple, l’équation différentielle décrivant le mouvement de la peaud’un tambour circulaire

∂2 f

∂t2= c2

(∂2 f

∂x2 + ∂2 f

∂y2

)

peut également être reformulée comme un problème de recherche de vecteurspropres.

9En dépit de l’exposant 2 qui apparait, l’opérateur D2 est un opérateur linéaire, c’est-à-dire qu’il obéit la relation D2(af + bg) = aD2f + bD2g où a, b sont des scalaires et f, gsont des fonctions (donc, vecteurs d’un espace vectoriel).

Page 189: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 181

11.3.2 Application à la musique

Les séries de Fourier peuvent être utilisées pour décrire le mouvement pério-dique (dans le temps) de la vibration des cordes de certains instruments demusique. Les valeurs propres que l’on trouve sont essentiellement les mêmesque données ci-dessus, on les exprimes généralement en fonction de la fré-quence de vibration, f ; les diverses fréquences de vibration obéissent larelation

fn = nf1 n = 1, 2, 3, . . .et sont appelées harmoniques, et la fréquence la plus basse, f1, est appeléela fréquence fondamentale. Parce que les harmoniques sont des multiples en-tiers, les sont qui résultent de combinaisons linéaires des divers harmoniquessont jugées plaisants à notre oreille.

Par contre, les fréquences de vibration des divers modes de vibration(c’est-à-dire les vecteurs propres) d’une peau de tambour ne sont pas desmultiples entiers de la fréquence fondamentale. Par conséquent, notre oreilletrouve que le son d’un tambour est moins harmonieux que celui d’un violonou d’une guitare. Vous pouvez visionner plusieurs mode de vibration d’unepeau de tambour à la page Internethttp://en.wikipedia.org/wiki/Vibrations_of_a_circular_membrane

11.4 Suite de Fibonacci

La suite de Fibonacci 10

0, 1, 1, 2, 3, 5, 8, 13, . . .

est une suite très connue d’entiers qui apparait dans beaucoup d’endroits,aussi bien dans la nature que dans l’art et dans les sciences. Les entiers decette suite sont obtenus en additionnant les deux entiers précédents pourobtenir le suivant, en commençant avec 0 et 1. Ainsi, nous avons :

f0 = 0f1 = 1f2 = f1 + f0 = 0 + 1 = 1f3 = f2 + f1 = 1 + 1 = 2f4 = f3 + f2 = 2 + 1 = 3...

...fn = fn−1 + fn−2

Cette suite, d’apparence anodine, croit très rapidement ; ainsi f101 = 573147844013817084101.Une relation où un nombre, comme fn est obtenu à partir de nombres

précédents est connue sous le nom de relation de récurrence. Une telle rela-tion peut être exprimée sous forme matricielle. Ainsi, on peut vérifier que(

1 11 0

)(fn−1fn−2

)=(fn−1 + fn−2

fn−1

)=(fnfn−1

)10Cette section a été adaptée du site http://aix1.uottawa.ca/~jkhoury/fibonaccif.

htm. Voir également http://fr.wikipedia.org/wiki/Suite_de_Fibonacci pour plus dedétails.

Page 190: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 182

ce qu’on peut écrire comme

A

(fn−1fn−2

)=(fnfn−1

)

On note que la matrice A peut être écrite comme

A =(f2 f1f1 f0

)

On peut vérifier facilement que

A2 =(f3 f2f2 f1

)

et, en fait, que

An =(fn+1 fnfn fn−1

)

Exercice 11.1 Démontrez que An =(fn+1 fnfn fn−1

)Nous avons vu comment élever des matrices carrées à un large puissanceen utilisant la diagonalisation. Voyons comment nous pouvons utiliser cecipour obtenir une autre façon de calculer fn. Nous commençons par trouverle polynôme caractéristique :

|A− λI| = 0 ⇒ λ2 − λ− 1 = 0

Nous trouvons deux solutions : λ± = 1±√

52 À partir de ces valeurs propres,

nous pouvons trouver deux vecteurs propres différents :

λ+ : X+ =

1 +√

521

λ− : X− =

1−√

521

et donc la matrice de passage est :

P = (X+X−) =

1 +√

52

1−√

52

1 1

et son inverse est

P−1 =√

55

1 −1 +

√5

2

−1 1 +√

52

Page 191: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 183

Nous pouvons utiliser la matrice de passage et son inverse pour diagonaliserA :

P−1AP = D =

1 +√

52 0

0 1−√

52

Ainsi, nous avons

Dn =

(

1 +√

52

)n0

0(

1−√

52

)n

ce qui nous permet de calculer

An = P DnP−1 =√

55

1 +√

52

1−√

52

1 1

(

1 +√

52

)n0

0(

1−√

52

)n

1 −1 +√

52

−1 1 +√

52

=√

55

1 +√

52

1−√

52

1 1

(1 +√

52

)n (1 +√

52

)n−1

−(

1−√

52

)n−(

1−√

52

)n−1

=√

55

(1 +√

52

)n+1

−(

1−√

52

)n+1 [(

1 +√

52

)n−(

1−√

52

)n][(

1 +√

52

)n−(

1−√

52

)n] (1 +√

52

)n−1

−(

1−√

52

)n−1

=

(fn+1 fnfn fn−1

)

d’où l’on obtient fn =√

55

[(1 +√

52

)n−(

1−√

52

)n]ce qui, avec la pré-

sence de divers facteurs de√

5 peut sembler surprenant puisque fn est unentier !

11.5 Dynamique des populations

La population du Cap Breton décroit alors que celle de la région de Halifaxaugmente. La Chouette tachetée du Nord est en déclin rapide, avec environ7% de perte annuelle de la population. Moins de 30 couples reproducteursdemeurent en Colombie-Britannique, et l’espèce devrait être disparue auCanada dans les prochaines années 11

11In Trouble in Canada - The Northern Spotted Owl http://cooperbeauchesne.com/upload/images/publications_1312796247.pdf

Page 192: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 184

Ces deux exemples de dynamique des population peuvent être modéli-sés en utilisant l’algèbre linéaire. Par exemple, supposons que l’on observedepuis plusieurs années que 5% de la population de la région du Cap Bre-ton migre vers la région métropolitaine de Halifax à chaque année (et donc95% reste au Cap Breton) alors que 1% de la population va de la régionmétropolitaine de Halifax vers celle du Cap Breton 12. Le changement despopulations respectives d’une année à l’autre sera donné par(

0.99 0.050.01 0.95

)(H0

CB0

)=(

H1CB1

)

Par exemple, si on retrouve 400k 13 personnes dans la région métropolitainede Halifax et 150k personnes dans celle du Cap Breton une certaine année,l’année suivante, on aura :(

0.99 0.050.01 0.95

)(400150

)=(

403.5146.5

)

et donc on verra un changement net de 3500 personnes dans chaque région.Si cette tendance se maintien pendant plusieurs années, 5% de la région duCap Breton représentera un nombre de plus en plus petit de personne alorsque 1% de la région métropolitaine de Halifax représentera un nombre deplus en plus grand ; éventuellement ces deux nombres pourraient, en prin-cipe, devenir égaux, et on aurait une situation en équilibre où le nombre depersonnes qui migre d’une région à l’autre est le même dans les deux sens :(

0.99 0.050.01 0.95

)(Hn

CBn

)=(

Hn+1CBn+1

)=(

Hn

CBn

)

On reconnait ceci comme un problème de recherche de vecteur propre, avecune valeur propre égale à 1. La matrice pour laquelle on recherche des vec-teurs propres a la forme (

1− a ba 1− b

)Si on écrit c = a+ b, on peut vérifier que son polynôme caractéristique est

λ2 − (2− c)λ+ (1− c) = (λ− 1)(λ− [1− c]) = 0

Le vecteur propre appartenant à la valeur propre λ = 1 obéira l’équation(−a ba −b

)(H

CB

)=(

00

)

et on aura aH = bCB. Puisque a = 0, 01 et b = 0, 05, on trouvera quel’équilibre sera atteint lorsqu’on aura 5 fois plus de personnes dans la région

12Ceci est évidemment un modèle grandement simplifié ; pour mieux modéliser, ondevrait tenir compte de la migration des sous-populations en fonction de l’âge, ainsi quedes patrons de migration avec les autres régions comme, par exemple, la migration versles province de l’Ouest à la recherche des emplois, ainsi que du nombre de décès et denaissance et du vieillissement de la population, etc.

13k est abrégé de kilo, c’est-à-dire 1000.

Page 193: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 185

métropolitaine de Halifax que dans la région du Cap Breton 14. . . ce qui estun résultat évident lorsqu’on n’a que deux régions à tenir compte et lorsquel’on suppose que la population demeure constante. Par contre, lorsqu’on aun modèle plus compliqué, la modélisation par multiplication de matriceset la recherche de solution en utilisant les vecteurs propres est une méthodequ’on peut toujours utiliser.

Par exemple, pour les chouettes tachetées, le modèle utilisé est le sui-vant 15 :

— On modélise l’évolution de la population sur une base annuelle, c’est-à-dire qu’on prédit la population à l’année N à partir de la populationà l’année N − 1.

— On considère trois stages de vie : juvénile J (un an ou moins), sous-adulte S (de un à deux ans) et adulte A (deux ans et plus) ;

— La proportion de juvéniles qui naissent par rapport au nombre d’adulteest donné par le taux de reproduction r ; donc Jn = rAn−1.

— Le taux de survie d’une année à l’autre est indiqué par la variable t.Ainsi, le taux de survie des juvéniles (qui deviennent des sous-adultes)obéit Sn = tJJn−1. Le nombre d’adulte pour l’année N est une com-binaison du nombre de sous-adultes qui survivent (et deviennent desadultes) ainsi que du nombre d’adultes qui survivent :

An = tSSn−1 + tAAn−1

On peut écrire ceci sous forme matricielle de la façon suivante :

Av =

0 0 rtJ 0 00 tS tA

Jn−1Sn−1An−1

=

JnSnAn

où A est la matrice de transition qui aura des valeurs comme r = 0.3,tj = 0.2, ts = 0.7, tA = 0.9. Supposons que l’on exprime le vecteur (J, S,A)>comme une combinaison linéaire des vecteurs propres de la matrice de tran-sition JS

A

= a1v1 + a2v2 + . . .

Si on fait l’évolution dans le temps sur plusieurs années, c’est-à-dire qu’onmultiplie la matrice de transition à plusieurs reprises, chaque vecteur proprede la combinaison linéaire sera multiplié par sa valeur propre à chaque fois

An

JSA

= a1λn1 v1 + a2λ

n2 v2 + . . .

Éventuellement, le terme qui deviendra dominant sera celui qui correspondà la valeur propre la plus élevée (qu’on appelle la valeur propre dominante).

14Soit approximativement 460k vs 90k, arrondi au 10k près.15Ce modèle est inspiré de http://online.redwoods.cc.ca.us/instruct/darnold/

laproj/Fall97/Asher/mike.pdf

Page 194: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 186

Si la valeur propre dominante est plus grande que 1, alors le terme croitra etdonc la population totale croitra également. Par contre, si la valeur propredominante est plus petite que 1, alors, lorsqu’on la multipliera par elle-même, le résultat sera de plus en plus petit ; par conséquent, ceci indiqueque la population connaitra un déclin.

En changeant les conditions environnementales, on peut modifier les va-riables tJ , tS , tA et affecter soit la survie ou le déclin d’une population ani-male.

11.6 Visages propres

Les visages propres sont une application intéressante de l’algèbre linéaireet de la statistique. Avant d’aborder une description des visages proprescomme tel, je vais expliquer certains concepts de façon graphique. Je doisnoter que cet exemple provient du cours Machine Learning que j’ai suiviet qui est offert gratuitement (sans crédits) sur Internet par le professeurAndrew Ng de l’université Stanford aux États-Unis.

Nous allons commencer avec un exemple beaucoup plus simple, soitcelui d’une distribution de points dans le plan. On peut voir que cespoints ne sont pas distribués de façon uniforme, mais semble être unpeu aligné le long d’un axe diagonal.

À l’aide d’une méthode faisant appel à la statistique et connue sousle nom d’analyse de composantes principales on peut identifier unedirection principale le long de laquelle les données sont alignées dansle plan, ainsi qu’une direction secondaire. Ces deux directions or-thogonales vont être utilisées comme deux vecteurs de base, v1 etv2, chaque point pouvant être représenté par des une combinaisonlinéaire des vecteurs de cette base.

Page 195: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 187

On utilise ces vecteurs de base pour construire des matrices de projec-tion pour laquelle ces vecteurs sont des vecteurs propres. En utilisantces matrices de projection (équivalente au produit scalaire habituel),on peut obtenir la décomposition d’un point en une combinaison li-néaire des vecteurs propres. En ne retenant qu’une seule des deuxcomposantes, on obtient une distribution approximative (indiquéeen rouge) en une dimension de la distribution originale (indiquée enbleu).

Au lieu de simplement faire une approximation à une dimension d’unedistribution de points dans un espace à deux dimensions, nous allons ap-proximer des points dans un espace à 1024 dimensions, c’est-à-dire une dis-tributions de points dans R1024.

L’exemple choisi est celui de visages en niveaux de gris. Nous com-mençons avec une collection de 5000 images de la même taille, dontles cent premières sont montrées ici. Notez que l’orientation des vi-sages est assez arbitraire et qu’aucun effort particulier n’a été faitpour les rendre plus uniformes.

Chaque image est formée de 1024 pixels organisés dans un carré,donc de taille 32 × 32. L’image à la droite correspond à celle de latroisième ligne et sixième colonne de la collection précédente et res-semble étrangement à Bill Clinton, ancien président des États-Unis.À partir de cette image, on peut former un vecteur de R1024 dontla première coordonnée correspond au niveau de gris (un nombreentre 0 et 255) pour le premier pixel en haut à gauche, et la dernièrecoordonnée correspond à la valeur du pixel en bas à droite.

Page 196: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 188

À partir des 5000 vecteurs, on fait l’analyse numérique pour trou-ver les composantes principales qui deviendront les vecteurs de basequ’on désigne sous le nom de visages propres, ou eigenfaces en an-glais.En ordre d’importance (en commençant en haut à gauche), on voitles 36 premiers visages propres. Faire la décomposition en compo-santes principales pour ces 500 images requiert environ une minutesur un ordinateur PC acheté en 2012. Si on augmentait la taille desimages, disons à 256 pixels par 256 pixels, on aurait besoin d’environune heure pour obtenir la même information ; il y a 10 ans, le mêmecalcul aurait pris plus d’une journée sur un ordinateur PC.

Comparaison entre la collec-tion d’images originales etcelles formées par les combi-naisons linéaires des 10 vi-sages propres dominants. Onne peut pas vraiment recon-naitre les images originalesà partir des combinaisons li-néaires de 10 visages propres.

Comparaison entre la collec-tion d’images originales etcelles formées par les combi-naisons linéaires des 30 visagespropres dominants. Les imagesformées des combinaisons li-néaires commencent à ressem-bler davantage aux images ori-ginales, mais toujours pas suf-fisamment pour qu’on puissetoutes les reconnaitre.

Page 197: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 189

Comparaison entre la collec-tion d’images originales etcelles formées par les combi-naisons linéaires des 100 vi-sages propres dominants. Onvoit une très grande ressem-blance pour la plupart desimages entre les combinai-sons linéaires de 100 visagespropres (des vecteurs dans unespace à 100 dimensions) et lesimages originales qui sont desvecteurs dans un espace à 1024dimensions. Le temps requispour calculer les 5000 combi-naisons linéaires de 100 visagespropres est inférieur à une se-conde.Comparaison entre une imageoriginale particulière et lacombinaison linéaire de 100visages propres. En utilisantseulement 100 vecteurs, au lieude 1024 qui serait la basede l’espace en entier, on ob-tient une réduction (compres-sion des images) par un facteursupérieur à 10 tout en ayantune image assez semblable àl’originale.

En résumé, nous avons utilisé une collection de 5000 images, chacunepouvant être représentée par un vecteur dans R1024 pour obtenir des vecteursde base d’un espace R100 à partir desquels on peut faire des combinaisonslinéaires qui donnent une assez bonne approximation des images originales.La réduction du nombre de paramètres pour représenter les images est utilepour deux types d’applications. Premièrement, on peut se servir de cecicomme d’une méthode de compression des images, ce qui, par exemple, peutréduire le temps de transmission (si on envoie ces images par Internet) ouréduit l’espace requis pour l’entreposage. Deuxièmement, on peut se servirde ceci pour des logiciels d’identification de personnes automatisés ; de telslogiciels sont beaucoup plus efficaces lorsqu’ils ont moins de paramètres àévaluer pour faire une identification.

11.7 Régression linéaire

La régression linéaire est un sujet normalement rencontré pour la premièrefois dans un cours d’introduction à la statistique. La présentation habituelle

Page 198: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 190

utilise des techniques de calcul différentiel et intégral plutôt que d’algèbrelinéaire et il peut être difficile de voir ce qui se passe exactement. Dans cettesection, nous allons présenter la régression linéaire en utilisant uniquementdes techniques couvertes dans ce manuel, et donc sans faire appel au calculdifférentiel et intégral.

Commençons par une mise en situation.

Il est impossible de tracer unedroite qui passe par les points(1,1), (2,3) et (3,3). Commentpeut-on déterminer quelle serait lameilleure droite correspondant àces points si on a un modèle quiprédit qu’ils devraient en principeêtre alignés le long d’une droite ? x

y

1 2 3

1

2

3

L’équation d’une droite non-verticale dans le plan xy peut être écritecomme étant a0+a1x = y. Ainsi, si nous avons trois points qui appartiennentà cette droite nous aurons le système d’équations linéaires suivant :

a0 + a1x1 = y1a0 + a1x2 = y2a0 + a1x3 = y3

où les inconnues sont a0 et a1. On peut écrire ce système comme repré-sentant une combinaison linéaire :

a01 + a1X = Y

où 1 est un vecteur colonne dont tous les coefficients sont identiques et égauxà 1. En utilisant la notation matricielle pour présenter le problème commecelui d’une combinaison linéaire, la généralisation à plus de trois points estimmédiate.

Le cas qui nous intéresse est celui où Y ne peut pas être représentécomme une combinaison linéaire des vecteurs 1 et X. Dans ce cas, on veuttrouver la meilleure combinaison linéaire possible, ce qui requiert que l’ondéfinisse ce qu’on entend par le mot meilleure. On peut faire ceci graphi-quement. Les vecteurs 1 et X de Rn engendrent un plan dans Rn. Si levecteur Y peut être écrit comme une combinaison des vecteurs 1 et X, c’estqu’il appartient à ce plan ; sinon, c’est qu’il n’appartient pas à ce plan telqu’illustré à la figure 11.4.

Par contre, comme on a vu dans le chapitre sur la géométrie vectoriellelorsqu’on a calculé la distance d’un point a un plan, le point (vecteur) quiappartient au plan engendré par les vecteurs 1 et X et qui est le plus procheau vecteur Y correspond à la projection orthogonale du vecteur Y sur leplan, tel qu’illustré à la figure 11.5.

Donc la solution recherchée (a0, a1) est celle qui satisfait a01+a1X = Zau lieu de a01+a1X = Y . On note que le vecteur Y −Z, est perpendiculaire

Page 199: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 191

Y

1

X

Figure 11.4 Le vecteur Y n’appartient pas au plan engendré par les vecteurs 1 et X.

Y

1

X

Z

Figure 11.5 Le vecteur Z, qui appartient au plan engendré par les vecteurs 1 et X, estle vecteur de ce plan qui est la meilleure approximation du vecteur Y , c’est-à-dire celuidont la distance ‖Z − Y ‖ est la plus petite.

au plan engendré par 1 et X et donc que le produit scalaire 16

Z · (Y −Z) = 0

Introduisons la matrice M qui est formée des vecteurs colonnes qui génèrele plan

M = (1X) =

1 x11 x21 x3

et le vecteur des inconnues

A =(a0a1

)ce qui nous permet d’écrire

MA = Z [11.7.1]

On se rappelle que le produit scalaire de deux vecteurs est obtenu en prenantla transposée de l’un multipliée par l’autre (et où la trace du résultat est

16On représente le produit scalaire par le symbole · comme on l’avait fait au chapitresur la géométrie vectorielle.

Page 200: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 192

sous-entendue) :

Z · (Y −Z) = 0 ⇒ Z>(Y −Z) = 0

En substituant la valeur pour Z de l’équation 11.7.1, on a

(MA)>(Y −MA) = 0

Puisque CD> = D>C>, ceci devient

A>M>(Y −MA) = 0

que l’on peut récrire sous la forme du produit scalaire suivant :

A · [M>(Y −MA)] = 0

Cette équation doit être vérifiée pour tous les vecteurs inconnus A ; ceci veutdire que le vecteur

M>(Y −MA)

doit s’annuler. Nous devons donc avoir

M>Y = M>MA [11.7.2]

Ceci nous donne un système d’équations qu’on peut résoudre et qui ne dé-pend que des données du problème initial, et non d’un vecteur inconnucomme Z. Par exemple, si nous revenons au problème mentionné au toutdébut de la section de ce chapitre, nous avons :

M =

1 x11 x21 x3

=

1 11 21 3

et

Y =

133

Par conséquent

M>Y = M>MA ⇒(

1 1 11 2 3

)133

=(

1 1 11 2 3

)1 11 21 3

(a0a1

)

En faisant les multiplications des valeurs numériques, on trouve(7

16

)=(

3 66 14

)(a0a1

)

Page 201: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 193

On peut résoudre ce système en utilisant la procédure de Gauss-Jordan surla matrice augmentée[

3 6 76 14 16

]⇒ 1

2L2 → L2 ⇒[3 6 73 7 8

]

⇒ L2 − L1 → L2 ⇒[3 6 70 1 1

]

⇒ L1 − 6L2 → L1 ⇒[3 0 10 1 1

]

⇒ 13L1 → L1 ⇒

[1 0 1

30 1 1

]

Nous avons donc a0 = 13 et a1 = 1

et l’équation de la meilleure droitepour les points (1,1), (2,3) et (3,3)est y = 1

3 + x.

x

y

1 2 3

1

2

3

11.7.1 Généralisation à d’autres types de courbes

Exprimée sous forme matricielle, l’équation 11.7.2, peut être utilisée nonseulement pour trouver la meilleure droite passant par un certain nombrede points, mais pour beaucoup d’autre types de fonctions. Supposons parexemple que l’on veuille trouver la meilleure parabole décrivant les points(x1, y1), (x2, y2), . . . , (xn, yn), c’est-à-dire qu’on cherche les valeurs pour a0, a1, a2de l’équation

y = a0 + a1x+ a2x2

Dans ce cas-ci, on aura

A =

a0a1a2

, Y =

y1y2...

yn

, M =

1 x1 x2

11 x2 x2

2...

......

1 xn x2n

qu’on substituera dans l’équation

M>Y = M>MA

qu’on peut résoudre pour A en utilisant la procédure d’élimination de Gauss-Jordan. On peut généraliser ceci pour toute fonction pour laquelle on a unsomme de termes dont les coefficients sont à déterminer, comme par exemple,

Page 202: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Chapitre 11. Applications diverses 194

y = a0 + a1√x + a2 sin x + . . . On procéderait comme ci-dessus, sauf qu’on

utiliserait

M =

1 √

x1 sin x21 . . .

1 √x1 sin x2

2 . . ....

......

1 √x1 sin x2

n . . .

Par contre, on ne pourrait pas utiliser cette méthode directement pour

résoudre des équations dont les inconnues ne seraient pas des termes linéaires,comme par exemple pour une gaussienne.

y = a0e−a1x2

Cela dit, nous ne sommes pas restreint à faire des régressions dans leplan. Supposons que nous ayons des triplets de points de la forme (x, y, z)et que l’on veuille déterminer le meilleur plan qui approxime ces points. Onn’aurait qu’à écrire

z = a0 + a1x+ a2y

et à procéder comme ci-dessus.

Page 203: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe

A Définitions et propriétés utilesA.1 Définitions des scalaires 195A.2 Propriétés des scalaires (R ou C) 195A.3 Définitions des matrices 196A.4 Propriétés des matrices 197A.5 Définition d’un espace vectoriel 198A.6 Propriétés des espaces vectoriels 198A.7 Définition des déterminants 198A.8 Propriétés des déterminants 199A.9 Vecteurs et valeurs propres 199A.10 Produit scalaire 199A.11 Géométrie vectorielle 200

Ci-dessous, vous trouverez des définitions et propriétés diverses. Ce qui dis-tingue une propriété d’une définition, est qu’on peut démontrer qu’une pro-priété est satisfaite à partir des définitions.

Dans toute démonstration d’une propriété, vous pouvez supposer que lespropriétés qui apparaissent plus tôt dans cette liste sont vraies. Par exemple,pour prouver la propriété 6 d’une liste quelconque, on peut prendre pouracquis que la propriété 3 est vraie ; on ne peut pas faire l’inverse.

A.1 Définitions des scalaires

A.1.1 Nombre complexe : z ∈ C : z = a+ bi; a, b ∈ R; i =√−1

A.1.2 Conjugué : z = a+ bi = a− bi

A.1.3 Forme polaire d’un nombre complexe : z = r eiθ r, θ ∈ R

A.1.4 Conjugué, forme polaire : r eiθ = r e−iθ

A.1.5 Module d’un nombre complexe : |a+ bi| =√a2 + b2 a, b ∈ R

A.1.6 Module d’un nombre complexe : |r eiθ| = r r, θ ∈ R

A.2 Propriétés des scalaires (R ou C)

A.2.1 a+ b = b+ a commutativité de l’addition

A.2.2 (a+ b) + c = a+ (b+ c) associativité de l’addition

A.2.3 ab = ba commutativité de la multiplication

A.2.4 (ab)c = a(bc) associativité de la multiplication

A.2.5 a+ 0 = a élément neutre de l’addition

A.2.6 a+ (−a) = 0 inverse additif

A.2.7 1a = a élément neutre de la multiplication

195

Page 204: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe A. Définitions et propriétés utiles 196

A.2.8 aa−1 = 1 inverse multiplicatif

A.2.9 a(b+ c) = ab+ ac distributivité de la multiplication sur l’addition

A.2.10(ab)c

= abc puissance d’une puissance

A.2.11 abac = ab+c produit des puissances

A.2.12 z = z

A.2.13 Relation d’Euler (ou de de Moivre) : eiθ = cos θ + i sin θA.2.14 Relation d’Euler (cas particulier) : eiπ = −1

Note : Il existe des généralisations des nombres complexes. Le plus simple est celui des quaternionsH et le suivant est celui des octonions O. La multiplication des quaternions ne respecte pas toujours lacommutativité, c’est-à-dire qu’on peut avoir ab 6= ba. La multiplication des octonions ne respecte pas tou-jours ni la commutativité, ni l’associativité, c’est-à-dire qu’on peut avoir ab 6= ba et (ab)c 6= a(bc). Sachantceci, vous comprendrez peut-être pourquoi on doit démontrer certaines propriétés des matrices qui nousparaissent évidentes. Dans ce qui suit, on suppose toujours que les coefficients des matrices sont soit desnombres réels ou des nombres complexes.

A.3 Définitions des matrices

A.3.1 Matrice quelconque : Am×n = [aij ]m×nA.3.2 Coefficient d’une matrice : aij = [A]ijA.3.3 Matrice nulle (taille m× n sous-entendue) : 0 = [0]A.3.4 Matrice diagonale : [A]ij = 0 si i 6= j.

A.3.5 Symbole de Kronecker : δij ={

1 si i = j0 si i 6= j

A.3.6 Matrice identité n× n : In = [δij ]A.3.7 Addition de matrices : A + B = C ⇐⇒ [aij ] + [bij ] = [aij + bij ] = [cij ]A.3.8 Multiplication de matrice par un scalaire : cA = c[aij ] = [caij ]A.3.9 Négation d’une matrice : −A = (−1)A

A.3.10 Soustraction de matrices : A−B = A + (−B)

A.3.11 Multiplication de matrices : Am×nBn×p = Cm×p ⇐⇒ (cij) =(

n∑k=1

aikbkj

)

A.3.12 Trace d’une matrice : Tr(An×n) =n∑i=1

aii

A.3.13 Transposée : A = [aij ] ⇐⇒ A> = [aji]A.3.14 Conjuguée : A = [aij ] ⇐⇒ A = [aij ]

A.3.15 Conjuguée de la transposée : A = [aij ] ⇐⇒ A∗ = A> = [aji]A.3.16 Matrice symétrique : A = A> ⇐⇒ aij = aji

A.3.17 Matrice antisymétrique : A = −A> ⇐⇒ aij = −ajiA.3.18 Matrice hermitienne : A = A∗ ⇐⇒ aij = aji

Page 205: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe A. Définitions et propriétés utiles 197

A.3.19 Matrice transconjuguée : A = −A∗ ⇐⇒ aij = −ajiA.3.20 A0

n×n = In

A.3.21 k ∈ N, k ≥ 2 : Akn×n = (Ak−1

n×n)An×n

A.3.22 Commutateur : [A,B] = AB −BA

A.3.23 Matrice idempotente : A2 = A

A.3.24 Soit AX = B, la matrice augmentée est [A|B]A.3.25 Rang : rg(A) = nombre de rangées non-nulles de A lorsque A est sous une forme échelonnée.A.3.26 Matrice inverse (si elle existe) : AA−1 = I

A.4 Propriétés des matrices

Dans ce qui suit, lorsqu’on écrit A−1, c’est parce qu’on suppose que l’inverse existe.

A.4.1 A = B ⇐⇒ [aij ] = [bij ] ∀i, j égalité des matrices

A.4.2 A + B = B + A commutativité de l’addition

A.4.3 (A + B) + C = A + (B + C) associativité de l’addition

A.4.4 (AB)C = A(BC) associativité de la multiplication

A.4.5 A + 0 = A élément neutre de l’addition

A.4.6 A + (−A) = 0 inverse additif

A.4.7 IA = A élément neutre de la multiplication

A.4.8 c(A + B) = cA + cB

A.4.9 (c+ d)A = cA + dA

A.4.10 (cd)A = c(dA)A.4.11 (A + B)(C + D) = AC + AD + BC + BD

A.4.12 (A>)> = A

A.4.13 A = A

A.4.14 (A∗)∗ = A

A.4.15 (A + B) = A + B

A.4.16 (A + B)> = A> + B>

A.4.17 (A + B)∗ = A∗ + B∗

A.4.18 As+tn×n = As

n×nAtn×n

A.4.19 Tr(AB) = Tr(BA)A.4.20 Tr (ABC) = Tr (CAB) = Tr (BCA).A.4.21 Tr (A1A2A3 . . .Ap) = Tr (ApA1A2A3 . . .Ap−1) = Tr (Aq . . .Ap−1ApA1A2 . . .Aq−1)A.4.22 (AB)> = B>A>

A.4.23 (AB)−1 = B−1A−1

A.4.24(Ak)−1

=(A−1

)k; par convention, ceci est égal à A−k.

A.4.25 (A−1)> = (A>)−1

A.4.26 Si c 6= 0, (cA)−1 = 1cA−1

Page 206: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe A. Définitions et propriétés utiles 198

A.5 Définition d’un espace vectoriel

Un espace vectoriel est un ensemble V d’objets appelés vecteurs, sur lesquels on définit deux opérations,soit l’addition ainsi que la multiplication par un scalaire, et pour lequel les axiomes suivant sont satisfaitspour tous les vecteurs u,v,w dans V et pour tous les scalaires α, β ∈ K.A.5.1 Fermeture sous l’addition : u + v ∈ V .A.5.2 Commutativité de l’addition : u + v = v + u

A.5.3 Associativité de l’addition : (u + v) + w = u + (v + w)A.5.4 Existence d’un élément neutre de l’addition : ∃0 ∈ V : u + 0 = u.A.5.5 Existence d’un inverse additif : ∀u ∈ V ∃ − u ∈ V : u + (−u) = 0.A.5.6 Fermeture sous la multiplication : αu ∈ V .A.5.7 Distributivité sur l’addition de vecteurs : α(u + v) = αu + αv

A.5.8 Distributivité de l’addition de scalaires : (α+ β)u = αu + βu

A.5.9 Associativité de la multiplication de scalaires : α(βu) = (αβ)uA.5.10 Élément neutre de la multiplication par un scalaire : 1u = u

Soit W un sous-ensemble d’un espace vectoriel V . On appellera W un sous-espace vectoriel de V si lestrois propriétés suivantes sont satisfaites :A.5.1 Le vecteur zéro de V est dans W .A.5.2 W est fermé pour l’addition : u,w ∈W ⇒ u + w ∈W .A.5.3 W est fermé pour la multiplication par un scalaire : w ∈W ⇒ kw ∈W

A.6 Propriétés des espaces vectoriels

Soit V un espace vectoriel α un réel et u un élément de V . Les propriétés suivantes sont satisfaites.A.6.1 0 + u = u.A.6.2 −u + u = 0.A.6.3 0u = 0.A.6.4 α0 = 0.A.6.5 (−1)u = −u.A.6.6 Si αu = 0 alors soit α = 0 ou u = 0.A.6.7 α0 = 0A.6.8 (−1)u = −u

A.6.9 −u est l’unique vecteur dans V tel que u + (−u) = 0.

A.7 Définition des déterminants

Soient des matrices carrées. De plus, M ij est définie dans ce qui sut comme étant la matrice carrée(n− 1)× (n− 1) obtenue en supprimant la ligne i et la colonne j de A

A.7.1 det A = |A|

Page 207: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe A. Définitions et propriétés utiles 199

A.7.2 Mineur de l’élément aij = |M ij |A.7.3 Cof ij(A) = (−1)i+j |M ij |

A.7.4 |A| =n∑i=1

api Cofpi(A) =n∑j=1

aj` Cofj`(A)

A.7.5 Règle de Cramer : la solution de Ax = b est donnée par xj = det Aj(b)det A

, j = 1, 2, . . . , n

A.7.6 Règle de Cramer : (A−1)ij = Cofji(A)det A

⇔ A−1 = 1det A

adj A

A.8 Propriétés des déterminants

A.8.1

∣∣∣∣∣a bc d

∣∣∣∣∣ = ad− bc si a, b, c, d sont des scalaires.

A.8.2 Matrice diagonale : det D =n∏i=1

dii

A.8.3 |A| = |A>|A.8.4 det(AB) = (det A)(det B)A.8.5 det(A1A2 . . .Ap) = (det A1)(det A2) . . . (det Ap)

A.8.6 det(A) = 1det A−1

A.9 Vecteurs et valeurs propres

A.9.1 T (v) = λv

A.9.2 Polynôme caractéristique : |A− λI| = 0A.9.3 Si B = P−1AP , alors A et B sont des matrices semblables.A.9.4 Diagonalisation : si AXi = λXi et si P = (X1 . . .Xn) est inversible, alors D = P−1AP

A.10 Produit scalaire

Soit V un espace vectoriel sur le corps R. Pour chaque paire de vecteurs u,v on peut associer un scalairedénoté par 〈u,v〉, qu’on désigne sous le nom de produit scalaire de ces deux vecteurs et satisfaisant lesaxiomes suivants :A.10.1 〈au + bv,w〉 = a〈u,w〉+ b〈v,w〉 pour u,v,w ∈ V et a, b ∈ R.A.10.2 〈u,v〉 = 〈v,u〉A.10.3 〈u,u〉 ≥ 0A.10.4 〈u,u〉 = 0 si et seulement si u = 0.

Quelques autres définitions et propriétés suivent.A.10.5 Norme de vecteurs : ‖u‖ =

√〈u,u〉

A.10.6 Inégalité de Cauchy-Schwarz |〈u,v〉| ≤ ‖u‖ ‖v‖A.10.7 Inégalité triangulaire : ‖u + v‖ ≤ ‖u‖+ ‖v‖

Page 208: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe A. Définitions et propriétés utiles 200

A.10.8 Vecteurs orthogonaux si 〈u,v〉 = 0A.10.9 Théorème de Pythagore : u et v sont orthogonaux ⇔ ‖u + v‖2 = ‖u‖2 + ‖v‖2

A.10.10 Vecteurs orthonormés : 〈vi,vj〉 = δij ={

0 si i 6= j1 si i = j

A.11 Géométrie vectorielle

A.11.1 Vecteurs unitaires : ~ı = (1, 0, 0), ~ = (0, 1, 0), ~k = (0, 0, 1)A.11.2 Produit scalaire : ~u · ~v = u1v1 + u2v2 + u3v3 = uv cos θ

A.11.3 Produit vectoriel : ~v × ~w =

∣∣∣∣∣∣∣~ı ~ ~kv1 v2 v3w1 w2 w3

∣∣∣∣∣∣∣A.11.4 ‖~v × ~w‖ = vw sin θ

A.11.5 Produit mixte : ~u · (~v × ~w) =

∣∣∣∣∣∣∣u1 u2 u3v1 v2 v3w1 w2 w3

∣∣∣∣∣∣∣A.11.6 Produits vectoriels des vecteurs unitaires :

~ı×~ = ~k = −~×~ı~× ~k =~ı = −~k ×~~k ×~ı = ~ = −~ı× ~k~ı×~ı = ~×~ = ~k × ~k = 0

A.11.7 Équation paramétrique d’une droite : ~r = ~v0 + t~v

A.11.8 Équation symétrique d’une droite : x− x0x1 − x0

= y − y0y1 − y0

= z − z0z1 − z0

A.11.9 Distance d’un point à une droite d = ‖~v ×−−→P0P‖

‖−−→P0P‖

A.11.10 Équation paramétrique d’un plan : Π : ~r = ~v0 + s~v1 + t~v2

A.11.11 Équation cartésienne d’un plan : Ax+By + Cz +D = 0 avec

A =∣∣∣∣∣y1 z1y2 z2

∣∣∣∣∣B = −

∣∣∣∣∣x1 z1x2 z2

∣∣∣∣∣C =

∣∣∣∣∣x1 y1x2 y2

∣∣∣∣∣D = −(Ax0 +By0 + Cz0)

A.11.12 Distance d’un point à une droite d = |Ax+By + Cz +D|√A2 +B2 + C2

Page 209: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe

B RéférencesB.1 Source des images 201

B.1 Source des images

Figure 1.5 http://fr.wikipedia.org/wiki/Fichier:Frans_Hals_-_Portret_van_Ren%C3%A9_Descartes.jpg

Figure 3.1 http://fr.wikipedia.org/wiki/Fichier:Carl_Friedrich_Gauss.jpg

Figure 3.2 http://en.wikipedia.org/wiki/File:Wilhelm_Jordan.png

Figure 10.2 http://en.wikipedia.org/wiki/File:Right_hand_rule_cross_product.svg

201

Page 210: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Annexe

C Licence cbna

Ce manuel a été conçu par André Roberge.

Ce manuel est publié sous la licence Creative Commons c suivante :Attribution b ; pas d’utilisation commerciale n ; partage à l’identiquea ; 3.0 non transposé (CC BY-NC-SA 3.0)Ce qui suit est le résumé 1 explicatif "lisible par les humains" du Code Juridique (laversion intégrale de la licence) :Vous êtes libre de :partager — reproduire, distribuer et communiquer l’oeuvreremixer — adapter l’oeuvreselon les conditions suivantes :

b Attribution — Vous devez attribuer l’oeuvre de la manière indiquée parl’auteur de l’oeuvre ou le titulaire des droits (mais pas d’une manière qui suggére-rait qu’ils vous soutiennent ou approuvent votre utilisation de l’oeuvre).

n Pas d’utilisation commerciale — Vous n’avez pas le droit d’utiliser cetteoeuvre à des fins commerciales.

a Partage à l’identique — Si vous modifiez, transformez ou adaptez cetteoeuvre, vous n’avez le droit de distribuer votre création que sous une licence iden-tique ou similaire à celle-ci.Comprenant bien que : Renoncement — N’importe laquelle des conditions ci-dessus peut être modifiées si vous avez l’autorisation du titulaire de droits.Domaine public — Là où l’oeuvre ou un quelconque de ses éléments est dans ledomaine public selon le droit applicable, ce statut n’est en aucune façon affecté parla licence.Autres droits — Les droits suivants ne sont en aucune manière affectés par lalicence :

— Vos prérogatives issues des exceptions et limitations aux droits exclusifs ouusage juste ("fair use") ;

— Les droits moraux de l’auteur ;— Droits qu’autrui peut avoir soit sur l’oeuvre elle-même soit sur la façon dont

elle est utilisée, comme le droit à l’image ou les droits à la vie privée.Remarque — A chaque réutilisation ou distribution de cette oeuvre, vous de-vez faire apparaître clairement au public la licence selon laquelle elle est mise àdisposition.

1adapté de http ://creativecommons.org/licenses/by-nc-sa/3.0/deed.fr

202

Page 211: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Index

élimination de Gauss-Jordan, 35, 36équation cartésienne du plan, 162équation linéaire, 17équation paramétrique, 158

adjointe classique, 118

base, 72, 84base canonique, 90base orthogonale, 143base orthonormée, 147base orthonormale, 147

canonique, 89cisaillement horizontal, 94cisaillement vertical, 94codomaine, 91coefficients, 17Coefficients d’une matrice, 4cofacteur, 101comatrice, 118combinaison linéaire, 23, 72, 78commutateur, 31compatibles, 9composante, 16conjugué, 3coordonnées, 73, 88coordonnées de v par rapport à la base

B, 73, 89

déterminant, 100, 102dimension, 17

ensemble dépendant, 82ensemble générateur, 80ensemble indépendant, 82espace euclidien à trois dimensions,

150espace vectoriel, 71espaces vectoriels, 23

forme échelonnée, 36, 37, 39forme échelonnée réduite, 36, 39forme paramétrique, 18forme symétrique, 159

hermitienne, 30

image, 91

inégalité de Cauchy-Schwarz, 140inégalité triangulaire, 141inconnues, 17indépendance linéaire, 144indice, 4invariant, 98

linéairement dépendants, 72, 82linéairement indépendants, 72, 82

méthode du pivot de Gauss, 36matrice m× n, 4matrice anti-symétrique, 27matrice augmentée, 36matrice canonique, 93matrice caractéristique, 125matrice carrée, 5matrice de passage, 130matrice des coefficients, 35matrice des cofacteurs, 118matrice des coordonnées, 73, 89matrice diagonale, 5matrice identité, 5matrice inversible, 58matrice non singulière, 58matrice nulle, 5matrice régulière, 58matrice scalaire, 7matrice singulière, 58matrice symétrique, 27matrice triangulaire inférieure, 25matrice triangulaire supérieure, 25matrice unité, 5matrices élémentaires, 63matrices semblables, 130mineur, 101

non-triviale, 52normal, 163norme, 140

opérations élémentaires sur les lignes,20, 36

orthogonalité, 144orthonormé, 147

paramètres, 18pivots, 39polynôme caractéristique, 125

203

Page 212: Algèbrelinéaire - Université Sainte-Annepersonnel.usainteanne.ca/aroberge/math/algin.pdf · 4.1 Introduction 61 4.2 L’inversed’unematrice2 ×2 65 ... L’algèbre linéaire

Index 204

procédé d’orthogonalisation de Gram-Schmidt, 145

produit mixte, 152produit scalaire, 139, 193produit vectoriel, 152

règle de Cramer, 114rang, 49

scalaire, 7solution, 18solution générale, 18solution triviale, 52sous-espace, 72, 76sous-espace engendré, 80sous-espace vectoriel, 71, 76symbole de Kronecker, 15système d’équation homogène, 52système d’équations linéaires, 19

terme constant, 17théorème de l’unicité de la représen-

tation, 72, 88Théorème de Pythagore :, 143trace, 26transconjuguée, 30transformation, 91transformation linéaire, 91transformation matricielle, 92transposée, 26

valeur propre, 123variables dépendantes, 40variables indépendantes, 40variables libres, 40vecteur, 71vecteur colonne, 5vecteur directeur, 158vecteur ligne, 5vecteur propre, 123vecteurs, 16vecteurs unitaires, 16