27
c Christophe Bertault - MPSI Introduction à l’algèbre linéaire Dans tout ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre, sauf un ou deux, demeurent vrais si K est un corps quelconque, mais nous ne nous en préoccuperons pas ici. La notion d’espace vectoriel introduite dans ce chapitre est un nouvel exemple fondamental de structure algébrique, après les groupes, les anneaux et les corps. Cependant, alors que vous n’aviez pratiquement rien à savoir sur les groupes, les anneaux et les corps, on exige de vous au contraire que vous sachiez tout — ou presque — sur les espaces vectoriels en fin de seconde année. Comme nous le verrons, la notion d’espace vectoriel généralise, comme son nom l’indique, les notions de vecteurs du plan et de l’espace introduites au lycée. Malheureusement pour vous qui débutez, elle les généralise tellement qu’on peut parfois ne pas comprendre quel rapport il y a entre nos petits vecteurs avec des flèches et les vecteurs tels que nous allons les pratiquer à présent. Vous devez toutefois vous forcer à vous représenter le plus possible les résultats des espaces vectoriels en général au moyen des concepts de la géométrie classique que vous connaissez ; sans cela vous êtes perdus. La théorie mathématique dont l’objet d’étude est la structure d’espace vectoriel s’appelle l’algèbre linéaire. 1 Espaces vectoriels 1.1 Définition Définition (Espace vectoriel) On appelle K-espace vectoriel ou espace vectoriel sur K tout triplet (E, +, ·) vérifiant les propriétés suivantes : (E, +) est un groupe commutatif dont l’élément neutre est noté 0E ou 0 et appelé le vecteur nul de E ; •· est une application de K × E dans E : à partir d’un réel λ et d’un élément x de E, · fournit un nouvel élément de E noté λ · x ou plus simplement λx — les notations x · λ et sont interdites ; par définition, cette application · doit satisfaire les propriétés suivantes : 1) pour tout x E : 1 · x = x ; 2) pour tout λ K et pour tous x, y E : λ · (x + y)=(λ · x)+(λ · y) ; 3) pour tous λ, μ K, et pour tout x E : (λ + μ) · x =(λ · x)+(μ · x) ; 4) pour tous λ, μ K, et pour tout x E : λ · (μ · x)=(λμ) · x. Les éléments d’un espace vectoriel E sont appelés des vecteurs. La loi ·, qui n’est pas une loi de composition interne sur E puisqu’à travers elle des éléments de K agissent sur des vecteurs, est qualifiée de loi externe. En tant qu’ils agissent via · sur les vecteurs de E, les éléments de K sont appelés des scalaires. La loi + est appelée addition et la loi · est appelée multiplication par un scalaire. Le corps K est qualifié de corps de base pour E. Remarque Sachez que les mathématiciens ne mettent jamais de flèches au-dessus de leurs vecteurs, sauf quand ils font de la géométrie dans le plan et dans l’espace comme vous en avez fait jusqu’ici. A la poubelle, les flèches ! Théorème Soit E un K-espace vectoriel. (i) Pour tous λ K et x E : λ· x =0E ⇐⇒ λ =0 ou x =0E. En particulier : x E, 0 · x =0E λ K, λ · 0E =0E . (ii) Pour tout x E : -x =(-1) · x, -x est l’opposé de x dans E et -1 l’opposé de 1 dans K. Démonstration Soit x E. Alors 0 · x = (0 + 0) · x =0 · x +0 · x. Il ne reste alors plus qu’à simplifier par 0 · x dans le groupe (E, +) d’élément neutre 0E : 0 · x =0E. Soit λ K. Alors λ · 0E = λ · (0E +0E)= λ · 0E + λ · 0E. Il ne reste alors plus qu’à simplifier par λ · 0E dans le groupe (E, +) d’élément neutre 0E : λ · 0E =0E. 1

c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Introduction à l’algèbre linéaire

Dans tout ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre, sauf un ou deux, demeurentvrais si K est un corps quelconque, mais nous ne nous en préoccuperons pas ici.

La notion d’espace vectoriel introduite dans ce chapitre est un nouvel exemple fondamental de structure algébrique, après lesgroupes, les anneaux et les corps. Cependant, alors que vous n’aviez pratiquement rien à savoir sur les groupes, les anneaux etles corps, on exige de vous au contraire que vous sachiez tout — ou presque — sur les espaces vectoriels en fin de seconde année.

Comme nous le verrons, la notion d’espace vectoriel généralise, comme son nom l’indique, les notions de vecteurs du planet de l’espace introduites au lycée. Malheureusement pour vous qui débutez, elle les généralise tellement qu’on peut parfois nepas comprendre quel rapport il y a entre nos petits vecteurs avec des flèches et les vecteurs tels que nous allons les pratiquerà présent. Vous devez toutefois vous forcer à vous représenter le plus possible les résultats des espaces vectoriels en général aumoyen des concepts de la géométrie classique que vous connaissez ; sans cela vous êtes perdus.

La théorie mathématique dont l’objet d’étude est la structure d’espace vectoriel s’appelle l’algèbre linéaire.

1 Espaces vectoriels

1.1 Définition

Définition (Espace vectoriel) On appelle K-espace vectoriel ou espace vectoriel sur K tout triplet (E, +, ·) vérifiant lespropriétés suivantes :

• (E, +) est un groupe commutatif dont l’élément neutre est noté 0E ou 0 et appelé le vecteur nul de E ;

• · est une application de K×E dans E : à partir d’un réel λ et d’un élément x de E, · fournit un nouvel élément de Enoté λ · x ou plus simplement λx — les notations x · λ et xλ sont interdites ; par définition, cette application · doit satisfaireles propriétés suivantes :

1) pour tout x ∈ E : 1 · x = x ;

2) pour tout λ ∈ K et pour tous x, y ∈ E : λ · (x + y) = (λ · x) + (λ · y) ;

3) pour tous λ, µ ∈ K, et pour tout x ∈ E : (λ + µ) · x = (λ · x) + (µ · x) ;

4) pour tous λ, µ ∈ K, et pour tout x ∈ E : λ · (µ · x) = (λµ) · x.

Les éléments d’un espace vectoriel E sont appelés des vecteurs. La loi ·, qui n’est pas une loi de composition interne sur Epuisqu’à travers elle des éléments de K agissent sur des vecteurs, est qualifiée de loi externe. En tant qu’ils agissent via · sur lesvecteurs de E, les éléments de K sont appelés des scalaires. La loi + est appelée addition et la loi · est appelée multiplication par

un scalaire. Le corps K est qualifié de corps de base pour E.

Remarque Sachez que les mathématiciens ne mettent jamais de flèches au-dessus de leurs vecteurs, sauf quand ils font dela géométrie dans le plan et dans l’espace comme vous en avez fait jusqu’ici. A la poubelle, les flèches !

Théorème Soit E un K-espace vectoriel.

(i) Pour tous λ ∈ K et x ∈ E : λ·x = 0E ⇐⇒ λ = 0 ou x = 0E . En particulier :

{∀x ∈ E, 0 · x = 0E

∀λ ∈ K, λ · 0E = 0E.

(ii) Pour tout x ∈ E : −x = (−1) · x, où −x est l’opposé de x dans E et −1 l’opposé de 1 dans K.

Démonstration

• Soit x ∈ E. Alors 0 ·x = (0+ 0) · x = 0 ·x + 0 · x. Il ne reste alors plus qu’à simplifier par 0 · x dans le groupe(E, +) d’élément neutre 0E : 0 · x = 0E .

• Soit λ ∈ K. Alors λ · 0E = λ · (0E + 0E) = λ · 0E + λ · 0E . Il ne reste alors plus qu’à simplifier par λ · 0E dansle groupe (E, +) d’élément neutre 0E : λ · 0E = 0E .

1

Page 2: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

• Soient λ ∈ K et x ∈ E. Montrons à présent que si λ · x = 0E et si λ 6= 0, alors x = 0E .

x = 1 · x =

(1

λ× λ

)

· x =1

λ· (λ · x) =

1

λ· 0E = 0E . L’assertion (i) est ainsi démontrée.

• Enfin, démontrons l’assertion (ii). Soit x ∈ E. Alors : x+(−1) ·x = 1 ·x+(−1) ·x = (1−1) ·x = 0 ·x = 0E .Par unicité de l’opposé −x de x dans le groupe (E, +), on a donc bien −x = (−1) · x comme voulu. �� � � Explication Mais pourquoi les mathématiciens ont-ils appelé « vecteurs » les objets que nous venons de définir ?

L’idée provient simplement du fait que les propriétés données dans la définition des espaces vectoriels sont des propriétés trèsnaturelles des vecteurs. Dans notre chapitre sur les structures algébriques, nous avons déjà montré que l’ensemble V des vecteursdu plan (ou de l’espace) est un groupe abélien. Les figures ci-dessous représentent deux des propriétés de l’addition et de lamultiplication par un scalaire sur V qui font de V un R-espace vectoriel.

b ~u

~v

~w

~u + ~v

(~u + ~v) + ~w

(~u + ~v) + ~w = ~u + (~v + ~w) b ~u

~v

~w

~v + ~w~u + (~v + ~w)

b

~u

~v

2~u

2~v

2~u + 2~v

2~u + 2~v = 2(~u + ~v)

b

~u

~v

~u + ~v

2(~u + ~v)

La représentation des espaces vectoriels au moyens de vecteurs « concrets » sera utilisée très souvent. Cette possibilité dereprésenter en deux ou trois dimensions les espaces vectoriels les plus généraux sera justifiée par la grande similarité de tousles espaces vectoriels entre eux. Je ne vous conseillerai jamais assez de vous représenter géométriquement les définitions et lesthéorèmes de l’algèbre linéaire.

1.2 Exemples fondamentaux

Les exemples présentés dans ce paragraphe sont essentiels et nous serviront régulièrement par la suite.

Exemple (K, +,×) est un K-espace vectoriel.

En effet Cela résulte directement de la définition des corps. Il suffit de considérer la multiplication × sur K

comme une loi de composition externe. On a alors toutes les propriétés voulues sans aucun travail.

Théorème (Espace vectoriel produit) Soient n ∈ N× et E1, E2, . . . , En des K-espaces vectoriels. On munit l’ensemble

E1 × E2 × . . .× En de deux lois + et · en posant, pour tous λ ∈ K et (xk)16k6n, (yk)16k6n ∈ E1 × E2 × . . . En :

(xk)16k6n + (yk)16k6n = (xk + yk)16k6n et λ · (xk)16k6n = (λ · xk)16k6n.

Alors (E1 × E2 × . . .× En, +, ·) est un K-espace vectoriel. Ici, 0E1×E2×...×En= (0E1

, 0E2, . . . , 0En

).

Démonstration

• Nous savons déjà que (E1 × E2 × . . . × En, +) est un groupe commutatif en tant que groupe produit degroupes commutatifs.

• Soit (xk)16k6n ∈ E1 × E2 × . . .×En. Alors : 1 · (xk)16k6n = (1 · xk)16k6n = (xk)16k6n.

• Soient λ ∈ K et (xk)16k6n, (yk)16k6n ∈ E1 ×E2 × . . . En.

λ ·(

(xk)16k6n + (yk)16k6n

)

= λ · (xk + yk)16k6n =(

λ · (xk + yk))

16k6n=(

λ · xk + λ · yk

)

16k6n

= (λ · xk)16k6n + (λ · yk)16k6n = λ · (xk)16k6n + λ · (yk)16k6n.

• Les autres axiomes de la structure d’espace vectoriel se vérifient aussi facilement. �

Exemple (Espaces vectoriels Kn, n ∈ N

×) La construction précédente munit en particulier Kn =

n fois︷ ︸︸ ︷

K×K× . . .×K d’unestructure de K-espace vectoriel pour tout n ∈ N

×.

2

Page 3: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Théorème (Espace vectoriel d’applications) Soient X un ensemble non vide et E un K-espace vectoriel. On munitl’ensemble EX des applications de X dans E de deux lois + et · ; si f, g ∈ EX et si λ ∈ K, les applications f + g et λ · f sontdéfinies par :

∀x ∈ X, (f + g)(x) = f(x) + g(x) et (λ · f)(x) = λ ·(f(x)

).

Alors(EX , +, ·

)est un K-espace vectoriel. Ici, 0EX est l’application nulle x 7−→ 0E de X dans E.

Démonstration

• Montrons que + est associative. Soient f, g, h ∈ EX . Pour tout x ∈ X :((f + g) + h

)(x) = (f + g)(x) + h(x) =

(f(x) + g(x)

)+ h(x) = f(x) +

(g(x) + h(x)

)par associativité de (E, +)

= f(x) + (g + h)(x) =(f + (g + h)

)(x). Cela montre bien que (f + g) + h = f + (g + h).

• Montrons que + est commutative. Soient f, g ∈ EX . Pour tout x ∈ X :

(f + g)(x) = f(x) + g(x) = g(x) + f(x) = (g + f)(x) par commutativité de (E, +).

Cela montre bien que f + g = g + f .

• Il n’est pas plus difficile de montrer que l’application nulle 0EX est élément neutre pour + et que tout élémentde EX possède un opposé pour +.

• Soit f ∈ EX . Montrons que 1 · f = f . Or pour tout x ∈ E : (1 · f)(x) = 1 ·(f(x)

)= f(x).

• Les autres axiomes de la structure d’espace vectoriel se vérifient aussi facilement. �

Exemple (Fonctions et suites)

• Pour tout intervalle I de R, l’ensemble KI des applications de I dans K est un K-espace vectoriel pour les opérations

naturelles d’addition et de multiplication par un scalaire.

• L’ensemble KN des suites à coefficients dans K est un K-espace vectoriel pour les opérations naturelles d’addition et de

multiplication par un scalaire.

En effet Ces exemples sont deux cas particuliers des espaces vectoriels d’applications « EX » présentésprécédemment — ici, E est le K-espace vectoriel K. Il faut bien sûr savoir qu’une suite n’est qu’une application deN dans K ; la notation (un)n∈N désigne l’application qui à n associe un pour tout n ∈ N.

Exemple (Polynômes) K[X] est un K-espace vectoriel pour l’addition et la multiplication par un scalaire usuelles.

En effet Nous savons déjà que(K[X], +

)est un groupe commutatif. Les autres axiomes de la structure d’espace

vectoriel se vérifient aisément.

Exemple Tout C-espace vectoriel est aussi un R-espace vectoriel.

En effet Si E est un C-espace vectoriel, alors λ · x est défini pour tout λ ∈ C et x ∈ E ; λ · x est donc enparticulier défini pour tout λ réel. Ceci justifie que, par restriction aux scalaires réels, E puisse être considérécomme un R-espace vectoriel.$ $ $ Attention ! La réciproque est fausse ! Un R-espace vectoriel ne peut pas en général être muni d’une structure

de C-espace vectoriel naturellement. Par exemple, R est un R-espace vectoriel comme nous l’avons vu, mais quelle loi externenaturelle de multiplication par un scalaire pourrions-nous trouver pour munir R d’une structure de C-espace vectoriel ? Commentfaire en sorte que λ ·x soit un réel ayant toutes les propriétés que l’on veut quand λ ∈ C et x ∈ R ? En tout cas, l’idée du produitusuel n’est pas une bonne idée car en général le produit d’un réel et d’un complexe est un complexe non réel.

2 Combinaisons linéaires

Définition (Combinaison linéaire) Soient E un K-espace vectoriel et u1, u2, . . . , un des vecteurs de E. On appelle combi-

naison linéaire de u1, u2, . . . , un tout vecteur de la formen∑

k=1

λkuk = λ1u1 + λ2u2 + . . . + λnun où λ1, λ2, . . . , λn ∈ K.

3

Page 4: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI� � � ExplicationLa notion de combinaison linéaire est géométriquement très simple à se représenter dans leplan ou dans l’espace. Par exemple, sur la figure ci-contre, ~u est combinaison linéaire de ~ı et ~,mais ce n’est pas le cas de ~v. Par contre, dans l’espace, tout vecteur est combinaison linéairede ~ı, ~ et ~k. b

O

~

~k

~u

~v

$ $ $ Attention ! Une égalité de la formen∑

k=1

λkuk =n∑

k=1

µkuk n’implique pas l’égalité λk = µk pour tout k ∈ J1, nK.

En d’autres termes, on ne peut pas pratiquer d’identification systématiquement quand deux combinaisons linéaires d’une mêmefamille de vecteurs sont égales. Par exemple : (1, 1) + 2(0, 1) + 2(1, 0) = (3, 3) = 2(1, 1) + (0, 1) + (1, 0).

Exemple Dans R4, (4, 1,−5, 1) est combinaison linéaire des trois vecteurs (1, 0, 0, 0), (0, 1, 0, 1) et (0, 0, 1, 0), car :

(4, 1,−5, 1) = 4(1, 0, 0, 0) + (0, 1, 0, 1)− 5(0, 0, 1, 0),

mais aussi des quatre vecteurs (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0) et (0, 0, 0, 1) car :

(4, 1,−5, 1) = 4(1, 0, 0, 0) + (0, 1, 0, 0) − 5(0, 0, 1, 0) + (0, 0, 0, 1).� � � En pratique Pour montrer qu’un vecteur est ou n’est pas combinaison linéaire d’autres vecteurs, on est toujoursramené, même si cela n’apparaît pas toujours clairement, à la résolution d’un certain système linéaire.

Exemple (2, 7) est combinaison linéaire des vecteurs (5,−2) et (1,−3) (dans R2), et on a : (2, 7) = (5,−2) − 3(1,−3).

En effet Bien sûr, si les coefficients 1 et −3 de la relation « (2, 7) = (5,−2) − 3(1,−3) » sont connus dès ledépart, il est trivial de vérifier que (2, 7) est combinaison linéaire de (5,−2) et (1,−3). Mais le problème initialconsiste à se demander si combinaison linéaire il y a, sans connaissance préalable des coefficients.

(2, 7) est combinaison linéaire de (5,−2) et (1,−3)

⇐⇒ ∃ λ, µ ∈ R/ (2, 7) = λ(5,−2) + µ(1,−3)

⇐⇒ ∃ λ, µ ∈ R/

{5λ + µ = 2−2λ − 3µ = 7

⇐⇒ Le système

{5λ + µ = 2−2λ − 3µ = 7

d’inconnue (λ, µ) ∈ R2 possède une solution.

Par ce raisonnement, la question posée est ramenée à la simple résolution d’un système linéaire. Résolvons cesystème. Pour tout (λ, µ) ∈ R

2 :

{5λ + µ = 2−2λ − 3µ = 7

⇐⇒

{5λ + µ = 213λ = 13 L2 ← L2 + 3L1

⇐⇒ λ = 1 et µ = −3.

Comme voulu, (2, 7) est donc bien combinaison linéaire de (5,−2) et (1,−3), et de plus : (2, 7) = (5,−2)−3(1,−3).$ $ $ Attention ! Dans l’exemple précédent, le fait pour (2, 7) d’être ou non combinaison linéaire de (5,−2) et (1,−3)dépend de l’existence d’une solution d’un certain système linéaire. Peu importe qu’il existe une unique solution ou plusieurssolutions à ce système ; seule compte ici l’existence.

Exemple (−1, 2, 2) n’est pas combinaison linéaire des vecteurs (1, 1, 0), (−2, 1, 3) et (1, 0,−1) (dans R3).

En effet

(−1, 2, 2) est combinaison linéaire des vecteurs (1, 1, 0), (−2, 1, 3) et (1, 0,−1)

⇐⇒ ∃ x, y, z ∈ R/ (−1, 2, 2) = x(1, 1, 0) + y(−2, 1, 3) + z(1, 0,−1)

⇐⇒ ∃ x, y, z ∈ R/

x − 2y + z = −1x + y = 2

3y − z = 2

⇐⇒ Le système

x − 2y + z = −1x + y = 2

3y − z = 2d’inconnue (x, y, z) ∈ R

3 possède une solution.

4

Page 5: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Résolvons donc ce système. Pour tout (x, y, z) ∈ R3 :

x − 2y + z = −1x + y = 2

3y − z = 2⇐⇒

x − 2y + z = −13y − z = 3 L2 ← L2 − L1

3y − z = 2

⇐⇒

x − 2y + z = −13y − z = 3

0 = 1 L3 ← L2 − L3.

Ce dernier système n’ayant pas de solution, on en déduit le résultat annoncé.

Exemple Soit N. Tout polynôme de Kn[X], i.e. de degré inférieur ou égal à n, est combinaison linéaire des polynômes

1, X, X2, . . . , Xn puisqu’il peut être écrit sous la forme d’une sommen∑

k=0

akXk, où a0, a1, . . . , an ∈ K.

3 Sous-espaces vectoriels

3.1 Définition

Définition (Sous-espace vectoriel) Soient E un espace vectoriel et F une partie de E. On dit que F est un sous-K-espace

vectoriel de E, ou plus simplement un sous-espace vectoriel de E si :

• F est stable par addition : ∀x, y ∈ F, x + y ∈ F ;

• F est stable par multiplication par un scalaire : ∀λ ∈ K, ∀x ∈ F, λ · x ∈ F ;

• F est un K-espace vectoriel pour les lois de E.

Remarque Tout sous-espace vectoriel F de E contient le vecteur nul 0E et 0F = 0E .

En effet En tant qu’espace vectoriel, F est en particulier un sous-groupe de E pour l’addition. Le résultat endécoule, comme nous l’avons vu quand nous avons étudié la structure de groupe.

Exemple Si E est un K-espace vectoriel,{0E

}et E sont deux sous-espaces vectoriels de E.

Théorème (Caractérisation des sous-espaces vectoriels) Soient E un espace vectoriel et F une partie de E. Alors Fest un sous-espace vectoriel de E si et seulement si :

• 0E ∈ F ;

• F est stable par combinaison linéaire : ∀λ,µ ∈ K, ∀x, y ∈ F, λ · x + µ · y ∈ F ;

ou bien, au choix, si et seulement si :

• 0E ∈ F ;

• F est stable par addition : ∀x, y ∈ F, x + y ∈ F ;

• F est stable par multiplication par un scalaire : ∀λ ∈ K, ∀x ∈ F, λ · x ∈ F .

Démonstration A vous de jouer. Le parfum de ce résultat doit vous être familier si vous avez bien étudié notreprécédent chapitre sur les structures de groupe, d’anneau et de corps. �� � � En pratique

• C’est toujours le résultat précédent qu’il faut utiliser pour montrer qu’une partie d’un espace vectoriel en est unsous-espace vectoriel.

• Dans les exercices, on demande souvent de montrer qu’un certain ensemble F muni de certaines lois est un espace vectoriel.Or la plupart du temps, cet ensemble F n’est qu’une partie d’un espace vectoriel E plus gros, avec les mêmes lois. Dansce cas, pour montrer que F est un espace vectoriel, on n’a pas à démontrer l’associativité, et cetera ; on se contente demontrer que F est un sous-espace vectoriel de E — un espace vectoriel a fortiori.

5

Page 6: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

3.2 Exemples et contre-exemples

Exemple Soient a, b, c ∈ R tels que (a, b) 6= (0, 0). Notons D l’ensemble{

(x, y) ∈ R2/ ax + by + c = 0

}

.

• Si c 6= 0, alors D n’est pas un sous-espace vectoriel de R2 car il ne contient pas le vecteur nul (0, 0).

• Si au contraire c = 0, D est un sous-espace vectoriel de R2, en l’occurence la droite d’équation ax + by + c = 0.

En effet Nous pouvons supposer c nul. Pour commencer, D est une partie de R2.

• Il est clair que (0, 0) ∈ D.

• Montrons que D est stable par combinaison linéaire. Soient λ et λ′ deux réels et (x, y), (x′, y′) ∈ D. Nousdevons montrer que λ(x, y) + λ′(x′, y′), égal à (λx + λ′x′, λy + λ′y′) par définition, est un élément de D.

a(λx + λ′x′) + b(λy + λ′y′) = λ(ax + by) + λ′(ax′ + by′) = λ.0 + λ′.0 = 0. Déjà fini.

Exemple Soient a, b, c, d ∈ R tels que (a, b, c) 6= (0, 0, 0). Notons P l’ensemble{

(x, y, z) ∈ R3/ ax + by + cz + d = 0

}

.

• Si d 6= 0, alors P n’est pas un sous-espace vectoriel de R3 car il ne contient pas le vecteur nul (0, 0, 0).

• Si au contraire d = 0, P est un sous-espace vectoriel de R3, en l’occurence le plan d’équation ax + by + cz = 0.

En effet Imiter la preuve précédente.

Exemple L’ensemble F ={

(x, y) ∈ R2/ x2 + x + y2 = 0

}

n’est pas un sous-espace vectoriel de R2 car (−1, 0) ∈ F , mais

par exemple (−2, 0) = 2(−1, 0) /∈ F .

Exemple Pour tout n ∈ N, l’ensemble Kn[X] des polynômes à coefficients dans K de degré inférieur ou égal à n est unsous-espace vectoriel de K[X].

En effet Soit n ∈ N. Pour commencer, Kn[X] est une partie de K[X].

• Kn[X] contient le polynôme nul, de degré −∞ donc inférieur ou égal à n.

• Montrons que Kn[X] est stable par combinaison linéaire. Soient P, Q ∈ Kn[X] et λ, µ ∈ K. Nous savons alors

que ∂̊ (λP + µQ) 6 max{

∂̊ P, ∂̊ Q}

6 n, et donc λP + µQ ∈ Kn[X] comme voulu.$ $ $ Attention ! Soit n ∈ N. L’ensemble des polynômes de degré égal à n n’est pas un sous-espace vectoriel de K[X]— erreur classique. C’est très clair, car cet ensemble ne contient même pas le polynôme nul, de degré −∞.

Exemple A vous de jouer !

• Soient k ∈ N et I un intervalle. L’ensemble Ck(I, K) est un K-espace vectoriel, sous-espace vectoriel du K-espace vectorielK

I des applications de I dans K.

• L’ensemble des suites convergentes à coefficients dans K est un sous-espace vectoriel du K-espace vectoriel KN des suites à

coefficients dans K.

3.3 Intersection de sous-espaces vectoriels

Théorème (Intersection de sous-espaces vectoriels) Soit E un K-espace vectoriel. Toute intersection de sous-espacesvectoriels de E est un sous-espace vectoriel de E.

Démonstration Soit{Fi

}

i∈Iun ensemble de sous-espaces vectoriels de E indexé par un ensemble I . Nous

devons montrer que F =⋂

i∈I

Fi est un sous-espace vectoriel de E.

• Montrons que 0E ∈ F . Or 0E ∈ Fi pour tout i ∈ I puisque Fi est un sous-espace vectoriel de E. Parconséquent 0E ∈ F .

• Montrons que F est stable par combinaison linéaire. Soient x, y ∈ F et λ, µ ∈ K. Alors pour tout i ∈ I ,λx+µy ∈ Fi car x, y ∈ Fi et car on sait que Fi est un sous-espace vectoriel de E. Par conséquent λx+µy ∈ Fcomme voulu. �$ $ $ Attention ! La réunion de deux sous-espaces vectoriels n’est pas un sous-espace vectoriel en général. Par exemple,

la droite D d’équation y = x et la droite D′ d’équation y = −x sont deux sous-espaces vectoriels de R2. Mais leur réunion D∪D′

n’en est pas un ; en effet, (1, 1) ∈ D ⊆ D ∪D′ et (1,−1) ∈ D′ ⊆ D ∪D′, mais (1, 1) + (1,−1) = (2, 0) /∈ D ∪D′.

6

Page 7: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

4 Applications linéaires

4.1 Définition

Définition (Application linéaire) Soient E et F deux K-espaces vectoriels.

• On appelle application linéaire de E dans F toute application f : E −→ F telle que :

1) ∀x, y ∈ E, f(x + y) = f(x) + f(y) ;

2) ∀λ ∈ K, f(λx) = λf(x).

Cette définition équivaut à la suivante, plus pratique : ∀x, y ∈ E, ∀λ,µ ∈ K, f(λx + µy) = λf(x) + µf(y).

L’ensemble des applications linéaires de E dans F est noté L(E,F ).

• Une application linéaire de E dans E est aussi appelée un endomorphisme (linéaire) de E.

L’ensemble des endomorphismes (linéaires) de E est noté L(E).

• Une application linéaire de E dans K est aussi appelée une forme linéaire de E.� � � Explication Une application linéaire n’est rien d’autre qu’un « morphisme d’espaces vectoriels », à ceci près qu’onn’emploie jamais cette expression — bref, une application qui conserve les combinaisons linéaires.

Remarque

• Si f est linéaire de E dans F , alors en particulier f est un morphisme de groupes de E dans F et donc f(0E) = 0F .

• Si f est linéaire de E dans F et si A est un sous-espace vectoriel de E, alors la restriction f|A de f à A est linéaire de Adans F . En effet, si les relations « f(x + y) = f(x) + f(y) » et « f(λx) = λf(x) » sont vraies pour x, y ∈ E, elles le sont afortiori pour x, y ∈ A.

4.2 Exemples et contre-exemples

Théorème (Homothétie) Soit E un K-espace vectoriel.

• Soit λ ∈ K. On appelle homothétie de E de rapport λ l’application

{E −→ Ex 7−→ λx

.

• Toute homothétie de E est un endomorphisme de E — en particulier l’application identité IdE.

Démonstration Soit λ ∈ K. Notons hλ l’homothétie de E de rapport λ. Soient x, y ∈ E et α, β ∈ K. On a :

hλ(αx+βy) = λ(αx+βy) = α(λx)+β(λy) = αhλ(x)+βhλ(y), ce qui montre bien que hλ est linéaire. �

Exemple L’application f : R2 −→ R

3 définie par : ∀(x, y) ∈ R2, f(x, y) = (x, x + y, 2y) est linéaire.

En effet Soient (x, y), (x′, y′) ∈ R2 et λ, λ′ ∈ R.

f(

λ(x, y) + λ′(x′, y′))

= f(λx + λ′x′, λy + λ′y′) =(

λx + λ′x′, (λx + λ′x′) + (λy + λ′y′), 2λy + 2λ′y′)

= λ(x, x + y, 2y) + λ′(x′, x′ + y′, 2y′) = λf(x, y) + λ′f(x′, y′).

Exemple L’application T : K[X] −→ K[X] définie par : ∀P ∈ K[X], T (P ) = XP ′ + P (0) est linéaire.

En effet Soient P, Q ∈ K[X] et λ, µ ∈ K.

T (λP + µQ) = X(λP + µQ)′ + (λP + µQ)(0) = λ(XP ′ + P (0)

)+ µ

(XQ′ + Q(0)

).

Exemple Soit I un intervalle de R. L’application de C1(I,K) qui à une fonction associe sa dérivée est linéaire.

En effet Eh oui, la dérivée d’une somme est égale à la somme des dérivées ; même chose pour la multiplicationpar un scalaire.

7

Page 8: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Exemple Notons E l’espace vectoriel des suites réelles convergentes. L’application de E dans R qui à une suite convergenteassocie sa limite est une forme linéaire de E.

En effet C’est évident car nous savons que la limite d’une somme est égale à la somme des limites ; même chosepour la multiplication par un scalaire.

Exemple

• L’application ϕ :

{R

2 −→ R

(x, y) 7−→ x + y + 1n’est pas linéaire car ϕ(0, 0) = 1 6= 0.

• L’application σ :

{R

2 −→ R

(x, y) 7−→ x2 + y2 n’est pas linéaire car σ((1, 1)+ (0, 1)

)= σ(1, 2) = 5 6= 2+1 = σ(1, 1)+σ(0, 1).

4.3 Opérations sur les applications linéaires

Théorème (Opérations sur les applications linéaires)

(i) Soient E et F deux K-espaces vectoriels. Alors L(E, F ) est un sous-espace vectoriel de F E , donc un K-espace vectoriel.

(ii) Soient E, F et G trois K-espaces vectoriels et f : E −→ F et g : F −→ G deux applications linéaires. Alors g ◦ f estlinéaire de E dans G.

(iii) Soient E, F et G trois K-espaces vectoriels et f, f ′ ∈ L(E, F ) et g, g′ ∈ L(F, G). Alors :

g ◦(f + f ′

)=(g ◦ f

)+(g ◦ f ′

)et

(g + g′

)◦ f =

(g ◦ f

)+(g′ ◦ f

).

(iv) Soit E un K-espace vectoriel. Alors(L(E),+, ◦

)est un anneau, non commutatif en général, avec 1L(E) = IdE.

(v) Deux formules à connaître : Soient E un K-espace vectoriel, f, g ∈ L(E) et n ∈ N. On suppose que f et g

commutent. Alors : (f + g)n =n∑

k=0

(

n

k

)

fk ◦ gn−k (formule du binôme de Newton)

et fn− gn = (f − g) ◦n−1∑

k=0

fk ◦ gn−k−1 (attention, les puissances désignent des compositions).� � � Explication En apparence compliquée, l’assertion (i), qui affirme que L(E,F ) est un sous-espace vectoriel deF E , signifie seulement que la somme de deux applications linéaires est linéaire et que la multiplication par un scalaire d’uneapplication linéaire est encore linéaire.$ $$ Attention ! Dans la formule du binôme de Newton, il est essentiel que f et g commutent. Pour bien le comprendre,reprenons nos chères identités remarquables ; pour tous a, b ∈ C : (a + b)2 = (a + b)(a + b) = a2 + ab + ba + b2 = a2 + 2ab + b2.C’est clair, non ? On a besoin de savoir que ab = ba !

Démonstration

(i) Bien sûr L(E,F ) est une partie de F E, et l’application nulle x 7−→ 0F de E dans F est linéaire.Soient alors f, g ∈ L(E, F ) et λ, µ ∈ K. Nous devons montrer que λf + µg ∈ L(E,F ), i.e. que λf + µg estlinéaire. Pour cela donnons-nous x, y ∈ E et α, β ∈ K.

(λf + µg

)(αx + βy) = λf(αx + βy) + µg(αx + βy) = λ

(αf(x) + βf(y)

)+ µ

(αg(x) + βg(y)

)

= λαf(x) + λβf(y) + µαg(x) + µβg(y)

= α(λf(x) + µg(x)

)+ β

(λf(y) + µg(y)

)= α

(λf + µg

)(x) + µ

(λf + µg

)(y).

(ii) Montrons que g ◦ f est linéaire de E dans G. Soient x, y ∈ E et λ, µ ∈ K.(g ◦ f

)(λx + µy) = g

(f(λx + µy)

)= g

(λf(x) + µf(y)

)= λg

(f(x)

)+ µg

(f(y)

)= λ

(g ◦ f

)(x) + µ

(g ◦ f

)(y).

(iii) Débrouillez-vous.

(iv) Montrons que(L(E),+, ◦

)est un anneau. En tout cas, l’assertion (i) montre en particulier que

(L(E), +

)

est un groupe commutatif. On sait par ailleurs que la composition est une loi de composition interne surL(E) via (ii), qu’elle est associative, que IdE ∈ L(E) en est l’élément neutre, et enfin que la composition estdistributive sur l’addition via (iii).

(v) Ces deux formules se démontrent ici exactement comme elles se démontrent dans C. �

8

Page 9: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Exemple Les applications S :

{K[X] −→ K[X]

P 7−→ P ′ et T :

{K[X] −→ K[X]

P 7−→ XPsont deux endomorphismes de K[X],

mais elles ne commutent pas. Ceci montre bien qu’en général l’anneau L(K[X]

)n’est pas commutatif.

En effet S et T ne commutent pas car par exemple, S ◦ T (X) =(X2)′

= 2X et T ◦ S(X) = X(X ′) = X.

4.4 Noyau et image d’une application linéaire

Théorème (Images directe et réciproque d’un sous-espace vectoriel par une application linéaire) Soient E et Fdeux K-espaces vectoriels, f une application linéaire de E dans F , A un sous-espace vectoriel de E et B un sous-espace vectorielde F .

(i) L’image (directe) f(A) de A par f est un sous-espace vectoriel de F .

(ii) L’image réciproque f−1(B) de B par f est un sous-espace vectoriel de E.

Démonstration

(i) Montrons que f(A) est un sous-espace vectoriel de F . Déjà, on a bien l’inclusion f(A) ⊆ F et de plus0F = f(0E) ∈ f(A).Soient alors y, y′ ∈ f(A) et λ, λ′ ∈ K. Nous devons montrer que λy + λ′y′ ∈ f(A). Or puisque y, y′ ∈ f(A),il existe a, a′ ∈ A tels que y = f(a) et y′ = f(a′). Dans ces conditions, posons t = λa + λ′a′ ; alors t ∈ A carA est un sous-espace vectoriel de E. La linéarité de f donne finalement :

f(t) = f(λa + λ′a′) = λf(a) + λ′f(a′) = λy + λ′y′,

ce qui montre comme voulu que λy + λy′ a un antécédent par f dans A, i.e. appartient à f(A).

(ii) Montrons que f−1(B) est un sous-espace vectoriel de E. Déjà, on a bien une inclusion f−1(B) ⊆ E et deplus 0E ∈ f−1(B) car f(0E) = 0F .Soient alors x, x′ ∈ f−1(B) et λ, λ′ ∈ K. Nous devons montrer que λx + λ′x′ ∈ f−1(B). Utilisons pour celala linéarité de f : f(λx + λ′x′) = λf(x) + λ′f(x′). Or par définition de x et x′, f(x) ∈ B et f(x′) ∈ B etB est un sous-espace vectoriel de E. Comme voulu, f(λx + µy) ∈ B. Et voilà. �

Définition (Noyau et image d’une application linéaire) Soient E et F deux K-espaces vectoriels et f une applicationlinéaire de E dans F .

(i) On appelle noyau de f , noté Ker f , l’ensemble f−1({

0F

})

={

x ∈ E/ f(x) = 0F

}

.

Le noyau Ker f de f est un sous-espace vectoriel de E sur lequel on peut lire l’injectivité de f :

f est injective sur E ⇐⇒ Ker f ={0E

}.

(ii) On appelle image de f , noté Im f , l’ensemble f(E) ={

y ∈ F/ ∃ x ∈ E/ y = f(x)}

={

f(x)}

x∈E.

L’image Im f de f est un sous-espace vectoriel de F sur lequel on peut lire la surjectivité de f :

f est surjective de E sur F ⇐⇒ Im f = F.� � � Explication Nous retrouvons ici le concept d’image que nous avons étudié dans le chapitre sur les applications ;quant au noyau de f , il n’est jamais que le noyau de f en tant que f est un morphisme de groupes de (E, +) dans (F, +).

Démonstration Il suffit d’appliquer le résultat précédent, car Ker f = f−1({

0F

})

et Im f = f(E), où{0F

}

et E sont deux sous-espaces vetoriels de F et E respectivement.

Le lien entre l’image et la surjectivité a été démontré de la façon la plus générale dans le chapitre sur les applications.

Le lien entre le noyau et l’injectivité a déjà été démontré dans le cas des morphismes de groupes. Comme uneapplication linéaire est un morphisme de groupes, nous n’avons donc rien à ajouter. �� � � En pratique La recherche du noyau et de l’image d’une application linéaire se ramène toujours à la résolution

d’un système linéaire, même si cela n’apparaît pas toujours clairement. Méditez soigneusement les exemples suivants.

Exemple Soit f l’application

{R

3 −→ R2

(x, y, z) 7−→ (2x + y − z, x− y).

Alors f est linéaire et Ker f est la droite passant par (0, 0, 0) dirigée par le vecteur (1, 1, 3).

9

Page 10: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

En effet Vous démontrerez seuls la linéarité de f . Déterminons seulement Ker f . Pour tout (x, y, z) ∈ R3 :

(x, y, z) ∈ Ker f ⇐⇒ f(x, y, z) = (0, 0) ⇐⇒

{2x + y − z = 0x − y = 0

⇐⇒

{y = xz = 3x

⇐⇒ ∃ t ∈ R/

x = ty = tz = 3t

comme voulu.

Exemple Soit g l’application

{R

3 −→ R3

(x, y, z) 7−→ (x + 2y + z, 2x + y − z, x + 2y + z).

Alors g est linéaire et Im g est le plan d’équation z = x.

En effet Vous démontrerez seuls la linéarité de g. Déterminons seulement Im g. Pour tout (x, y, z) ∈ R3 :

(x, y, z) ∈ Im g ⇐⇒ ∃ (a, b, c) ∈ R3/ (x, y, z) = f(a, b, c) ⇐⇒ ∃ (a, b, c) ∈ R

3/

a + 2b + c = x2a + b − c = ya + 2b + c = z

⇐⇒ ∃ (a, b, c) ∈ R3/

a + 2b + c = x3b + 3c = 2x− y L2 ← 2L1 − L2

0 = z − x L3 ← L3 − L1

⇐⇒ z = x.

La dernière équivalence peut sembler magique mais elle ne l’est pas : le système

a + 2b + c = x3b + 3c = 2x− y

0 = z − x

d’inconnue (a, b, c) ∈ R3 possède une solution si et seulement si z = x ; en effet, dans ce cas, pour trouver une

solution, on peut donner n’importe quelle valeur à c, en déduire la valeur de b grâce à la deuxième équation, etcelle de a enfin grâce à la première.

Exemple La dérivation D des polynômes sur K[X] est un endomorphisme surjectif de K[X] de noyau K0[X].

En effet La linéarité de D est bien connue.

• Déterminons Ker D. Pour tout P =∞∑

k=0

akXk ∈ K[X] :

P ∈ Ker D ⇐⇒ P ′ = 0 ⇐⇒

∞∑

k=1

kakXk−1 = 0 ⇐⇒ ∀k ∈ N×, kak = 0

⇐⇒ ∀k ∈ N×, ak = 0 ⇐⇒ P ∈ K0[X]. Ainsi Ker D = K0[X].

• Déterminons Im D. La question naturelle à poser est la suivante : quels polynômes savons-nous primitiver

dans K[X] ? Réponse : tous. En effet, si P =

∞∑

k=0

akXk ∈ K[X], alors

∞∑

k=0

ak

k + 1Xk+1 a pour dérivée P , i.e.

est un antécédent de P par D.Conclusion : Im D = K[X], ce qui signifie exactement que D est surjectif de K[X] sur lui-même.

Exemple Soit S l’application

{R

R −→ RR

f 7−→ f × sin. Alors S n’est pas injective, mais mais S∣∣C(R,R)

l’est.

En effet

• Déterminons Ker S. Pour tout f ∈ RR :

f ∈ Ker S ⇐⇒ f × sin = 0 ⇐⇒ ∀x ∈ R, f(x) sin x = 0 ⇐⇒ ∀x ∈ R r πZ, f(x) = 0.

Ainsi Ker S est l’ensemble des applications de R dans R nulles partout sauf éventuellement sur πZ. Enparticulier Ker S n’est pas réduit à la fonction nulle, car par exemple la fonction nulle sur R

×, de valeur 1en 0, appartient à Ker S. Cela montre bien que S n’est pas injective.

• Déterminons Ker S∣∣C(R,R): Ker S∣∣C(R,R)

={

f ∈ C(R,R)/ S(f) = 0}

= C(R, R) ∩Ker S.

Or Ker S est l’ensemble des applications de R dans R nulles partout sauf éventuellement sur πZ et il n’existequ’une seule fonction continue sur R dans Ker S : l’application nulle.Conclusion : Ker S∣∣C(R,R)

={0}, et donc S∣∣C(R,R)

est injective.

10

Page 11: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

4.5 Isomorphismes (linéaires)

Définition (Isomorphisme (linéaire)) Soient E et F deux K-espaces vectoriels.

• On appelle isomorphisme (linéaire) de E sur F toute application linéaire bijective de E sur F .

• Un isomorphisme de E sur E est aussi appelé un automorphisme (linéaire) de E.L’ensemble des automorphismes de E est noté GL(E) et appelé le groupe linéaire de E.

• On dit que E est isomorphe (comme K-espace vectoriel) à F s’il existe un isomorphisme linéaire de E sur F .� � � Explication Le fait que deux espaces vectoriels soient isomorphes signifie intuitivement que ces deux espaces sont« identiques » d’un strict point de vue vectoriel. Un isomorphisme est alors comme un dictionnaire parfait pour passer de l’unde ces espaces à l’autre. Toute propriété vectorielle de l’un des espaces a son analogue dans l’autre espace.� � � En pratique Montrer qu’une application linéaire f : E −→ F est un isomorphisme revient à montrer qu’elle estbijective de E sur F . Deux grandes techniques peuvent ici mener à un tel résultat :

1) on montre que Ker f ={0E

}(injectivité) et que Im f = F (surjectivité) ;

2) on a une idée de la tête qu’a f−1 ; on appelle g la réciproque ainsi prévue de f et on vérifie que g ◦ f = IdE

et que f ◦ g = IdF ;3) une autre technique à base de systèmes linéaires sera étudiée un peu plus loin, qui consiste à inverser la

relation « y = f(x) » en une relation « x = g(y) », où g s’avère alors être la réciproque de f .$ $ $ Attention ! Si E est isomorphe à F , il est faux que toute application linéaire de E dans F est un isomorphisme.Il est seulement vrai qu’il existe un isomorphisme de E sur F . En effet, par exemple, l’application nulle est linéaire de E dansF mais n’est pas un isomorphisme.

Exemple

• Toute homothétie de E de rapport λ ∈ K× = K r {0} est un automorphisme d’inverse l’homothétie de E de rapport

1

λ.

• La dérivation des polynômes n’est pas un automorphisme de K[X] car son noyau, nous l’avons vu, est K0[X], distinct dusingleton

{0K[X]

}.

Théorème (Propriétés des isomorphismes) Soient E, F et G trois K-espaces vectoriels.

(i) Si f est un isomorphisme de E sur F , alors f−1 est un isomorphisme de F sur E.

(ii) Si f est un isomorphisme de E sur F et g un isomorphisme de F sur G, g ◦ f est un isomorphisme de E sur G.

(iii)(GL(E), ◦

)est un groupe, précisément le groupe des éléments inversibles de l’anneau

(L(E), +, ◦

).

Ce groupe n’est pas commutatif en général car nous avons déjà vu que l’anneau(L(E),+, ◦

)peut ne pas l’être.

Démonstration

(i) Bien sûr, f−1 est bijective de F sur E. Il ne nous reste qu’à montrer que f−1 est linéaire.Soient y, y′ ∈ F et λ, λ′ ∈ K. Notons x = f−1(y) et x′ = f−1(y′).

f−1(λy + λ′y′) = f−1(λf(x) + λ′f(x′))

= f−1(f(λx + λ′x′)) f−1◦f=IdE= λx + λ′x′ = λf−1(y) + λ′f−1(y′).

(ii) Facile car la composée de deux applications bijectives (resp. linéaires) est bijective (resp. linéaire).

(iii) La composition est une loi de composition interne sur GL(E) via (ii). On sait par ailleurs qu’elle estassociative, possède un élément neutre en la personne de IdE et que tout élément de GL(E) est inversiblepour la composition via (i). Tout est là. �

Corollaire (Propriétés de la relation d’isomorphisme) La relation d’isomorphisme entre espaces vectoriels est réflexive,transitive et symétrique.

Démonstration Elle est réflexive car pour tout K-espace vectoriel E, IdE est un isomorphisme de E sur E ;transitive en vertu de l’assertion (ii) du théorème précédent ; symétrique en vertu de son assertion (i). �

11

Page 12: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Exemple Soit n ∈ N. Alors Kn[X] et Kn+1 sont isomorphes.

En effet Soit φ l’application

Kn+1 −→ Kn[X]

(ak)06k6n 7−→n∑

k=0

akXk . Les trois points suivants montrent que φ est un

isomorphisme de Kn+1 sur Kn[X].

• Vous vérifierez seuls la linéarité de φ.

• Un polynôme est nul si et seulement si ses coefficients le sont tous. Par conséquent Ker φ ={0Kn+1

}, et

donc φ est injective.

• Tout polynôme de degré inférieur ou égal à n peut être écrit sous la forme

n∑

k=0

akXk où a0, a1, . . . , an ∈ K.

Par conséquent φ est surjective.��� En pratique La technique de l’exemple suivant est simple et très utile : elle démontre la bijectivité en même tempsqu’elle permet le calcul de la réciproque. Indispensable.

Exemple L’application f :

{R

2 7−→ R2

(x, y) 7−→ (x + 2y, y − x)est un automorphisme de R

2 de réciproque l’application

R2 7−→ R

2

(x, y) 7−→

(x− 2y

3,x + y

3

).

En effet Vous montrerez seuls la linéarité de f . Déterminer la réciproque f−1 de f , c’est inverser la relation« Y = f(X) » en une relation de la forme « X = g(Y ) » ; on a alors f−1 = g. Pour tous (x, y), (a, b) ∈ R

2 :

f(x, y) = (a, b) ⇐⇒

{x + 2y = a−x + y = b

⇐⇒

{x + 2y = a

y =a + b

3L2 ←

1

3L1 +

1

3L2

⇐⇒

x =a− 2b

3

y =a + b

3

.

Ce système nous apprend que tout élément — ici (a, b) — de R2 possède un et une seul antécédent — ici (x, y)—

par f . Le système linéaire étudié possède en effet une et une seule solution. On en déduit la bijectivité de f ainsique l’expression de f−1.

5 Familles de vecteurs

5.1 Sous-espace vectoriel engendré par une famille de vecteurs

Définition (Sous-espace vectoriel engendré par une famille de vecteurs) Soient E un K-espace vectoriel etx1, x2, . . . , xn ∈ E.

• On note Vect(x1, x2, . . . , xn) l’ensemble des combinaisons linéaires de x1, x2, . . . , xn ; les éléments deVect(x1, x2, . . . , xn) sont donc tous les vecteurs de E de la forme λ1x1 + λ2x2 + . . . + λnxn, où λ1, λ2, . . . , λn ∈ K.

• Alors Vect(x1, x2, . . . , xn) est un sous-espace vectoriel de E appelé le sous-espace vectoriel (de E) engendré par

x1, x2, . . . , xn.

• Vect(x1, x2, . . . , xn) est le plus petit sous-espace vectoriel de E contenant x1, x2, . . . , xn ; en d’autres termes, toutsous-espace vectoriel de E contenant x1, x2, . . . , xn contient aussi Vect(x1, x2, . . . , xn).

12

Page 13: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI� � � Explication La notion de sous-espace vectoriel engendré a une interprétation géométrique simple. Pour le voir,travaillons par exemple dans l’espace à trois dimensions rapporté à R

3 via le choix d’un repère orthonormal direct (O,~ı,~,~k).

b

O

~

~k ~u

↖Vect(~u)

Sous-espace vectoriel engendrépar un vecteur non nul ~u.

b

O

~

~k~u

~v

Vect(~u,~v)

Sous-espace vectoriel engendrépar deux vecteurs non nuls colinéaires ~u et ~v.

Vect(~u,~v)

bO~ı ~

~k

~u

~v

Sous-espace vectoriel engendrépar deux vecteurs non colinéaires ~u et ~v.

Démonstration

• Montrons que Vect(x1, x2, . . . , xn) est un sous-espace vectoriel de E. Pour commencer, Vect(x1, x2, . . . , xn)contient 0E car 0E = 0 · x1 + 0 · x2 + . . . + 0 · xn.Soient u, v ∈ Vect(x1, x2, . . . , xn) et λ, µ ∈ K. Alors u et v s’écrivent :

u = λ1x1 + λ2x2 + . . . + λnxn et v = µ1x1 + µ2x2 + . . . + µnxn,

où λ1, λ2, . . . , λn, µ1, µ2, . . . , µn ∈ K. Il est donc clair que :

λu + µv = (λλ1 + µµ1)x1 + (λλ2 + µµ2)x2 + . . . + (λλn + µµn)xn

est une combinaison linéaire d’éléments de x1, x2, . . . , xn, i.e. un élément de Vect(x1, x2, . . . , xn).

• Montrons que Vect(x1, x2, . . . , xn) est le plus petit sous-espace vectoriel de E contenant x1, x2, . . . , xn.Soit donc F un sous-espace vectoriel de E contenant x1, x2, . . . , xn. Nous devons montrer que F contientVect(x1, x2, . . . , xn). Or c’est bien évidemment le cas puisque F est stable par combinaison linéaire en tantque sous-espace vectoriel de E. �

Exemple Soit (a, b) ∈ R2 non nul. Dans R

2, Vect

(

(a, b))

est la droite passant par (0, 0) dirigée par (a, b).

Exemple Pour tout n ∈ N : Vect(1, X, X2, . . . , Xn) =

{n∑

k=0

akXk

}

a0,a1,...,an∈K

= Kn[X].

Exemple Si le corps de base est R : Vect(1) = R et Vect(1, i) = C.Si par contre le corps de base est C : Vect(1) = C.

Théorème (Opérations sur les « Vect ») Soient E un K-espace vectoriel et x1, x2, . . . , xn ∈ E. Le sous-espace vectorielVect(x1, x2, . . . , xn) n’est pas modifié ;

(i) lorsqu’on permute x1, x2, . . . , xn ;

(ii) lorsqu’on retire tous les xk nuls, k ∈ J1, nK ;

(iii) lorsqu’à k ∈ J1, nK fixé, on remplace xk par une combinaison linéaire de x1, x2, . . . , xn, à condition toutefois d’affecterxk lui-même d’un coefficient non nul.

Démonstration Pour (i), utiliser la commutativité de + ; pour (ii), le fait que 0E est neutre.

Prouvons l’assertion (iii). Fixons donc λ1, λ2, . . . , λn ∈ K tels que λk 6= 0 et posons V = Vect(x1, x2, . . . , xn) et

V ′ = Vect

(

x1, x2, . . . , xk−1,n∑

i=1

λixi, xk+1, . . . , xn

)

.

13

Page 14: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

• Montrons que V ⊆ V ′. Commençons par remarquer que xk ∈ V ′ car, puisque λk 6= 0 :

xk = −λ1

λk

x1 −λ2

λk

x2 − . . .−λk−1

λk

xk−1 +1

λk

n∑

i=1

λixi −λk+1

λk

xk+1 − . . .−λn

λk

xn.

Or x1, x2, . . . , xk−1, xk+1, . . . , xn ∈ V ′ également, donc V ′ contient x1, x2, . . . , xn. Enfin V ′ contient V carV est le plus petit sous-espace vectoriel de E contenant ces vecteurs.

• Montrons que V ′ ⊆ V . Bien sûr, V contient x1, x2, . . . , xk−1,n∑

i=1

λixi, xk+1, . . . , xn. Par conséquent V

contient V ′ car V ′ est le plus petit sous-espace vectoriel de E contenant ces vecteurs. �

Théorème (Sous-espace vectoriel engendré par une famille de polynômes de degrés échelonnés) Soient n ∈ N et(Pi)06i6n une famille de polynômes de K[X] telle que ∂̊ Pi = i pour tout i ∈ J0, nK.Alors : Vect(P0, P1, . . . , Pn) = Kn[X]. Ce résultat signifie que tout polynôme de degré inférieur ou égal à n est combinaisonlinéaire de P0, P1, . . . , Pn.

Démonstration Montrons par récurrence que Vect(P0, P1, . . . , Pn) = Vect(1, X, . . . , Xk, Pk+1, Pk+2, . . . , Pn)pour tout k ∈ J0, nK. Pour k = n, ceci est le résultat voulu car Kn[X] = Vect(1, X, X2, . . . , Xn).

• Initialisation : P0 est de degré 0, donc constant non nul. Comme l’affirme le théorème sur les opérations surles « Vect », nous pouvons donc remplacer P0 par le polynôme constant égal à 1 dans Vect(P0, P1, . . . , Pn),de sorte que Vect(P0, P1, . . . , Pn) = Vect(1, P1, P2, . . . , Pn).

• Hérédité : Soit k ∈ J0, n − 1K tel que Vect(P0, P1, . . . , Pn) = Vect(1, X, . . . , Xk, Pk+1, Pk+2, . . . , Pn).

Introduisons les coefficients de Pk+1 : Pk+1 =

k+1∑

i=0

aiXi. Nous savons que ak+1 6= 0 car ∂̊ Pk+1 = k + 1.

Utilisons de nouveau le théorème sur les opérations sur les « Vect » :

Vect(P0, P1, . . . , Pn) = Vect(1, X, . . . , Xk, Pk+1, Pk+2, . . . , Pn) = Vect

(

1, X, . . . , Xk,1

ak+1Pk+1 −

k∑

i=0

ai

ak+1Xi, Pk+2, . . . , Pn

)

= Vect(1, X, . . . , Xk, Xk+1, Pk+2, . . . , Pn). �

5.2 Famille génératrice

Définition (Famille génératrice) Soient E un K-espace vectoriel et x1, x2, . . . , xn ∈ E. On dit que la famille (x1, x2, . . . , xn)est une famille génératrice de E ou qu’elle engendre E si tout élément de E est combinaison linéaire de x1, x2, . . . , xn, autrementdit si Vect(x1, x2, . . . , xn) = E.

Cela revient à dire que l’application linéaire

Kn −→ E

(λk)16k6n 7−→n∑

k=1

λkxkest surjective.

Bien sûr, on peut permuter les vecteurs d’une famille génératrice sans modifier le caratère générateur de cette famille.

Exemple

• Soit n ∈ N. La famille (1, X, X2, . . . , Xn) engendre le K-espace vectoriel Kn[X].

• La famille (1, i) est génératrice du R-espace vecoriel C, mais la famille (1) suffit à engendrer le C-espace vectoriel C.

Exemple Soit n ∈ N×. Posons e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, 0, . . . , 0), . . . , en = (0, 0, . . . , 1). Alors (ek)16l6n est une

famille génératrice du K-espace vectoriel Kn.

Pour n = 2, on retrouve l’idée que tout vecteur du plan est combinaison linéaire des vecteurs ~ı = (1, 0) et ~ = (0, 1) ; pour n = 3,

l’idée que tout vecteur de l’espace est combinaison linéaire des vecteurs ~ı = (1, 0, 0), ~ = (0, 1, 0) et ~k = (0, 0, 1).

En effet Soit (x1, x2, . . . , xn) ∈ Kn. Alors (x1, x2, . . . , xn) =

n∑

k=1

xkek. C’est le résultat voulu.

14

Page 15: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Théorème (Ajouter ou ôter des vecteurs à une famille génératrice)

(i) Toute sur-famille d’une famille génératrice est encore une famille génératrice.

(ii) Si on ôte d’une famille génératrice un vecteur combinaison linéaire des autres vecteurs de cette famille, alors la familleobtenue est encore génératrice.$ $ $ Attention ! On ne peut pas ôter sans condition un vecteur d’une famille génératrice si on souhaite en conserver le

caractère générateur ; bref, une sous-famille d’une famille génératrice n’est pas nécessairement génératrice. Par exemple, (1, X)est génératrice du K-espace vectoriel K1[X], mais pas (X) seulement — il manquerait les polynômes constants.

Démonstration

(i) Si un vecteur est combinaison linéaire d’une famille de vecteurs, il est bien sûr combinaison linéaire de toutesur-famille de cette famille de vecteurs — affecter un coefficient nul à chaque vecteur ajouté.

(ii) Soient E un K-espace vectoriel et (x1, x2, . . . , xn) une famille génératrice E. Si par exemple xn est combi-naison linéaire de x1, x2, . . . , xn−1, alors on peut écrire aussitôt, en vertu des opérations sur les Vect, queE = Vect(x1, x2, . . . , xn) = Vect(x1, x2, . . . , 0E) = Vect(x1, x2, . . . , xn−1) ; dans ce cas (x1, x2, . . . , xn−1)est une famille génératrice de E, comme voulu. �� � � En pratique La recherche d’une famille génératrice d’un espace vectoriel se ramène toujours à la résolution d’un

système linéaire, même si cela n’apparaît pas toujours clairement. Méditez soigneusement les exemples suivants.

Exemple Soit E le sous-espace vectoriel{

(x, y, z, t) ∈ R4/ x + 2y − 4z = 0 et x− y + t = 0

}

de R4.

Alors(

(4, 0, 1,−4), (0, 2, 1, 2))

est une famille génératrice de E.

En effet

• Pour tout (x, y, z, t) ∈ R4 :

(x, y, z, t) ∈ E ⇐⇒

{x + 2y − 4z = 0x − y + t = 0

⇐⇒

{

z =1

4x +

1

2y

t = −x + y.

On a choisi d’exprimer z et t en fonction de x et y car x et y apparaissent dans les deux équations. En tout

cas nos calculs montrent que les éléments de E sont tous les éléments de la forme(

x, y,x

4+

y

2,−x + y

)

, x et

y décrivant R, i.e. toutes les combinaisons linéaires de

(

1, 0,1

4,−1

)

et

(

0, 1,1

2, 1

)

, ou encore de (4, 0, 1,−4)

et (0, 2, 1, 2) comme voulu.

• A vrai dire, on aurait pu mener nos calculs de bien des façons. Par exemple comme ceci :

(x, y, z, t) ∈ E ⇐⇒

{x + 2y − 4z = 0x − y + t = 0

⇐⇒

{x + 2y − 4z = 0− 3y + 4z + t = 0 L2 ← L2 − L1

⇐⇒

{x = −2y + 4zt = 3y − 4z

.

On raisonnant comme ci-dessus, on a cette fois déniché la famille génératrice(

(−2, 1, 0, 3), (4, 0, 1,−4))

.

Exemple Soit F l’ensemble des polynômes P ∈ R3[X] tels que 2P (X + 1) = XP ′. Alors (X2 − 4X + 3) est une famillegénératrice de F .

En effet Pour tout polynôme P = aX3 + bX2 + cX + d ∈ R3[X] :

P ∈ F ⇐⇒ 2P (X + 1) = XP ′ ⇐⇒ 2a(X + 1)3 + 2b(X + 1)2 + 2c(X + 1) + 2d = X(3aX2 + 2bX + c)

⇐⇒

2a = 3a6a + 2b = 2b

6a + 4b + 2c = c2a + 2b + 2c + 2d = 0

⇐⇒

a = 04b + c = 0

b + c + d = 0⇐⇒

a = 0c = −4bd = 3b

.

Ces calculs montrent que les éléments de F sont tous les polynômes de la forme bX2 − 4bX + 3b, b décrivant R,i.e. toutes les combinaisons linéaires de l’unique vecteur X2 − 4X + 3.

15

Page 16: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

5.3 Famille libre, famille liée

Définition (Famille libre/liée) Soient E un K-espace vectoriel et x1, x2, . . . , xn ∈ E.

• On dit que la famille (x1, x2, . . . , xn) est libre ou que x1, x2, . . . , xn sont linéairement indépendants si :

∀(λ1, λ2, . . . , λn) ∈ Kn,

(n∑

k=1

λkxk = 0E =⇒ λ1 = λ2 = . . . = λn = 0

)

.

Cela revient à dire que l’application linéaire

Kn −→ E

(λk)16k6n 7−→

n∑

k=1

λkxkest injective.

Bien sûr, on peut permuter les vecteurs d’une famille libre sans modifier la liberté de cette famille.

• On dit que la famille (x1, x2, . . . , xn) est liée ou que x1, x2, . . . , xn sont linéairement dépendants si la famille(x1, x2, . . . , xn) n’est pas libre, ce qui revient à dire que l’un des vecteurs x1, x2, . . . , xn au moins est combinaison linéairedes autres.� � � Explication

• Notons ϕ l’application linéaire (λk)16k6n 7−→n∑

k=1

λkxk. La définition de la liberté de la famille (x1, x2, . . . , xn) se réécrit

aisément au moyen de ϕ : ∀Λ ∈ Kn,

(

ϕ(Λ) = 0E =⇒ Λ = 0Kn

)

. Cette proposition signifie exactement que

Ker ϕ ={0Kn

}, i.e. que ϕ est injective comme annoncé. Mais que signifie à son tour l’injectivité de ϕ ? Elle signifie que

lorsqu’on an∑

k=1

λkxk =n∑

k=1

µkxk, alors λk = µk pour tout k ∈ J1, nK. Ceci n’est autre qu’un principe d’identification.

Conclusion : dire que la famille (x1, x2, . . . , xn) est libre, c’est dire que les coefficients d’une combinaison linéaire dex1, x2, . . . , xn sont uniques. Alors que le caractère générateur de la famille (x1, x2, . . . , xn) exprimait l’existence pourtout vecteur d’une décomposition en combinaison linéaire de x1, x2, . . . , xn, la liberté de (x1, x2, . . . , xn) exprime à présentl’unicité de toute décomposition en combinaison linéaire de x1, x2, . . . , xn.

• Dire que (x1, x2, . . . , xn) est liée, c’est dire que cette famille n’est pas libre, c’est donc dire la chose suivante :

∃ (λ1, λ2, . . . , λn) ∈ Kn/

(n∑

k=1

λkxk = 0E et l’un des λk est non nul, k ∈ J1, nK

)

.

Soit donc i0 ∈ J1, nK tel que λi0 6= 0. Puisquen∑

k=1

λkxk = 0E , on a donc aussi xi0 = −1

λi0

16k6nk 6=i0

λkxk, ce qui montre bien

que xi0 est combinaison linéaire des autres vecteurs de (x1, x2, . . . , xn). La définition de la notion de famille liée est ainsirendue moins obscure.

Exemple Toute famille dont l’un des vecteurs est nul est liée.

En effet Le vecteur nul est combinaison linéaire de toute famille de vecteurs. Une famille qui contient le vecteurnul contient donc un vecteur combinaison linéaire des autres vecteurs, et donc est liée.

Définition (Vecteurs colinéaires) Soient E un K-espace vectoriel et x, y ∈ E. On dit que x et y sont colinéaires si la famille(x, y) est liée, i.e. si l’un de ces deux vecteurs est un multiple de l’autre.

Exemple La famille (1, i) est une famille libre du R-espace vectoriel C, mais elle est liée dans le C-espace vectoriel C.

En effet

• Montrons que (1, i) est libre sur le corps de base R. Soient λ, µ ∈ R tels que λ.1 + µ.i = 0. Alors λ = µ = 0comme voulu, par identification des parties réelle et imaginaire.

• Montrons que (1, i) est liée sur le corps de base C. Or i est un multiple complexe de 1 : i = i× 1.

Exemple La famille (sin, cos) du R-espace vectoriel RR est libre.

En effet Soient λ,µ ∈ R tels que λ sin +µ cos = 0, i.e. : ∀x ∈ R, λ sin x + µ cos x = 0. Alors en particulier

λ sin 0 + µ cos 0 = 0, i.e. µ = 0 ; et λ sinπ

2+ µ cos

π

2= 0, i.e. λ = 0, comme voulu.

16

Page 17: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI� � � En pratique La démonstration de la liberté d’une famille de vecteurs se ramène toujours à la résolution d’unsystème linéaire, même si cela n’apparaît pas toujours clairement. Méditez soigneusement les exemples suivants.

Exemple La famille(

(2, 1), (−1, 3), (0, 2))

est liée dans R2.

En effet Soient λ, µ, ν ∈ R.

λ(2, 1) + µ(−1, 3) + ν(0, 2) = (0, 0) ⇐⇒

{2λ − µ = 0λ + 3µ + 2ν = 0

.

Ce système possède des solutions (λ, µ, ν) autres que (0, 0, 0). Par exemple, posons λ = 1, puis µ = 2 et enfin

ν = −7

2; alors (λ, µ, ν) 6= (0, 0, 0) et pourtant λ(2, 1)+µ(−1, 3)+ν(0, 2) = (0, 0). La famille

(

(2, 1), (−1, 3), (0, 2))

est liée.

Exemple Soit n ∈ N×. Posons e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, 0, . . . , 0), . . . , en = (0, 0, . . . , 0, 1). Alors (ek)16k6n est une

famille libre du K-espace vectoriel Kn.

En effet Soient λ1, λ2, . . . , λn ∈ K. On suppose que

n∑

k=1

λkek = 0Kn . Alors (λ1, λ2, . . . , λn) = 0Kn , donc

λ1 = λ2 = . . . = λn = 0. C’est fini.

Le système linéaire caché dans cet exemple est le système linéaire trivial

λ1 = 0λ2 = 0

. . ....

λn = 0

.

Exemple Soit n ∈ N. La famille (1, X, X2, . . . , Xn) est une famille libre du K-espace vectoriel K[X].

En effet Résultat équivalent, bien connu : un polynôme est nul si et seulement si tous ses coefficients le sont.

Théorème (Ajouter ou ôter des vecteurs à une famille libre ou liée)

(i) Toute sur-famille d’une famille liée est liée.

(ii) Toute sous-famille d’une famille libre est libre.

(iii) Si on ajoute à une famille libre un vecteur non combinaison linéaire des vecteurs de cette famille, alors la familleobtenue est encore libre.$ $ $ Attention ! On ne peut pas ajouter sans condition un vecteur à une famille libre si on souhaite en conserver la

liberté ; bref, une sur-famille d’une famille libre n’est pas nécessairement libre. Par exemple, (1, X) est libre dans le K-espacevectoriel K1[X], mais pas (1, X, X + 1) car X + 1 est combinaison linéaire de 1 et X.

Démonstration

(i) Si une famille est liée, alors l’un de ses vecteurs est combinaison linéaire des autres. Quand on ajoutede nouveaux vecteurs à cette famille, ce fait ne s’en trouve pas modifié et donc la sur-famille obtenue esttoujours liée.

(ii) Soient E un K-espace vectoriel, (x1, x2, . . . , xn) une famille libre de E et p 6 n. Montrons que la famille(x1, x2, . . . , xp) est libre elle aussi.

Soient λ1, . . . , λp ∈ K tels que

p∑

k=1

λkxk = 0E . Alors λ1x1 + λ2x2 + . . . + λpxp + 0 · xp+1 + . . . + 0 · xn = 0E .

Or la famille (x1, x2, . . . , xn) est libre. Par conséquent λ1 = λ2 = . . . = λp = 0 comme voulu.

(iii) Soient E un K-espace vectoriel, (x1, x2, . . . , xn) une famille libre de E et xn+1 ∈ E non combinaisonlinéaire de x1, x2, . . . , xn. Montrons que (x1, x2, . . . , xn, xn+1) est libre elle aussi.

Soient λ1, λ2, . . . , λn+1 ∈ K tels que

n+1∑

k=1

λkxk = 0E . Si λn+1 était non nul, on aurait xn+1 = −1

λn+1

n∑

k=1

λkxk ;

le vecteur xn+1 serait alors combinaison linéaire de x1, x2, . . . , xn, ce qui est faux par hypothèse. Par consé-

quent λn+1 = 0. Du coup, on récupère l’égalité

n∑

k=1

λkxk = 0E . La liberté de (x1, x2, . . . , xn) montre aussitôt

que λ1 = λ2 = . . . = 0. Nous avons bien prouvé que λ1 = λ2 = . . . = λn+1 = 0. �

17

Page 18: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

5.4 Base

Définition (Base) Soient E un K-espace vectoriel et e1, e2, . . . , en ∈ E. On dit que la famille (e1, e2, . . . , en) est une base de

E si elle est à la fois libre et génératrice de E.

Cela revient à dire que l’application linéaire

Kn −→ E

(λk)16k6n 7−→

n∑

k=1

λkxkest un isomorphisme de K

n sur E, i.e. que :

∀x ∈ E, ∃ ! (λ1, λ2, . . . , λn) ∈ Kn/ x =

n∑

k=1

λkek.� � � Explication

• Nous savons que (x1, x2, . . . , xn) est génératrice de E (resp. libre) si et seulement si l’application (λk)16k6n 7−→n∑

k=1

λkxk

est surjective (resp. injective). Ceci explique la définition ci-dessus.

• Une base de E est donc une famille de vecteurs dont tout vecteur de E est combinaison linéaire, et ce d’une unique façon— existence et unicité. Il y a au moins deux exemples de bases que vous connaissez bien : celui des bases du plan etcelui des bases de l’espace. Nous avons appelé base du plan toute famille (~ı,~) telle que tout vecteur du plan puisse s’écrired’une unique façon sous la forme x ~ı + y ~, x, y ∈ R ; même idée dans l’espace.

Définition (Coordonnées dans une base) Soient E un K-espace vectoriel possédant une base (e1, e2, . . . , en) et x ∈ E.

On appelle coordonnées de x dans (e1, e2, . . . , en) l’unique famille (λ1, λ2, . . . , λn) ∈ Kn pour laquelle x =

n∑

k=1

λkek. Pour tout

k ∈ J1, nK, le scalaire λk est appelé la kème coordonnée de x dans (e1, e2, . . . , en).$$$ Attention ! Parce que l’ordre des coordonnées d’un vecteur compte, l’ordre dans lequel les vecteurs d’une base sontrangés compte. Si on permute les vecteurs d’une base, la famille obtenue est encore une base, mais il faut permuter de même lescoordonnées dans l’ancienne base pour obtenir les coordonnées dans la nouvelle. Par exemple, les coordonnées de ~ı sont (1, 0)dans (~ı,~) et (0, 1) dans (~,~ı).

La définition suivante est justifiée par les exemples étudiés dans les paragraphes précédents.

Définition (Bases canoniques de Kn et Kn[X])

• Soit n ∈ N×. Si on pose e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, 0, . . . , 0), . . . , en = (0, 0, . . . , 0, 1), alors (ek)16k6n est une

base de Kn appelée sa base canonique.

• Soit n ∈ N. Alors (1, X, X2, . . . , Xn) est une base de Kn[X] appelée sa base canonique.� � � Explication Que signifie donc ce mot « canonique » ? Ce qualificatif n’a pas une définition mathématique propre,il signifie « la plus naturelle ». De fait, les bases exhibées dans la définition précédente sont les plus naturelles, les plus simplesauxquelles on peut penser. Elles ont en effet une propriété intéressante qui les rend particulièrement facile d’emploi.

• Soit (x1, x2, . . . , xn) ∈ Kn. Puisque (x1, x2, . . . , xn) =

n∑

k=1

xkek (avec les notations précédentes), alors les coordonnées de

(x1, x2, . . . , xn) dans la base canonique de Kn sont. . . ce vecteur lui-même !

• Soit P =

n∑

k=0

akXk ∈ Kn[X]. Par définition de P , les coordonnées de P dans la base canonique de Kn[X] sont la famille

(a0, a1, . . . , an).

Bref, dans ces deux cas, les coordonnées d’un vecteur dans la base canonique se lisent immédiatement sur ce vecteur ; aucuncalcul n’est nécessaire. Cette propriété de « lecture facile » est spécifique des bases dites « canoniques » exhibées ci-dessus et nesaurait être tenue pour une loi générale.

18

Page 19: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI� � � En pratique La démonstration qu’une famille de vecteurs donnée explicitement est une base se ramène toujoursà la résolution d’un système linéaire, même si cela n’apparaît pas toujours clairement. Méditez bien les exemples suivants.

Exemple La famille (X2 + X, X2 + 1, X + 1) est une base de R2[X].

En effet Nous pourrions montrer en deux temps que (X2 + X, X2 + 1, X + 1) est libre et génératrice de R2[X].Mais il y a plus simple. Montrer que (X2 + X, X2 + 1, X + 1) est une base de R2[X] revient à montrer que toutpolynôme de degré inférieur ou égal à 2 est combinaison linéaire d’une unique façon de X2 + X, X2 + 1 et X + 1.

Soit donc P = aX2 + bX + c ∈ R2[X]. Montrons que P est combinaison linéaire d’une unique façon de X2 + X,X2 + 1 et X + 1. Pour cela, donnons-nous λ, µ, ν ∈ R.

P = λ(X2 + X) + µ(X2 + 1) + ν(X + 1) ⇐⇒

λ + µ = aλ + ν = b

µ + ν = caprès identification

⇐⇒

λ + µ = aµ − ν = a− b L2 ← L1 − L2

µ + ν = c

⇐⇒

λ + µ = aµ − ν = a− b

ν =−a + b + c

2L3 ←

1

2L3 −

1

2L2.

Le système obtenu est triangulaire (supérieur) et sa diagonale ne fait apparaître aucun coefficient nul. Nouspourrions donc finir le calcul en exprimant successivement µ et λ en fonction de a, b et c, obtenant ainsi uneet une seule solution (λ,µ, ν) au problème initial. Plus généralement, quand un système est présenté sous formetriangulaire avec une diagonale sans coefficient nul, alors on peut affirmer que ce système possède une et une seulesolution. Inutile d’achever alors les calculs, sauf si on en a réellement besoin.

Très utile !

Nous avons donc montré l’existence et l’unicité de la décomposition de P en combinaison linéaire de X2 + X,X2 + 1 et X + 1. Cela prouve comme voulu que (X2 + X, X2 + 1, X + 1) est une base de R2[X].

Exemple La famille(

(1, 1), (1,−2))

est une base de R2.

En effet

• Soit (x, y) ∈ R2. Montrons qu’il existe un unique couple (a, b) ∈ R

2 tel que (x, y) = a(1, 1) + b(1,−2). Soitdonc (a, b) ∈ R

2.

(x, y) = a(1, 1)+b(1,−2) ⇐⇒

{a + b = xa − 2b = y

⇐⇒

{a + b = x

3b = x− y L2 ← L1 − L2.

Le système obtenu est triangulaire supérieur sans coefficient nul sur la diagonale : il possède donc une et uneseule solution. C’est terminé.

• Si on souhaite connaître les coordonnées du vecteur (x, y) dans la base(

(1, 1), (1,−2))

, on n’a qu’à achever

la résolution du système précédent pour trouver explicitement le couple (a, b). On trouve a =2x + y

3et

b =x− y

3. Par conséquent les coordonnées cherchées sont le couple

(2x + y

3,x− y

3

)

.

Exemple L’ensemble F ={

(x, y, z) ∈ R3/ x+y−4z = 0

}

est un sous-espace vectoriel de R3 et la famille

(

(4, 0, 1), (0, 4, 1))

en est une base.

En effet Vous vérifierez seuls que F est un sous-espace vectoriel de R3. Dans cet exemple, faisons comme si la

base(

(4, 0, 1), (0, 4, 1))

de F ne nous était pas fournie comme un énoncé d’exercice. Au lieu de montrer que cette

famille donnée est une base de F , tâchons de trouver nous-mêmes une base de F , sans aide extérieure.

• Commençons par chercher une famille génératrice de F . Par définition, F est l’ensemble des (x, y, z) ∈ R3

tels que x + y − 4z = 0. Si nous choisissons par exemple d’exprimer z en fonction de x et y à partir de cette

relation, nous obtenons la nouvelle relation z =x + y

4, qui montre que :

F =

{(

x, y,x + y

4

)}

x,y∈R

= Vect

((

1, 0,1

4

)

,

(

0, 1,1

4

))

= Vect

(

(4, 0, 1), (0, 4, 1))

.

La famille(

(4, 0, 1), (0, 4, 1))

est bien génératrice de F . En exprimant x en fonction de y et z par exemple,

nous aurions trouvé une autre famille ; mais peu importe.

• Montrons — espérons que c’est bien le cas — que la famille(

(4, 0, 1), (0, 4, 1))

est libre. Soient donc λ, µ ∈ R.

Faisons l’hypothèse que λ(4, 0, 1) + µ(0, 4, 1) = (0, 0, 0). Alors aussitôt 4λ = 4µ = 0, donc λ = µ = 0 commevoulu. C’est fini.

19

Page 20: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Théorème (Bases d’un espace vectoriel produit) Soient E et F deux K-espaces vectoriels. On sup-pose que E possède une base (e1, e2, . . . , em) et que F possède une base (f1, f2, . . . , fn). Alors la famille(

(e1, 0F ), (e2, 0F ), . . . , (em, 0F ), (0E, f1), (0E , f2), . . . , (0E , fn))

est une base de E × F .

Démonstration Dire que la famille étudiée est une base de E × F revient à dire que l’application linéaire

T :

Km+n −→ E × F

(λ1, λ2, . . . , λm, µ1, µ2, . . . , µn) 7−→m∑

k=0

λk(ek, 0F ) +n∑

l=0

µl(0E , fl)est un isomorphisme, i.e. est bijec-

tive. Or il est facile de vérifier que l’application qui à tout vecteur (x, y) de E × F associe la liste des coordonnéesde x dans (e1, e2, . . . , em) suivie des coordonnées de y dans (f1, f2, . . . , fn) est réciproque de T . �

5.5 Retour à la notion d’application linéaire

Théorème (Familles génératrices de l’image d’une application linéaire) Soient E et F deux K-espaces vecto-riels et f une application linéaire de E dans F . On suppose que E possède une famille génératrice (x1, x2, . . . , xn). Alors(

f(x1), f(x2), . . . , f(xn))

est une famille génératrice de Im f . En résumé : Im f = Vect

(

f(x1), f(x2), . . . , f(xn))

.

Démonstration Soit y ∈ Im f . Alors il existe x ∈ E tel que y = f(x). Or (x1, x2, . . . , xn) engendre E par

hypothèse, donc x =n∑

k=1

λkxk pour certains λ1, λ2, . . . , λn ∈ K. Aussitôt y = f(x) = f

(n∑

k=1

λkxk

)

=n∑

k=1

λkf(xk),

ce qui montre bien que la famille(

f(x1), f(x2), . . . , f(xn))

engendre Im f . �

Exemple Soit n ∈ N. L’image de la dérivation D des polynômes sur Kn[X] est Kn−1[X].

En effet Nous savons que (1, X, X2, . . . , Xn) engendre Kn[X]. Par conséquent(

D(1), D(X), D(X2), . . . , D(Xn))

engendre Im D. En d’autres termes, comme voulu :

Im D = Vect

(

D(1), D(X), D(X2), . . . , D(Xn))

= Vect

(

0, 1, 2X, 3X2, . . . , nXn−1)

= Vect

(

1, X, X2, . . . , Xn−1)

= Kn−1[X].

Théorème (Existence d’applications linéaires) Soient E et F deux K-espaces vectoriels. On suppose que E possède unebase (e1, e2, . . . , en). Pour toute famille (f1, f2, . . . , fn) de vecteurs de F , il existe une et une seule application linéaire f de Edans F telle que : ∀k ∈ J1, nK, f(ek) = fk.� � � Explication Ce résultat théorique est fondamental. Il signifie que, pour se donner une application linéaire complètement,

on peut se contenter de donner les valeurs qu’elle prend sur une base quelconque fixée de l’espace vectoriel de départ.

Par exemple, un exercice peut commencer ainsi : « Soient e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) et f l’endomorphisme deR

3 défini par : f(e1) = e1 + e2 − e3, f(e2) = e1 − e3 et f(e3) = e2 + e3. » Ce début d’exercice signifie seulement quepour tout (x, y, z) ∈ R

3 :

f(x, y, z) = f(xe1 + ye2 + ze3) = xf(e1) + yf(e2) + zf(e3) = x(e1 + e2 − e3) + y(e1 − e3) + z(e2 + e3)

= (x + y)e1 + (x + z)e2 + (−x− y + z)e3 = (x + y, x + z,−x− y + z).

Démonstration Soit (f1, f2, . . . , fn) une famille fixée de vecteurs de F .

• Unicité : Soient f, g ∈ L(E,F ) telles que : ∀k ∈ J1, nK, f(ek) = g(ek) = fk. Montrons que f = g.Pour tout x ∈ E de coordonnées (x1, x2, . . . , xn) dans (e1, e2, . . . , en), on a :

f(x) = f

(n∑

k=1

xkek

)

=n∑

k=1

xkf(ek) =n∑

k=1

xkg(ek) = g

(n∑

k=1

xkek

)

= g(x), et donc f = g.

20

Page 21: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

• Existence : Soit f l’application de E dans F qui associe, à tout vecteur x de E de coordonnées (x1, x2, . . . , xn)

dans (e1, e2, . . . , en), le vecteur f(x) =

n∑

k=1

xkfk de F .

Montrons que f est linéaire. Soient x, y ∈ E et λ, µ ∈ K. Si (xk)16k6n et (yk)16k6n sont les coordonnéesrespectives de x et y dans (e1, e2, . . . , en), les coordonnées de λx + µy sont (λxk + µyk)16k6n. Du coup :

f(λx + µy) =

n∑

k=1

(λxk + µyk)fk = λ

n∑

k=1

xkfk + µ

n∑

k=1

ykfk = λf(x) + µf(y), donc f est bien linéaire.

Enfin, soit k ∈ J1, nK. Alors les coordonnées de ek sont la famille (0, . . . , 0, 1, 0, . . . , 0) dans laquelle le 1 estplacé en kème position, donc aussitôt f(ek) = fk. �

Théorème (Isomorphisme et bases) Soient E et F deux K-espaces vectoriels et f une application linéaire de E dans F .On suppose que E possède une base (e1, e2, . . . , en). Alors les assertions suivantes sont équivalentes :

(i) f est un isomorphisme de E sur F . (ii)(

f(e1), f(e2), . . . , f(en))

est une base de F .� � � Explication Bref, un isomorphisme de E sur F transforme toute base de E (quand il en existe) en une base de F ;et réciproquement, une application linéaire qui transforme une base de E en une base de F est un isomorphisme de E sur F .

Démonstration

(i) =⇒ (ii) On suppose que f est un isomorphisme de E sur F .

1) Montrons d’abord que(

f(e1), f(e2), . . . , f(en))

est libre. Soient λ1, λ2, . . . , λn ∈ K tels que

n∑

k=1

λkf(ek) = 0F . Alors f

(n∑

k=1

λkek

)

= 0F , et comme f est injective par hypothèse,

n∑

k=1

λkek = 0E .

La liberté de (e1, e2, . . . , en) montre enfin que λ1 = λ2 = . . . = λn = 0.

2) Montrons que(

f(e1), f(e2), . . . , f(en))

est génératrice de F . Nous avons déjà vu que cette famille

engendre Im f . Mais d’autre part Im f = F car, en tant qu’isomorphisme de E sur F , f est en particuliersurjective.

(ii) =⇒ (i) On suppose que(

f(e1), f(e2), . . . , f(en))

est une base de F .

1) Montrons que f est injective, i.e. que Ker f ={0E

}. Soit x ∈ E de coordonnées (x1, x2, . . . , xn)

dans (e1, e2, . . . , en). Supposons qu’on ait f(x) = 0F . Alors 0F = f(x) = f

(n∑

k=1

xkek

)

=n∑

k=1

xkf(ek). Or

(

f(e1), f(e2), . . . , f(en))

est libre par hypothèse, donc x1 = x2 = . . . = xn = 0, i.e. x = 0E .

2) Montrons que f est surjective. Nous avons déjà vu que(

f(e1), f(e2), . . . , f(en))

engendre Im f ,

mais d’autre part(

f(e1), f(e2), . . . , f(en))

engendre F par hypothèse. Ainsi Im f = F , et c’est justement

le résultat voulu. �

6 Sommes de sous-espaces vectoriels et supplémentarité

6.1 Sommes de sous-espaces vectoriels

Définition (Somme de sous-espaces vectoriels) Soient E un K-espace vectoriel et F et G deux sous-espaces vectorielsde E.

• On note F + G l’ensemble des élements de E qui sont la somme d’un élément de F et d’un élément de G ; en d’autres

termes : F + G ={

f + g}

f∈F,g∈G.

• Alors F + G est un sous-espace vectoriel de E appelé la somme de F et G.

• F + G est le plus petit sous-espace vectoriel de E contenant F et G ; en d’autres termes, tout sous-espace vectoriel deE contenant F et G contient aussi F + G.

21

Page 22: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI$ $ $ Attention ! On prendra bien soin de ne pas confondre la somme F + G et la réunion F ∪ G. En particulier, lapremière est un sous-espace vectoriel, pas la seconde.Par exemple, dans le plan rapporté à un repère orthonormal direct (O,~ı,~), la somme des droites passant par O dirigéesrespectivement par ~ı et ~ est le plan tout entier ; en effet, tout vecteur du plan est combinaison linéaire de ~ı et ~. Pourtant laréunion des deux droites précédentes n’est pas du tout le plan tout entier.

Théorème (Somme de sous-espaces vectoriels et engendrement) Soient E un K-espace vectoriel et F et G deuxsous-espaces vectoriels de E. Si F est engendré par (f1, f2, . . . , fm) et si G est engendré par (g1, g2, . . . , gn), alors F + G estengendré par (f1, f2, . . . , fm, g1, g2, . . . gn).

Démonstration Soit x ∈ F + G. Il existe alors f ∈ F et g ∈ G tels que x = f + g. Or (f1, f2, . . . , fm)engendre F , donc il existe λ1, λ2, . . . , λm ∈ K tels que f = λ1f1 + λ2f2 + . . . + λmfm ; de même (g1, g2, . . . , gn)engendre G, donc il existe µ1, µ2, . . . , µn ∈ K tels que g = µ1g1 + µ2g2 + . . . + µngn. Finalement on obtientx = λ1f1 + λ2f2 + . . . + λmfm + µ1g1 + µ2g2 + . . . + µngn. C’est le résultat voulu. �

6.2 Somme directe

Définition (Somme directe de sous-espaces vectoriels) Soient E un K-espace vectoriel et F et G deux sous-espacesvectoriels de E. On dit que F et G sont en somme directe si tout vecteur de F + G s’écrit de manière unique comme sommed’un élément de F et d’un élément de G. On note alors souvent F ⊕G la somme F + G, pour indiquer qu’il y a somme directe.

Théorème (Caractérisation de la somme directe) Soient E un K-espace vectoriel et F et G deux sous-espaces vectorielsde E. Les assertions suivantes sont équivalentes :

(i) F et G sont en somme directe. (ii) F ∩G ={0E

}.

Démonstration

(i) =⇒ (ii) Supposons F et G en somme directe et montrons que F ∩G ={0E

}, ce qui revient à montrer que

F ∩G ⊆{0E

}puisque 0E appartient au sous-espace vectoriel F ∩G de toute façon.

Soit x ∈ F ∩G. Alors x = x+0E = 0E +x. Ce sont là deux décompositions de x comme somme d’un élémentde F et d’un élément de G. Par unicité d’une telle décomposition, x = 0E comme voulu.

(ii) =⇒ (i) Supposons qu’on ait F ∩G ={0E

}et montrons que F et G sont en somme directe.

Soient donc f, f ′ ∈ F et g, g′ ∈ G tels que f + g = f ′ + g′. Nous devons montrer que f = f ′ et que g = g′.Or puisque f − f ′ = g′ − g ∈ F ∩G, aussitôt en effet f = f ′ et g = g′. �

Exemple F ={

(x, y, z) ∈ R3/ x + y + z = 0

}

et G ={

(x, y, z) ∈ R3/ x = y = z

}

sont en somme directe.

En effet Vous montrerez seuls que F et G sont deux sous-espaces vectoriels de R3. Il nous suffit donc de montrer

que F ∩G ={0R3

}, et même que F ∩G ⊆

{0R3

}. Soit (x, y, z) ∈ F ∩G. Alors x+ y + z = 0 et x = y = z. Aussitôt

x + x + x = 0, donc x = 0 et enfin x = y = z = 0, i.e. (x, y, z) = 0R3 .

Théorème (Somme directe et bases) Soient E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E ensomme directe. Si (f1, f2, . . . , fm) est une base de F et (g1, g2, . . . , gn) une base de G, alors (f1, f2, . . . , fm, g1, g2, . . . gn) est unebase de F ⊕G.$ $ $ Attention ! Ce résultat est faux si on ne suppose pas la somme directe. Pour les sommes en général, on dispose

seulement du résultat vu précédemment sur les familles génératrices.

Démonstration Nous avons déjà vu que (f1, f2, . . . , fm, g1, g2, . . . gn) est une famille génératrice de F ⊕ G. Ilne nous reste donc qu’à montrer que cette famille est libre.

Soient donc λ1, λ2, . . . , λm, µ1, µ2, . . . , µn ∈ K. On suppose quem∑

k=1

λkfk +n∑

l=1

µlgl = 0E . Cette somme est une

décomposition de 0E comme somme d’un élément de F et d’un élément de G. Or la somme est directe donc il

y a unicité d’une telle décomposition ; bref :m∑

k=1

λkfk =n∑

l=1

µlgl = 0E . Enfin, les familles (f1, f2, . . . , fm) et

(g1, g2, . . . , gn) étant libres, on en déduit comme voulu que λ1 = λ2 = . . . = λm = µ1 = µ2 = . . . = µn = 0. �

22

Page 23: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

6.3 Supplémentarité

Définition (Sous-espaces vectoriels supplémentaires) Soient E un K-espace vectoriel et F et G deux sous-espacesvectoriels de E. On dit que F et G sont supplémentaires dans E si tout vecteur de E est d’une unique manière la somme d’unélément de F et d’un élément de G, i.e. :

∀x ∈ E, ∃ ! (f, g) ∈ F ×G/ x = f + g.

On dit alors que F est un supplémentaire de G dans E et que G est un supplémentaire de F dans E.$ $ $ Attention !

• Un sous-espace vectoriel possède-t-il toujours un supplémentaire ? La réponse est oui, mais nous ne pourrons pas ledémontrer avec nos seuls outils. Nous reviendrons sur cette question plus tard dans l’année.

• Il est interdit de parler « du » supplémentaire d’un sous-espace vectoriel en général, faute d’unicité ; on parle toujoursd’un supplémentaire. Un exemple ci-dessous illustre cette remarque.

• Ne confondez surtout pas les notions de supplémentarité et de complémentarité. Ces deux notions n’ont tout simplementrien à voir ! Alors qu’il n’y a pas d’unicité pour le supplémentaire, il y a au contraire unicité du complémentaire ; etalors qu’un supplémentaire est un sous-espace vectoriel, le complémentaire d’un sous-espace vectoriel ne contient mêmepas le vecteur nul.

Théorème (Caractérisation de la supplémentarité) Soient E un K-espace vectoriel et F et G deux sous-espaces vectorielsde E. Les assertions suivantes sont équivalentes :

(i) F et G sont supplémentaires dans E, i.e. E = F ⊕G. (ii) E = F + G et F ∩G ={0E

}.

Démonstration Evident, car par définition, F et G sont supplémentaires dans E si tout élément de E estsomme d’un élément de F et d’un élément de G (E = F + G) et ce d’une unique façon (F ∩G =

{0E

}). �

Exemple Soit F ={

(x, y, z) ∈ R3/ x + y + z = 0

}

. Alors Vect

(

(1, 1, 1))

et Vect

(

(1,−1, 1))

sont deux supplémentaires

de F dans R3. Il n’existe donc pas qu’un seul supplémentaire de F .

En effet Soit ε ∈{

− 1, 1}

. Soit (x, y, z) ∈ R3. Montrons que (x, y, z) est somme, d’une unique façon, d’un

élément de F et d’un élément de Vect

(

(1, ε, 1))

. Pour tout (a, b, c) ∈ R3 et pour tout λ ∈ R :

(x, y, z) = (a, b, c) + λ(1, ε, 1)et (a, b, c) ∈ F

⇐⇒

a + λ = xb + ελ = y

c + λ = za + b + c = 0

⇐⇒

a + λ = xb + ελ = y

c + λ = z(2 + ε)λ = x + y + z L4 ← L1 + L2 + L3 − L4.

Le système obtenu est triangulaire supérieur à coefficients diagonaux non nuls (2− ε 6= 0 car ε = ±1). Il possèdedonc une unique solution, ce qui démontre bien que (x, y, z) est somme d’un élément de F et d’un élément de

Vect

(

(1, ε, 1))

d’une unique façon.

Exemple

• Deux droites non confondues passant par (0, 0) sont toujours supplémentaires dans R2.

• Si P est un plan de R3 passant par (0, 0, 0) et si D est une droite de R

3 passant aussi par (0, 0, 0) et non contenue dansP , alors P et D sont supplémentaires dans R

3.

Exemple Soit n ∈ N. Alors Kn[X] et Xn+1K[X] sont supplémentaires dans K[X].

En effet Le théorème de la division euclidienne (par Xn+1) dans K[X] affirme que tout polynôme P ∈ K[X]s’écrit de façon unique sous la forme P = Xn+1Q + R, où Q, R ∈ K[X] et ∂̊ R < n + 1, i.e. ∂̊ R 6 n, ou encoreR ∈ Kn[X]. C’est terminé.

23

Page 24: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI� � � ExplicationDeux sous-espaces vectoriels F et G sont supplémentaires dans E si leursomme « recouvre » E et sont « séparés » l’un de l’autre le plus possible ;en d’autres termes, si leur somme est la plus grande possible, i.e. E, etleur intersection la plus petite possible, i.e.

{0E

}. On a l’habitude, pour se

représenter géométriquement deux tels sous-espaces vectoriels, de faire desfigures valables dans R

3 censées illustrer le cas général. C’est assez clair surla figure ci-contre.

Fb0E

G

x

f

g

x = f + g est somme d’une unique façond’un élément de F et d’un élément de G.

7 Projecteurs, symétries et affinités

7.1 Projecteurs et symétries

Définition (Projecteur et symétrie) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels supplémentairesde E. Tout élément x ∈ E s’écrit d’une et une seule façon comme la somme d’un élément h ∈ H et d’un élément h′ ∈ H ′, desorte que x = h + h′. Avec ces notations :

• L’application de E dans E qui à x associe h est appelée projection sur H parallèlement à H ′ ou encore projecteur sur

H de direction H ′.

• L’application de E dans E qui à x associe h− h′ est appelée symétrie par rapport à H parallèlement à H ′ ou encoresymétrie par rapport à H de direction H ′.

Dans les deux cas, H est appelé la base et H ′ la direction de la projection ou de la symétrie.� � � Explication On comprend mieux ces définitions un peu abstraites au moyen de quelques figures. Notons p laprojection sur H parallèlement à H ′ et s la symétrie par rapport à H parallèlement à H ′.

Hb0E

H ′

x

h = p(x)

h′

Projection

h− h′ = s(x)

−h′

Hb0E

H ′

x

h

h′

Symétrie$ $ $ Attention ! Tout projecteur n’est pas « orthogonal » et toute symétrie n’est pas non plus « orthogonale ». Aucunecondition d’orthogonalité n’est même pour le moment envisageable, car qu’est donc un angle droit dans un espace vectoriel engénéral ? Nous le verrons en fin d’année, mais en attendant, oubliez toute notion d’orthogonalité.

Théorème (Propriétés des projecteurs) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels supplé-mentaires de E. On note p la projection sur H parallèlement à H ′.

(i) p est un endomorphisme de E et p2 = p.

(ii) H = Im p = Ker (p− IdE) ={

x ∈ E/ p(x) = x}

et H ′ = Ker p.� � � Explication L’égalité « Ker (p− IdE) ={

x ∈ E/ p(x) = x}

» n’est pas un résultat profond, c’est la plus banale

des banalités. D’une façon générale, habituez-vous à l’idée que si f ∈ L(E) et si λ ∈ K, alors :

Ker (f − λIdE) ={

x ∈ E/ (f − λIdE)(x) = 0E

}

={

x ∈ E/ f(x) = λx}

.

Cette remarque vous sera très utile notamment en deuxième année.

24

Page 25: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

Démonstration

(i) Montrons que p est linéaire. Soient x, y ∈ E et λ, µ ∈ K.On peut décomposer x et y conformément à l’égalité E = H ⊕H ′ d’une unique façon : x = xH + xH′ ety = yH + yH′ avec xH , yH ∈ H et xH′ , yH′ ∈ H ′. Alors xH = p(x) et yH = p(y).Or λx+µy = (λxH +µyH)+(λxH′ +µyH′) est une décomposition de λx+µy adaptée à l’égalité E = H⊕H ′.Par unicité de la décomposition associée à une somme directe, on obtient donc :

p(λx + µy) = λxH + µyH = λp(x) + µp(y) comme voulu.

Montrons que p2 = p.Soit x ∈ E décomposé sous la forme x = xH + xH′ avec xH ∈ H et xH′ ∈ H ′. Alors p(x) = xH ∈ H .L’écriture p(x) = xH + 0E est donc une décomposition de p(x) adaptée à l’égalité E = H ⊕H ′. Par unicité,p2(x) = p

(p(x)

)= xH = p(x) comme voulu.

(ii) Par définition de p, on a Im p ⊆ H ⊆{

x ∈ E/ p(x) = x}

. Mais{

x ∈ E/ p(x) = x}

⊆ Im p car si

x ∈ E est tel que x = p(x), alors x possède un antécédent par p — lui-même — et donc appartient à Im p.On obtient ainsi l’égalité des trois ensembles mentionnés à l’instant.

L’égalité H ′ = Ker p se déduit immédiatement de la définition de p. �

Théorème (Caractérisation des projecteurs) Soient E un K-espace vectoriel et p : E −→ E une application.

p est un projecteur si et seulement si p est linéaire et p2 = p.

Dans ce cas, Im p et Ker p sont supplémentaires dans E et p est le projection sur Im p parallèlement à Ker p.$ $ $ Attention ! N’oubliez pas de vérifier la linéarité de p. L’égalité p2 = p ne suffit pas.

Démonstration Si p est un projecteur, nous avons vu dans le théorème précédent que p2 = p et que p est laprojection sur Im p parallèlement à Ker p. En particulier, Im p et Ker p sont supplémentaires dans E. Il nousreste seulement à montrer réciproquement que si p est linéaire et si p2 = p, alors p est un projecteur.

Supposons donc que p est linéaire et que p2 = p. Montrons d’abord que Im p et Ker p sont supplémentaires dansE en raisonnant par analyse et synthèse.

1) Analyse : Soit x ∈ E. Faisons l’hypothèse que x s’écrit x = xK +xI avec xI ∈ Im p et xK ∈ Ker p.Alors p(x) = p(xI) car p(xK) = 0E . Or par définition de xI , il existe t ∈ E tel que xI = p(t). Du coup

p(x) = p(xI) = p(p(t)

) p◦p=p= p(t) = xI . On obtient aussitôt xK = x− xI = x − p(x). Ce raisonnement par

analyse montre que, s’ils existent, xI et xK sont uniques, égaux à p(x) et x− p(x) respectivement.

2) Synthèse : Soit x ∈ E. Montrons l’existence d’une décomposition x = xI + xK . Posons xI = p(x)et xK = x− p(x). On a bien x = xI + xK . De plus, c’est évident, p(x) ∈ Im p. Et pour finir :

p(x− p(x)) = p(x)− p(p(x)

) p◦p=p= p(x)− p(x) = 0E , donc x− p(x) ∈ Ker p.

La supplémentarité de Im p et Ker p dans E est ainsi démontrée. Au passage, nous avons montré que la décom-position de x ∈ E adaptée à cette supplémentarité est p(x) +

(x − p(x)

). Ceci prouve que p est la projection sur

Im p parallèlement à Ker p. �

Exemple Soit n ∈ N. Pour tout P =

∞∑

k=0

akXk ∈ K[X], on pose : τn(P ) =

n∑

k=0

akXk.

L’application τn ainsi définie de troncature à l’ordre n sur K[X] est le projecteursur Kn[X] de direction Xn+1

K[X]. On redémontre ainsi en particulier que Kn[X]et Xn+1

K[X] sont supplémenataires dans K[X].

Par exemple : τ4(X7 − 5X6 + 2X5 − 4X4 + X2 + 1) = −4X4 + X2 + 1.

K2[X]b0K[X]

X3K[X]

2X3 + X2 − 4

X2 − 4

= τ2(2X3 + X2 − 4)

2X3

En effet

• Montrons que τn est linéaire. Soient P =∞∑

k=0

akXk, Q =∞∑

k=0

bkXk ∈ K[X] et λ, µ ∈ K.

τn(λP + µQ) = τn

(

λ∞∑

k=0

akXk + µ∞∑

k=0

bkXk

)

= τn

(∞∑

k=0

(λak + µbk)Xk

)

=n∑

k=0

(λak + µbk)Xk

= λn∑

k=0

akXk + µn∑

k=0

bkXk = λτn(P ) + µτn(Q) comme voulu.

25

Page 26: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

• Montrons que τn est un projecteur. Comme τn est linéaire, il nous suffit de montrer que τ 2n = τn, ce qui est

évident.

• Déterminons Im τn. Nous savons que Im τn ={

P ∈ K[X]/ τn(P ) = P}

car τn est un projecteur. Or

quels sont les points fixes de τn ? Ce sont exactement les polynômes de degré inférieur ou égal à n, et doncIm τn = Kn[X].

• Déterminons Ker τn. Quels sont les polynômes dont la troncature à l’ordre n est nulle ? Ce sont tous ceuxdont les (n + 1) premiers coefficients sont nuls, i.e. ceux que l’on peut factoriser par Xn+1. C’est pourquoiKer τn = Xn+1

K[X].

Théorème (Propriétés des symétries) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels supplémen-taires de E. On note s la symétrie par rapport à H parallèlement à H ′.

(i) s est un automorphisme de E et s2 = IdE, i.e. s−1 = s.

(ii) H = Ker (s− IdE) ={

x ∈ E/ s(x) = x}

et H ′ = Ker (s + IdE) ={

x ∈ E/ s(x) = −x}

.

Démonstration

(i) Montrons que s est linéaire. Soient x, y ∈ E et λ, µ ∈ K.On peut décomposer x et y conformément à l’égalité E = H ⊕H ′ d’une unique façon : x = xH + xH′ ety = yH + yH′ avec xH , yH ∈ H et xH′ , yH′ ∈ H ′. Alors xH − xH′ = s(x) et yH − y′

H = s(y).Or λx+µy = (λxH +µyH)+(λxH′ +µyH′) est une décomposition de λx+µy adaptée à l’égalité E = H⊕H ′.Par unicité de la décomposition associée à une somme directe, on obtient donc :

s(λx+µy) = (λxH′ +µyH′)− (λxH +µyH) = λ(xH′ −xH)+µ(yH′−yH) = λs(x)+µs(y) comme voulu.

Montrons que s2 = IdE , que s est inversible et que s−1 = s.Soit x ∈ E sous la forme x = xH +xH′ avec xH ∈ H et xH′ ∈ H ′. Alors s(x) = xH−xH′ . Mais cette écritureest une décomposition de s(x) adaptée à l’égalité E = H ⊕ H ′. On en déduit donc le résultat suivant :s(s(x)

)= xH − (−xH′) = xH + xH′ = x. Ceci montre que s2 = IdE , donc que s est inversible et que

s−1 = s comme voulu.

(ii) découle immédiatement de la définition de s. �

Théorème (Caractérisation des symétries) Soient E un K-espace vectoriel et s : E −→ E une application.

s est une symétrie si et seulement si s est linéaire et s2 = IdE.

Dans ce cas, Ker (s − IdE) et Ker (s + IdE) sont supplémentaires dans E et s est la symétrie par rapport à Ker (s − IdE)parallèlement à Ker (s + IdE).$ $ $ Attention ! N’oubliez pas de vérifier la linéarité de s. L’égalité s2 = IdE ne suffit pas.

Démonstration Si s est une symétrie, alors nous venons de voir dans le précédent théorème que s2 = IdE etque s est la symétrie par rapport à Ker (s− IdE) parallèlement à Ker (s + IdE). En particulier Ker (s− IdE) etKer (s + IdE) sont supplémentaires dans E. Il nous reste seulement à montrer que si s est linéaire et si s2 = IdE ,alors s est une symétrie.

Supposons donc que s est linéaire et que s2 = IdE . Montrons d’abord que Ker (s − IdE) et Ker (s + IdE) sontsupplémentaires dans E en raisonnant par analyse et synthèse.

1) Analyse : Soit x ∈ E. Faisons l’hypothèse que x s’écrit x = x− + x+ avec x− ∈ Ker (s − IdE)

et x+ ∈ Ker (s + IdE). Alors s(x) = x− − x+, donc par somme et différence, x− =1

2

(x + s(x)

)et

x+ =1

2

(x− s(x)

). Ce raisonnement par analyse montre que, s’ils existent, x− et x+ sont uniques, égaux à

1

2

(x + s(x)

)et

1

2

(x− s(x)

)respectivement.

2) Synthèse : Soit x ∈ E. Montrons l’existence d’une décomposition x = x− + x+. Posons donc

x− =1

2

(x + s(x)

)et x+ =

1

2

(x− s(x)

). On a bien x = x− + x+. De plus :

s(x±) = s

(1

2

(x± s(x)

))

=1

2

(s(x)± s ◦ s(x)

) s◦s=IdE=1

2

(s(x)± x

),

calcul dont on déduit que s(x−) = x− et que s(x+) = −x+, c’est-à-dire que x− ∈ Ker (s − IdE) et quex+ ∈ Ker (s + IdE).

26

Page 27: c Christophe Bertault - MPSI Introduction à l’algèbre linéairetherealmiscellaneous.atwebpages.com/CoursMathMPSI... · Introduction à l’algèbre linéaire Dans tout ce chapitre,

c© Christophe Bertault - MPSI

La supplémentarité de Ker (s− IdE) et Ker (s+ IdE) dans E est ainsi démontrée. Au passage, nous avons montré

que la décomposition de x ∈ E adaptée à cette supplémentarité est1

2

(x + s(x)

)+

1

2

(x− s(x)

). Ceci prouve que

s est la symétrie par rapport à Ker (s− IdE) parallèlement à Ker (s + IdE). �

Exemple

Soit σ l’application qui à toute application f ∈ RR associe l’application x 7−→ f(−x).

Alors σ est une symétrie de RR, la symétrie par rapport à l’ensemble P des fonctions

paires, parallèlement à l’ensemble I des fonctions impaires.

En particulier, P et I sont supplémentaires dans RR. Plus précisément, pour toute

fonction f ∈ RR, la décomposition de f adaptée à l’égalité R

R = P⊕I est f = fp +fi,

où fp est la fonction x 7−→f(x) + f(−x)

2et fi la fonction x 7−→

f(x)− f(−x)

2.

fp − fi = σ(f)

−fi

Pb0RR

I

f

fp

fi

En effet

• La linéarité de σ n’est pas bien difficile à montrer. Il est tout aussi clair que σ ◦ σ = IdRR . Comme voulu, σest donc une symétrie.

• Déterminons Ker(σ − IdRR), l’ensemble des points fixes de σ. Etant donnée la définition de σ, cet ensembleest P évidemment. Il est tout aussi clair que Ker(σ + IdRR) = I .

Théorème (Lien projecteur/symétrie) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels supplé-mentaires de E. On note p (resp. p′) la projection sur H (resp. H ′) parallèlement à H ′ (resp. H) et s (resp. s′) la symétrie parrapport à H (resp. H ′) parallèlement à H ′ (resp. H). Alors :

p + p′ = IdE , p ◦ p′ = p′ ◦ p = 0 et s + s′ = 0L(E), s ◦ s′ = s′ ◦ s = −IdE,

et s = 2p− IdE et s′ = 2p′ − IdE.

Démonstration Soit x ∈ E sous la forme x = h + h′ où h ∈ H et h′ ∈ H ′. Alors p(x) = h, p′(x) = h′,s(x) = h− h′ et s′(x) = h′ − h. Il est alors facile de vérifier que les formules du théorème sont vraies.Par exemple : p(x) + p′(x) = h + h′ = x, et donc en effet p + p′ = IdE . �

7.2 Affinités

Définition (Affinité) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels supplémentaires de E. Onnote p la projection sur H parallèlement à H ′. Pour tout λ ∈ K, on appelle affinité de base H, de direction H ′ et de rapport λ

l’application

{E −→ Ex 7−→ λx + (1− λ)p(x)

.

En d’autres termes, si x ∈ E est donné sous la forme x = h + h′ avec h ∈ H et h′ ∈ H ′, alors l’affinité de base H , de directionH ′ et de rapport λ envoie x sur h + λh′.� � � Explication

Notons aλ l’affinité de base H , de direction H ′ et de rapport λ.La figure ci-contre illustre géométriquement l’action de aλ pourdifférentes valeurs de λ. On notera bien que pour λ = 0, on re-trouve la projection p sur H parallèlement à H ′ ; pour λ = 1,l’application identique IdE ; et pour λ = −1, la symétrie s parrapport à H parallèlement à H ′.

s(x) = a−1(x)

a− 32(x)

Hb0E

H ′

x = a1(x)

h = p(x) = a0(x)

h′

x = h + h′,h ∈ H ,

h′ ∈ H ′.

λ croissant

27