44
Université de Savoie Année 10/11 Mathématiques générales : algèbre (MATH303 – 6 ECTS) Table des matières 1 Anneaux 2 1.1 Abrégé de théorie des groupes ............................. 2 1.2 Généralités ....................................... 3 1.3 Anneaux principaux .................................. 7 1.3.1 Généralités ................................... 7 1.3.2 pgcd et ppcm .................................. 8 2 Déterminant 10 2.1 Le groupe symétrique S n ............................... 10 2.1.1 Généralités ................................... 10 2.1.2 Décompositions en produit de cycles ..................... 11 2.1.3 Signature .................................... 12 2.2 Déterminant d’un endomorphisme .......................... 13 2.2.1 Rappels et compléments d’algèbre linéaire .................. 13 2.2.2 Définitions ................................... 15 2.2.3 Propriétés générales .............................. 18 2.2.4 Calculs pratiques ................................ 20 3 Dualité 21 3.1 Espace dual ....................................... 21 3.2 Transposée ....................................... 23 3.3 Orthogonalité ...................................... 24 4 Espaces euclidiens et hermitiens 25 4.1 Formes bilinéaires et sesquilinéaires .......................... 25 4.2 Orthogonalité ...................................... 28 4.3 Adjoint d’un endomorphisme ............................. 31 4.4 Formes quadratiques et formes quadratiques hermitiennes ............. 32 5 Réduction des matrices et des endomorphismes 35 5.1 Valeurs propres et vecteurs propres .......................... 35 5.1.1 Généralités ................................... 35 5.1.2 Détermination pratique des valeurs propres et vecteurs propres ...... 37 5.2 Diagonalisation et trigonalisation ........................... 38 5.3 Polynôme d’endomorphisme .............................. 40 5.3.1 Généralités ................................... 40 5.3.2 Théorème de Cayley-Hamilton ........................ 41 5.3.3 Annulateur et polynôme minimal ....................... 42 5.4 Nilpotence et réduite de Jordan ............................ 43 5.4.1 Sous-espaces caractéristiques ......................... 43 5.4.2 Nilpotence .................................... 43 5.5 Applications ....................................... 44 5.5.1 Suites linéaires ................................. 44 5.5.2 Puissance et exponentielle de matrice ..................... 44 5.5.3 Système différentiel linéaire à coefficients constants ............. 44 1

Université de Savoie Année 10/11 - univ-smb.fr

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Université de Savoie Année 10/11 - univ-smb.fr

Université de Savoie Année 10/11Mathématiques générales : algèbre (MATH303 – 6 ECTS)

Table des matières

1 Anneaux 21.1 Abrégé de théorie des groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Anneaux principaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.2 pgcd et ppcm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Déterminant 102.1 Le groupe symétrique Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.1.2 Décompositions en produit de cycles . . . . . . . . . . . . . . . . . . . . . 112.1.3 Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2.1 Rappels et compléments d’algèbre linéaire . . . . . . . . . . . . . . . . . . 132.2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.2.3 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.4 Calculs pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Dualité 213.1 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213.2 Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4 Espaces euclidiens et hermitiens 254.1 Formes bilinéaires et sesquilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 254.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284.3 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.4 Formes quadratiques et formes quadratiques hermitiennes . . . . . . . . . . . . . 32

5 Réduction des matrices et des endomorphismes 355.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355.1.2 Détermination pratique des valeurs propres et vecteurs propres . . . . . . 37

5.2 Diagonalisation et trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.3 Polynôme d’endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

5.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405.3.2 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . 415.3.3 Annulateur et polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . 42

5.4 Nilpotence et réduite de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435.4.1 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . 435.4.2 Nilpotence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

5.5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445.5.1 Suites linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445.5.2 Puissance et exponentielle de matrice . . . . . . . . . . . . . . . . . . . . . 445.5.3 Système différentiel linéaire à coefficients constants . . . . . . . . . . . . . 44

1

Page 2: Université de Savoie Année 10/11 - univ-smb.fr

1 Anneaux

1.1 Abrégé de théorie des groupes

Définition 1.1.1 Un groupe est un couple (G, ·) où G désigne un ensemble non vide et · uneloi de composition interne (l.c.i.) associative telle que :

1. il existe un élément neutre e ∈ G (souvent noté 1) pour · i.e. ∀x ∈ G : ex = xe = x

2. tout élément x admet un inverse y ∈ G pour · i.e. (∀x ∈ G)(∃y ∈ G) : xy = yx = e. Onnote y = x−1.

Remarque 1.1.1

1. L’élément neutre, s’il existe pour une l.c.i, est unique.

2. L’inverse d’un élément, s’il existe pour une l.c.i. associative, est unique.

3. Quand la l.c.i. · est commutative, on la note en général + et l’élément neutre 0 et on ditque (G,+), ou plus simplement G par abus de langage, est commutatif ou abélien.

Définition 1.1.2 L’ordre d’un groupe G, noté |G|, est le cardinal de G. Un groupe est fini sison ordre est fini.

Définition 1.1.3 Un sous-groupe H de (G, .) est un sous-ensemble non vide H de G tel que∀x, y ∈ H : xy−1 ∈ H. Un sous-groupe H est distingué ou normal (dans G) si (∀x ∈ G)(∀h ∈H) : xhx−1 ∈ H ; on note H CG.

Exemple 1.1.1 Si g ∈ G alors < g >= {gn : n ∈ Z} est un sous-groupe de G appelé sous-groupeengendré par g ; il est monogène. Un groupe monogène et fini est cyclique.

Définition 1.1.4 L’ordre d’un élément g ∈ G est l’ordre du sous-groupe < g >.

Rappel 1.1.1 Une relation d’équivalence sur un ensemble E est une relation binaire réflexive,symétrique et transitive sur E.

Proposition 1.1.1 Soit H un sous-groupe de G. Alors la relation définie par xRy ⇔ x−1y ∈ Hest une relation d’équivalence sur G.

Définition 1.1.5 Les classes d’équivalence deR sont les classes à gauche. L’ensemble des classesd’équivalence ou ensemble quotient est noté G/R ou G/H.

Remarque 1.1.2

1. On définirait de même les classes à droite par xRy ⇔ xy−1 ∈ H.

2. Si H CG alors les classes à gauche et les classes à droite coîncident.

Corollaire 1.1.1 Si G est fini alors |H| divise |G|.

Proposition 1.1.2 Soit R une relation d’équivalence sur un groupe G. Alors, R est compatibleavec · ssi il existe un sous-groupe H distingué dans G définissant R.

Proposition 1.1.3 Si H CG alors G/H est muni d’une structure de groupe.

2

Page 3: Université de Savoie Année 10/11 - univ-smb.fr

1.2 Généralités

Définition 1.2.1 Un ensemble (A,+, ·) muni de 2 lois de composition internes est un anneausi :

1. (A,+) est un groupe commutatif (ou abélien)2.∀(a, b, c) ∈ A3 : (ab)c = a(bc) (associativité)

a(b+ c) = ab+ ac(a+ b)c = ac+ bc

}(distributivité)

Remarque 1.2.1

1. Si la multiplication est commutative alors A est commutatif.2. Si la multiplication admet un élément neutre (noté 1A ou 1) alors A est unitaire.

Exercice : Si 1A = 0A alors A = {0}.3. Si A est unitaire, 1 6= 0 et que pour tout x 6= 0, x est inversible (pour la multiplication)

alors A est un corps.

Exemple 1.2.1

1. (Z,+, ·) est un anneau commutatif et unitaire.2. Si K = Q, R ou C alors K[X] l’algèbre des polynômes en une indéterminée et à coefficients

dans (le corps) K est une anneau unitaire commutatif. C’est aussi un (K−)espace vectorielde dimension infinie.

3. Si n ≥ 2 alorsMn(K) est un anneau unitaire non commutatif. Par exemple,(1 00 0

)(0 10 0

)=(

0 10 0

)6= 0.

4. Si n ≥ 2 alors (Z/nZ,+, ·) est un anneau unitaire commutatif.5. Soient E un ensemble et A un anneau. Alors A(E,A) est (canoniquement) muni d’une

structure d’anneau induite par celle de A.

Règles de calcul :

1. a0 = 0a = 0 car a0 = a(0 + 0) = a0 + a0 donc a0 = 0 ; on permute 0 et a pour démontrerla 2ième égalité.

2. a(−x) = (−a)x = −ax car a(x−x) = 0 = ax+a(−x) d’où a(−x) = −ax ; preuve similairepour la 2ième égalité.

3. a(x− y) = ax− ay4. (a− b)x = ax− bx5. (−a)(−b) = ab

Exemple 1.2.2

1. Les anneaux Q, R et C sont des corps commutatifs.2. Les ensembles N, Z et Q[X] ne sont pas des corps (munis des opérations usuelles).

Proposition 1.2.1 Soient A un anneau, a, b ∈ A qui commutent et n ∈ N. Alors

(a+ b)n =n∑k=0

Cknakbn−k.

3

Page 4: Université de Savoie Année 10/11 - univ-smb.fr

Définition 1.2.2 Soient A et B deux anneaux. Une application f : A → B est un homomor-phisme d’anneaux si ∀x, y ∈ A :

f(x+ y) = f(x) + f(y)

etf(xy) = f(x)f(y).

Le noyau de f est ker f = {x ∈ A : f(x) = 0}.

Exercice : ker f = {0} ⇔ f injective.

Remarque 1.2.2

1. f(x+ 0) = f(x) + f(0) = f(x) donc f(0A) = 0B.2. Mais on n’a pas nécessairement f(1A) = 1B ; par exemple, en considérant

f : Z → Zn 7→ 0

.

Exemple 1.2.3

1. Soit a ∈ K.f : K[X] → K

P 7→ P (a)

est un homomorphisme d’anneaux.2. Soit A un anneau unitaire. L’application :

f : Z → A

n 7→{

1A + · · ·+ 1A n fois si n ≥ 0−1A − · · · − 1A (−n) fois sinon.

est un homomorphisme d’anneaux. Par exemple pour n, n′ ≥ 0, on a f(nn′) = (nn′)1A =nf(n′) = 1Af(n′) + · · ·+ 1Af(n′) = (1A + · · ·+ 1A)f(n′) = f(n)f(n′).

3. Soient K,K′ deux corps et f : K → K′ un homomorphisme d’anneaux. Deux cas se pré-sentent :– ker f = K et f est l’application nulle.– ker f 6= K : soit x 6∈ ker f alors f(x1K) = f(x) = f(x)f(1K) donc f(1K) = 1K′ . Par suite,

si a 6= 0 alors a est inversible donc f(aa−1) = f(1K) = 1K′ = f(a)f(a−1). Dès lors, sia 6= 0 alors f(a) est inversible et (f(a))−1 = f(a−1). Ainsi, f(a) = 0 ssi a = 0. D’oùker f = {0} et f est injective.

Définition 1.2.3 Un sous-ensemble I d’un anneau A est un idéal (bilatère) de A si :1. I 6= ∅2. ∀x, y ∈ I : x− y ∈ I3. (∀a ∈ A)(∀x ∈ I) : ax ∈ I et xa ∈ I.

Exemple 1.2.4

1. Si A est commutatif, on note (a) = {ax : x ∈ A} = aA, l’idéal engendré par a. Si A estunitaire alors a ∈ (a). Si a ∈ I alors (a) ⊆ I.

2. Si K est un corps, ses seuls idéaux sont {0} et K.3. Les idéaux de Z sont les (n) = nZ pour n ∈ N.4. Les idéaux de K[X] sont les (P ) pour P ∈ K[X].

4

Page 5: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 1.2.2 Soient A,B deux anneaux et f : A→ B un homomorphisme. Alors ker f =f−1({0}) est un idéal de A.Dém. : ker f 6= ∅ car 0 ∈ ker f . Soient x, y ∈ ker f , alors f(x− y) = 0 i.e. x− y ∈ ker f . Enfin,soient x ∈ ker f et a ∈ A alors f(ax) = f(a)f(x) = 0 donc ax ∈ ker f et ker f est un idéal de A.

Définition 1.2.4 Une relation d’équivalence R sur un anneau (A,+, ·) est compatible avec +et · si

∀(a, a′, b, b′) ∈ A4 : aRa′ et bRb′ ⇒ (a+ b)R(a′ + b′) et abRa′b′.

Exemple 1.2.5 Soit n ∈ N. Pour a, b ∈ Z, on définit :

aRb⇔ b− a est un multiple de n.

On note a ≡ b[n] que l’on lit a est congru à b modulo n. C’est une relation d’équivalence sur Zcompatible avec + et ×.Dém. : soient a′ ≡ a[n] et b′ ≡ b[n] i.e. a′ = a+ kn et b′ = b+ ln. Alors a′+ b′ = a+ b+ (k+ l)net a′b′ = ab + (al + bk + kln)n. Ainsi, ≡ [n] est compatible avec l’addition et la multiplicationdans Z.

Proposition 1.2.3 Soient A un anneau et R une relation d’équivalence sur A. Alors R estcompatible avec + et · si et seulement si il existe un idéal I de A tel que :

∀(x, y) ∈ A2 : xRy ⇔ x− y ∈ I.

Dém. :(⇒) Notons I = 0 = {x ∈ A : xR0}. Alors I 6= ∅. Par ailleurs, soient x, y ∈ A tels que xRy.

On a (−y)R(−y) donc (x− y)R0 ou encore x− y ∈ I. Il s’ensuit, d’une part que si x, y ∈ I alorsx − y ∈ I (par symétrie et transitivité de R), et d’autre part que, xRy ⇔ x − y ∈ I. Enfin, six ∈ I et a ∈ A alors xR0 entraîne axRa0 i.e. axR0 ou encore ax ∈ I. On montrerait de mêmexa ∈ I. On conclut que I est l’idéal répondant à la question.

(⇐) Il est facile de vérifier que R est une relation d’équivalence. Soit (x, y, x′, y′) ∈ A4 telque xRy et x′Ry′. Alors, x − y ∈ I et x′ − y′ ∈ I i.e. il existe p, p′ ∈ I tels que x = y + p etx′ = y′ + p′. Par suite, x+ x′ = y + y′ + (p+ p′) et xx′ = yy′ + (yp′ + py′ + pp′). Autrement dit,R est compatible avec + et ·.

Théorème 1.2.1 Soient A un anneau et I un idéal de A. Alors la relation R définie par :

∀x, y ∈ A : xRy ⇔ x− y ∈ I

est une relation d’équivalence compatible avec les lois de A. Le quotient A/R, noté A/I, possèdeune structure d’anneau munie des opérations :

x+y :=_

x+ y et xy :=_xy.

La projection canonique π : A → A/I définie par π(x) = x est un homomorphisme surjectifd’anneaux et son noyau est I = 0.Dém. : la relation d’équivance R est compatible avec + et · d’après la proposition précédente.Par conséquent, les opérations + et · passent au quotient et définissent une structure d’anneausur A/I. L’application π, surjective par définition, est un homomorphisme d’anneau compte-tenude la définition des lois + et ×. Enfin, π(x) = 0⇔ x ∈ I.

Exemple 1.2.6 Pour n = 6, on note Z/6Z le quotient de Z par (l’idéal) 6Z (i.e. xRy ⇔6 divise x− y ou encore x− y ∈ 6Z). C’est l’anneau commutatif unitaire à 6 éléments :

({0, 1, . . . , 5},+, ·)

dont les tables sont :

5

Page 6: Université de Savoie Année 10/11 - univ-smb.fr

+ 0 1 2 3 4 50 0 1 2 3 4 51 1 2 3 4 5 02 2 3 4 5 0 13 3 4 5 0 1 24 4 5 0 1 2 35 5 0 1 2 3 4

× 0 1 2 3 4 50 0 0 0 0 0 01 0 1 2 3 4 52 0 2 4 0 2 43 0 3 0 3 0 34 0 4 2 0 4 25 0 5 4 3 2 1

Remarque 1.2.31. A commutatif ⇒ A/I commutatif.2. A unitaire ⇒ A/I unitaire (cas intéressant : (0) ( I ( A).

Définition 1.2.5 Un sous-ensemble A′ de l’anneau A est un sous-anneau de A si :1. A′ est un sous-groupe de A2. la loi · resteinte à A′ est interne.

Lemme 1.2.11. Un sous-anneau A′ d’un anneau A est un anneau.2. Si f : A→ B est un homomorphisme alors f(A) est un sous-anneau de B.

Théorème 1.2.2 Soient A,B deux anneaux et f : A→ B un homomorphisme. Alors

A/ ker f ∼= f(A).

Dém. : le sous-ensemble ker f est un idéal de A, donc A/ ker f est un anneau. Considérons lediagramme :

Af→ f(A) ↪→ B

π ↓ ↗A/ker f f

L’application f se déduit de f en changeant le but. Elle est surjective par définition. L’appli-cation f est bien définie par f(x) = f(x) = f(x). En effet, si x ∈ A/ ker f et si x, x′ sont 2représentants de x alors x− x′ ∈ ker f donc f(x− x′) = 0 ou encore f(x) = f(x′). Comme f estun homomorphisme d’anneaux, f l’est aussi. Enfin, f(x) = 0⇔ f(x) = 0⇔ x ∈ ker f ⇔ x = 0,ainsi f est injective et surjective (car f = f ◦ π est surjective) i.e. bijective.

Remarque 1.2.4 Le diagramme suivant est la factorisation canonique de l’application f :

f : A π→ A/ ker ff→ f(A)

i↪→ B

(cette factorisation a encore lieu dans un cadre sensiblement plus général).

Définition 1.2.6 Soient A un anneau commutatif et a, b ∈ A. On dit que a divise b, noté a|b,s’il existe x ∈ A tel que b = ax. Ainsi b est un multiple de a.

Exemple 1.2.7 Dans Z et K[X] on retrouve la notion usuelle.

Définition 1.2.7 Un élément a 6= 0 d’un anneau commutatif A est diviseur de 0 s’il existe b 6= 0tel que ab = 0.

Exemple 1.2.81. Déterminer dans Z/6Z les diviseurs de 0.2. Dans A(R,R), on considère f = 1R∗− et g = 1R+ . Alors, f et g sont diviseurs de 0 (il existe

aussi des diviseurs de 0 dans A(R,R) de classe C∞).

6

Page 7: Université de Savoie Année 10/11 - univ-smb.fr

Définition 1.2.8 Un anneau A est intègre si :1. A est commutatif2. A n’a pas de diviseur de 0.

Exemple 1.2.9

1. Z est intègre.2. Z/6Z ne l’est pas.

Exercice : Z/nZ intègre ⇔ n = 0 ou n = 1 ou n premier.Dém. : (⇒) on peut supposer n ≥ 2. Soit a ∈ Z divisant n. Alors il existe b ∈ Z tel que ab = n.Par conséquent, ab = 0. Comme Z/nZ est intègre, a = 0 ou b = 0 i.e. a ∈ nZ ou b ∈ nZ. Deuxcas se présentent :

– a 6∈ nZ : alors a = ±1 et b = ±n– a ∈ nZ : alors a = ±n et b = ±1.

Ainsi, les diviseurs de n sont ±1 et ±n et n est premier.

Proposition 1.2.4 Soient A un anneau intègre et a, b, x ∈ A. Si ax = bx et x 6= 0 alors a = b.Dém. : comme A est intègre, a− b n’est pas un diviseur de 0 donc a− b = 0.

1.3 Anneaux principaux

1.3.1 Généralités

Lemme 1.3.1 Soient A un anneau commutatif unitaire et a, b ∈ A. C.S.S.E. :1. (a) ⊆ (b)

2. a ∈ (b)

3. b|aDém. :1)⇒ 2) facile car 1 ∈ A.2)⇒ 3) par définition de (b).3) ⇒ 1) Comme b|a, il existe q ∈ A tel que a = bq. Par suite, a ∈ (b). Or (b) est un idéal donc(a) ⊆ (b).

Définition 1.3.1 Un idéal I d’un anneau commutatif unitaire A est principal s’il existe a ∈ Atel que

I = (a) = {ax : x ∈ A}.

Définition 1.3.2 Un anneau A est principal si1. A est commutatif, unitaire et intègre ;2. tout idéal de A est principal.

Exemple 1.3.1 Les anneaux Z et K[X] sont principaux.Dém. : on va le démontrer pour Z. L’anneau Z est commutatif, unitaire et intègre. Soit I unidéal de Z. Deux cas se présentent :

1. I = {0} i.e. I = (0) qui est principal ;2. (0) I. Alors I∗+ = I ∩ N − {0} est une partie non vide de N∗. Il existe donc p = min I∗+

(∈ I∗+ !). Soit n ∈ I. Alors n = pq + r avec 0 6 r < p. Donc r = n − pq ∈ I ∩ N. Commer < p, il s’ensuit que r = 0 donc I ⊆ (p). Par ailleurs, p ∈ I donc I = (p) et I est principal.Il est facile de voir qu’un tel générateur p est unique au signe près.

7

Page 8: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 1.3.1 Soient A un anneau commutatif unitaire intègre et a, b ∈ A. Alors :

(a) = (b)⇔ il existe un élément inversible u de A tel que a = bu.

Dém. :(⇒) (a) = (b) ⇒ a ∈ (b) et b ∈ (a). Il existe donc p ∈ A (resp. q ∈ A) tel que a = bp (resp.b = aq). Dès lors, a = apq d’où a(1− pq) = 0. Deux cas se présentent :

1. a = 0, alors (b) = (0) ; en particulier u = 1 convient.2. a 6= 0, alors, comme A est intègre, pq = 1 et u = p est inversible.

(⇐) On a a ∈ (b) donc (a) ⊆ (b). De plus, il existe v ∈ A tel que uv = 1. Donc av = b et b ∈ (a)d’où (b) ⊆ (a). On conclut que (a) = (b)

Proposition 1.3.2 Soient I, J deux idéaux de A. Alors

I ∩ J

etI + J = {u+ v : u ∈ I, v ∈ J}

sont des idéaux de A.

Remarque 1.3.1 En fait, une intersection quelconque d’idéaux est encore un idéal.

1.3.2 pgcd et ppcm

Définition 1.3.3 Soient a et b ∈ A, un anneau principal.– Un ppcm de (a, b) est un élément m ∈ A tel que (a) ∩ (b) = (m).– Un pgcd de (a, b) est un élément δ ∈ A tel que (a) + (b) = (δ) ; on note a ∧ b = δ.– Les éléments a et b sont premiers entre eux si 1 est pgcd de (a, b).– Un élément a est irréductible ou premier si a 6= 0, non inversible et si ses seuls diviseurs

sont les inversibles de A et les au pour u inversible.

Exemple 1.3.2 Dans Z, si a = 4 et b = 6 alors ppcm(a, b) = ±12 et pgcd(a, b) = ±2.

Remarque 1.3.2

1. a ∧ b = 1⇔ (a) + (b) = A !2. Cette définition se généralise à un nombre fini d’éléments de A.3. Le pgcd et le ppcm sont définis à un inversible près.

Lemme 1.3.2 Soient a et b ∈ A, un anneau principal.1. Si d est un pgcd de (a, b) alors il existe u, v ∈ A tels que d = au+ bv.2. S’il existe u, v ∈ A tels que d = au+ bv et si d divise a et b alors d est un pgcd de (a, b).

Dém. :1. résulte de la définition d’un pgcd.Pour démontrer 2., on constate que d ∈ (a) + (b) donc (d) ⊆ (a) + (b). Par ailleurs, si d|a (resp.d|b) alors (a) ⊆ (d) (resp. (b) ⊆ (d)). Dès lors, (a) + (b) ⊆ (d). D’où l’égalité.

Proposition 1.3.3 [Minimalité du ppcm et maximalité du pgcd] Soient a, b ∈ A principal,m un ppcm de (a, b) et δ un pgcd de (a, b).

1. Si m′ est un multiple de a et de b alors m′ est un multiple de m.2. Si d divise a et b alors d|δ.

8

Page 9: Université de Savoie Année 10/11 - univ-smb.fr

Dém. :1. Si a et b divisent m′ alors m′ ∈ (a) et m′ ∈ (b). Donc m′ ∈ (a) ∩ (b) = (m) et m|m′.2. Si d|a et d|b alors a, b ∈ (d). Il s’ensuit que (δ) = (a) + (b) ⊆ (d). Donc d|δ.

Corollaire 1.3.1 [Caractérisation] Soient (a, b) ∈ A2 (avec A principal) et m′, d′ ∈ A.1. Si m′ est un multiple de a et b qui divise tout multiple de a et b alors m′ est un ppcm de

(a, b).2. Si d′ divise a et b et si tout diviseur de a et b divise d′ alors d′ est un pgcd de (a, b).

Dém. :1. Soit m un ppcm de (a, b). Alors m′|m. En vertu de la proposition précédente, m|m′. On

obtient (m) = (m′) et m′ est un ppcm de (a, b).2. Soit δ un pgcd de (a, b). On déduit de la proposition précédente que d′|δ. De plus, δ est un

diviseur de a et b donc δ|d′ par hypothèse. Il s’ensuit que d′ est un pgcd de (a, b).

Corollaire 1.3.2 Deux éléments a, b ∈ A (principal) sont premiers entre eux ssi les seuls divi-seurs communs à a et b sont les éléments inversibles.Dém. :(⇒) Soit d un diviseur de a et b. Alors le 2. de la proposition précédente assure que d|1. Autrementdit, d est inversible.(⇐) 1 est évidemment un diviseur de a et b. Comme les seuls diviseurs de a et b sont les inversibles,ils divisent 1. En vertu du 2. du corollaire précédent, 1 est un pgcd de (a, b).

Théorème 1.3.1 [de Bezout] Soient a, b ∈ A un anneau principal. Alors

a et b sont premiers entre eux⇔ ∃u, v ∈ A : au+ bv = 1

Dém. :(⇒) résulte de la définition.(⇐) résulte du 2. du lemme précédent.

Remarque 1.3.3 On n’a pas unicité du couple (u, v) (1 = 2.(−1) + 3.1 = 2.2 + 3.(−1) sauf sil’on impose de surcroît 0 < δu < b ou 0 < δv < a par exemple).

Théorème 1.3.2 [de Gauss] Soient a, b, c ∈ A, un anneau principal. Si a|bc et a ∧ b = 1 alorsa|c.Dém. : comme a ∧ b = 1, il existe par définition, u, v ∈ A tels que au + bv = 1. Par suite,c = acu + bcv. Comme, a|bc, il existe q ∈ A tel que bc = aq. Il s’ensuit que c = a(cu + qv) i.e.a|c.

Lemme 1.3.3 Un corps est un anneau intègre.

Proposition 1.3.4 Soit n ∈ N. Z/nZ est un corps ssi n est premier.Dém. :(⇒) Comme Z/nZ est un corps, n ≥ 2. Soit k ∈ Z un diviseur de n. Deux cas se présentent :

1. k = 0 i.e. k ∈ nZ mais alors k = ±n.2. k 6= 0 donc k est inversible dans le corps Z/nZ. Il existe donc k′ ∈ Z tel que kk′ ≡ 1[n]⇔kk′ = 1 + nl. Or k|n. Dès lors, k(k′ − n′l) = 1. Cette égalité ne peut avoir lieu que si{k = 1k′ − n′l = 1

ou{k = −1k′ − n′l = −1

. On conclut que n est premier.

(⇐) Comme n est premier, n ≥ 2. Soit k ∈ Z tel que k 6= 0 (i.e. k non multiple de n) et k 6= 1.Comme k est premier avec n, il existe u, v ∈ Z tels que ku+ nv = 1. Par suite, ku = 1 et k estinversible dans Z/nZ.

9

Page 10: Université de Savoie Année 10/11 - univ-smb.fr

2 Déterminant

2.1 Le groupe symétrique Sn

2.1.1 Généralités

Définition 2.1.1 Soit n ∈ N∗. Le groupe symétrique de degré n, noté Sn, est l’ensemble desbijections de {1, . . . , n} muni de la composition (◦) des applications. Une permutation σ est unélément de Sn ; on notera :

σ =(

1 2 · · · nσ(1) σ(2) · · · σ(n)

)et στ au lieu de σ ◦ τ .

Remarque 2.1.1 On aurait pu définir le groupe symétrique d’un ensemble E de cardinal n. Lesrésultats sont rigoureusement les mêmes que ceux qui suivent.

Exemple 2.1.1 On a :

1. S1 = {id}.

2. S2 = {id, (1 2)} où (1 2) =(

1 22 1

).

Proposition 2.1.1 Le groupe symétrique Sn est un groupe (non commutatif si n ≥ 3) d’ordren!.

Définition 2.1.2 Le support d’une permutation σ est le sous-ensemble de {1, . . . , n} supp σ :={x ∈ {1, . . . , n} : σ(x) 6= x}.

Lemme 2.1.1 Le support d’une permutation σ est stable par σ et σ|{supp σ = id|{supp σ.Dém. : soit x ∈ supp σ. On a : σ(x) 6= x ⇔ σ(σ(x)) 6= σ(x) (car σ est injective). Ainsi,σ(supp σ) ⊆ supp σ. Comme σ est injective, σ(supp σ) et supp σ ont même cardinal fini doncsont égaux.

D’autre part : x 6∈ supp σ ⇔ σ(x) = x⇔ σ(x) = id(x) i.e. σ|{supp σ = id|{supp σ.

Lemme 2.1.2 Si σ et τ commutent alors le support de l’une est stable par l’autre. Si supp σ ∩supp τ = ∅ alors στ = τσ.Dém. : soit x ∈ supp τ i.e. τ(x) 6= x. Alors στ(x) 6= σ(x). Or σ et τ commutent donc τσ(x) 6=σ(x) d’où σ(supp τ) ⊆ supp τ . Comme supp τ et σ(supp τ) ont même cardinal fini, ils sontégaux.

Soit x ∈ supp τ . Comme τ(x) ∈ supp τ et que supp σ ∩ supp τ = ∅, on obtient στ(x) =τ(x) = τσ(x). En inversant les rôles de τ et σ, on constate que si x ∈ supp σ alors τσ(x) = στ(x).Enfin si F = supp σ ∪ supp τ alors σ|{F = τ|{F = id|{F d’où le résultat.

Proposition 2.1.2 Soit σ ∈ Sn. La relation xRσy définie par

∃k ∈ Z : y = σk(x)

est une relation d’équivalence sur {1, . . . , n}.

Définition 2.1.3 L’orbite de x ∈ {1, . . . , n} suivant σ ∈ Sn est la classe d’équivalence de xmodulo Rσ. Autrement dit, Ox = {σk(x) : k ∈ Z}.

Remarque 2.1.2 Les orbites suivant σ déterminent une partition de {1, . . . , n}.

10

Page 11: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 2.1.3 Soient O une orbite non triviale (i.e. de cardinal c ≥ 2) suivant σ et x ∈ O.Alors O = {x, σ(x), . . . , σc−1(x)} avec σc(x) = x.Dém. : comme O est finie, il existe i, j ∈ N, i > j tels que σi(x) = σj(x). Autrement dit,σi−j(x) = x avec i − j > 0. Par suite, {k ∈ N∗ : σk(x) = x} admet un plus petit éléments > 1 (sinon O serait triviale). Pour k ∈ Z, on a : k = sq + r avec 0 6 r < s. Donc, σk(x) =σsq+r(x) = σr(σqs(x)) = σr(x). Considérons la séquence x, σ(x), . . . , σs−1(x). On constate queσk(x) 6= σk

′(x) pour 0 6 k, k′ < s et k 6= k′, sinon s ne serait pas minimal. Il vient O =

{x, σ(x), . . . , σs−1(x)} ce qui exige s = c.

2.1.2 Décompositions en produit de cycles

Définition 2.1.4 Un cycle est une permutation possèdant une unique orbite non réduite à 1point. La longueur d’un cycle est le cardinal de son orbite non triviale.

Exemple 2.1.2

1. Dans S3 :

(a) le cycle (1 2) est de longueur 2 ; son orbite est {1, 2} ;

(b) les cycles (1 2 3) =(

1 2 32 3 1

)et (1 3 2) =

(1 2 33 1 2

)sont de longueur 3 ; leur

orbite est {1, 2, 3} ;(c) en fait, S3 − {id} est constitué de cycles de longueur 2 ou 3.

2. Dans S4, la permutation(

1 2 3 42 1 4 3

)= (1 2)(3 4) n’est pas un cycle car elle possède

2 orbites : {1, 2} et {3, 4}.

Remarque 2.1.3 Le support d’un cycle coïncide avec son orbite non triviale.

Définition 2.1.5 Un cycle de longueur 2 est une transposition.

Exemple 2.1.3

1. Une transposition permute exactement 2 éléments de {1, . . . , n}.2. La permutation (1 2) est une transposition.

3. Si τ est une transposition alors τ−1 = τ ou encore τ2 = id ; τ est une involution.

Proposition 2.1.4 Une permutation 6= id se décompose (de manière unique à l’ordre près) enun produit commutatif de cycle(s) de support 2 à 2 disjoint.Dém. : soient O1, . . . , Op les orbites non réduites à 1 point d’une permutation σ. Notons σi lapermutation définie par σi|Oi = σ|Oi et σi|{Oi = id|{Oi pour 1 6 i 6 p. Comme les supports

Oi des σi sont 2 à 2 disjoints, les cycles σi commutent 2 à 2. De plus, pour x ∈p⊔i=1

Oi, on a

σ(x) = σix(x) par définition d’où σ = σ1 · · ·σp. En outre, si σ = σ′1 · · ·σ′p′ (avec σ′i cycle) alorsp′ = p (car p′ est le nombre d’orbites non triviales suivant σ) et l’orbite (non triviale) suivant σ′iest l’une des orbites non triviales de σ i.e. de l’un des σj .

Exemple 2.1.4 On a :(

1 2 3 4 5 6 7 8 9 102 5 1 7 3 6 4 10 8 9

)= (1 2 5 3)(4 7)(8 10 9).

Proposition 2.1.5 Soit n ≥ 2. L’ensemble des transpositions engendre Sn.

11

Page 12: Université de Savoie Année 10/11 - univ-smb.fr

Dém. : soit σ ∈ Sn. Deux cas se présentent :

1. σ = id alors id = τ2 pour toute transposition τ .

2. σ 6= id alors il (faut et il) suffit de traiter le cas d’un cycle. Soient O l’orbite non trivialesuivant σ et x ∈ O. Alors σ = (x σ(x) · · · σc−1(x)) avec c > 2.

(a) Si la longueur c = 2 alors σ est un transposition.

(b) Sinon, supposons le résultat vrai pour un certain c > 2 et soit σ un cycle de longueurc+1. Posons τ = (x σc(x)). Il vient τσ = (x σ(x) · · · σc−1(x)). Ainsi, τσ est un cyclede longueur c qui se décompose, par récurrence, en produit de (c− 1) transpositions.

Remarque 2.1.4 Cette écriture n’est pas unique.

2.1.3 Signature

Définition 2.1.6 La signature d’une permutation σ ∈ Sn est l’entier ε(σ) = (−1)n−m où m estle nombre d’orbites suivant σ.

Exemple 2.1.5

1. La signature de l’identité est 1.

2. Si τ est une transposition alors ε(τ) = (−1)n−(n−2+1) = −1.

3. Plus généralement, si σ est un cycle de longueur q alors ε(σ) = (−1)n−(n−q+1) = (−1)q−1.

Lemme 2.1.3 Soient σ ∈ Sn et τ = (a b) une transposition. Alors ε(στ) = −ε(σ).Dém. : la transposition τ agit uniquement sur les orbites suivant σ contenant a ou b. Posonsσ′ = στ et distinguons 2 cas :

1. a et b appartiennent à la même orbite O = {a, σ(a), . . . , b = σq(a), . . . , σp−1(a)} suivant σavec σp(a) = a et 0 < q 6 p− 1. Les itérées de a par σ′ sont :

σ′0(a) = a

σ′(a) = στ(a) = σ(b) = σq+1(a)σ′2(a) = στ(σq+1(a)) = σq+2(a)

... =...

σ′p−q(a) = σp(a) = a

De même les itérées de b sont :

σ′0(b) = b

σ′(b) = στ(b) = σ(a)σ′2(b) = σ2(a)

... =...

σ′q(b) = b

Ainsi, l’orbite O se scinde en 2 orbites distinctes suivant σ′ donc ε(σ′) = (−1)n−(mσ+1) =−ε(σ).

2. a, b appartiennent à des orbites distinctes suivant σ i.e. Oa = {a, σ(a), . . . , σp−1(a)} etOb = {b, σ(b), . . . , σq−1(b)}, q 6 p. Les itérées de a sont :

σ′0(a) = a

σ′(a) = σ(b)

12

Page 13: Université de Savoie Année 10/11 - univ-smb.fr

... =...

σ′q−1(a) = σq−1(b)σ′q(a) = b

σ′q+1(a) = σ(a)... =

...σ′q+p−1(a) = σp−1(a)σ′q+p(a) = a

Et Oa, Ob fusionnent en une même orbite suivant σ′ d’où ε(σ′) = (−1)n−(mσ−1) = −ε(σ).

Proposition 2.1.6 Soient σ ∈ Sn et σ = τ1 · · · τp une écriture de σ en un produit de transpo-sition(s). Alors ε(σ) = (−1)p i.e. la signature ne dépend que de la parité de p (donc la parité dep est invariante pour σ donnée).Dém. : récurrence à l’aide du lemme précédent.

Définition 2.1.7 Une permutation σ est paire (resp. impaire) si ε(σ) = 1 (resp. ε(σ) = −1).

Corollaire 2.1.1 La signature ε : Sn → {−1, 1} est un homomorphisme (surjectif si n ≥ 2) degroupes.Dém. : il suffit de vérifier que le produit de 2 permutations de même parité (resp. de paritédifférente) est pair (resp. impair). Ce qui est immédiat.

Proposition 2.1.7 Le sous-ensemble de(s) permutation(s) paire(s) est un sous-groupe distinguéAn dans Sn appelé sous-groupe alterné de Sn.Dém. conséquence du fait que ε est un morphisme de groupes.

2.2 Déterminant d’un endomorphisme

2.2.1 Rappels et compléments d’algèbre linéaire

Définition 2.2.1 Soient E un K−espace vectoriel (ev) et F = (ai)i∈I une famille de vecteursde E.

1. La famille F est génératrice si pour tout x ∈ E, il existe un nombre fini d’indices i1, . . . , in

et λ1, . . . , λn ∈ K tels que x =n∑k=1

λkaik . Si I est fini, la condition de finitude est toujours

satisfaite.

2. Si E admet une famille génératrice finie, il est de dimension finie.

3. La famille F est libre si toute sous-famille finie est libre :

(ai1 , . . . , ain) libre ⇔ (∀λ1, . . . , λn ∈ K :n∑k=1

λkaik = 0⇒ ∀k ∈ {1, . . . , n} : λk = 0).

Si I est fini il suffit de vérifier la condition pour n = card(I).Si une famille n’est pas libre alors elle est liée.

4. La famille F est une base de E si elle est libre et génératrice.

13

Page 14: Université de Savoie Année 10/11 - univ-smb.fr

Exemple 2.2.1

1. Le R−ev Rn est de dimension finie n (sur R). La base canonique est la famille Cn = (ei)16i6n

avec ei = (0, . . . , 0, 1︸︷︷︸ieme

, 0, . . . , 0).

2. Le K−ev K[X] est de dimension infinie (sur K). Sa base canonique est la famille (1, X,X2,. . . , Xn, . . .)

Remarque 2.2.1

1. Une sous-famille d’une famille libre est libre.2. La famille vide est libre.3. Une sur-famille d’une famille génératrice est génératrice.

Définition 2.2.2 Un sous-espace vectoriel (sev) est un sous-ensemble non vide F d’un ev E telque :

1. ∀x, y ∈ F : x+ y ∈ F2. (∀x ∈ F )(∀λ ∈ K) : λx ∈ F

Remarque 2.2.2

1. Une intersection de sevs est un sev. Une somme finie de sevs est un sev.2. Une réunion de sevs n’est pas un sev.3. Le plus petit sev d’un ev est {0}. Le plus grand est E.

Définition 2.2.3 Soit A une partie de E. Le sev engendré par A, noté < A > est l’ensemble

des combinaisons linéaires {k∑i=1

λiai : λi ∈ K, ai ∈ A, 1 6 i 6 k, k ∈ N∗}.

Proposition 2.2.1 Le sev < A > est le plus petit sev contenant A.

Théorème 2.2.1 (de la base incomplète) Soient E un ev et L (resp. G) une famille libre(resp. génératrice) de E telle que L ⊆ G. Alors, il existe une famille B de vecteurs de E avecL ⊆ B ⊆ G, qui est une base de E.

Proposition 2.2.2 Toutes les bases ont le même cardinal.

Définition 2.2.4 Le cardinal d’une base de E est la dimension de E.

Remarque 2.2.3

1. La dimension d’un sev F est inférieure ou égale à la dimension de E.2. Si F est un sev de E et si dimF = dimE est finie alors F = E.3. Si dim(F +G) est finie alors dim(F +G) = dimF + dimG− dim(F ∩G).

Proposition 2.2.3 Soit E un ev de dimension finie n.1. Si F est une famille libre alors card(F) 6 n. Si card(F) = n alors F est une base.2. Si F est une famille génératrice alors card(F) > n. Si card(F) = n alors F est une base.

Définition 2.2.5 Soient E un ev et F1, . . . , Fp des sevs de E. L’ev E est somme directe de

F1, . . . , Fp, noté E =p⊕i=1

Fi, si tout x de E s’écrit de manière unique x = x1 + · · · + xp avec

xi ∈ Fi pour 1 6 i 6 p.

14

Page 15: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 2.2.4

1. E somme directe de F1, . . . , Fp ssi{E = F1 + · · ·+ FpFi+1 ∩ (F1 + · · ·+ Fi) = {0}, 1 6 i 6 p− 1

.

2. Si p = 2 et dimE = dimF1 + dimF2 est finie alors C.S.S.E. :

(a) E = F1 ⊕ F2

(b) E = F1 + F2

(c) F1 ∩ F2 = {0}Dans ce cas, la concaténation d’une base de F1 et d’une base de F2 produit une base de E.

Définition 2.2.6 Soit f ∈ L(E,F ) (le K−ev des applications linéaires de E dans F ).– ker f = {x ∈ E : f(x) = 0} = f−1({0}) est le noyau de f .– Im f = {y ∈ F : ∃x ∈ E, y = f(x)} = f(E) est l’image de f .

Remarque 2.2.4

1. Si f est une application linéaire alors ker f (resp. Im f) est un sev de E (resp. F ). Le rangde f noté rg f est dim Im f .

2. Si F = K alors f est une forme linéaire et si dimE = n > 0 alors{dim ker f = n− 1 (hyperplan)Im f = K si f 6= 0 ou bien

{ker f = EIm f = {0} si f = 0.

Théorème 2.2.2 (du rang) Soient E un ev de dimension finie et f ∈ L(E,F ). Alors

dimE = dim ker f + rg f.

Exemple 2.2.2 Soit p ∈ L(E) tel que p ◦ p = p. On a dimE = dim ker p + rg p. Soit x ∈ker p ∩ Im p. Alors p(x) = 0 et ∃x′ ∈ E : p(x′) = x. Donc p(p(x′)) = 0 = p(x′) i.e. x = 0. Parsuite, E = ker p⊕ Im p. L’endomorphisme p est le projecteur sur Im p parallèlement à ker p.

Proposition 2.2.5 Soient E,F deux evs de même dimension finie et f ∈ L(E,F ). C.S.S.E. :

1. f est injective (⇔ ker f = {0})2. f est bijective

3. f est surjective (⇔ rg f = dimF ).

Remarque 2.2.5

1. C’est faux si dimE est infinie.

2. Si E et F sont de même dimension finie et f ∈ L(E,F ), g ∈ L(F,E) tels que g ◦ f = idEalors f est bijective et g = f−1.

2.2.2 Définitions

Dans le reste du chapitre, K désigne un corps dans lequel 1 + 1 6= 0 (i.e. K n’est pas decaractéristique 2).

Définition 2.2.7 Soient E1, . . . , En, F des evs et f : E1× · · ·×En → F . L’application f estn−linéaire (ou multilinéaire) si f est linéaire par rapport à la variable i, 1 6 i 6 n lorsque les(n− 1) restantes sont fixées i.e.

(∀i ∈ {1, . . . , n})(∀(x1, . . . , xi, . . . , xn) ∈ E1× · · ·×Ei× · · ·×En) :

15

Page 16: Université de Savoie Année 10/11 - univ-smb.fr

1. ∀x, x′ ∈ Ei : f(x1, . . . , xi−1, x+ x′, xi+1, . . . , xn) = f(x1, . . . , xi−1, x, xi+1, . . . , xn)+f(x1, . . . , xi−1, x

′, xi+1, . . . , xn)

2. (∀x ∈ Ei)(∀λ ∈ K) : f(x1, . . . , xi−1, λx, . . . , xn) = λf(x1, . . . , xi−1, x, . . . , xn).Si F = K alors f est une forme n−linéaire.

On note L(E1, . . . , En;F ) (resp. Ln(E;F )) l’ev des applications n−linéaires de E1× · · ·×En(resp. En) dans F .

Exemple 2.2.3

1. Le produit scalaire R3×R3 → R(x, y) 7→ x · y est une forme bilinéaire.

2. Le produit vectoriel R3×R3 → R3

(x, y) 7→ x ∧ y est une application bilinéaire.

3. Le produit mixte R3×R3×R3 → R(x, y, z) 7→ x · (y ∧ z) est une forme trilinéaire.

4. Calculer f(n∑i=1

λixi,n∑j=1

µjxj).

Définition 2.2.8 Une application f ∈ Ln(E;F ) est alternée si

(∀(x1, . . . , xn) ∈ En)(∃i 6= j : xi = xj)⇒ f(x1, . . . , xn) = 0.

Lemme 2.2.1 Soit f ∈ Ln(E;F ). Alors f est alternée ssi (∀x1, . . . , xn ∈ E)(∀1 ≤ i < j ≤ n) :

f(x1, . . . , xi, . . . , xj , . . . , xn) = − f(x1, . . . , xj , . . . , xi, . . . , xn). (1)

Dém. :(⇒) Comme f est alternée f(x1, . . . , xi + xj , . . . , xj + xi, . . . , xn) = 0. Par suite,

f(x1, . . . , xi, . . . , xj , . . . , xn) + f(x1, . . . , xj , . . . , xi, . . . , xn) = 0.

(⇐) Si xi = xj alors 2f(x1, . . . , xi, . . . , xj , . . . , xn) = 0. Comme K n’est pas de caractéristique2, f est alternée.

Remarque 2.2.6 Quand la condition (1) est satisfaite, on dit aussi que f est antisymétrique.

Proposition 2.2.6 Soient E,F deux evs et f ∈ Ln(E;F ). Alors f est alternée ssi

∀σ ∈ Sn : f(xσ(1), . . . , xσ(n)) = ε(σ)f(x1, . . . , xn).

Dém. :(⇒) Si σ = τ = (i j), i < j est une transposition alors

f(xτ(1), . . . , xτ(n)) = f(x1, . . . , xj , . . . , xi, . . . , xn) = ε(τ)f(x1, . . . , xi, . . . , xj , . . . , xn).

En décomposant, σ en produit de transpositions et en raisonnant par récurrence sur le nombrede transpositions on obtient :

f(xσ(1), . . . , xσ(n)) = ε(τ1)f(xτ2···τp(1), . . . , xτ2···τp(n)) = ε(σ)f(x1, . . . , xn).

(⇐) L’antisymétrie de f est immédiate.

16

Page 17: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 2.2.7 Soit f ∈ Ln(E;F ). Alors f est alternée ssi

(∀(x1, . . . , xn) ∈ En)(∀(λ1, . . . , λn) ∈ Kn) : f(x1, . . . ,

ieme︷ ︸︸ ︷n∑j=1

λjxj , . . . , xn) = λif(x1, . . . , xn).

Dém. :(⇒) immédiat.(⇐) f(x1, . . . , xi, . . . , xi, . . . , xn) = f(x1, . . . , xi − xi, . . . , xi, . . . , xn) = 0 de sorte que f est

alternée.

Corollaire 2.2.1 La valeur d’une application n−linéaire alternée en un n−uplet est inchangéelorsque l’on remplace un vecteur du n−uplet par la somme de ce vecteur et d’une combinaisonlinéaire des vecteurs restants du n−uplet.

Corollaire 2.2.2 Soient f ∈ Ln(E;F ) alternée et x1, . . . , xn ∈ E. Alors

f(x1, . . . , xn) 6= 0⇒ (x1, . . . , xn) libre.

Dém. : par contraposée.

Proposition 2.2.8 Soient (e1, . . . , en) une base d’un ev E, x1, . . . , xn ∈ E tels que xj =n∑i=1

xijei

et f ∈ Ln(E;F ) alternée. Alors

f(x1, . . . , xn) =∑σ∈Sn

ε(σ)x1σ(1) · · ·xnσ(n)f(e1, . . . , en).

Dém. :

f(x1, . . . , xn) = f(n∑

i1=1

xi11ei1 , . . . ,n∑

in=1

xinnein)

=∑

16i1,...,in6n

xi11 · · ·xinnf(ei1 , . . . , ein)

=∑

16i1 6=···6=in6n

xi11 · · ·xinnf(ei1 , . . . , ein).

car f est alternée donc les seuls termes qui subsistent sont tels que (i1, . . . , in) est une permutationde {1, . . . , n}. Et dans ce cas, f(eσ(1), . . . , eσ(n)) = ε(σ)f(e1, . . . , en). Ainsi,

f(x1, . . . , xn) =∑σ∈Sn

ε(σ)xσ(1)1 · · ·xσ(n)nf(e1, . . . , en). (2)

Cette dernière somme peut se réécrire :

f(x1, . . . , xn) =∑σ∈Sn

ε(σ−1)xσ−1(1)1 · · ·xσ−1(n)nf(e1, . . . , en).

Maintenant, si aσ−1 := xσ−1(1)1 · · ·xσ−1(n)n alors aσ−1 = xσ−1(1)σσ−1(1) · · ·xσ−1(n)σσ−1(n) et lors-que j décrit {1, . . . , n}, σ−1(j) décrit « bijectivement » {1, . . . , n}. D’où aσ−1 = x1σ(1) · · ·xnσ(n).Finalement (2) se réécrit :

f(x1, . . . , xn) =∑σ∈Sn

ε(σ)x1σ(1) · · ·xnσ(n)f(e1, . . . , en).

17

Page 18: Université de Savoie Année 10/11 - univ-smb.fr

Définition 2.2.9 Le déterminant de la famille (x1, . . . , xn) dans la base B = (e1, . . . , en) est

detB(x1, . . . , xn) =∑σ∈Sn

ε(σ)x1σ(1) · · ·xnσ(n).

Remarque 2.2.71. Le detB dépend de la base B.2. On a : detB(e1, . . . , en) = 1.

Théorème 2.2.3 Soient E,F deux evs, B = (e1, . . . , en) une base de E et f ∈ Ln(E;F ) alternée.Alors f est entièrement déterminée par sa valeur sur (e1, . . . , en) et on a

f(x1, . . . , xn) = detB(x1, . . . , xn)f(e1, . . . , en).

Remarque 2.2.8 En particulier, on constate que si F = K alors toute forme n−linéaire alternéef est un multiple de detB.

Proposition 2.2.9 Soient E un K−ev et B = (e1, . . . , en) une base de E. Alors detB est uneforme n−linéaire alternée.Dém. : la multilinéarité est conséquence de la multilinéarité du produit dans K d’après (2).On a :

detB(x1, . . . , xj , . . . , xi, . . . , xn) =∑σ∈Sn

ε(σ)x1σ(1) · · ·xjσ(i) · · ·xiσ(j) · · ·xnσ(n)

=∑σ∈Sn

ε(σ)x1στ(1) · · ·xjστ(j) · · ·xiστ(i) · · ·xnστ(n)

avec τ = (i j). Or, lorsque σ décrit Sn, στ décrit (bijectivement) Sn. On peut ainsi remplacerσ par στ dans la somme précedente. Comme τ2 = Id, on obtient :

detB(x1, . . . , xj , . . . , xi, . . . , xn) = −detB(x1, . . . , xi, . . . , xj , . . . , xn)

car ε(στ) = −ε(σ).

Remarque 2.2.9 Ainsi, il existe bien des formes (donc des applications) multilinéaires alternées(non triviales !). L’espace vectoriel de telles formes (resp. applications) est donc de dimension 1(resp. dimF ).

Théorème 2.2.4 La fonction detB est l’unique forme n−linéaire alternée qui prend la valeur 1sur (e1, . . . , en).Dém. : le seul point à démontrer est l’unicité. Elle résulte du fait qu’une application n−linéairealternée est entièrement déterminée par sa valeur sur (e1, . . . , en).

2.2.3 Propriétés générales

Proposition 2.2.10 Soient E un K−ev, B = (e1, . . . , en) une base de E et (x1, . . . , xn) ∈ En.Alors detB(x1, . . . , xn) 6= 0⇔ (x1, . . . , xn) libre (i.e. (x1, . . . , xn) base de E).Dém. :

(⇒) déjà vu.(⇐) Notons B′ = (x1, . . . , xn). Alors detB′ est une forme n−linéaire alternée multiple de detB,

plus précisément detB′(x1, . . . , xn) = detB(x1, . . . , xn)detB′(e1, . . . , en). En particulier, detB(x1,. . . , xn) 6= 0.

18

Page 19: Université de Savoie Année 10/11 - univ-smb.fr

Définition 2.2.10 Soit A = (aij)1≤i,j≤n ∈Mn(K). Le déterminant de A est

det(A) =∑σ∈Sn

ε(σ)a1σ(1) · · · anσ(n).

Proposition 2.2.11 Soit A ∈Mn(K). Alors

det(A) = det(At).

Dém. : déjà vu sur les vecteurs.

Proposition 2.2.12 Soient A = (aij)1≤i,j≤n ∈ Mn(K), B = (e1, . . . , en) une base de Kn et

xj =n∑i=1

aijei. Alors det(A) = detB(x1, . . . , xn).

Remarque 2.2.10 detB(x1, . . . , xn) est le déterminant dans la base B de la famille des vecteurscolonnes de A.

Corollaire 2.2.3 Si f est un endomorphisme de E et si A = mat(f,B) alors

det(A) = detB(f(e1), . . . , f(en)).

Théorème 2.2.5 Soient A,B ∈Mn(K). Alors

det(AB) = det(A) det(B).

Dém. : fixons une base B = (e1, . . . , en) de Kn. Soit f (resp. g) l’endomorphisme de Kn tel queA = mat(f,B) (resp. B = mat(g,B)). Alors AB = mat(f ◦ g,B). Considérons ϕ : (Kn)n → Kdéfini par

ϕ(x1, . . . , xn) = detB(f(x1), . . . , f(xn)).

Alors ϕ est n−linéaire alternée donc ϕ(x1, . . . , xn) = detB(x1, . . . , xn)ϕ(e1, . . . , en). Or ϕ(e1, . . . ,en) = detB(f(e1), . . . , f(en)) = det(A). Évaluons maintenant ϕ en (g(e1), . . . , g(en)), il vient :

ϕ(g(e1), . . . , g(en)) = detB(f ◦ g(e1), . . . f ◦ g(en)) = det(AB) = det(B) det(A).

Corollaire 2.2.4 Soit A ∈Mn(K). Alors

A inversible ssi det(A) 6= 0 et dans ce cas det(A−1) =1

det(A).

Dém. :(⇒) Comme A est inversible, il existe une matrice B telle que AB = In. Mais alors,

det(A) det(B) = 1. D’où det(A) 6= 0 et det(B) = det(A−1) =1

det(A).

(⇐) Notons f l’endomorphisme de Kn tel que A = mat(f, Cn). Alors det(A) = detCn(f(e1),. . . , f(en)). Par suite, (f(e1), . . . , f(en)) est libre donc c’est une base de Kn. Dès lors, f estinversible et il existe g ∈ L(Kn) tel que f ◦ g = idKn . On conclut que A est inversible.

Proposition 2.2.13 Soient f un endomorphisme d’un ev E et B,B′ deux bases de E. Alorsdet(mat(f,B)) = det(mat(f,B′)).

19

Page 20: Université de Savoie Année 10/11 - univ-smb.fr

Dém. : en effet, A′ = P−1AP où P = mat(idE ,B′,B) est la matrice de passage de B à B′. Doncdet(A′) = det(A).

Définition 2.2.11 Le déterminant d’un endomorphisme f est det(A) où A désigne la matricede f dans une base de E. On note

det(f) = det(A) =

∣∣∣∣∣∣∣a11 · · · a1n...

...an1 · · · ann

∣∣∣∣∣∣∣ .

Proposition 2.2.14 (définition intrinsèque du déterminant) Soit f ∈ L(E) avec dimE = n.Alors, pour tout ϕ ∈ Ln(E;K) alternée on a :

ϕ(f(x1), . . . , f(xn)) = det(f)ϕ(x1, . . . , xn).

Dém. : on a déjà vu que l’espace des formes linéaires alternées An(E;K) est de dimension 1.Si ψ désigne l’endomorphisme ϕ 7→ ψ(ϕ) = ϕ(f, . . . , f) alors ψ est une homothétie de An(E;K)i.e. (∃α ∈ K)(∀ϕ ∈ An(E;K)) : ψ(ϕ) = αϕ. Maintenant, soit B = (e1, . . . , en) une base de E. Siϕ = detB alors detB(f(e1), . . . , f(en)) = αdetB(e1, . . . , en) i.e. α = det(f).

2.2.4 Calculs pratiques

Lemme 2.2.2 Soit A ∈Mn(K). On a :

det(A) =

∣∣∣∣∣∣∣a11 · · · a1i +

∑nj=1,j 6=i λja1j · · · a1n

......

...an1 · · · ani +

∑nj=1,j 6=i λjanj · · · ann

∣∣∣∣∣∣∣ .De plus :∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 · · · a1j−1 0 a1j+1 · · · a1n...

......

......

ai−11 · · · ai−1j−1 0 ai−1j+1 · · · ai−1n

ai1 · · · aij−1 1 aij+1 · · · ainai+11 · · · ai+1j−1 0 ai+1j+1 · · · ai+1n...

......

......

an1 · · · anj−1 0 anj+1 · · · ann

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= (−1)i+j

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 · · · a1j−1 a1j+1 · · · a1n...

......

...ai−11 · · · ai−1j−1 ai−1j+1 · · · ai−1n

ai+11 · · · ai+1j−1 ai+1j+1 · · · ai+1n...

......

...an1 · · · anj−1 anj+1 · · · ann

∣∣∣∣∣∣∣∣∣∣∣∣∣∣.

On a des propriétés analogues en permutant lignes et colonnes.

Soient A ∈Mn(K) et 1 6 i, j 6 n. Notons Ai,j la matrice d’ordre n−1 obtenue en supprimantla i−ème ligne et la j−ème colonne de A.

Proposition 2.2.15 (Développement suivant une colonne) Soit 1 6 j 6 n. Alors

det(A) =n∑i=1

(−1)i+jaij det(Ai,j).

20

Page 21: Université de Savoie Année 10/11 - univ-smb.fr

Dém. : on va traiter le cas j = 1. Notons xk le vecteur associé à la k−ième colonne de A. Alors

x1 =n∑i=1

ai1ei où (e1, . . . , en) désigne la base canonique Cn de Kn. On a :

det(A) = detCn(x1, . . . , xn) =n∑i=1

ai1detCn(ei, x2, . . . , xn)

Or, detCn(ei, x2, . . . , xn) = (−1)i+1 det(Ai,1) d’après le lemme.

Corollaire 2.2.5 (Développement suivant une ligne) Soit 1 6 i 6 n. Alors

det(A) =n∑j=1

(−1)i+jaij det(Ai,j).

Dém. : comme det(A) = det(tA), il suffit d’appliquer la proposition précédente à tA.

Exemple 2.2.4

1. ∣∣∣∣ a bc d

∣∣∣∣ = ad− bc.

2. ∣∣∣∣∣∣2 1 −1−1 0 1

5 −3 −2

∣∣∣∣∣∣ =

∣∣∣∣∣∣2 1 −10 0 10 −3 −2

∣∣∣∣∣∣ = 2∣∣∣∣ 0 1−3 −2

∣∣∣∣ = 6.

Proposition 2.2.16 Soit A ∈Mn(K) triangulaire. Alors

det(A) =n∏i=1

aii.

Dém. : on peut supposer A triangulaire supérieure. En développant le déterminant suivant la1ère colonne, on obtient det(A) = a11 det(A11). Or, A11 est une matrice triangulaire supérieured’ordre n− 1. D’où le résultat par récurrence.

Remarque 2.2.11 La formule s’applique en particulier si A est diagonale.

Exemple 2.2.5 ∣∣∣∣∣∣1 2 30 4 50 0 6

∣∣∣∣∣∣ =

∣∣∣∣∣∣4 0 05 1 02 −3 6

∣∣∣∣∣∣ = 24.

3 Dualité

3.1 Espace dual

Soit E un K−ev.

Définition 3.1.1 Le dual (algébrique) de E noté E∗ est l’espace vectoriel LK(E,K) des formeslinéaires sur E.

21

Page 22: Université de Savoie Année 10/11 - univ-smb.fr

Rappel :

(∀x ∈ E)(∀(λi)16i6n ⊂ K)(∀(fi)16i6n ⊂ E∗) : (n∑i=1

λifi)(x) =n∑i=1

λifi(x).

Exemple 3.1.11. Soient (e1, . . . , en) une base de E de dimension n et 1 6 i 6 n. Considérons

e∗i : E → Kx 7→ xi

.

Cette application est bien définie car l’écriture d’un vecteur x suivant une base de E est

unique : x =n∑j=1

xjej .

La fonction e∗i est linéaire. En effet, soient x, y ∈ E alors x+y =n∑j=1

(xj +yj)ej par unicité

de la décomposition sur une base. Par suite, e∗i (x+ y) = e∗i (x) + e∗i (y).Pour la même raison, e∗i (λx) = λe∗i (x). Par ailleurs, e∗i (ej) = δij .

2. Soient E = K[X] et a ∈ K. Alors

ϕa : E → KP 7→ P (a)

est une forme linéaire. C’est aussi un morphisme d’anneaux. Son noyau est un idéalmaximalMa de K[X],Ma = (X − a).Par ailleurs, si a 6= b alors (ϕa, ϕb) est libre. En effet, soient α, β ∈ K tels que αϕa+βϕb = 0.Posons P = X − a, on obtient α(a− a) + β(a− b) = 0. Donc β = 0. Mais alors α = 0. Onmontre plus généralement que (ϕa)a∈K est libre.

3. Soit E = C([a, b],R). AlorsIa,b : E → R

f 7→∫ ba f(t)dt

est une forme linéaire sur E.

Théorème 3.1.1 Soient E un ev de dimension n et (e1, . . . , en) une base de E. Alors (e∗1, . . . , e∗n)

est une base de E∗ et toute forme linéaire f ∈ E∗ s’écrit de manière unique dans cette base :

f =n∑i=1

f(ei)e∗i .

Dém. : soit x ∈ E alors x =n∑i=1

xiei. Donc f(x) =n∑i=1

xif(ei) =n∑i=1

f(ei)e∗i (x). Ainsi,

f =n∑i=1

f(ei)e∗i (3)

D’autre part, sin∑i=1

λie∗i = 0 alors pour 1 6 j 6 n,

n∑i=1

λie∗i (ej) =

n∑i=1

λiδij = λj = 0. Donc

(e∗i )16i6n est libre et la décomposition (3) est unique.

Corollaire 3.1.1 Si dimE = n alors dimE∗ = n.

Définition 3.1.2 Soit (e1, . . . , en) (resp. (f1, . . . , fn)) une base de E (resp. E∗). Ces bases sontduales si fi(ej) = δij .

Remarque 3.1.1 Si dimE = +∞ alors E et E∗ ne sont pas isomorphes. Par exemple, on peutposer E = R[X] ; on a notamment (ϕa)a∈R libre mais non dénombrable.

22

Page 23: Université de Savoie Année 10/11 - univ-smb.fr

3.2 Transposée

Rappel : soient E,F,G trois K−evs. Soient f1, f2 ∈ L(E,F ), g1, g2 ∈ L(F,G) et λ ∈ K. Alors

g1 ◦ (f1 + f2) = g1 ◦ f1 + g1 ◦ f2 (4)(g1 + g2) ◦ f1 = g1 ◦ f1 + g2 ◦ f1 (5)

λ(g1 ◦ f1) = (λg1) ◦ f1 = g1 ◦ (λf1) (6)

Remarque 3.2.1 Ces propriétés sont bien connues en dimension finie en calcul matriciel ettraduisent la bilinéarité du produit matriciel.

Définition 3.2.1 Soient E,F deux evs et f ∈ L(E,F ). La transposée de f , notée tf , est l’ap-plication de F ∗ dans E∗ définie par tf(y∗) = y∗ ◦ f .

Remarque 3.2.2 La transposée est définie en dimension quelconque.

Proposition 3.2.11. Si f ∈ L(E,F ) alors tf ∈ L(F ∗, E∗).2. t ∈ L(L(E,F ), L(F ∗, E∗)).

Proposition 3.2.2 Si dimF = m est finie et si f ∈ L(E,F ) alors rg (tf) = rg (f).Dém. : comme tf est linéaire et que F ∗ est de dimension finie, on a :

rg (tf) = dim(F ∗)− dim(ker(tf)).

Soit y∗ ∈ F ∗. Alorsy∗ ∈ ker(tf) ⇔ tf(y∗) = 0

⇔ Im (f) ⊆ ker(y∗).

Ainsi, ker(tf) = {y∗ ∈ F ∗ : Im (f) ⊆ ker(y∗)}. Soit (f1, . . . , fr) une base de Im f avec r = rg (f).Complètons cette famille libre en une base (f1, . . . , fr, fr+1, . . . , fm) de F . Alors (f∗1 , . . . , f

∗m) est

une base de F ∗ (duale de (f1, . . . , fm)). Par conséquent, tout y∗ ∈ F ∗ se décompose de manière

unique dans cette base : y∗ =m∑i=1

αif∗i (en fait, αi = y∗(fi)). Il vient :

y∗ ∈ ker(tf) ⇔ Im (f) ⊆ ker(y∗)⇔ < f1, . . . , fr >⊆ ker(y∗)⇔ y∗(fi) = 0 pour 1 ≤ i ≤ r

⇔ y∗ =m∑

i=r+1

y∗(fi)f∗i

⇔ y∗ ∈< f∗r+1, . . . , f∗m > .

Ainsi dim(ker(tf)) = m− (r + 1) + 1 = m− rg (f) et finalement rg (tf) = m− (m− rg (f)).

Proposition 3.2.3 On suppose dimE = n et dimF = m. Soit A = mat(f, (ei), (fj)) et B =mat(tf, (f∗j ), (e∗i )). Alors

B = tA.

Dém. : calculons la j−ième colonne de B. C’est le vecteur colonne tf(f∗j ) décomposé dans la base

(e∗i ). Sitf(f∗j ) =

n∑k=1

bkje∗k alors bkj est le coefficient sur la k−ième ligne de la j−ième colonne

de B. Comme (e∗i ) est duale de (ei), on a bij = tf(f∗j )(ei). Autrement dit, bij = f∗j (f(ei)).

Maintenant, f(ei) =m∑l=1

alifl de sorte que bij =m∑l=1

alif∗j (fl) =

m∑l=1

aliδjl = aji. D’où le résultat.

23

Page 24: Université de Savoie Année 10/11 - univ-smb.fr

Corollaire 3.2.1 Soit A ∈Mm,n(K). Alors rg (A) = rg (tA).

Proposition 3.2.4 La transposée vérifie :

t(g ◦ f) = tf ◦ tg (7)si f est un isomorphisme alors (tf)−1 = t(f−1). (8)

Dém. : Soit z∗ ∈ G∗. Alors t(g◦f)(z∗) = z∗(g◦f) = z∗◦g◦f = (z∗◦g)◦f = tg(z∗)◦f = tf◦tg(z∗).Soit g l’isomorphisme réciproque de f . Alors t(g◦f) = tidE = idE∗ . Or, d’après (7), t(g◦f) =

tf ◦ tg. On montrerait de même que tg ◦ tf = idF ∗ . D’où l’on tire tg = t(f−1) = (tf)−1.

Remarque 3.2.3 t(tf) : E∗∗ → F ∗∗ (E∗∗ bidual de E), donc en général t(tf) 6= f sauf endimension finie pour laquelle ces applications s’identifient. En effet, l’application

E → E∗∗

x 7→ x∗∗ ={E∗ → Ky∗ 7→ y∗(x)

}est injective. Donc surjective en dimension finie. Ainsi, on identifie x et x∗∗. Maintenant, soitf ∈ L(E,F ) avec dimE, dimF finis et x∗∗ ∈ E∗∗. Alorst(tf)(x) ≡ x∗∗ ◦ tf = {y∗ 7→ x∗∗(tf(y∗)) = x∗∗(y∗ ◦ f)} = {y∗ 7→ y∗(f(x))} = f(x)∗∗ ≡ f(x).

Corollaire 3.2.2 Soient A,B ∈Mn(K). Alors :1. t(A+B) = tA+ tB

2. t(λA) = λtA

3. t(AB) = tBtA

4. t(tA) = A

5. t(A−1) = (tA)−1 si A est inversible.

3.3 Orthogonalité

Soient E un K−ev et E∗ son dual.

Définition 3.3.1 Les vecteurs x ∈ E et y∗ ∈ E∗ sont orthogonaux si y∗(x) = 0.

Exemple 3.3.1 ei et e∗j sont orthogonaux ssi i 6= j.

Définition 3.3.2 Soit F ⊆ E (resp. F ∗ ⊆ E∗). L’orthogonal de F (resp. F ∗), noté F⊥ (resp.F ∗◦) est l’ensemble des y∗ ∈ E∗ (resp. x ∈ E) orthogonaux à tous les vecteurs de F (resp. F ∗) :

F⊥ = {y∗ ∈ E∗ : ∀x ∈ F, y∗(x) = 0}F ∗◦ = {x ∈ E : ∀y∗ ∈ F ∗, y∗(x) = 0}

Exemple 3.3.2 {0}⊥ = E∗ et {0∗}◦ = E.

Proposition 3.3.1 Si dimE = n et si F (resp. G) est un sev de E (resp. E∗). Alors :

dimF + dimF⊥ = n

dimG+ dimG◦ = n.

24

Page 25: Université de Savoie Année 10/11 - univ-smb.fr

Dém. : soit (e1, . . . , ep) une base de F . Complètons cette famille en une base (e1, . . . , ep,ep+1, . . . , en) de E. Maintenant :

y∗ ∈ F⊥ ⇔ F ⊆ ker(y∗)⇔ y∗(ei) = 0 pour 1 ≤ i ≤ p

⇔ y∗ =n∑

i=p+1

αie∗i , (αi)p+1≤i≤n ⊂ K

⇔ y∗ ∈< e∗p+1, . . . , e∗n > .

D’où dim(F⊥) = n− (p+ 1) + 1 = n− p.On démontre la seconde égalité de manière analogue.

Corollaire 3.3.1 Si F est un sev de E de dimension n alors (F⊥)◦ = F .Dém. : soit x ∈ F . Alors, ∀y∗ ∈ F⊥, y∗(x) = 0. Donc x ∈ (F⊥)⊥. Ainsi, F ⊆ (F⊥)◦. Commedim((F⊥)◦) = dim(F ), on conclut que (F⊥)◦ = F .

Proposition 3.3.2 Soit f ∈ L(E,F ). Alors

(Im f)⊥ = ker(tf).

Dém. : soit y∗ ∈ Im (f)⊥ i.e. ∀x ∈ E : y∗(f(x)) = 0.

∀x ∈ E : y∗(f(x)) = 0 ⇔ ∀x ∈ E : (y∗ ◦ f)(x) = 0⇔ ∀x ∈ E :t f(y∗)(x) = 0⇔ tf(y∗) = 0⇔ y∗ ∈ ker(tf).

Proposition 3.3.3 Im (tf) ⊆ ker(f)⊥.Dém. : soit x∗ ∈ Im (tf) i.e. ∃y∗ ∈ F ∗ :t f(y∗) = x∗. Soit x′ ∈ ker(f). Alors :

x∗(x′) =t f(y∗)(x′) = y∗ ◦ f(x′) = y∗(f(x′)) = 0.

Et x∗ ∈ ker(f)⊥.

Remarque 3.3.1 Si dimE = n et dimF sont finis alors

rg (tf) = rg (f) = n− dim(ker(f)) = dim(ker(f)⊥).

4 Espaces euclidiens et hermitiens

4.1 Formes bilinéaires et sesquilinéaires

Définition 4.1.1 Soient E,F,G trois K−evs et f : E×F → G. L’application f est bilinéaire si(∀x, x′ ∈ E)(∀y, y′ ∈ F )(∀λ,∈ K) :

f(x+ x′, y) = f(x, y) + f(x′, y) (9)f(x, y + y′) = f(x, y) + f(x, y′) (10)

f(λx, y) = λf(x, y) (11)f(x, λy) = λf(x, y) (12)

Si K = C alors f est sesquilinéaire si f vérifie (9)-(11) et

f(x, λy) = λf(x, y) (13)

Si G = K alors f est une forme bilinéaire (ou sesquilinéaire).

25

Page 26: Université de Savoie Année 10/11 - univ-smb.fr

Dans la suite, on se limitera à K = R ou K = C.

Exemple 4.1.1

1. E = F = G = K, K×K → K(x, y) 7→ xy

est bilinéaire.

2. E = F = G = L(V ) avec V un K−ev., L(V )2 → L(V )(f, g) 7→ f ◦ g est bilinéaire.

3. E = F = C([a, b],C),C([a, b],C)2 → C

(f, g) 7→∫ ba f(t)g(t)dt

est bilinéaire tandis que

C([a, b],C)2 → C(f, g) 7→

∫ ba f(t)g(t)dt

est sesquilinéaire.

4. E = F = Kn ∼=Mn,1(K), Kn×Kn → K(x, y) 7→ tXY = tY X

est bilinéaire tandis que

Cn×Cn → C(x, y) 7→ tXY = Y ∗X

est sesquilinéaire (on a noté Y ∗ = tY ).

Proposition 4.1.1 Soient E,F deux evs sur R (resp. C), (a1, . . . , an) une base de E, (b1, . . . , bm)une base de F et f une forme bilinéaire (resp. sesquilinéaire) sur E×F . On pose

A = (f(ai, bj))16i6n,16j6m.

Si x =n∑i=1

xiai ∈ E et y =m∑j=1

yjbj alors

f(x, y) = tXAY

avec X =

x1...xn

et Y =

y1...ym

(resp.

f(x, y) = tXAY = Y ∗tAX

avec Y ∗ = (y1 · · · ym)).Dém. : on va démontrer le cas sesquilinéaire. On a :

f(x, y) = f(n∑i=1

xiai,

m∑j=1

yjbj)

=m∑j=1

yjf(n∑i=1

xiai, bj)

=m∑j=1

yj(n∑i=1

xif(ai, bj))

=m∑j=1

yj(n∑i=1

f(ai, bj)xi)

= Y ∗tAX.

26

Page 27: Université de Savoie Année 10/11 - univ-smb.fr

Remarque 4.1.1 Dans la cas réel, on a aussi f(x, y) = tY tAX qui est l’expression analogue ducas sesquilinéaire.

Définition 4.1.2 La matrice A ci-dessus est la matrice de f (dans les bases (ai)16i6n de E et(bj)16j6m de F ). On notera A = mat(ai)16i6n,(bj)16j6m

(f).

Corollaire 4.1.1 Si M ∈Mn,m(K) est telle que

∀(x, y) ∈ E×F : f(x, y) = tXMY (resp. tXMY = Y ∗tMX)

alors M est la matrice de f où X (resp. Y ) désigne la matrice colonne des compasantes de x(resp. y) décomposé dans la base (ai) (resp. (bj)).Dém. : en effet, dans le cas complexe :

f(ai, bj) =(

0 · · · 0

j︷︸︸︷1 0 · · · 0

)︸ ︷︷ ︸

bj

tM

0...01}i0...0

ai = (tM)ji = Mij

Proposition 4.1.2 Soient E,F deux evs de dimension finie sur R (resp. C), f une forme bi-linéaire (resp. sesquilinéaire) sur E×F , A la matrice de f relativement à des bases de E et Frespectivement et P (resp. Q) une matrice de changement de base dans E (resp. F ). Alors lamatrice de f dans les nouvelles bases est :

A′ = tPAQ (resp. tA′ = Q∗tAP ou A′ = tPAQ).

Dém. : On a : X = PX ′ et Y = QY ′. Donc

f(x, y) = Y ∗tAX = (QY ′)∗tA(PX ′) = Y ′∗Q∗tAPX ′ = Y ′∗tA′X ′.

Définition 4.1.3 Soit f : E×E → K. L’application f est :– bilinéaire symétrique si f est bilinéaire et si ∀x, y ∈ E : f(y, x) = f(x, y)– hermitienne si f est sesquilinéaire et si ∀x, y ∈ E : f(y, x) = f(x, y).

Soit A ∈ Mn(K) (resp. Mn(C)). La matrice A est symétrique (resp. hermitienne) si tA = A(resp. A∗ := tA = A).

Proposition 4.1.3

f est symétrique ⇔ A est symétriquef est hermitienne ⇔ A est hermitienne.

Dém. :(⇒) facile.(⇐) On le démontre dans le cas complexe. Soient x, y ∈ E. On a :

f(y, x) = X∗tAY

= X∗AY

= (tAX)∗Y= tY tAX

= Y ∗tAX

= f(x, y).

27

Page 28: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 4.1.4 Soit f : E×E → K bilinéaire. Pour x ∈ E fixé, notons f(x, ·) (resp. f(·, x))l’application partielle de E dans K définie par f(x, ·)(y) = f(x, y) (resp. f(·, x)(y) = f(y, x)).Alors f(x, ·), f(·, x) ∈ E∗ et x 7→ f(x, ·) et x 7→ f(·, x) sont linéaires de E dans E∗.

Remarque 4.1.2 Si f est hermitienne alors f(·, x) ∈ E∗ mais f(x, ·) n’est plus linéaire ; elle estsemi-linéaire i.e. f(x, λy) = λf(x, y).

Lemme 4.1.1 Soient E un K−ev (resp. C−ev) et f une forme bilinéaire symétrique (resp.hermitienne). Alors A = {x ∈ E : f(x, ·) = 0} et B = {x ∈ E : f(·, x) = 0} sont égaux etforment un sev de E.Dém. : si f est symétrique (resp. hermitienne) alors f(x, y) = f(y, x) (resp. f(x, y) = f(y, x)).Dès lors, f(x, y) = 0⇔ f(y, x) = 0.

Définition 4.1.4 Soit f une forme bilinéaire symétrique (resp. hermitienne). Le noyau de f estl’ensemble {x ∈ E : f(x, ·) = 0}. Si le noyau est réduit à {0} alors f est non dégénérée.

Remarque 4.1.3 x ∈ noyau de f ⇔ ∀y ∈ E : f(x, y) = 0.

Exemple 4.1.2

1. Le produit scalaire euclidien et le produit scalaire hermitien sont non dégénérés.

2. Soit f((x1, y1), (x2, y2)) = x1x2 − y1y2. Alors f est non dégénérée.

Théorème 4.1.1 Soient E un ev sur R ou C, B = (e1, . . . , en) une base de E et f : E×E → Kune forme bilinéaire symétrique (resp. hermitienne). CSSE :

1. f est non dégénérée

2. ϕ : x 7→ f(·, x) de E dans E∗ est un isomorphisme (resp. semi-isomorphisme)

3. le déterminant de la matrice de f dans B est non nul.

Dém. :1. ⇒ 2. L’application ϕ est linéaire car f est linéaire (resp semi-linéaire) par rapport à la

seconde variable. Comme E est de dimension finie, E∗ ∼= E. Il suffit donc de montrer que ϕ estinjective. Soit x ∈ E tel que ϕ(x) = f(·, x) = 0. Alors, x appartient au noyau de f i.e. x = 0 etϕ est injectif donc c’est un isomorphisme (resp. semi-isomorphisme).

2. ⇒ 3. Comme ϕ est un isomorphisme, sa matrice A dans (B,B∗) est inversible donc sondéterminant est non nul. Or A = (f(ei, ej)) i.e. det(matB(f)) 6= 0.

3. ⇒ 1. Soit x ∈ E tel que ∀y ∈ E : f(y, x) = 0. Comme A est inversible, il existe Z ∈Mn,1(K) tel que X = tAZ. Donc f(z, x) = tZAX = tXX = 0. Mais alors x = 0 et f est nondégénérée.

Corollaire 4.1.2 Soit f : E × E → K une forme bilinéaire symétrique (resp. hermitienne) nondégénérée. Pour tout y∗ ∈ E∗, il existe un unique x de E tel que y∗ = f(·, x).Dém. : si f est symétrique (resp. hermitienne) alors ϕ est un isomorphisme (resp. semi-isomor-phisme).

4.2 Orthogonalité

Soit f une forme bilinéaire symétrique ou hermitienne sur E × E.

Définition 4.2.1 Les vecteurs x, y ∈ E sont orthogonaux (relativement à f) si f(x, y) = 0 (ouf(y, x) = 0). Soit A une partie de E. L’orthogonal de A, noté A⊥, est {x ∈ E : ∀a ∈ A, f(x, a) =0}.

28

Page 29: Université de Savoie Année 10/11 - univ-smb.fr

Remarque 4.2.11. Le noyau de f est E⊥.2. A⊥ est un sev de E.3. Si f est un produit scalaire alors on retrouve la notion usuelle.

Théorème 4.2.1 Soit F un sev de E de dimension n. Alors F⊥ est un sev de E et F ⊆ (F⊥)⊥.De plus si f est non dégénérée alors dim(F⊥) = codim(F ) et F = (F⊥)⊥.Dém. : soit x ∈ F . Pour t ∈ F⊥ on a f(t, x) = 0. Comme f est symétrique ou hermitienne,f(x, t) = 0. Mais alors x est orthogonal à tous les vecteurs de F⊥.

Si f est non dégénérée alors ϕ est un (semi-)isomorphisme. Soit (e1, . . . , ep) une base de F quel’on complète en une base de E. Soit H = {y∗ ∈ E∗ : y∗(F ) = {0}}. Alors H =< e∗p+1, . . . , e

∗n >.

Donc dim(H) = codimF . Montrons que ϕ−1(H) = F⊥. On a :

y ∈ ϕ−1(H) ⇔ ϕ(y) ∈ H⇔ ∀x ∈ F : ϕ(y)(x) = 0⇔ ∀x ∈ F : f(x, y) = 0⇔ y ∈ F⊥.

Comme ϕ est un (semi-)isomorphisme, il conserve la dimension de H donc dim(F⊥) = n − p.D’où le résultat.

Définition 4.2.2 Un vecteur x ∈ E est isotrope si f(x, x) = 0. Un sev F de E est isotropesi F ∩ F⊥ 6= {0}. On note souvent I l’ensemble des vecteurs isotropes. Ce n’est pas un sev engénéral mais I est conique i.e. (∀x ∈ I)(∀λ ∈ K) : λx ∈ I.

Exemple 4.2.1 Dans l’exemple 2. précédent, I =< (1, 1) > ∪ < (−1, 1) >.

Proposition 4.2.1 Soient E un K−ev de dimension finie et F un sev de E. C.S.S.E. :1. f|F×F est non dégénérée2. F ∩ F⊥ = {0}3. E = F ⊕ F⊥.

Dém. :1.⇔ 2. f|F×F est non dégénérée ⇔ {x ∈ F : ∀y ∈ F, f(y, x) = 0} = {0} ⇔ F ∩ F⊥ = {0}.1.⇒ 3. Soit x ∈ E. Alors f(·, x)|F ∈ F ∗. Comme f|F×F est non dégénérée, il existe un unique

x1 ∈ F tel que f(·, x)|F = f(·, x1)|F . Mais alors x− x1 ∈ F⊥ et E = F ⊕ F⊥.3.⇒ 2. par définition.

Remarque 4.2.2 Ne pas chercher à comparer f|F×F non dégénérée et f non dégénérée.

Définition 4.2.3 Une base (ei) de E est orthogonale (resp. orthonormale) si

f(ei, ej) = 0 si i 6= j (resp. f(ei, ej) = δij pour tout i, j).

Exemple 4.2.2 La base canonique Cn de Kn est orthonormée pour le produit scalaire usuel.

Théorème 4.2.2 (fondamental) Soit E un K−ev de dimension finie. Alors E admet une baseorthogonale pour f .

Lemme 4.2.1 f = 0⇔ ∀x ∈ E : f(x, x) = 0.Dém. :

(⇒) évident.(⇐) soient x, y ∈ E.– Dans le cas réel : f(x+ y, x+ y) = f(x, x) + 2f(x, y) + f(y, y) = 2f(x, y) = 0.– Dans le cas complexe : 2Re(f(x, y)) = 0. De même, f(x− iy, x− iy) = f(x, x)− if(y, x) +if(x, y) + f(y, y) = 0. D’où Im(f(x, y)) = 0.

29

Page 30: Université de Savoie Année 10/11 - univ-smb.fr

Dém. (du théorème) :– immédiat si f = 0.– Sinon, on raisonne par récurrence sur la dimension de E.

– Si dimE = 1 alors c’est évident.– On suppose le résultat vrai pour la dimension n− 1. Comme f 6= 0, il existe un vecteurx non isotrope i.e. f(·, x) 6= 0. Posons H = {f(·, x) = 0} : c’est un hyperplan deE qui ne contient pas x. Appliquons l’hypothèse de récurrence à f|H×H . Il existe unebase (e2, . . . , en) de H orthogonale pour f . Mais alors (x, e2, . . . , en) est une base de Eorthogonale pour f .

Remarque 4.2.3

1. La matrice de f dans cette base est diagonale.2. Cette preuve n’est pas constructive.3. Si f est hermitienne alors ∀x ∈ E : f(x, x) ∈ R.

Proposition 4.2.2 Soit (e1, . . . , en) une base orthogonale. Alors {ei : f(ei, ei) = 0} est une basedu noyau de f .Dém. : notons K = {k ∈ {1, . . . , n} : f(ek, ek) = 0}.

Comme (e1, . . . , en) est orthogonale, pour k ∈ K, ek appartient au noyau de f . Ainsi (ek)k∈Kest une famille libre de vecteurs du noyau de f .

Soit x =n∑i=1

λiei appartenant au noyau de f . Si j 6∈ K alors f(x, ej) = λjf(ej , ej). Or,

f(ej , ej) 6= 0. Par suite λj = 0. Donc (ek)k∈K est une famille génératrice du noyau de f .

Théorème 4.2.3 (d’inertie de Sylvester) Soient E un R−ev (resp. C−ev) et (e1, . . . , en) unebase orthogonale telle que :

f(ei, ei) > 0, 1 ≤ i ≤ rf(ei, ei) < 0, r + 1 ≤ i ≤ r + s

f(ei, ei) = 0, r + s+ 1 ≤ i ≤ n.

Alors r et s ne dépendent que de f ; autrement dit, si (e′1, . . . , e′n) est une autre base orthogonale

telle que :

f(e′i, e′i) > 0, 1 ≤ i ≤ r′

f(e′i, e′i) < 0, r′ + 1 ≤ i ≤ r′ + s′

f(e′i, e′i) = 0, r′ + s′ + 1 ≤ i ≤ n

alors r′ = r et s′ = s.Dém. : notons F =< e1, . . . , er > et G =< e′r′+1, . . . , e

′n >. Soit x ∈ F ∩ G. Alors f(x, x) =

r∑i=1

|λi|2f(ei, ei) ≥ 0 mais on a aussi f(x, x) =n∑

i=r′+1

|λ′i|2f(e′i, e′i) ≤ 0. Par suite f(x, x) = 0.

Mais alors λi = 0 pour 1 ≤ i ≤ r donc x = 0. Il s’ensuit que :

dim(F +G) = dimF + dimG ≤ n.

Ou encore r+n− r′ ≤ n i.e. r ≤ r′. En inversant le rôle de r et r′ on obtient que r = r′. Commela dimension du noyau est n− (r+s) = n− (r′+s′) d’après la proposition précédente, on conclutque s = s′.

Remarque 4.2.4 Ainsi, r (resp. s) est la dimension maximale d’un sev sur lequel f(x, x) > 0(resp. f(x, x) < 0) si x 6= 0.

30

Page 31: Université de Savoie Année 10/11 - univ-smb.fr

4.3 Adjoint d’un endomorphisme

Proposition 4.3.1 Soient E un ev de dimension n et u un endomorphisme de E. Si f est nondégénérée alors il existe un unique endomorphisme u∗ de E tel que :

∀x, y ∈ E : f(u(x), y) = f(x, u∗(y)).

Dém. : soit y ∈ E. Alors αy : x 7→ f(u(x), y) ∈ E∗. Comme f est non dégénéré, il existe ununique z ∈ E tel que αy = f(·, z). On pose u∗(y) = z. Ainsi :

∀x, y ∈ E : f(u(x), y) = f(x, u∗(y)).

De plus, soient y, y′ ∈ E. On a :

∀x ∈ E : f(x, u∗(y + y′)) = f(u(x), y + y′) = f(x, u∗(y) + u∗(y′))

Or f est non dégénéré donc u∗(y+ y′) = u∗(y) +u∗(y′). De même, soient λ ∈ K et y ∈ E. On a :

∀x ∈ E : f(x, u∗(λy)) = f(u(x), λy) = f(x, λu∗(y))

Donc u∗(λy) = λu∗(y).On conclut que u∗ est bien défini, de manière unique et appartient à L(E).

Définition 4.3.1 Soient f non dégénérée et u ∈ L(E). L’adjoint de u noté u∗ est l’uniqueendomorphisme de E tel que :

∀x, y ∈ E : f(u(x), y) = f(x, u∗(y)).

Proposition 4.3.2 On a les propriétés suivantes :

(u+ v)∗ = u∗ + v∗ et{

(λu)∗ = λu∗ si f est bilinéaire symétrique(λu)∗ = λu∗ si f est hermitienne

(u ◦ v)∗ = v∗ ◦ u∗ et (u∗)∗ = u

rg u∗ = rg u et{

det u∗ = det u si f est bilinéaire symétriquedet u∗ = det u si f est hermitienne

Dém. : on va démontrer les 2 dernières propriétés. On a :

x ∈ keru ⇔ ∀y ∈ E : f(u(x), y) = 0⇔ ∀y ∈ E : f(x, u∗(y)) = 0⇔ x ∈ (Imu∗)⊥.

i.e. keru = (Imu∗)⊥. Or, f est non dégénérée donc dim keru = n− rg u∗ i.e. rg u = rg u∗.Soit (e′i)1≤i≤n une base orthogonale. Comme f est non dégénérée, on peut poser :

ei =

e′i√

f(e′i, e′i)

si f(e′i, e′i) > 0

e′i√−f(e′i, e

′i)

si f(e′i, e′i) < 0

Notons B = (e1, . . . , en) et traitons le cas hermitien.

Pour 1 ≤ j ≤ n : u(ej) =n∑i=1

αijei et u∗(ej) =n∑i=1

βijei.

On a donc ∀i, j : f(u(ei), ej) = εαji = f(ei, u∗(ej)) = εβij i.e. mat(u∗,B) = mat(u,B)∗. Parsuite, detu∗ = detmat(u∗,B) = detmat(u,B) = detu.

31

Page 32: Université de Savoie Année 10/11 - univ-smb.fr

Définition 4.3.2 Soient f non dégénérée et u ∈ L(E) tel que

∀x, y ∈ E : f(u(x), u(y)) = f(x, y).

Si f est bilinéaire symétrique alors u est orthogonal.Si f est hermitienne alors u est unitaire.

Proposition 4.3.3 L’endomorphisme u est orthogonal ou unitaire ssi u∗ ◦ u = idE .

Exemple 4.3.1

1. E = Rn, f(x, y) =n∑i=1

xiyi = tXY .

u orthogonal ⇔ ∀x, y ∈ E : f(u(x), u(y)) = f(x, y).

Notons U la matrice de u alors :

t(UX)(UY ) = tXY

= tX(tUU)Y

Dés lors,

u orthogonal ⇔ U orthogonale ⇔ tU = U−1.

2. E = Cn, f(x, y) =n∑i=1

xiyi. Alors :

u unitaire ⇔ U unitaire ⇔ U∗ = U−1.

4.4 Formes quadratiques et formes quadratiques hermitiennes

Définition 4.4.1 Soient E un K−ev et q : E → K. L’application q est une forme quadratique(resp. quadratique hermitienne) si il existe une forme bilinéaire (resp. hermitienne) f telle que :

∀x ∈ E : q(x) = f(x, x).

Proposition 4.4.1 Si q : E → K est une forme quadratique (resp. quadratique hermitienne)alors il existe une unique forme bilinéaire symétrique (resp. hermitienne) f telle que q(x) =f(x, x) et

f(x, y) =12

(q(x+ y)− q(x)− q(y)) =14

(q(x+ y)− q(x− y)) (14)

(resp.

f(x, y) =12

(q(x+ y)− iq(x+ iy)− (1− i)(q(x) + q(y))) (15)

).

Définition 4.4.2 La forme bilinéaire symétrique ou hermitienne f telle que q(x) = f(x, x) estla forme polaire de q.

Remarque 4.4.1

1. On a en fait un isomorphisme entre S2(E,K) et Q(E,K). Toute notion définie sur une formebilinéaire symétrique se transporte sur Q(E,K) via cet isomorphisme. De même, le R−evdes formes (sesquilinéaires) hermitiennes est isomorphe au R−ev des formes quadratiqueshermitiennes.

32

Page 33: Université de Savoie Année 10/11 - univ-smb.fr

2. Soient B une base de E et A = matB(q) (i.e. matB(f)). Alors

q(x) = tXAX = tXtAX.

3. De même, si q est une forme quadratique hermitienne alors

q(x) = tXAX = X∗tAX

4. Deux formes bilinéaires satisfaisant à (14) diffèrent d’une forme antisymétrique.5. Les égalités (14) et (15) sont les identités de polarisation.

Exemple 4.4.1 Ecrire la matrice A des formes quadratiques :1. q(x) = 2x2

1 + 2x1x2 + x23 − 2x1x3

2. q(x) = x1x1 − 2ix1x3 + 2ix1x3 + 2x3x3 + x1x2 + x1x2.

Théorème 4.4.1 (Décomposition de Gauss) Soit q une forme quadratique sur E de dimensionn. Alors il existe p 6 n formes linéaires indépendantes l1, . . . , lp telles que

q(x) =p∑i=1

αil2i (x).

Dém. : il s’agit d’épuiser les variables une par une. On raisonne par récurrence sur le nombrede variables restantes. On pose q1 = q. Deux cas se présentent.

1. Il existe 1 6 i 6 n : aii 6= 0. Quitte à renuméroter les variables, on peut supposer i = 1.Ainsi

q1(x) = a11x21 + x1l(x2, . . . , xn) + q′(x2, . . . , xn)

En écrivant le début d’un carré, il vient :

q1(x) = a11(x1 +1

2a11l)2 − 1

4a11l2 + q′(x2, . . . , xn).

On pose α1 = a11, l1 = x1 +l

2a11et q2(x2, . . . , xn) = q′(x2, . . . , xn)− l2

4a11.

2. Pour tout 1 6 i 6 n : aii = 0. Si q 6= 0 alors il existe i < j tels que aij 6= 0. Sans perte degénéralité, on peut supposer que i = 1 < 2 = j. Alors

q1(x) = a12(x1x2 + x1l′1(x3, . . . , xn) + x2l

′2(x3, . . . , xn)) + q′(x3, . . . , xn).

On peut écrire :

q1 = a12(x1 + l′2)(x2 + l′1)− a12l′1l′2 + q′

=a12

4((x1 + l′1 + x2 + l′2)2 − (x1 + l′1 − (x2 + l′2))2

)+ q1 − a12l

′1l′2

On pose α1 =a12

4, α2 = −a12

4, l1 = x1+l′1+x2+l′2, l2 = x1+l′1−x2−l′2 et q2(x3, . . . , xn) =

q1(x3, . . . , xn)− a12l′1(x3, . . . , xn)l′2(x3, . . . , xn).

On recommence avec q2 en remarquant qu’elle ne dépend plus que de n− 1 ou n− 2 variables.

Exemple 4.4.2 Soit q(x) = 2x1x2 + x2x3 + x3x1 + x3x4. Alors

q(x) = 2x1x2 + x1x3 + x2x3 + x3x4

= 2(x1x2 + x1(

12x3) + x2(

12x3))

+ x3x4

=12

(x1 +12x3 + x2 +

12x3)2 − 1

2(x1 +

12x3 − x2 −

12x3)2 − 1

2x2

3 + x3x4

=12

(x1 + x2 + x3)2 − 12

(x1 − x2)2 − 12

(x3 − x4)2 +12x2

4

33

Page 34: Université de Savoie Année 10/11 - univ-smb.fr

Remarque 4.4.2 Soit f sesquilinéaire hermitienne. Si aijxiyj apparaît dans l’écriture de f(x, y)

(dans une base) alors aijxj yi aussi. En particulier, dans une base orthogonale, f(x, y) =n∑i=1

αixiyi

donc αi ∈ R.

Proposition 4.4.2 Soient E un C−ev de dimension n et q une forme quadratique hermitienne.Alors il existe p 6 n formes linéaires linéairement indépendantes l1, . . . , lp telles que

q(x) =p∑i=1

αi|li(x)|2.

Corollaire 4.4.1 (aussi du théorème de Sylvester) Soient q une forme quadratique (resp. qua-dratique hermitienne). Alors il existe une base orthogonale (ei)16i6n de E telle que :

q(ei) =

1 si 1 6 i 6 r−1 si r + 1 6 i 6 r + s

0 si r + s+ 1 6 i 6 n

où les entiers r et s ne dépendent que de q.

Définition 4.4.3 La signature de q est σ(q) = (r, s). Le rang de q est r + s.

Définition 4.4.4 Soient E un R−ev (resp. C−ev) et f une forme bilinéaire symétrique (resp.hermitienne). La forme f est :

– positive (resp. négative) si ∀x ∈ E : f(x, x) > 0 (resp. f(x, x) 6 0)– définie positive (resp. définie négative) si ∀x ∈ E − {0} : f(x, x) > 0 (resp. f(x, x) < 0).

Un produit scalaire euclidien (resp. hermitien) sur E est une forme bilinéaire symétrique (resp.hermitienne) définie positive sur E.

Remarque 4.4.3 Si f est positive alors

f définie positive ⇔ le seul vecteur isotrope est 0.

Théorème 4.4.2 (Inégalité de Cauchy-Schwartz) Soit f une forme bilinéaire symétrique (surun R−ev) ou hermitienne (sur un C−ev) positive . Alors

|f(x, y)|2 6 f(x, x)f(y, y). (16)

Dém. : on va démontrer le cas bilinéaire symétrique. Soient x, y ∈ E. Pour tout λ ∈ R, on a :

0 6 f(x+ λy, x+ λy) = f(x, x) + 2λf(x, y) + λ2f(y, y).

Deux cas se présentent :1. f(y, y) = 0. Alors ∀λ ∈ R : 2λf(x, y) + f(x, x) > 0. Mais alors f(x, y) = 0 et (16) s’en suit.2. f(y, y) 6= 0. Alors f(x, x) + 2λf(x, y) + λ2f(y, y) est un trinôme du second degré en λ qui

n’a pas de racine ou une racine double sur R. Celà signifie que son discriminant est négatifou nul. Ainsi, ∆′ = f(x, y)2 − f(x, x)f(y, y) 6 0. D’où (16).

Corollaire 4.4.2 Soit f une forme bilinéaire symétrique ou hermitienne positive. Alors le noyaude f est l’ensemble des vecteurs isotropes. De plus,

f définie positive ⇔ f non dégénérée.

Dém. : par définition, le noyau est inclus dans l’ensemble des vecteurs isotropes. Réciproquement,soit x un vecteur isotrope. Alors ∀y ∈ E : f(x, y) = 0 d’après Cauchy-Schwartz. Donc x estélément du noyau de f .

34

Page 35: Université de Savoie Année 10/11 - univ-smb.fr

(⇒) Comme f > 0, elle ne possède aucun vecteur isotrope donc f est non dégénéré.(⇐) Comme f > 0, l’ensemble des vecteurs isotropes coïncide avec le noyau de f . Or f est

non dégénéré donc f > 0.

Théorème 4.4.3 Soient E un R−ev (resp. C−ev) de dimension n et f une forme bilinéairesymétrique (resp. sesquilinéaire hermitienne) définie positive. Alors E admet une base orthonor-male et relativement à cette base :

f(x, y) =n∑i=1

xiyi (resp. f(x, y) =n∑i=1

xiyi)

q(x) =n∑i=1

x2i (resp. q(x) =

n∑i=1

|xi|2).

Remarque 4.4.4

1. L’expression de f dans une base orthonormale est celle du produit scalaire usuel.

2. Cette preuve n’est pas constructive. Pour construire une base orthonormale pour une tellef on peut utiliser le procédé d’orthonormalisation de Gram-Schmidt (cf TD).

Proposition 4.4.3 Soient E un R−ev (resp. C−ev) et q une forme quadratique (resp. qua-dratique hermitienne) définie positive sur E. Alors l’application N : E → R+ définie parN(x) =

√q(x) est une norme sur E.

Théorème 4.4.4 Soient E un ev de dimension finie, (·| · ·) un produit scalaire euclidien (resp.hermitien) sur E et q une forme quadratique (resp. hermitienne). Alors il existe une base ((·| · ·)-)orthonormée de E, orthogonale pour q.

5 Réduction des matrices et des endomorphismes

Dans ce chapitre, f désigne un endomorphisme du K−ev E (K corps commutatif).

5.1 Valeurs propres et vecteurs propres

5.1.1 Généralités

Définition 5.1.1– un scalaire λ ∈ K est valeur propre de f si il existe x ∈ E, x 6= 0 tel que

f(x) = λx.

– Si λ est valeur propre de f et f(x) = λx alors x est un vecteur propre de f associé à λ.L’ensemble Eλ des vecteurs propres associés à la valeur propre λ auquel on adjoint 0, estle sous-espace propre associé à λ.

– Le spectre de f , noté Sp(f), est l’ensemble des valeurs propres de f .

Remarque 5.1.1

1. Si A est une matrice n× n alors on peut définir les mêmes notions.

2. On a Eλ = ker(f − λidE). En particulier, Eλ est un sev de E.

35

Page 36: Université de Savoie Année 10/11 - univ-smb.fr

Exemple 5.1.1

1. f : R2 → R2

(x1, x2) 7→ (2x2, 2x1).Soient (x1, x2) ∈ R2 et λ ∈ R.

f(x1, x2) = λ(x1, x2) ⇔{λx1 − 2x2 = 02x1 − λx2 = 0

⇔{

2x1 − λx2 = 0λx1 − 2x2 = 0

x1 −λ

2x2 = 0

(λ2

2− 2)x2 = 0

{x1 −λ

2x2 = 0

(λ2 − 4)x2 = 0.

Donc Sp(f) = {−2, 2}, E−2 = {(−x2, x2) : x2 ∈ R} et E2 = {(x2, x2) : x2 ∈ R}.

2. D : C∞(R,R) → C∞(R,R)ϕ 7→ ϕ′.

Soit λ ∈ R. Alors ϕ′ = λϕ⇔ ϕ(t) = Ceλt avec C ∈ R, pour tout t ∈ R. Ainsi Sp(D) = Ret pour tout λ ∈ R, Eλ =< eλt >.

Proposition 5.1.1 Une somme finie de sous-espaces propres du typem∑k=1

Eλk (avec λk 6= λk′ si

k 6= k′) est directe.

Dém. : montrons le par récurrence sur m.– Si m = 2 alors il s’agit de montrer que F = Eλ1 ∩ Eλ2 = {0}. Mais si x ∈ F alorsf(x) = λ1x = λ2x Comme λ1 6= λ2, il vient x = 0.

– Sinon, supposons que la somme de m tels sevs soit directe. Soit x ∈m∑k=1

Eλk ∩Eλm+1 . Alors

x =m∑k=1

xk ∈ Eλm+1 . D’où f(x) =m∑k=1

λkxk = λm+1x. On obtient doncm∑k=1

(λk−λm+1)xk =

0. Comme les λk sont 2 à 2 distincts il vient x = 0.

Remarque 5.1.2 En particulier (eλt)λ∈R est libre.

Si dimE = n, on fixe une base (ei)16i6n de E et A = mat(f, (ei)).

Proposition 5.1.2

λ ∈ Sp(f)⇔ det(f − λidE) = 0⇔ det(A− λIn) = 0.

Dém. : λ valeur propre de f ssi f − λidE est non injective ssi det(f − λidE) = 0.

Définition 5.1.2 Le polynôme caractéristique de f (ou A) est le déterminant

χf (X) = det(f −XidE) = det(A−XIn).

La multiplicité (algébrique) d’une racine λ est notée mλ.

36

Page 37: Université de Savoie Année 10/11 - univ-smb.fr

Remarque 5.1.3 Soit E un K−ev de dimension n.

1. Le déterminant d’une matrice ne dépend que de sa classe de similitude.

2. Le polynôme χf n’est pas (identiquement) nul. Plus précisément,

χf (X) = (−1)nXn + (−1)n−1tr(A)Xn−1 + · · ·+ det(A).

3. Les valeurs propres de f (ou A) sont les racines de χf .

4. Le degré deg(χf ) = n donc f admet au plus n valeurs propres distinctes (exactement ncomptées avec multiplicité si le corps est algébriquement clos –K = C notamment).

5. Si f a p valeurs propres alors dimE > p.

Exemple 5.1.2 Si A est triangulaire alors χA(X) =n∏k=1

(akk −X).

Proposition 5.1.3 Les endomorphismes f et tf ont même polynôme caractéristique.

Proposition 5.1.4 Soient E′ un sev (de E) non réduit à {0}, stable par f (i.e. f(E′) ⊆ E′) etg = f|E′ : E′ → E′ (avec un abus de notation inoffensif). Alors χg divise χf .Dém. : soit B′ = (e′1, . . . , e

′p) une base de E′. Complétons-la en une base B = (e′1, . . . , e

′p,

ep+1, . . . , en) de E. Notons A = mat(f,B) et A′ = mat(g,B′). Alors

A =(A′ B0 C

).

Donc χf = det(A−XIn) =∣∣∣∣ A′ −XIp B

0 C −XIn−p

∣∣∣∣ . D’où :

χf = χg det(C −XIn−p).

Et χg divise χf .

Remarque 5.1.4

1. La formule du déterminant par bloc s’obtient facilement à l’aide d’une récurrence sur lataille du bloc carré supérieur gauche.

2. Eλ est stable par f !

5.1.2 Détermination pratique des valeurs propres et vecteurs propres

Les valeurs propres sont exactement les racines du polynôme caractéristique. Ce sont exacte-ment les scalaires λ tel que le système linéaire homogène (17) admette une solution non triviale(une infinité si K est infini).

Pour identifier le sous-espace propre associé à une valeur propre λ, on détermine le sevker(f − λidE) en résolvant l’équation matricielle :

a11 − λ a22 · · · a1n

a21 a22 − λ · · · a2n...

.... . .

...an1 an2 · · · ann − λ

x1

x2...xn

=

00...0

(17)

Le corang qλ = n− rλ de ce système linéaire est la dimension de Eλ.

37

Page 38: Université de Savoie Année 10/11 - univ-smb.fr

Proposition 5.1.5 Soit λ ∈ Sp(f). Alors :

1 6 qλ 6 mλ.

Dém. : en effet, soit g = f|Eλ : Eλ → Eλ. Alors g ∈ L(Eλ) ; en fait, g = λidEλ . De sorte queχg = (λ−X)qλ . En vertu de 5.1.4, χg | χf . En particulier, 0 < qλ 6 mλ.

Remarque 5.1.5 L’entier qλ est la multiplicité géométrique de λ.

Corollaire 5.1.1 Si λ ∈ Sp(f) est racine simple de χf alors dimEλ = 1.

Exemple 5.1.3 Le polynôme caractéristique de (5.1.1) est λ2 − 4 = (λ − 2)(λ + 2). DoncSp(f) = {−2, 2}. En particulier ici, E−2 ⊕ E2 = R2. Les sous-espaces propres sont donnés par :

– E−2 = ker(f + 2idE) = ker(A+ 2I) = ker((

2 22 2

)) =< (−1, 1) >.

– E2 = ker((−2 2

2 −2

)) =< (1, 1) >.

5.2 Diagonalisation et trigonalisation

Définition 5.2.1 Un endomorphisme f est diagonalisable si il existe une base (ek) de vecteurspropres. En particulier, si dimE est finie alors mat(f, (ek)) est diagonale.

Définition 5.2.2 Un polynôme P ∈ K[X] de degré > 0 est scindé sur K si il peut s’écrirecomme produit de polynômes de degré 1. Ou, de manière équivalente, si toutes les racines de Pappartiennent à K.

Exemple 5.2.1

1. X2 − 1 est scindé sur R.2. X2 + 1 n’est pas scindé sur R mais l’est sur C.3. Plus généralement, tout polynôme de R[X] de degré > 1 se factorise en produit de poly-

nômes de degré 1 ou, de degré 2 à discriminant < 0. Tout polynôme de C[X] de degré > 1est scindé sur C ; le corps C est algébriquement clos.

Théorème 5.2.1 Soient E un K−ev de dimension finie n et f ∈ L(E). C.S.S.E. :

1. f est diagonalisable

2. χf est scindé sur K et ∀λ ∈ Sp(f) : dimEλ = mλ

3. E =⊕

λ∈Sp(f)

ker(f − λidE).

Dém. :1. ⇒ 2. Soit B une base de E qui diagonalise f . Alors, A = mat(f,B) est diagonale. En

particulier, χf (X) = det(A − XIn) =∏

λ∈Sp(f)

(λ − X)mλ . Soit λ ∈ Sp(f). On a dim(ker(f −

λidE)) = mλ car la valeur propre λ se retrouve mλ fois sur la diagonale de A.2. ⇒ 3. Comme, pour tout λ ∈ Sp(f), ker(f − λidE) est de dimension mλ,

∑λ∈Sp(f)

mλ = n,

et les sous-espaces propres sont en somme directe, il vient E =⊕

λ∈Sp(f)

ker(f − λidE).

3.⇒ 1. Pour tout λ ∈ Sp(f), soit (eλ1 , . . . , eλqλ

) une base de Eλ. Alors la réunion de ces basesforme une base de E d’après 3. et f|Eλ = λjEλ . Donc f est diagonalisable.

38

Page 39: Université de Savoie Année 10/11 - univ-smb.fr

Corollaire 5.2.1 Si f admet n valeurs propres distinctes alors f est diagonalisable.

Remarque 5.2.1

1. La réciproque de ce corollaire est fausse. Considérer 0L(E) ou idE .

2. Sous l’une des conditions du théorème 5.2.1, il existe P ∈ GLn(K) tel que

∆ = P−1AP est diagonale.

Définition 5.2.3 Soit E un K−ev de dimension finie n et f ∈ L(E). L’endomorphisme f esttrigonalisable si il existe une base de E dans laquelle la matrice de f est triangulaire.

Théorème 5.2.2 Soient E un K−ev de dimension finie n et f ∈ L(E). Alors

f est trigonalisable ⇔ χf est scindé sur K.

Dém. :(⇒) Comme f est trigonalisable, il existe une base de E dans laquelle la matrice de f est

triangulaire. En particulier, χf est scindé sur K.(⇐) on raisonne par récurrence sur la dimension de E.– Si n = 1 alors c’est immédiat.– Si n > 2 alors, comme χf est scindé sur K, il existe une valeur propre λ1 et un vecteur

propre e1. Soit E′ un supplémentaire de < e1 > dans E. Si π : E → E désigne le projecteursur E′ parallèlement à < e1 > alors E′ est stable par g = π ◦ f . Soit (e′2, . . . , e

′n) une base

de E′. Alors B = (e1, e′2, . . . , e

′n) constitue une base de E et

A = mat(f,B) =(λ1 L0 A′

)où

A′ = mat(g, (e′i)26i6n).

Par suite, χf = (λ1 − X)χg. Or χf est scindé sur K donc χg l’est aussi. Par récurrencesur dimE′, on peut ainsi supposer que (e′2, . . . , e

′n) trigonalise g|E′ . De sorte que A′ est

triangulaire (supérieure) et A l’est aussi. On conclut que f est trigonalisable.

Corollaire 5.2.2 Soient E un K−ev de dimension finie n et f ∈ L(E). Si K est algébriquementclos (par exemple si K = C) alors f est trigonalisable. En particulier, toute matrice carréecomplexe est trigonalisable sur C.

Remarque 5.2.2

1. f diagonalisable sur K⇒ f trigonalisable sur K mais la réciproque est fausse. En effet, sif(x1, x2) = (x2, 0) alors f n’est pas diagonalisable.

2. f trigonalisable sur R⇒ f trigonalisable sur C mais la réciproque est fausse. En effet, soitθ 6≡ 0[π] ; f(x1, x2) = (cos(θ)x1 − sin(θ)x2, sin(θ)x1 + cos(θ)x2) est diagonalisable sur C(Sp(f) = {eiθ, e−iθ}) mais n’admet pas de valeur propre sur R.

Corollaire 5.2.3 (interprétation matricielle) Soit A ∈Mn(C). Alors il existe P ∈ GLn(C) telque

T = P−1AP est triangulaire.

39

Page 40: Université de Savoie Année 10/11 - univ-smb.fr

5.3 Polynôme d’endomorphisme

5.3.1 Généralités

Définition 5.3.1 Si Q(X) =m∑k=0

akXk ∈ K[X] alors

Q(f) :=m∑k=0

akfk ∈ L(E) où fk = f ◦ · · · ◦ f︸ ︷︷ ︸

k fois

.

Remarque 5.3.1

1. f0 = idE .

2. mat(Q(f), (ei)) =m∑k=0

akAk.

3. Si dimE est finie alors dimK L(E) = n2 donc pour tout k ∈ N, fk s’écrit à l’aide d’au plusn2 puissances de f i.e. (idE , f, . . . , fn

2−1, fk) est liée.

Exemple 5.3.1

1. Si Q(X) = X2 + 2X − 1 alors Q(f) = f2 + 2f − idE .2. De même, Q(A) = A2 + 2A− In.

Proposition 5.3.1 Soient P,Q ∈ K[X]. Alors

(PQ)(f) = P (f) ◦Q(f) = Q(f) ◦ P (f).

Dém. : il suffit de démontrer la première égalité. Elle résulte du fait que pour tout k ∈ N, fkest linéaire.

Exemple 5.3.2 On a f2 − 4idE = (f − 2idE)(f + 2idE) pour l’exemple 5.1.1.

Remarque 5.3.2

1. L’application Φ : P 7→ P (f) est un morphisme de la K−algèbre K[X] dans la K−algèbreL(E).

2. En particulier, Im Φ est une sous-algèbre commutative de L(E) notée K[f ].

Lemme 5.3.1 Soient P et Q ∈ K[X] premiers entre eux. Alors

ker((PQ)(f)) = kerP (f)⊕ kerQ(f).

Dém. : soit E′ un supplémentaire de kerQ(f) dans E i.e. kerQ(f) ⊕ E′ = E. En particulier,Q(f)|E′ : E′ → ImQ(f) ↪→ E réalise un isomorphisme ψ sur ImQ(f).

Tout vecteur x ∈ E se décompose de manière unique x = xq + x′ avec xq ∈ kerQ(f) etx′ ∈ E′. On a :

x ∈ ker(PQ)(f)⇔ Q(f)(x′) ∈ kerP (f).

Autrement dit, x ∈ ker(PQ)(f)⇔ x′ ∈ ψ−1(ImQ(f) ∩ kerP (f)).En particulier,

dim(ker(PQ)(f)) 6 dim kerQ(f) + dim kerP (f).

40

Page 41: Université de Savoie Année 10/11 - univ-smb.fr

D’autre part, comme (PQ)(f) = P (f) ◦ Q(f), kerQ(f) ⊆ ker(PQ)(f). De même pourkerP (f) d’où kerP (f) + kerQ(f) ⊆ ker(PQ)(f).

Soit x ∈ kerP (f) ∩ kerQ(f). Comme P et Q sont premiers entre eux, d’après Bezout, ilexiste U, V ∈ K[X] tels que UP + V Q = 1. Alors, x = 0 i.e. kerP (f) ∩ kerQ(f) = {0}.Par conséquent, kerP (f) et kerQ(f) sont en somme directe et dim(kerP (f) + kerQ(f)) =dim kerP (f) + dim kerQ(f). D’où le résultat.

Théorème 5.3.1 (des noyaux) Si P1, . . . , Pm ∈ K[X] sont premiers entre eux 2 à 2 alors

ker(P1 · · ·Pm)(f) =m⊕k=1

kerPk(f).

Exemple 5.3.3 Les polynômes X − 2 et X + 2 de 5.1.1 sont premiers entre eux. Donc

ker(f − 2idE)⊕ ker(f + 2idE) = ker(f2 − 4idE).

Proposition 5.3.2 Soit P ∈ K[X]. Alors kerP (f) et ImP (f) sont stables par f .Dém. : l’endomorphisme f commute avec P (f) donc si P (f)(x) = 0 alors f ◦ P (f)(x) =P (f)(f(x)) = 0 i.e. f(x) ∈ kerP (f). On raisonne de manière analogue pour ImP (f).

5.3.2 Théorème de Cayley-Hamilton

Théorème 5.3.2 (de Cayley-Hamilton) Soient E un K−ev de dimension n et f ∈ L(E). Alorsχf (f) = 0.Dém. : considérons la matrice A − XIn ∈ Mn(K[X]). Alors, la transposée de la matrice descofacteurs de A−XIn, C, vérifie :

(A−XIn)C = χfIn.

D’autre part :

Ak −XkIn = (A−XIn)(Ak−1 +XAk−2 + · · ·+Xk−1In) pour k > 1.

D’où χf (A)− χfIn = (A−XIn)Q. Mais alors

χf (A) = (A−XIn)(C +Q).

Or, C + Q ∈ Mn(K[X]) i.e. C + Q =n−1∑k=0

XkBk avec Bk ∈ Mn(K). Supposons que l’un des

Bk soit non nul. Dés lors, il existe un indice r maximal tel que Br 6= 0. Ainsi, les coefficients deχf (A) ∈Mn(K) s’écriraient à l’aide d’un polynôme en X de degré r + 1.

Tous les Bk sont donc nuls et χf (f) = 0.

Remarque 5.3.31. La démonstration ci-dessus est valable sur un K−ev E de dimension finie sur un corps

commutatif K.2. Si E est de dimension finie n alors l’algèbre K[f ] est qui est de type fini est engendrée par

au plus n éléments.

Exemple 5.3.4 On a f2 = 4idE donc K[f ] =< idE , f > (K = R ou C). En particulier, f est

inversible d’inverse14f .

41

Page 42: Université de Savoie Année 10/11 - univ-smb.fr

5.3.3 Annulateur et polynôme minimal

Le noyau du morphisme de K−algèbre Φ est un idéal de K[X].

Définition 5.3.2 L’idéal annulateur de f est Ann(f) = {P ∈ K[X] | P (f) = 0} = ker Φ.

Comme K[X] est principal, il existe P ∈ K[X] tel que (P ) = Ann(f).

Définition 5.3.3 L’unique polynôme unitaire µf tel que (µf ) = Ann(f) est le polynôme mini-mal de f .

Remarque 5.3.4 Un endomorphisme d’un K−ev de dimension finie admet un polynôme mini-mal.

Théorème 5.3.3 Le polynôme µf divise χf .Dém. : c’est facile d’après Cayley-Hamilton.

Proposition 5.3.3 Soient E′ un sev stable par f et g = f|E′ . Alors µg | µf .Dém. : par définition de µf , pour tout x ∈ E, µf (f)(x) = 0. En particulier, ∀x ∈ E′ : µf (f)(x) =0. Or g coïncide avec f sur E′. Donc µf ∈ Ann(g) et µg | µf .

Proposition 5.3.4 Soit Q un facteur irréductible de χf . Alors Q | µf .Dém. : en effet, comme kerQ(f) est stable par f et que µf (f| kerQ(f)) = 0 on a Q | µf car Q estirréductible.

Corollaire 5.3.1 Soit λ ∈ Sp(f). Alors λ est racine de tout polynôme de l’annulateur de f .

Théorème 5.3.4 Soit f ∈ L(E) un endomorphisme d’un K−ev E de dimension n.

f est diagonalisable sur K ssi µf est scindé sur K et ses racines sont simples.

Dém. :(⇒) Comme f est diagonalisable, χf est scindé sur K. En particulier, µf l’est. Comme⊕

λ∈Sp(f)

ker(f − λidE) = E, il vient :

∀x ∈ E :∏

λ∈Sp(f)

(f − λidE)(x) = 0.

Donc µf |∏

λ∈Sp(f)

(λ−X) et ses racines sont simples.

(⇐) Notons λ1, . . . , λm les racines 2 à 2 distinctes de µf . Autrement dit, µf (X) =m∏k=1

(λk−X).

D’après le théorème des noyaux,

m⊕k=1

ker(f − λkidE) = E.

L’endomorphisme f est donc diagonalisable.

42

Page 43: Université de Savoie Année 10/11 - univ-smb.fr

5.4 Nilpotence et réduite de Jordan

5.4.1 Sous-espaces caractéristiques

Proposition 5.4.1 Soient f ∈ L(E) et λ ∈ Sp(f). Alors la suite (ker(f−λidE)k)k est croissante.De plus, s’il existe r ∈ N tel que ker(f − λidE)r+1 = ker(f − λidE)r alors elle est stationnaire.Dém. : en effet, notons Fk = ker(f −λidE)k. Si x ∈ Fk alors (f −λidE)k+1(x) = 0 donc la suite(Fk)k est croissante.

Soit r ∈ N tel que Fr+1 = Fr. Soit x ∈ Fr+2 alors (f − λidE)r+2(x) = 0. Autrement dit(f − λidE)r+1((f − λidE)(x)) = 0 donc (f − λidE)(x) ∈ Fr+1 = Fr i.e. (f − λidE)r+1(x) = 0 ouencore x ∈ Fr+1.

Corollaire 5.4.1 Si dimE est finie alors (ker(f − λidE)k)k est stationnaire.

Théorème 5.4.1 (de décomposition des noyaux) Supposons que χf soit scindé sur K i.e.

χf (X) =p∏

k=1

(λk −X)mk . Alors

E =p⊕

k=1

ker(f − λkidE)mk .

Dém. : on applique le théorème des noyaux avec les facteurs (λ −X)mλ de χf en remarquantque χf (f) = 0.

Définition 5.4.1 Soit λ ∈ Sp(f) de multiplicité algébrique mλ. Le sev ker(f − λidE)mλ est lesous-espace caractéristique Ecλ associé à λ.

Corollaire 5.4.2 Supposons que χf soit scindé sur K. Alors

∀λ ∈ Sp(f) : dimEcλ = mλ.

Dém. : soit λ ∈ Sp(f). Comme χf|Ecλest scindé, f|Ecλ est trigonalisable et les coefficients diago-

naux d’une matrice représentative triangulaire sont tous égaux à λ. Donc dimEcλ ≤ mλ. Comme∑λ′∈Sp(f)

mλ′ = dimE et que χf est scindé sur K, il s’ensuit que dimEcλ = mλ.

Corollaire 5.4.3 (interprétation matricielle) Si χf est scindé sur K alors la matrice A de fdans une base adaptée au théorème de décomposition des noyaux est diagonale par bloc du type :

A =

Aλ1 0 · · · 0

0 Aλ2

. . ....

.... . . . . . 0

0 · · · 0 Aλp

.

avec Aλi ∈Mmi(K) où mi est la multiplicité algébrique de la valeur propre λi de f .

5.4.2 Nilpotence

Définition 5.4.2 Un endomorphisme f d’un K−ev E est nilpotent s’il existe r ∈ N tel quef r = 0. Le plus petit des tel entiers r est l’indice de nilpotence de f . Par convention, si un tel rn’existe pas alors r = +∞.

43

Page 44: Université de Savoie Année 10/11 - univ-smb.fr

Exemple 5.4.1

1. On définit généralement la notion de nilpotence dans un anneau A. En particulier, si Aest intègre alors il n’a pas d’élément nilpotent. Un anneau sans élément nilpotent est unanneau réduit.

2. Un endomorphisme diagonalisable est nilpotent ssi il est nul. Plus généralement, si f estnilpotent alors Sp(f) = {0}. Si µf est scindé sur K et Sp(f) = {0} alors f est nilpotente.

Remarque 5.4.1 On constate ainsi que l’indice de nilpotence rλ de (f − λidE)|Ecλ est inférieurou égal à mλ.

Proposition 5.4.2 Soient E un K−ev de dimension n, λ ∈ Sp(f) et rλ l’indice de gλ. Alors rλest la multiplicité algébrique nλ de λ dans µf .Dém. : le polynôme minimal µf|Ec

λ= (λ − X)rλ divise µf . Donc il divise (λ − X)nλ . Posons

Q =µf

(λ−X)nλ. Si rλ < nλ alors P = (λ −X)rλQ annule encore f car dim ker(f − λidE)rλ =

mλ = n− dim kerQ(f). Or P est de degré strictement plus petit que µf →←.

Proposition 5.4.3 Soient λ ∈ Sp(f), ∆λ = λidEcλ et gλ = (f − λidE)|Ecλ . Alors

f|Ecλ = ∆λ + gλ,

où gλ est nilpotente d’indice rλ et, ∆λ et gλ commutent.

Corollaire 5.4.4 (interprétation matricielle) Soit A ∈ Mn(K) une matrice dont le polynômecaractéristique est scindé sur K. Alors il existe une matrice diagonale D et une matrice nilpotentetriangulaire supérieure stricte N telles que :

A = D +N , DN = ND, N r = 0 avec r = maxλ∈Sp(A)

rλ.

5.5 Applications

5.5.1 Suites linéaires

5.5.2 Puissance et exponentielle de matrice

5.5.3 Système différentiel linéaire à coefficients constants

44