23
1 Cette monographie présente différents aspects de la dualité linéaire. Pour la présenter, nous avons eu recours à la notation tensorielle (cf §5) : tout endomorphisme de rang un s’écrit sous forme d’un tenseur, c’est-à-dire, d’une forme linéaire appliquée au vecteur courant « portée » (ie multipliée) par un vecteur directeur de l’image. Les endomorphismes de rang fini peuvent alors se décomposer, de multiples manières, comme sommes de tenseurs. Parmi ces décompositions, il en existe une qui possède un nombre minimal de termes, qui est égal au rang de l’endomorphisme ainsi décomposé. Pour donner un contenu à cette notion de rang, plusieurs approches complémentaires peuvent être proposées : le théorème du rang (§6), qui relie les dimensions de l’image et du noyau, la théorie matricielle, l’étude des systèmes linéaires (§7), et enfin l’orthogonalité (§9). Nous avons essayé ici de montrer que ces approches présentent différentes facettes d’un même résultat, accessible dès la Proposition 4 du §4 sur l’étude des questions relatives à l’indépendance des formes linéaires. On commence aux paragraphes 1,2 et 3 par donner les définitions et les résultats essentiels sur l’espace dual, la notion de base duale, et l’existence d’une base ante-duale, qui est très riche de conséquences pratiques. 1) Espace Dual Soient , deux espaces vectoriels sur , l’ensemble des endomorphismes de dans est un -espace vectoriel, noté , (dont la structure est héritée de celle de ) (un endomorphisme d’espaces vectoriels est une application linéaire, ie vérifiant , ,,; autrement dit, compatible avec l’addition des vecteurs et la multiplication par un scalaire ; on pourra omettre la flèche au-dessus des vecteurs dans les notations par la suite ) Soit maintenant un -espace vectoriel, le cas particulier où , qui est une droite vectorielle sur lui-même, nous conduit à considérer l’espace vectoriel des formes linéaires définies sur : ce sont les applications linéaires à valeurs scalaires, c’est-à-dire de dans , leur espace s’appelle l’espace dual de et il est noté . Sauf au dernier paragraphe, on considérera un espace de dimension finie (le cas de la dimension infinie requiert des outils topologiques, et les propriétés dans ce cadre sont assez différentes). On va tout d’abord exhiber une base naturelle de , associée par dualité à une base donnée de , et constater ainsi que est également de dimension ; et sont donc, moyennant le choix de bases, tous deux isomorphes à , donc isomorphes entre eux, cependant il n’existe pas d’isomorphisme canonique entre et . 2) Base Duale Soit ,…, une base de , tout vecteur se décompose de manière unique comme combinaison linéaire ; à on peut associer le vecteur colonne de ses coordonnées, ce qui définit un isomorphisme de sur . Algèbre Linéaire : La Dualité

Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

Embed Size (px)

Citation preview

Page 1: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

1

Cette monographie présente différents aspects de la dualité linéaire. Pour la présenter, nous avons

eu recours à la notation tensorielle (cf §5) : tout endomorphisme de rang un s’écrit sous forme d’un

tenseur, c’est-à-dire, d’une forme linéaire appliquée au vecteur courant « portée » (ie multipliée) par

un vecteur directeur de l’image. Les endomorphismes de rang fini peuvent alors se décomposer, de

multiples manières, comme sommes de tenseurs. Parmi ces décompositions, il en existe une qui

possède un nombre minimal de termes, qui est égal au rang de l’endomorphisme ainsi décomposé.

Pour donner un contenu à cette notion de rang, plusieurs approches complémentaires peuvent être

proposées : le théorème du rang (§6), qui relie les dimensions de l’image et du noyau, la théorie

matricielle, l’étude des systèmes linéaires (§7), et enfin l’orthogonalité (§9). Nous avons essayé ici de

montrer que ces approches présentent différentes facettes d’un même résultat, accessible dès la

Proposition 4 du §4 sur l’étude des questions relatives à l’indépendance des formes linéaires.

On commence aux paragraphes 1,2 et 3 par donner les définitions et les résultats essentiels sur

l’espace dual, la notion de base duale, et l’existence d’une base ante-duale, qui est très riche de

conséquences pratiques.

1) Espace Dual

Soient �, � deux espaces vectoriels sur � � � � , l’ensemble des endomorphismes de � dans � est un �-espace vectoriel, noté ���, � (dont la structure est héritée de celle de � )

(un endomorphisme d’espaces vectoriels est une application linéaire, ie vérifiant ���� � ��� � ���� � ���� � ��, �� � �, ��, � � �; autrement dit, compatible avec l’addition des vecteurs et la

multiplication par un scalaire ; on pourra omettre la flèche au-dessus des vecteurs dans les notations par la suite )

Soit maintenant � un �-espace vectoriel, le cas particulier où � � �, qui est une droite vectorielle sur

lui-même, nous conduit à considérer l’espace vectoriel des formes linéaires � définies sur � : ce sont les

applications linéaires à valeurs scalaires, c’est-à-dire de � dans � , leur espace s’appelle l’espace dual de � et il est noté �� . Sauf au dernier paragraphe, on considérera un espace � de dimension finie � (le cas de la dimension

infinie requiert des outils topologiques, et les propriétés dans ce cadre sont assez différentes).

On va tout d’abord exhiber une base naturelle de ��, associée par dualité à une base donnée de �, et

constater ainsi que �� est également de dimension � ; � et �� sont donc, moyennant le choix de bases,

tous deux isomorphes à ��, donc isomorphes entre eux, cependant il n’existe pas d’isomorphisme

canonique entre � et �� . 2) Base Duale

Soit ���, … , �� une base de � , tout vecteur � se décompose de manière unique comme combinaison

linéaire � � ∑ ������ � ; à � on peut associer le vecteur colonne !��…��" de ses coordonnées, ce qui

définit un isomorphisme de � sur ��.

Algèbre Linéaire : La Dualité

Page 2: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

2

Notons ��� la forme linéaire qui à � associe sa #-ième coordonnée �� , soit maintenant � une forme

linéaire quelconque ; � est entièrement déterminée par la donnée de ses valeurs $� � ���� sur chacun

des vecteurs de base, en effet l’image par � du vecteur courant � s’écrit par linéarité :

��� � �!%������ � " �%�������

� � �%$����� � �%$�����

� � �� � !%$������ � " ��

Avec la notation du crochet de dualité : &�, '�(' )�,) � ��� (lire : « la forme � de �� agissant sur le vecteur � de � » ), ce même calcul s’écrit sous la forme d’une décomposition « tensorielle » d’opérateurs :

� � ∑ ������ � se traduit par *+) � ∑ &���, '. ('�� � �� (le point représentant dans cette écriture le vecteur

courant de manière implicite)

d’où en composant par � à gauche : � � ∑ &���, '. ('�� � ���� � ∑ $�&���, '. ('�� � � ∑ $������ �

Cette écriture montre la décomposition de � sur le système ����, … , ��� , qui est donc générateur dans ��, il est facile de vérifier que l’écriture est unique, en effet :

�# � 1…�, �.�� �� � /�,. (symbole de Kronecker)

(ce qui constitue une définition équivalente des formes coordonnées ���, … , ��� )

donc si l’on suppose � � ∑ $������ � , alors nécessairement : ���. � �∑ $������ � � �� � $. , et les $� sont bien déterminées de manière unique par ces égalités.

________________________________________________________________________________

Remarque : d’ailleurs, supposer une relation linéaire non triviale entre les formes ��� serait une absurdité, puisque les

coordonnées �� du vecteur courant ne sauraient être liées par une relation a priori : on sait bien que dans l’écriture � � ∑ ������ � , le vecteur colonne des coordonnées parcourt �� tout entier, c’est l’isomorphisme déjà évoqué entre �

et �� , c’est aussi l’aspect « engendrement » de l’espace � qui découle de son axiome de stabilité par combinaison

linéaire.

____________________________________________________________________________________________

Ce résultat de décomposition unique de toute forme � sur les formes coordonnées ��� , qui n’est rien

d’autre que la traduction de l’expression analytique de � que tout le monde connaît comme une sorte de

trivialité : ��� � ∑ $����� � , se résume en l’énoncé suivant :

Les ��� forment une base de l’espace dual ��, cette base est associée par dualité à la base ���, … , �� choisie dans �, par la formule *+) � ∑ &���, '. ('�� � �� qui traduit la décomposition de tout vecteur de � ,

et dont la formule duale serait *+)� � ∑ & . , ' �� ( ��� '�� � (où le point représente maintenant la forme �

comme vecteur courant de �� ) On notera la symétrie de ces deux formules ; on dira que ����, … , ��� est la base duale de ���, … , �� , on pourrait aussi

en anticipant sur cette symétrie des deux espaces dire que ces deux bases sont duales l’une de l’autre (� peut être

considéré, à isomorphisme près, comme le dual de ��, c’est-à-dire que le bidual d’un espace de dimension finie peut

être identifié à l’espace lui-même, ce qui n’est plus vrai en dimension infinie)

Page 3: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

3

3) Le problème de la « base anteduale »

On peut donner de nombreuses variantes pour démontrer ce résultat, des plus abstraites au plus

constructives.

0 En voici une particulièrement sobre : donnons-nous une base canonique ���, … , �� de �, et considérons l’application linéaire de ��� définie par la décomposition

� ∑ & �� , '. ( �� '�� �

(les �� s’appellent les formes linéaires composantes de dans la base ���, … , �� , ce sont les lignes de la matrice représentant dans cette base) L’étude du rang des endomorphismes nous montre que le rang de est égal à celui de sa transposée, c’est-à-dire égal au rang du système des �� ; ici ce rang est égal à � , il en résulte que est inversible, en composant les deux membres de l’égalité définissant par 1� , on obtient : *+) � ∑ &�� , ' . ('�� � 1���� Autrement dit, la base cherchée n’est autre que 2� � 1���� , # � 1. . � 0 En termes de matrices de passage, on peut aussi résoudre le problème, pour aboutir à la même

construction : soit 3 la matrice du système des formes �� dans la base ����, … , ��� duale de la base canonique, dans cette matrice les �� correspondent aux vecteurs colonnes, en transposant 3, qui est

régulière, on obtient une matrice de passage 4 � 35 , dont les lignes représentent les équations de

changement de coordonnées, donnant les nouvelles en fonction des anciennes ; d’après les notions

élémentaires sur les matrices de passage, on sait que les colonnes de 4 donnent les anciens vecteurs en fonction des nouveaux, donc les nouveaux vecteurs (qui forment la base �2�, … , 2� cherchée, anteduale de la base des formes �� ) s’expriment dans la base canonique ���, … , �� par les colonnes de 41� ; c’est bien le résultat obtenu ci-dessus, traduit sous forme matricielle.

0 Enfin, on peut aussi voir ce résultat de la manière suivante :

on considère les systèmes d’équations �6� 7 �.�� � /�,. 8 � 1. . � ; autrement dit, on cherche un

vecteur � qui annule toutes les formes �. , sauf �� pour laquelle ���� � 1 Si les formes �. sont supposées linéairement indépendantes, alors chaque système �6� est de Cramer

(cf §7 ), donc admet une solution unique que l’on appellera 2� ; on vérifie alors sans difficulté que �2�, … , 2� est la base telle que ���, … , �� � �2��, … , 2�� .

Proposition 1 : étant données � formes linéaires indépendantes ��, … , �� dans �� (qui

forment donc une base de �� ), il existe une base unique �2�, … , 2� de � dont ���, … , �� soit la base duale

(c’est-à-dire telle que les ���� représentent les coordonnées de � dans cette base, ou encore telle que

la formule de décomposition *+) � ∑ &�� , '. ('�� � 2� soit vérifiée)

Page 4: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

4

Tout d’abord, �2�, … , 2� est bien une base ; en effet, si on écrit une relation de dépendance linéaire entre les 2� , soit ∑ ���� � 2�, alors il suffit d’appliquer �. à cette relation pour obtenir : �. � 0, et ceci vaut quel que soit 8 � 1. . � Ensuite, si � � ∑ ��2��� � est la décomposition du vecteur courant sur la base �2�, … , 2� , alors �.�� � ∑ ���� � /�,. � �. , ce qui montre que �. est bien la 8-ième forme coordonnée.

Si �� est une forme linéaire non-nulle, on peut compléter :��; en une base de �� , soit ���, … , �� ; alors par la proposition ci-dessus ���, … , �� peut être considérée comme la base duale d’une base �2�, … , 2� de � , c’est-à-dire que si � � ∑ ��2��� � est la décomposition d’un vecteur courant de , on

aura :

���� � ��, …, ���� � �� ; dans ces conditions, il est évident que �� , qui est le sous-espace d’équation �� � 0 , est engendré par �2<, … , 2� , ce sous-espace est donc clairement un hyperplan.

La démonstration classique consisterait à prendre un supplémentaire 6 de ��=��, et à montrer que �� restreinte à 6

définit une bijection de 6 sur � , autrement dit, que 6 est une droite (cf Théorème du Rang, au § 6)

Corollaire : le noyau d’une forme linéaire non-nulle est un hyperplan.

Page 5: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

5

4) Indépendance des Formes Linéaires

La proposition ci-dessous fournit un critère d’indépendance d’une famille ��, … , �> de ? formes

linéaires dans �� (avec nécessairement ? @ � si indépendance, puisque +#A�� � �)

On peut la compléter par un critère de dépendance linéaire pour une forme � par rapport au système B ��, … , �>C :

démonstration :

Prop 2 Condition suffisante : pour �. � /�,. 8 � 1. . ? D 2� EF �.�2� � /�,. et ceci pour tout 8 � :1. . ? ; , si on écrit une relation de dépendance entre les �. : ∑ G.>. � �. � 0 alors en évaluant cette égalité en � � 2� on obtient G� � 0 , et ceci quel que soit # � :1. . ? ;; la relation ci-dessus est donc triviale, cqfd.

Ou encore, par contraposition : S’il existe une relation non triviale, par exemple �> � ∑ G.>1�. � �., alors le ?-uplet �0,0,… ,0,1 n’a pas d’antécédent par B��, … , �>C

Condition nécessaire : si on suppose que le ?-uplet B���� , … , �>�� C décrit un sous-espace strict de �> , alors cet espace est contenu dans un hyperplan de �> , dont l’équation fournit une relation de dépendance linéaire entre les �. . Prop 3 Tout d’abord, il suffit de montrer l’équivalence annoncée dans le cas où les �. sont linéairement indépendantes. En effet, si ce n’était pas le cas, on se ramènerait à un sous-système libre maximal, ce qui ne change rien à l’intersection des noyaux, ni à la prémisse de la proposition. Première méthode de démonstration : par le théorème de la base antéduale Dans le cas où les �. sont linéairement indépendantes, on peut par le théorème de la base incomplète

trouver une base B��, … , �>, H>I�, … , H�C de �� qui prolonge le système libre B��, … , �>C ; d’après la Proposition 1, cette base est duale d’une base �2�, … , 2� de � .

Dans la base �2�, … , 2� : � � ∑ ��2��� � , le sous-espace J � K ��=�.>. � est défini par le système

d’équations : �� � L � �> � 0 , et engendré par le système de vecteurs B2>I�, … , 2�C . Une forme linéaire ��� s’exprime dans cette base sous la forme ��� � ∑ $����� � , cette forme s’annule identiquement sur le sous-espace J si et seulement si $>I� � L � $� � 0, c’est-à-dire si et seulement si ��� � $��� �L� $>�> ,ou encore � � $��� �L� $>�> , cqfd.

Proposition 2 : ��, … , �> sont linéairement indépendantes M � B��, … , �>C � �>, D� � �

EF �.�� � �. ?�= E�E 8 � 1. . ?

Proposition 3 : � appartient au sous-espace de �� engendré par ��, … , �> M��=� N K ��=�.>. �

Page 6: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

6

Seconde méthode de démonstration : par récurrence sur ?. Tout d’abord, pour ?=1, le résultat de la proposition revient à dire que deux formes � et �� sont proportionnelles si et seulement si elles ont même noyau (en effet, l’inclusion ��=� N ��=�� revient ici à une égalité, puisque le noyau d’une forme linéaire est un hyperplan) Ensuite, supposons l’énoncé vérifié pour tous les systèmes de formes linéaires de cardinal inférieur ou

égal à ?, et montrons qu’il l’est encore pour un système B��, … , �>I�C de ? � 1 formes.

Seule la condition suffisante de l’énoncé nous intéresse, car la condition nécessaire est évidente. On veut donc montrer que si une forme � s’annule identiquement en restriction sur l’espace �K ��=�.>I�. � , alors � s’exprime comme combinaison linéaire de ��, … , �>I�.

Considérons les restrictions �/P et �>I�/P des formes � et �>I� à l’espace Q � K ��=�.>. � ; comme

par hypothèse �/R � 0 , on sait que �/P s’annule identiquement sur le noyau de �>I�/P , d’après l’énoncé pour ?=1, il en résulte que �/P et �>I�/P sont proportionnelles, autrement dit �/P � ��>I�/P ou encore B� S ��>I�C/P � 0 , mais l’hypothèse de récurrence nous dit alors que � S ��>I� s’exprime

comme combinaison linéaire de ��, … , �> , et par conséquent � s’exprime comme combinaison linéaire

de ��, … , �>I� , cqfd.

Cette proposition 3 a une conséquence remarquable sur les systèmes d’équations linéaires indépendantes

et homogènes (ie à 2d membre nul) ; considérons en effet le système d’équations :

���� � 0,… , �>�� � 0 où ��, … , �> sont ? formes linéaires indépendantes

On se pose la question de savoir quelle est la dimension du sous-espace de � défini par ce système

d’équations.

J� � ��=�� est un hyperplan, J< � ��=��K��=�< est un hyperplan de ��=�� (car �< n’est pas identiquement nulle sur ��=��, sinon cela voudrait dire que �< serait proportionnelle à ��, ce qui n’est pas le cas) ; JT � ��=��K��=�<K��=�T est un hyperplan de J< (car �T n’est pas identiquement nulle

sur J<, sinon cela voudrait dire que �T s’exprimerait comme combinaison linéaire de ��, �< , ce qui n’est pas le cas), etc…

On montre ainsi de proche en proche (ou par récurrence) que J> � K ��=�.>. � est un hyperplan de J>1�, lequel est de dimension � S �? S 1 , et par conséquent +#AJ> � � S ? . Si maintenant on considère un sous-espace J défini par un système d’équations :

���� � 0,… , �U�� � 0 où ���, … , �U est un système de formes de rang égal à = dans �� ; alors il suffit d’extraire du système ���, … , �U un système libre maximal, que nous désignerons, quitte à

Proposition 4 : Soient ��, … , �> ? formes linéaires indépendantes, on considère le sous-espace J � K ��=�.>. � défini par les équations ���� � 0,… , �>�� � 0 ; alors +#AJ � � S ?

Page 7: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

7

renuméroter les formes �. , par ���, … , �V , alors les formes �VI�, … , �U sont dépendantes de ���, … , �V , par conséquent les équations �VI��� � 0,… , �U�� � 0 sont redondantes, et on en conclut +#AJ � � S = . C’est là le résultat fondamental que nous allons retrouver sous divers autres aspects par la suite.

5) Décompositions tensorielles d’un endomorphisme

Soit � ���, � , les espaces �, � étant rapportés respectivement aux bases ���, … , �� , �2�, … , 2U *+) � ∑ &���, '. ('�� � �� , d’où en composant cette formule par à gauche :

(1) � ∑ &���, '. ('�� � ��� De même, *+W � ∑ &2.�, '. ('U. � 2. , d’où en composant cette formule par à droite :

(2) � ∑ &2.�, '�. ('U. � 2. � ∑ &�. , '. ('U. � 2. avec �. � � 5 2.� (cf §8)

La première formule consiste à décomposer un vecteur courant � sur la base ���, … , �� , et à appliquer

à cette décomposition ; la deuxième consiste à décomposer �� sur la base �2�, … , 2U ; les formes

linéaires �. s’appellent les formes composantes de dans la base �2�, … , 2U . Un endomorphisme de rang un est de la forme &�, '. ('$ , où � est une forme linéaire non-nulle et $ un

vecteur non-nul ; un tel endomorphisme est un tenseur noté �X $.

Les deux formules ci-dessus s’appellent décompositions tensorielles de l’endomorphisme , la première

sur le système des ���X��� , la seconde sur le système des �.X 2. ; on constate ainsi que tout

endomorphisme de rang fini se décompose comme somme d’endomorphismes de rang un.

Cependant, dans la formule (1), les formes linéaires sont indépendantes, mais les vecteurs ��� ne le

sont pas en général ; dans la formule (2) au contraire, les vecteurs sont indépendants, mais les formes

linéaires �. ne le sont pas en général. Si on élimine les redondances à partir de l’une ou l’autre des deux

formules, on obtient une décomposition minimale, dont le nombre de termes n’est autre que le rang de ,

et telle que le système des vecteurs aussi bien que celui des formes sont libres linéairement.

6) Théorème du Rang

Remarque : Ce résultat se généralise au cas où � est de dimension infinie, en supposant que est

de rang fini ; on a alors : Y�+#A)��= � =Z� (rappel : la codimension d’un sous-espace J dans

l’espace vectoriel � se définit comme la dimension commune à tous les supplémentaires de J dans )

On va donner de ce théorème la démonstration classique ; puis l’interpréter à la lumière de la

Proposition 4 du paragraphe précédent.

Théorème : soit � ���, � un morphisme d’espaces vectoriels, on suppose que � est de dimension

finie, alors : +#A� � +#A��= � =Z

Corollaire : dans le cas où +#A� � +#A� , et en particulier si � ��� : isomorphisme M ��= réduit à :0;

Page 8: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

8

démonstration : Soit 6 un supplémentaire de ��= dans � : ��= [6 � � ; on considère la restriction /\ de au sous-espace 6 ; il est facile de constater que cette restriction est injective, en effet :

��=B/\C � ��=K6 � :0; ,

par conséquent /\ réalise un isomorphisme de 6 sur *A , ces deux espaces ont donc même

dimension, d’où on conclut Y�+#A)��= � +#A*A � =Z� , ce qui s’écrit encore +#A� S+#A��= � =Z dans le cas où � est de dimension finie, cqfd.

Autre méthode de démonstration :

Interprétons ce résultat à partir de la Proposition 4. Donnons-nous une base �2�, … , 2U de l’espace d’arrivée � , et écrivons la décomposition tensorielle de selon cette base : � ∑ & �. , '. ( 2. 'U. � ;

le noyau de est défini par le système d’équations : ���� � 0,… , �U�� � 0 ; extrayons comme

précédemment du système des �. un système libre maximal, que nous désignerons, quitte à

renuméroter les formes �. et les vecteurs 2. , par ���, … , �V , où = est le rang du système ���, … , �U dans �� . Regardons, à l’aide des formes composantes �. , comment se présentent de

manière analytique les espaces ��= et *A .

- Pour le système d’équations définissant ��= , les équations �VI��� � 0,… , �U�� � 0 sont redondantes puisque s’exprimant comme combinaisons des précédentes, le système se réduit donc

à ���� � 0,… , �V�� � 0 , et on a vu à la Proposition 4 que la dimension de ��= dans ces conditions est égale à � S = (la codimension du sous-espace des solutions d’un système homogène

d’équations linéaires est égale au rang de ce système)

- Nous verrons au §8 que ���, … , �U engendre *A� 5 , d’où = � =Z 5 ; nous allons de plus

montrer de manière élémentaire que = � =Z (théorème de « transposition du rang ») :

Par hypothèse, les formes �VI�, … , �U s’expriment comme combinaisons linéaire des

formes ���, … , �V , ce que nous noterons : �VI� � ]VI����, … , �V , … , �U �]U���, … , �V ; dans la décomposition tensorielle de donnée ci-dessus on peut donc éliminer les redondances, en remplaçant les formes �VI�, … , �U par leurs expressions ;

ce faisant, on met en évidence une base de *A , de la forme :

^_U` � �2� � a�, … , 2V � aV avec a�, … , aV � b�YE�2VI�, … , 2U .

En effet, la substitution des formes �VI�, … , �U par leurs expressions en fonction de ���, … , �V dans l’écriture � ∑ & �. , '. ( 2. 'U. � réduit celle-ci à une écriture du type � ∑ & �. , '. ( B2. � a.C'V. � avec a�, … , aV � b�YE�2VI�, … , 2U , ce qui montre bien le

caractère générateur de ^_U` ;

Page 9: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

9

et de plus, les vecteurs 2. � a. sont indépendants par construction : ∑ G.V. � B2. � a.C � 0 implique ∑ G.V. � 2. � b�YE�2VI�, … , 2U , ce qui n’est possible que si tous les G. sont nuls, puisque b�YE�2�, … , 2V c b�YE�2VI�, … , 2U � �

On en conclut bien : +#A��= � � S = et =Z � = (défini ici comme � =Z���, … , �U ) , ce qui est exactement le résultat annoncé.

Cette démonstration est un peu plus longue que la démonstration classique ; elle a le mérite de faire

apparaître de manière très concrète l’aspect analytique et le rôle des formes composantes : nous ne

sommes pas loin du calcul matriciel (voir remarque ci-dessous)

______________________________________________________________________________

Remarque pour passer de l’écriture tensorielle à l’écriture matricielle du morphisme , il suffit de décomposer dans l’espace de départ � chaque �. sur une base ���, … , �� de �, en écrivant �1 �. � ∑ $.,��� � ��� , avec $.,� � & �. , '�� ( ' comme au paragraphe 2 , pour obtenir la

décomposition � ∑ $.,�� �,…,�. �,…,U &���, '. (2. ' ; mais cette décomposition est aussi issue de l’écriture

tensorielle suivante : � ∑ &���, '. ('�� � ��� , avec ��� � ∑ $.,�U. � 2. ; elle correspond à la matrice d � B$.,�C � eU,��� du morphisme de � dans � rapportés respectivement aux bases ���, … , �� , �2�, … , 2U .

Les endomorphismes &���, '. (2. ' forment une base canonique de ���, � , en correspondance avec la base canonique B�.,�C � �,…,�. �,…,U de l’espace matriciel eU,��� (�.,� est la matrice dont tous les

coefficients sont nuls, sauf celui situé en 8-ième ligne et #-ème colonne qui est égal à 1 ) Bien noter qu’ici, compte-tenu des notations utilisées, 8 est l’indice de ligne et # l’indice de colonne.

(1) autrement dit, sur un vecteur courant � � ∑ ������ � de �, �. a pour expression �.�� � ∑ $.,��� � ��

Page 10: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

10

7) Systèmes d’Equations Linéaires

Le théorème du rang s’applique de manière très efficace à la classification des systèmes d’équations

linéaires du point de vue de l’espace des solutions d’un tel système ; nous avons déjà vu le résultat

essentiel à la Proposition 4 du §4, à propos des questions d’indépendance de formes linéaires,

comme conséquence de l’énoncé donné à la Proposition 3, qui est un énoncé-clef pour tout cet

exposé.

On va énoncer ici la classification générale des systèmes de ? équations linéaires à � inconnues, ?

pouvant être inférieur, égal ou supérieur à .

Reformulons tout d’abord le résultat vu au §4 ; on commence par étudier les systèmes homogènes

(ie à second membre nul) :

Soit ���� � 0,… , �>�� � 0 un tel système ( � étant un vecteur colonne inconnu pris dans � � �� rapporté à sa base canonique) Comme précédemment, on réduit le système à un système équivalent de = équations indépendantes, où = � =ZB��, … , �>C , appelé aussi rang du système d’équations, soit :

���� � 0,… , �V�� � 0 (quitte à renuméroter les équations)

On considère alors le morphisme de � � �� dans � � �V qui à � � !��…��" fait correspondre � � !��…�>" � f

���� …�>�� g , on a vu déjà au §6 que le rang de est égal au rang du système de ses formes composantes : =Z� � = � =ZB��, … , �>C (ce résultat sera revu au §8 sous le nom de « Théorème de transposition du rang »)

Dans ces conditions, l’espace des solutions du système, qui n’est autre que ��= �K ��=�.>. � , est de dimension � S = . On peut donc donner l’énoncé suivant (qui est une simple reformulation de la Proposition 4) :

Examinons maintenant le cas d’un système non homogène (avec 2d membre) :

Soit ���� � ��, … , �>�� � �> un tel système ; si on se donne deux solutions �, �h alors il est clair que � S �h est solution du système homogène associé, d’où l’énoncé suivant :

Proposition 5 : un système d’équations linéaires homogène à � inconnues a pour espace de

solutions un sous-espace de �� de codimension égale au rang = du système si celui-ci est

inférieur à , et cet espace est réduit à :0; dès lors que = i �

(c’est-à-dire dans le cas où il y a au moins autant de contraintes effectives que de degrés de liberté)

Page 11: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

11

Examinons maintenant les questions de compatibilité des équations (l’espace affine des solutions

est-il non vide) et d’unicité des solutions, les deux questions étant d’ailleurs comme on va le voir

intimement liées dans le cas où ? � � d’un système de � équations à � inconnues.

démonstration :

1er cas le morphisme d’espaces vectoriels considéré précédemment est un isomorphisme, d’où

le résultat, qui s’interprète comme suit : le vecteur !��…��" de � � �� admet un antécédent unique

!��…��" dans � � �� , qui est la solution du système.

2ème cas cette fois-ci � � ��, � � �> � *A ; est surjectif, non injectif ; son noyau est de dimension � S = � � S ? ; le résultat énoncé découle directement des propositions 5 et 6.

3ème cas on est maintenant dans le cas où n’est pas surjectif , puisqu’en effet l’inclusion *A j � � �> est stricte, et où !��…��" k *A (cet espace étant justement défini par les relations

de compatibilité entre seconds membres), d’où l’énoncé d’impossibilité de résoudre le système.

Remarques

1) Dans le deuxième cas, et troisième cas pour un système compatible , ayant dans les deux cas moins d’équations effectives que d’inconnues, on peut aussi résoudre en prenant des inconnues principales (il y aura = ) et en paramétrant l’espace affine des solutions en fonction des � S = inconnues secondaires, rejetées dans les seconds membres. Le système alors devient un système de Cramer paramétré.

2) Le choix d’inconnues principales, comme celui d’équations principales, correspond à l’extraction d’une matrice carrée régulière =- = de la matrice associée au système (cf §11)

Proposition 6 : la solution générale d’un système d’équations linéaires à � inconnues avec

second membre, dans le cas où ce système admet des solutions , s’obtient en ajoutant à une

solution particulière la solution générale du système homogène associé.

Proposition 7 : on considère un système de ? équations linéaires à � inconnues avec second

membre, de rang = (avec nécessairement = @ ?)

- 1er

cas : si = � ? � � , le système admet une solution unique (système de Cramer)

- 2ème

cas : si = � ? l � le système admet un espace affine de solutions de dimension � S =

- 3ème

cas : si = l ? , alors on peut scinder le système en = équations dites principales, soit ���� � ��, … , �>�� � �> �F#EE� à =��Aé=�E�= m�n éF$E#��n linéairement

indépendantes, et ? S = équations secondaires, dont les premiers membres s’expriment

comme combinaison linéaires de ��, … , �V .

Alors de deux choses l’une : soit ces relations de dépendance sont aussi vérifiées par les

seconds membres �VI�, … , �> , auquel cas le système est dit compatible, équivalent au sous-

système des = équations dites principales, et on est ramené au 1er

ou au 2d cas ci-dessus ;

soit au contraire ces relations de dépendance ne sont pas vérifiées par tous les seconds

membres �VI�, … , �> , auquel cas le système est dit incompatible, et n’a pas de solution.

Page 12: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

12

8) Application Linéaire Transposée

Pour concrétiser cette notion, regardons sa traduction matricielle moyennant le choix d’une base ���, … , �� dans � et d’une base �2�, … , 2U dans � , les espaces �� et �� étant rapportés respectivement aux bases duales ����, … , ��� et �2��, … , 2U� .

Tout d’abord, on va énoncer deux formules qui n’auraient pas déplu à Champollion (l’égyptologue) :

�1 � ∑ & �. , '. ( 2. 'U. � � ∑ & �. , '�� ( & ��� , '. ( 2. ' '� �..�. �..U

�2 5 � ∑ & . , '2. ( �. 'U. � � ∑ & �. , '�� ( & . , '2. ( ��� ' '� �..�. �..U

Pour la formule (1), écrire la décomposition tensorielle de selon la base de l’espace d’arrivée � (par formes composantes), puis développer en composant à droite par la décomposition tensorielle de *+) (ie la décomposition du vecteur courant de �, symbolisé par un point dans la formule) (cf §5 , §2)

Pour la formule (2), on échange le rôle des vecteurs et des formes, mais le principe est le même.

La matrice de rapportée aux bases ���, … , �� de � et �2�, … , 2U de � s’écrit d � B$.,�C, avec $.,� � & �. , '�� ( ' , celle de 5 rapportée aux bases duales s’écrit B$�,.C � d 5 , autrement dit,

relativement à des bases associées par dualité, les matrices de et 5 sont transposées l’une de l’autre

(les rôles des indices sont échangés dans les formules (1) et (2), puisque les formes composantes,

agissant sur ��, sont les & . , '2. ( ' en (2) (voir aussi plus loin la bidualité au §8)

Pour rendre plus tangible ce résultat, donnons-nous H � �� et � � ��, et associons à H le vecteur colonne ph de ses coordonnées dans la base �2��, … , 2U� , et à � le vecteur colonne p de ses coordonnées dans la base ����, … , ��� . Soient maintenant q, r les vecteurs colonnes représentant respectivement les vecteurs courants � � �, � � � , ces espaces étant rapportés aux bases ���, … , �� et �2�, … , 2U ( r, p � e�,��� , q, ph � eU,��� ) . La forme H, en tant qu’opérateur, est représentée matriciellement par le vecteur ligne ph 5 , et la forme � par le vecteur ligne p 5 , de sorte que les formules analytiques de ces opérateurs s’écrivent : ��� � p 5 r, H�� �ph 5 q et celle du morphisme

Dans ce langage matriciel, l’expression de l’application transposée 5 devient : ��� � 5 �H �� � &H, '�� (' W�,W � ph 5 dr � p 5 r ,

Définition : Soit � ���, � , on appelle application linéaire transposée l’application 5 � ����, �� définie par l’égalité : & 5 �H , '�(' )�,) � &H, '�� (' W�,W ,

ou encore : l’application qui à H � �� fait correspondre � � 5 �H � Hs , � � ��

Remarque : on se permettra parfois la notation déjà introduite plus haut & 5 �� , '. (' )�,) � &�, '�. (' W�,W

Page 13: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

13

cette égalité étant valable pour tout � e�,��� , on en déduit : p 5 � ph 5 d ,c’est-à-dire p � dph 5 ; on retrouve ainsi la formule analytique pour le morphisme 5 , dont la matrice est bien d 5 , cqfd.

On a vu précédemment au paragraphe 5, dans la seconde méthode de démonstration du théorème du

rang, le résultat essentiel suivant :

Nous laissons dès lors à la méditation du lecteur et à son immense sagacité le fait que logiquement

parlant, les énoncés de la Proposition 3 du §4, du théorème du rang vu au §6, et celui que nous venons

de donner, ainsi d’ailleurs que ceux sur l’orthogonalité (particulièrement le double orthogonal) déclinés

ci-dessous au §9 sous les titres des propositions 8 à 10 ne constituent que des variantes de formulation

d’un seul et même résultat.

On donne ci-dessous, pour varier les plaisirs, une démonstration matricielle de ce théorème, qui fait

tout de même appel à la notion de formes linéaires composantes, donc à une formule dite tensorielle.

Démonstration du théorème

On appelle rang d’une matrice 3 � e>,��� le rang de l’application linéaire associée de �� dans �> muni de leurs bases canoniques ���, �<, … �� et B2�, 2<, … 2>C Comme les vecteurs colonnes de 3 représentent le système ���� , ��< ,…��� , le dit système engendrant *A� , il est clair que le rang du système des vecteurs colonnes est égal à =Z� Montrons que le rang = du système des vecteurs lignes Bt�, … , t>C de 3 est lui aussi égal à =Z� Pour comprendre ce que représente ce système, il faut écrire :

�� �%��>� � �� 2�

où les �� sont les formes linéaires composantes de sur la base B2�, 2<, … 2>C , données matriciellement

par ���� � t�r

1er Cas : 3 � e�,��� est une matrice carrée

Le rang de la matrice 3 est le rang de l’endomorphisme associé de �� rapporté à sa base canonique ���, �<, … �� Supposons que l’on ait extrait de la famille des �� �� � à � une famille libre maximale ��, …�V (quitte à renuméroter les vecteurs de la base ���, �<, … �� )

Théorème (transposition du rang) : soit � ���, � un morphisme d’espaces vectoriels, on suppose que

est de rang fini (précision utile dans le cas où la dimension de � serait quelconque), alors : =Z� � =Z� 5

Page 14: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

14

Alors la formule ci-dessus s’écrit :

�� �%��V� � �� 2� � % %��u,�V

� ��

u VI� �� �� 2u En effet, chacune des formes �u �u VI� à � s’exprime comme combinaison linéaire des �. �. � à V Cette formule nous donne :

�� �%��V� � �� !2� � % �u,��

u VI� 2u" Or le système des vecteurs v� � 2� � ∑ �u,��u VI� 2u �� � à V est manifestement libre ; et comme les

formes �� �� � à V sont indépendantes, le =-uplet ����� , …�V�� décrit �V tout entier lorsque � décrit �� (si ce n’était pas le cas, c’est-à-dire si ����� , …�V�� décrivait un sous-espace strict de �V , alors les formes seraient liées linéairement par n’importe laquelle des équations du système d’équations définissant ce sous-espace dans �V ) Il en résulte que �v�, … , vV forme une base de *A� , d’où on conclut = � =Z� , cqfd. 2ème Cas : 3 �e>,��� est une matrice rectangulaire avec � w ? Comme *A� x �> il est clair que F � =Z� � =Z���� , ��< ,…��� est inférieur ou égal à ? , donc inférieur strict à � ; quitte à renuméroter les vecteurs de la base ���, �<, … �� , supposons que B��, �<, … �yC est un système libre maximal extrait de ���, �<, … �� (*) Autrement dit, on suppose que les vecteurs ��yI� ,… ��� sont combinaisons linéaires des vecteurs

du système B��� ,…��y C ; a fiortiori les vecteurs ��>I� ,… ��� sont combinaisons linéaires des

vecteurs du système B��� ,…��> C (**) Considérons le système des vecteurs lignes Bt�, … , t>C de la matrice 3 , ce sont des vecteurs de

dimension � ; et appelons th�, … , th> les vecteurs lignes obtenus en tronquant les vecteurs t�, … , t> à la dimension ? , autrement dit th� � Bt�,�, … , t�,>C �# � 1 à ? ; les vecteurs lignes tronqués forment

une matrice carrée 3h � e>,>�� ; d’après le 1er Cas on aura : =Z3z � =ZBth�, … , th>C , mais d’après

(**) toute relation linéaire entre th�, … , th> se prolonge en une relation linéaire entre t�, … , t> ; de sorte que =ZBth�, … , th>C � =ZBt�, … , t>C ; pour finir les colonnes de 3z sont exactement les ? premières colonnes de 3, par conséquent =Z3z � =ZB��� ,…��> C � =ZB��� ,…��y C � =Z3

d’après l’hypothèse (*) ; on en conclut :

=Z�3 � =ZBt�, … , t>C , cqfd 3ème Cas : 3 �e>,��� est une matrice rectangulaire avec � l ? Il suffit de considérer la matrice transposée 3 5 � e�,>�� pour être ramené au cas précédent ; le

système des vecteurs lignes de 3 5 correspond au système des vecteurs colonnes de 3 , le système des

vecteurs colonnes de 3 5 correspond au système des vecteurs lignes de 3 ; ces deux systèmes pour 3 5 ont même rang (d’après le 2ème Cas) ; ce qui vaut pour 3 5 vaut donc aussi pour 3 , cqfd.

Page 15: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

15

9) Orthogonalité, Bidual

On va d’abord donner quelques résultats essentiels concernant la dimension, la double orthogonalité,

l’engendrement, puis le lien entre orthogonalité et transposition ; pour conclure au §10 par la

démonstration annoncée du théorème de transposition du rang.

démonstration : (i) découle directement de la Proposition 4 pour le deuxième énoncé, et de la notion de bidual

pour le premier ; (ii) est une conséquence directe de (i) et d’une inclusion triviale ; (iii) est sans difficulté.

Le fait que l’on puisse identifier � à son bidual permet de donner des énoncés duaux de n’importe quel

énoncé concernant � et ��; par exemple, le théorème d’existence de la base anteduale devient une

banalité, puisqu’il s’agit de la base duale de la base des formes donnée, au sens des espaces �� et ��� �~� ; de même, on peut dériver des Propositions 2 et 3 les énoncés suivants :

Définitions :

(i) Soient � � �, � � �� ; on dit que la forme � et le vecteur � sont orthogonaux

entre eux si et seulement si � s’annule sur � , ce qui se note : &�, '�(' )�,) � 0

(ii) Soit J un sous-espace de � ; on appelle orthogonal de J dans ��, et on note J|, le sous-espace des formes � � �� qui s’annulent sur tous les vecteurs de J

(iii) Soit b un sous-espace de �� ; on appelle orthogonal de b dans , et on note b},

le sous-espace des vecteurs de � qui annulent toutes les formes � de b

Proposition 8 : on rappelle que � est supposé de dimension finie +#A� � �

(i) +#A)��J| � � S +#A)J � Y�+#A)J ; +#A)�b} � � S +#A)��b � Y�+#A)��b (ii) �J| } � J ; �b} | � b

(iii) Soient 6 et ~ des systèmes de vecteurs pris respectivement dans � et ��, ces systèmes étant

de cardinal fini ou infini ; si on définit 6| et ~} comme ci-dessus, et si on note J � b�YE�6 et b � b�YE�~ les sous-espaces engendrés par 6 et ~ respectivement dans � et ��, alors : 6| � J| , ~} � b} ; �6| } � J , �~} | � b

Proposition 9 : le bidual ��� � de �, (toujours supposé dimension finie) est isomorphe à � ; cet

isomorphisme est canonique, donné par � � � � ρ� � ��� �: � � �� � ρ��� � &�, '�(' )�,)

Autrement dit , à � � � on associe la forme linéaire « évaluation en � » agissant sur les formes de �� par ρ��. � & . , '�(' )�,) ; cet isomorphisme canonique permet d’identifier � à son bidual, on aura noté

précédemment par contre le fait que l’isomorphisme entre � et �� n’est pas canonique.

Page 16: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

16

Ces définitions et résultats de base étant posés, explicitons le lien entre orthogonalité et transposition,

dans la proposition suivante :

démonstration (i) est évident d’après la définition de l’application transposée : & 5 �H , '�(' )�,) � &H, '�� (' W�,W d’après cette définition en effet, les formes H qui ont la propriété de s’annuler sur tous les vecteurs de *A sont exactement les formes telles que 5 �H soit identiquement nulle sur tout vecteur de � , c’est-à-dire les formes appartenant au noyau de 5 .

(ii) s’obtient ensuite facilement par bidualité, sachant que � 5 5 � ; pour montrer sous forme

intrinsèque ce dernier point, sans forcément revenir à sa traduction matricielle qui est une trivialité

(la transposition des matrices est clairement involutive), on peut écrire :

& � 5 5 �� , 'H(' W,W� � &�, ' 5 �H (' ),)� � &�� , 'H(' W,W� , cqfd.

On peut aussi, pour montrer (ii), faire le même raisonnement qu’en (i) : dire que � est orthogonal à toutes les formes de *A 5 , équivaut à dire que � � �� annule toutes les formes de ��, en particulier les formes coordonnées de � dans une base donnée, donc que ce vecteur est nul, ou encore � � ��= ;

Les énoncés (iii) et (iv) sont immédiats à partir de (i) et (ii) en passant au double orthogonal, c’est-à-

dire en prenant l’orthogonal des deux membres de l’égalité.

Propositions 2 bis et 3 bis :

les vecteurs a�, … , a> sont linéairement indépendants M � B��, … , �>C � �>, D� � �� EF �Ba.C � �. ?�= E�E 8 � 1. . ?

(géométriquement, des vecteurs indépendants sont donc des vecteurs qui peuvent toujours se projeter selon des rapports

arbitrairement fixés pour un choix convenable l’axe de projection)

� appartient au sous-espace de � engendré par Ba�, … , a>C M �� � ��, ��a� � L � �Ba>C � 0 � ��� � 0

�# �*A | � ��= 5 �## �*A 5 } � ��=

Proposition 10 : Soit � ���, � , et soit 5 � ����, �� sa transposée (cf §7) , alors :

�### *A � ���= 5 } �#a *A 5 � ���= |

Page 17: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

17

10) Une Démonstration « abstraite » de la Proposition 3

Nous sommes maintenant en mesure de reprendre la démonstration de la Proposition 3, et des

Théorèmes du rang, en quelques lignes, à l’aide des outils mis en place aux §8 et 9 : transposition, et

orthogonalité.

Donnons-nous � ���, � , et rapportons comme précédemment à une base de l’espace

d’arrivée �, soient ��, … , �U les formes composantes de dans cette base. Alors (ii) se traduit par � ��, … , �U } � K ��=�.U. � � ��= � �*A 5 }, ce qui n’est pas pour nous surprendre, dès lors que l’on se souvient du fait que *A 5 � b�YE� ��, … , �U ; et (iv) nous rappelle que b�YE� ��, … , �U � BK ��=�.U. � C| , ce qui est exactement l’énoncé de la

Proposition 3.

(ii) et (iii) nous apprennent, moyennant l’énoncé (i) de la Proposition 8 :

Y�+#A)��= � =Z 5 , Y�+#AW���= 5 � =Z ce qui rend les deux énoncés du théorème du rang, ceux des §6 et §8, équivalents.

Cet énoncé (i) de la Proposition 8 découlait lui-même de la Proposition 4, qui peut se montrer

pratiquement sans aucun outil : la notion de base duale et la Proposition 1 sur l’existence de la

base antéduale (qui est elle-même une évidence au final quand on connaît la bidualité) sont

amplement suffisants, et la démonstration ne repose en définitive que sur un changement de

système de coordonnées, cette démonstration est très intuitive et géométrique !

Voici cette démonstration : soit B��, … , �>C une base de b , complétons B��, … , �>C en une base ���, … , �� de �� ; soit maintenant ���, … , �� sa base anteduale, c’est-à-dire la base de � telle que ���, … , �� � ����, … , ��� , alors si � � ∑ ������ � est la décomposition d’un vecteur courant, on a : b} � �� � � EF �� � L � �> � 0 � � b�YEB�>I�, … , ��C, d’où +#Ab} � � S ? , cqfd.

Remarquons que cette démonstration est la démonstration duale de la première démonstration donnée pour la Proposition 3, ces deux démonstrations couvrent les deux énoncés, duaux eux-aussi, de la Proposition 8 (i).

Or, parmi toutes les décompositions tensorielles de , sur des systèmes de formes et de vecteurs,

par la formule � ∑ & �� , '. ( 2� 'u� � (où les systèmes :��; sont choisis de toutes les manières

possibles dans ��, et les systèmes :2�; de toutes les manières possibles dans �, il en existe clairement un qui ait un nombre minimal de termes.

Dans ces conditions les systèmes :��; et :2�; qui interviennent dans cette décomposition

tensorielle minimale � ∑ & �� , '. ( 2� 'V� � sont nécessairement libres tous les deux (sinon, en

éliminant les redondances par substitution, on pourrait encore abaisser le nombre de termes de la

décomposition) ; comme 5 � ∑ & . , '2. ( �. 'V. � (ce sont les formules (1) et (2) du §8, mais de

cardinal minimal), il devient alors trivial que = � =Z� � =Z� 5 � Y�+#A��= ! On aurait ainsi ramené tous les résultats essentiels de cet exposé, au simple fait qu’un ensemble de

nombres entiers naturels possède toujours un plus petit élément…, c’set-à-dire aux axiomes de Peano,

le comptage, le B-A-BA…. ce qui n’est surprenant qu’en apparence, en fait, on a juste remplacé une

complexité technique par une complexité conceptuelle.

Page 18: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

18

11) Théorie Matricielle du Rang

Soit � @ ?, et soient ���, … , �� la base canonique de � � ��, B2�, … , 2>C la base canonique de � � �> ; l’endomorphisme � ∑ $.,�& ��� , '. (2. '� �…�. �…> a pour matrice d � B$.,�C � e>,��� relativement aux bases ���, … , �� , B2�, … , 2>C La formule ci-dessus est de la forme bien connue � ∑ & H. , '. ( 2. '>. � , où BH�, … , H>C est un

système de formes linéaires de �� , donné par H. � ∑ $.,��� � ��� , dans ces conditions , les lignes t. � B$.,�C� �…� � e�,��� représentent les formes H. relativement aux bases choisies, et si � � ∑ ������ � � r � e�,��� on aura en écriture matricielle : H.�� � t.r (Les raisonnements qui

suivent valent aussi si �, � sont des espaces de dimensions respectives �, ? rapportés à des bases

données ���, … , �� , B2�, … , 2>C ) Supposons déjà démontré le théorème du rang du §6, ou encore la Proposition 8 (i) (ce sont deux énoncés

équivalents) ; alors on en déduit :

démonstration :

Condition Nécessaire :

Le noyau de d (ie de l’endomorphisme associé ) est de dimension � S =Z�d � 0 ; ce noyau est défini par les équations t.r � 0 , 8 � 1…? , il en résulte que le système des lignes t. de la matrice d est de rang � ; il suffit d’extraire un sous-système libre Bt.� , … , t.�C, � � 1…� pour définir une matrice carrée régulière d’ordre � extraite de d , cqfd.

Condition Suffisante : Réciproquement, supposons construite une matrice carrée régulière 3 d’ordre � extraite de d :

- Si les � colonnes de la matrice d étaient linéairement dépendantes, il en serait de même de celles de la matrice carrée 3, or celle-ci est supposée régulière, ce qui est contradictoire ; on en conclut que la matrice d est de rang � , cqfd.

- On peut aussi raisonner sur les lignes de la matrice d , d’où dim��=d � 0 , (en effet parmi les équations définissant ��=d comme sous-espace de �� , il s’en trouve au moins � indépendantes), on en conclut par le théorème du rang : =Z�d � � cqfd.

Proposition 11 : Soit d � e>,��� une matrice à ? lignes et � colonnes, avec � @ ? ; A est de rang maximal �égal à � M il existe une matrice carrée régulière M � e>,��� extraite de d

Nota Bene : On appelle matrice carrée � - � extraite de d une matrice 3 � B$.�,�C � �…�u �…�

Proposition 12 : Soit d � e>,��� une matrice à ? lignes et � colonnes

(i) Le rang de d : = � =Z�d est égal à l’ordre maximal d’une matrice carrée régulière extraite de d

(Une matrice carrée régulière extraite d’ordre maximal est dite matrice principale extraite de )

(ii) Soit une matrice carrée régulière extraite 3 , alors :

3 est principale M toute matrice bordante de 3 est non-inversible

Nota Bene : On appelle matrice carrée = - = extraite de d une matrice 3 � B$.�,��Cu �…V ,

et matrice bordante de 3 toute matrice carrée de la forme B$.�,��Cu �…VI�

Page 19: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

19

démonstration :

(i) Soit = l’ordre maximal d’une matrice carrée régulière 3 extraite de d, montrons que = � =Z�d ; d’une part, les = colonnes de d prolongeant celles de 3 sont clairement indépendantes (sinon comme précédemment leur liaison s’étendrait à celles de 3 qui ne saurait alors être régulière) ; d’autre part, s’il existait = � 1 colonnes indépendantes dans le système des colonnes de d, alors d’après la Proposition 11, on pourrait extraire de d une matrice carrée régulière d’ordre = � 1, ce qui contredirait l’hypothèse de maximalité de =. Le système des colonnes de d est donc exactement de rang =, d’où =Z�d � = , cqfd.

(ii) Si 3 est principale, alors toute matrice bordante, d’ordre = � 1, ne peut être régulière.

Pour montrer la réciproque, supposons donnée une matrice carrée extraite régulière 3, d’ordre F l =, et montrons que 3 admet nécessairement au moins une matrice bordante régulière. Les F colonnes de 3 forment un système libre, il en résulte que les F colonnes de d qui les prolongent forment aussi un système libre ; comme =Z�d � = w F, on sait que ce système de F colonnes indépendantes peut se prolonger en un système de F � 1 colonnes indépendantes, qui forme une matrice � � e>,�yI� �� ; d’après le théorème du rang, on peut affirmer que le système des lignes t. de la matrice � est de rang F � 1 , et c’est un sur-système de celui des F lignes de 3 , on peut alors extraire un système intermédiaire de F � 1 lignes indépendantes, qui forment une matrice bordante régulière pour 3 .

Page 20: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

20

12) Exemples et Exercices

Exemples de base en dualité

Plaçons-nous dans l’espace �� r¡ des polynômes à coefficients dans le corps � de degré inférieur

ou égal à .

La base canonique de cet espace est �1, r, r<, … , r� , sa dimension est � � 1 .

Par la formule de Taylor, on sait exprimer les coefficients du polynôme 4 , qui sont les formes

linéaires coordonnées sur la base canonique, en fonction de 4 : $u � �u�4 � �u!4�u �0 ; c’est ce

que nous avons appelé la base duale de �1, r, r<, … , r� . De la même façon, la base duale de la base �1, �r S $ , �r S $ <, … , �r S $ � s’écrit :

Hu�4 � �u!4�u �$ (il suffit d’appliquer la formule de Taylor en , qui n’est autre que la Formule de

Taylor en zéro appliquée au polynôme £�r � 4�r � $ ) Considérons maintenant � � 1 points $¤, $�, … , $� deux à deux distincts de �, et les formes

linéaires « évaluation en $u » : �u�4 � 4�$u . Si on cherche à prouver que les �u sont

linéairement indépendantes, et que l’on teste une relation de dépendance linéaire entre les �u sur

les vecteurs de la base canonique, c’est-à-dire sur les polynômes 1, r, r<, … , r� ; on est ramené à un

système de Van der Monde qui est de Cramer, d’où le résultat recherché.

Mais on peut voir cela plus simplement, en construisant les polynômes t.�r dits « interpolateurs de

Lagrange » tels que �8, � � :0,1,… , �; �uBt.C � /.,u �n�A¥�m� +� �=���Y��= Ces polynômes sont donnés par les formules t.�r � ∏ �§1¨© ©ª«∏ B¨«1¨©C©ª« ; leur existence même prouve

l’indépendance des �u , et le fait que les deux bases sont en dualité.

indication : on pourra utiliser les notations tensorielles en partant d’une base de *Aa que l’on complètera en

une base de �

Soient a � ∑ &�. , ' . ('V. � �. une décomposition tensorielle minimale de a , ���, … , �V, �VI�, … , ��)

une base de � complétant le système libre ���, … , �V .

Ecrivons la décomposition tensorielle d’un endomorphisme de ���, � : � ∑ &���, '. ('�� � ��� , et composons les deux formules, nous obtenons : a � ∑ &��, '. (��� 'V� � , dans cette écriture les �� sont fixées, alors que les vecteurs ��� sont variables ; il en résulte que l’image de ~ est

engendrée par les tenseurs ��X 2., # � 1. . . =, 8 � 1. . . A

Exercice : Etant donnés �, � deux ��a de dimensions finies �,A ; et a � ��� de rang = ; on

considère la transformation linéaire ~: � a , de l’espace ���, � dans lui-même. Quel est le

rang de cette transformation ?

Page 21: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

21

Montrons que ceux-ci sont linéairement indépendants dans ���, � :

Pour cela, écrivons une relation de dépendance linéaire de la forme ∑ ��,.� �…V. �…U ��X 2. � 0

Alors en composant à gauche par 2u�, nous obtenons : ∑ ��,uV� � �� � 0 ; mais les �� sont supposées

linéairement indépendantes, d’où ��,u � 0 �# � 1… = , et ceci vaut quel que soit � � 1…A , la

relation de dépendance linéaire est donc nécessairement à coefficients tous nuls, cqfd.

En conclusion, le système libre des tenseurs ��X 2., # � 1. . . =, 8 � 1. . . A est une base de *A~

d’où =Z�~ � A= .

Etudions d’abord le noyau de *+ � �X $ ; soit � � ��=�*+ � � X $ , � vérifie l’égalité : � � &� , ' � ('$ � 0 , ceci implique � � G$ avec G � S&� , ' � (' � SG&� , ' $ (', soit G�1 � &� , ' $ (' � 0

Discutons cette dernière égalité : ou bien &� , ' $ (' ¬ S1 , auquel cas ��=�*+ � � X $ se réduit à :0;, et *+ � � X $ est inversible ; ou bien &� , ' $ (' � S1, auquel cas ��=�*+ � �X $ est la

droite engendrée par le vecteur $ , et *+ � � X $ n’est pas inversible.

Plaçons-nous maintenant dans le cas &� , ' $ (' ¬ S1 ; on peut penser à calculer l’inverse de *+ � �X $ par analogie avec la formule de développement en série bien connue :

�1 � ­ 1� � 1 S ­ � ­< SL� �S1 �­� �L

Ce qui donne �*+ � �X $ 1� � *+ S ��X $ � �� X $ < SL� �S1 ��� X $ � �L

On calcule facilement �� X $ � � &� , ' $ ('�1��� X $ , dans le cas où &� , ' $ (' ¬ S1 on obtient

bien une série convergente :

�*+ � �X $ 1� � *+ � �S1 � &� , ' $ (' S &� , ' $ ('< �L ��X $ � *+ � 1��I&® ,' ¨ (' �� X $ La vérification est immédiate :

�*+ � � X $ ¯*+ � 1��I&® ,' ¨ (' �� X $ ° � *+ � &® ,' ¨ ('�I&® ,' ¨ (' �� X $ S &® ,' ¨ ('�I&® ,' ¨ (' �� X $ � *+

Dans le cas où &� , ' $ ( � 0' , on obtient le résultat remarquable �*+ � � X $ 1� � *+ S �X $ ,

qui se généralise en B*+ � G��X $ C1� � *+ S G�� X $ (il suffit de remplacer $ par ) ; on

constate alors par un calcul très simple :

B*+ � G��X $ CB*+ � ±�� X $ C � *+ � �G � ± �� X $ autrement dit, les endomorphismes de la forme B*+ � G�� X $ C forment un groupe pour la

composition, isomorphe au groupe additif ��,� .

Exercice : à quelle condition sur � � ��, $ � � l’endomorphisme *+ � �X $ est-il

inversible ? Quel est son inverse ? Que se passe-t-il en particulier dans le cas où &� , ' $ (' � 0 ?

Page 22: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

22

13) Espace Dual en dimension infinie, dual topologique (versus dual algébrique)

En dimension infinie, on distingue entre dual algébrique et dual topologique.

Pour le dual algébrique, � est muni d’une structure de �-espace vectoriel , et �� se définit,

exactement comme en dimension finie, comme le �-espace vectoriel des formes linéaires définies

sur �. Le problème est que l’on arrive, assez rapidement, à une impossibilité de décrire entièrement

le dual algébrique, c’est-à-dire de construire effectivement les formes linéaires qui le constituent,

ceci étant dû au fait que la dimension de �� est strictement plus grande que celle de �.

Par exemple, si � est l’espace des polynômes � r¡, c’est-à-dire l’espace des suites presque nulles à

coefficients dans �, dont la dimension sur � est dénombrable, alors �� s’identifie à l’espace �² des

suites à coefficients dans � ; sa dimension en prenant � � � est celle du continu, et il devient

impossible de décrire effectivement les éléments de ��� �. Par contre, si l’on munit � d’une topologie, d’espace vectoriel normé par exemple, et si l’on ne

considère sur � que les formes linéaires continues, qui forment ce que l’on appelle le dual

topologique, alors il devient possible de les expliciter. Cela tient au fait que le plus souvent, l’espace � s’obtient comme l’adhérence d’un sous-espace muni d’une base algébrique.

Par exemple, considérons l’espace � � p¤ des suites de réels qui tendent vers zéro à l’infini, normé

par la norme sup : � � �, � � ��¤, ��, … , ��, … , m#A��³�� � 0, ´�´ � n?��²|��| Cet espace possède un sous-espace dense �, constitué des suites presque nulles (ou nulles à partir

d’un certain rang), lui-même muni d’une base canonique évidente �u � �0,0, … ,0,1,0,… ; cette

base est algébrique pour �, et devient topologique pour �, dans le sens suivant : toute suite � � ��¤, ��, … , ��, … de � peut s’écrire comme limite de combinaisons linéaires des �u :

� � ∑ �u³u � �u � m#A��³∑ �u�u � �u, en effet : m#A��³´� S ∑ �u�u � �u´ � m#A��³n?u¶�|�u| � 0

Si maintenant on considère une forme linéaire continue � sur l’espace � , la connaissance de � sur

le sous-espace dense �, c’est-à-dire sur les �u, autrement dit la donnée des $u � ���u permet

d’expliciter � sur � tout entier. Tout d’abord, il existe un critère pour vérifier si � est continue :

� doit être bornée sur les vecteurs de norme égale à 1, autrement dit, � doit satisfaire

|��� | @ p �� � � EF ´�´ � 1 ou encore |��� | @ p´�´ �� � �

démonstration : si ce n’est pas le cas, alors il existe une suite ��. de points de � de norme égale à 1, telle que ·���. · � ∞, on considère alors les �. � �¹·®�º« · �., la suite des �. tend vers zéro en norme et pourtant, les

���. � »|���. | tendent vers l’infini : � n’est donc pas continue en zéro.

Réciproquement, si � vérifie |��� | @ p´�´, alors cette inégalité assure que � est continue en zéro, et par

linéarité, que � est continue en tout point.

Le dual topologique, noté h , est naturellement normé par ´�´ � n?´º´¼�|��� | (c’est la meilleure

constante p de majoration)

Page 23: Algèbre Linéaire : La Dualitéesprit.des.maths.free.fr/documents/documents/Dualite_Lineaire.pdf · 1 Cette monographie présente différents aspects de la dualité linéaire. Pour

23

Revenons à notre exemple :

pour satisfaire le critère de continuité, � doit être telle que ∑ |$u|³u ¤ � n?��²∑ |$u|�u ¤ l ∞

(en effet, chacune des suites �1,1,… ,1,0,… ,0, … � ∑ �u�u ¤ est dans la boule unité, et � doit être

majoré en valeur absolue sur cette boule) ; réciproquement, si c’est le cas, en posant p � ∑ |$u|³u ¤ on a

bien |��� | � |∑ $u�u³u ¤ | @ n?|�u| ½ ∑ |$u|³u ¤ � p´�´

autrement dit, le dual topologique de � s’identifie avec l’espace m��² des suites de valeur absolue

sommable (il est naturellement normé par ´�´ � ∑ |$u|³u ¤ ) .

Intéressons-nous maintenant à son bidual. Soit H une forme linéaire continue sur m��² , la donnée de H implique la donnée des ¥u � H�2u , où 2u est la suite 2u � �0,0,… ,0,1,0,… de m��² . Les suites 2u

sont dans la boule unité de m��² , on doit donc avoir n?u�²|¥u| @ ´H´ l ∞ . Réciproquement, si

cette condition est vérifiée, et si $ � �$u u�² est une suite élément de m��² : ∑ |$u|³u ¤ l ∞ ; alors on

aura H�$ � ∑ ¥u³u ¤ $u absolument convergente avec |H�$ | @ n?u�²|¥u| ½ ∑ |$u|³u ¤ d’où H

continue avec ´H´ @ n?u�²|¥u| ; on en conclut ´H´ � n?u�²|¥u| .

Si on récapitule, en partant de � � p¤ espace des suites nulles à l’infini, on a identifié son dual �h à m��² , puis son bidual �zz à l’espace m³�² des suites bornées : on voit sur cet exemple que le bidual

est en général plus grand que l’espace de départ, lorsque l’on se place en dimension infinie, du point de

vue de la dualité topologique cette fois-ci.

Avril 2007

tous droits réservés