164
Les ma Une représenta

Les Matrices_ Une Representation Du Monde

Embed Size (px)

DESCRIPTION

Matrices reprensentation du Monde

Citation preview

Page 1: Les Matrices_ Une Representation Du Monde

Les ma

Une représenta

Page 2: Les Matrices_ Une Representation Du Monde
Page 3: Les Matrices_ Une Representation Du Monde

Bibliothèque

Tang e L'caventure nte&t:hé?ne&t:ique

Tangente Hor�s-série n° 44

Les matrices une représenta1tion du monde

ËDiTiONS

POLE

© Éditions POLE - Paris - Août 2012 -

Toute représentation, traduction, adaptation ou reproduction, même partielle, par tout procédé, sur

quelque support que ce soit, en tout pays, faites sans autorisation préalable, est illicite et exposerait

le contrevenant à des poursuites judiciaires (loi du 1] mars 1957).

ISBN: 9782848841458 ISSN: 0987-0806 Commission paritaire: 1011K80883

Page 4: Les Matrices_ Une Representation Du Monde

ProchaineJDent dans la Bibliothèque Tangente

~r r, , rrrrrr r ~

~DITIONS.

POLE

Page 5: Les Matrices_ Une Representation Du Monde

les Matrices

Sommaire

DOSSIER

Matrix L'histoire des matrices

Systèmes linéaires et transformations géométriques

Les matrices, ce sont ces tableaux de nombres sur lesquels on peut définir des opérations naturelles. Ces objets algé­briques permettent de modéliser naturellement les sys­tèmes d'équations linéaires. Plus surprenant est leur rôle dans la description des transformations géométriques : les matrices leur ouvrent des horizons inattendus !

Espaces vectoriels : l'algèbre à l'assaut de la géométrie Des matrices pour transformer

Le sens du déterminant Transformations affines et points invariants

Systèmes linéaires et matrices Comment rentrer dans le rang

Les nombres complexes comme ensemble de matrices Le théorème de Cayley-Hamilton

Les fonctions homograph iques

Réduction de matrices ~·X·ti1i:J,I -

ne matrice existe généralement sous différentes formes, ou plusieurs déguisements. Ainsi, pour pouvoir « lire »

directement les propriétés d 'une matrice, il est utile de chercher la forme« la plus simple » qu'elle peut revêtir. Le pivot de Gauss en est un bon exemple : la nouvelle forme de la matrice (triangulaire) permet une résolution immédiate d'un système linéaire.

Diagonaliser pour calculer les puissances d'une matrice Le pivot de Gauss

Similitude et diagonalisation Diagonalisation, géométrie et algèbre

La trigonalisation Manipuler des matrices avec un tableur

Hors série n°44 Les matrices

Page 6: Les Matrices_ Une Representation Du Monde

l·X·f}1iM;I Les matrices sont partout !

Que l'on soit ou non mathématicien, les matrices nous envi­ronnent. La planète Neptune a d 'abord été découverte sur le papier, grâce à un proto-calcul matriciel, avant d'être effec­tivement observée. L'économie, l'actuariat et la finance sont friandes de matrices. L'électronique, l'informatique et toutes les sciences ne peuvent s'en passer. Il est temps d'apprendre à reconnaître ces objets !

Agrandir les images sans perdre en qualité Partout en physique, des matrices

La trilatération Les matrices actuarielles

Les tableaux entrées - sorties en économie Matrices élémentaires en économie

Matrices et codes secrets Les hommes préfèrent les grosses ... matrices Calculs matriciels en statistique multivariée

Les matrices d'Hadamard Problèmes de géo-matrices

l •X•f }1 i M ;I Des matrices et des jeux

Un grand nombre de jeux font intervenir des tableaux de nombres. Ainsi, derrière chaque jeu de grille logique, chaque Sudoku, chaque carré magique se cache une matrice, souvent utile dans sa résolution. Mais les matrices se nichent parfois là où on ne les attend pas : dans les jeux littéraires, l'écriture sous contraintes les a depuis longtemps déjà mises à contribution.

Les carrés magiques : des matrices comme les autres Divertissements littéraires

Les matrices Sudokus Les matrices lumineuses du Lights Out

Problèmes Les carrés magiques

Solutions

En bref

Tangente - Hors série n°44 Les matrices

Page 7: Les Matrices_ Une Representation Du Monde

ar Bertrand Hauchecorne

Du conducteur au uecteur Les Romains possédaient déjà le mot vector. Issu du verbe vehere signifiant « transporter », il dési­gnait aussi bien le passager que le conducteur d'un bateau ou d'un chariot. Les mots français « véhi­cule », « voiture » mais aussi « invective » proviennent de cette même racine latine.

Au Moyen Âge et jusqu'à la Renaissance , le vec­teur est le conducteur d'un bateau ou d'un véhicule, mais ce mot tombe alors en désuétude. Il est repris au milieu du XVIIIe siècle par les astronomes sous forme d 'adjectif. Ainsi, le tourbillon vecteur désigne le mouvement d'une planète et le rayon vecteur joint le centre du soleil à un point de l'orbite .

En 1844, William Hamilton reprend ce mot pour désigner le vecteur (au sens actuel) joignant deux points . La formalisation des espaces vectoriels arrive à la fin du XIXe siècle avec Peano. Un vec­teur devient un élément de cette structure nouvelle. Ver 1900, « vecteur » apparaît parallèlement en médecine. Prenant un sens figuré du mot latin, il désigne les agents infec­tieux qui transmettent une maladie. On a pu entendre il y a peu que les oiseaux migrateurs sont le vecteur de la grippe aviaire .

EN BREF

De l'utérus à la matrice

On doit à James Sylvester l'introduction en mathé­matique du mot matrice, ou plus exactement, en anglais, matrix. Ce terme, formé sur la latin mater signifiant « mère », désigne dès le XIIIe siècle l'utérus. Cependant, comme on enregistrait les enfants à la naissance, il désigne bientôt aussi le registre sur lequel on les inscrit. Ceci explique aussi les mots matricule, cher à l'armée, et imma­triculation, rendu populaire grâce à l'automobile.

Avec les débuts de l'imprimerie, « matrice » désigne aussi le moule à imprimer sur lequel on place les caractères. On voit la ressemblance entre un tableau de nombres et une tablette de caractères. Cepen­dant, en introduisant ce terme, Sylvester joue sur les mots, puisqu'il use de cette ressemblance tout en se rattachant à l'étymologie du mot, comme en témoigne cette phrase écrite en 1851 : "/ have in a previous paper defined a « Matrix » as a rec­tangular array of terms, out of which differenl systems of determinants may be engendered, as from the womb of a common parent" (« J'ai défini dans un précédent article une matrice comme un tableau rectangulaire de termes , duquel peuvent être engendrés différents systèmes de déterminants comme sortis du ventre de la même mère »).

Hors-série n• 44. Les matrices Tangente 5

Page 8: Les Matrices_ Une Representation Du Monde

PASSERELLES par Jean-Jacques Dupas

Dans un monde futur, des machines élèvent des humains afin de capter leur énergie vitale. Elles soutirent un maximum d'énergie si les humains sont actifs plutôt que végétatifs. Alors elles les plongent dans un environnement simulé. Bienvenue dans la Matrice.

Les habitants de la Terre croient vivre des vies normales. En fait , ils sont tous connectés à des

machines. L'histoire du blockbuster The Matrix (Andy et Larry Wachowski, 1999, produit par Warner Bros. Pictures) raconte le combat d'une poignée d'humains déconnectés contre ces machines qui ont asserv i les humains. Mais pourquoi ce nom de Matrix ? En anglais comme en fran­çais, le terme désigne aussi bien ( 'uté­

rus féminin que l'objet mathématique (voir en pages précédentes). Dans le film, les humains vivent leur vie dans un utérus artificiel. En outre, toute simulation consiste essentiellement en des manipulations de matrices. Enfin, si le film est à la cro isée de plusieurs thèmes classiques de la sc ience-fiction (le combat contre les machines, le sau-

Discrétisations et équations dijf érentielles se traduisent généralement

par des manipulations de matrices.

6 Tangente Hors-série n° 44. Les matrices

veur), il mêle également plusieurs thèmes classiques des religions : le bouddhisme (avec Néo en Éveillé), le christianisme (avec Trinity et

Anderson, littéralement « le fils de l ' homme »), le judaïsme (avec le thème messianique), la mythologie grecque (le personnage de Morpheus fait référence à Morphée, dieu des songes, un des mille fils du Sommeil ,

Hypnos), etc.

De morphée à Platon

Cette référence expl icite au sommeil nous renvoie à la question : qu 'est ce qui différentie un rêve de la réalité ? Comment notre cerveau s'y prend-il pour produire nos rêves et déconnecter nos muscles ? The Matrix est donc matriciel en diable. li tisse également plusieurs autres thèmes philosophiques ou scientifiques. Par exemple, celui des grandes simulations numériques, ou encore celui du mythe de la caverne de Platon.

Page 9: Les Matrices_ Une Representation Du Monde

Dans celui-ci, des humains sont enchaînés dans une caverne, de telle sorte qu ' ils ne peuvent voir que la paroi de leur antre. Sur celle-ci, ils n'aperçoivent que l'ombre du monde, qu'ils prennent pour le monde réel. On peut interpréter ce mythe en science par l' utilisation du modèle. Un modèle, c'est une vision réduite du monde réel , une projection. Il est régi par les lois de la physique, il permet d 'expliquer, et il doit être prédictif. Les ingénieurs, les scientifiques contemplent les parois de leur caverne ! Mais le monde réel est souvent trop complexe pour être ainsi appréhendé. Un mathématicien peut aussi interpréter ce mythe par ! 'abstraction : croyant contempler des objets, il ne contemple que l'ombre d 'objets plus abstraits. Cette montée en abstraction s'avère souvent riche . Dans The

Matrix, le mythe de la caverne s' incarne grâce à une simulation. L' idée de simulation numérique n' a pu prendre corps qu 'avec la montée en puissance des ordinateurs. Avant l'avènement de ces machines, pour tester un objet, il fallait le construire et

pratiquer des tests in situ. Mais cette démarche a un coût ! L'idée alors est de le reconstituer sur une maquette numérique. On le discrétise (on le « découpe en petits morceaux » et on applique les lois de la physique sur ces petits morceaux, en résolvant la plupart du temps des équations différentielles). Discrétisations et équations différen­tielles se traduisent généralement par des manipulations de matrices. Par exemple, au lieu de crasher un avion, il est moins dangereux (et surtout moins coûteux) de réaliser une simulation. Mais attention : une simulation, ce n'est pas si facile ! La discrétisation, déjà, n'est pas toujours simple (un avion possède des milliers de pièces ... ). Ensuite, il faut maîtriser les modèles physiques (mission quasi impossible en physique nucléaire ou en physique des plasmas). li faut enfin maîtriser les mathématiques du calcul matriciel , du calcul numérique et disposer de puissances de calcul impressionnantes. Dans un modèle discrétisé, plus le découpage est fin, plus la simulation sera précise. Mais découper les

The Matrix (ou tout

simplement Matrix

dans les salles

françaises) est truffé

de références au

monde imaginaire de

Lewis Carroll.

Hors-série n° 44. Les matrices Tangente

Page 10: Les Matrices_ Une Representation Du Monde

PASSERELLES Matrix

longueurs par un facteur dix, c'est

multiplier le nombre de mailles

volumiques par mille. Et après tout ce

travail , il faudra quand même disposer

d'expériences physiques pour recaler

les modèles. Une simulation numérique s'appuie donc sur un

triptyque ( on retrouve Trinity) : des

modèles physiques, des moyens de

calculs (aussi bien matériels que

logiciels) et des expériences physiques

pour recaler les modèles.

De l'autre côté du miroir

Les simulations sont extrêmement

utiles dès qu ' il est impossible de faire

des expenences grandeur nature

(tremblements de terre, tsunamis,

crashs d'avions ... ). Un cas typique est

la cosmologie : comme il est assez

difftci le d'aller sonder ( 'espace

intersidéral, les cosmologistes font des

Références • Dictionnaire de la 111ythologie grecque et ro111aine. Pierre Grimal. Presses Univers itaires

de France, 1999.

• SF : la science 111ène l 'enquête. Roland

Lehoucq, le Pommier,

2007.

simulations ils font

évoluer un univers,

simplifié, de milliards de

particules en jouant avec

les lois de la physique pour

voir s'ils obtiennent un

univers « proche » du

nôtre. lis peuvent ainsi

tester la validité de

nouvelles théories.

Une des industries qui

consomment également

beaucoup de temps de

calcul est le cinéma. Et

justement, dans le film, de nombreuses

scènes sont issues de simulations

numériques. li y a donc un jeu de

8 Tangente Hors-série n° 44. Les matrices

miroirs : on nous présente la vie réelle

comme une simulation, mais c'est bien

le film qui est une simulation ! The Matrix est d'ailleurs truffé de

références à Lewis Carroll : le lapin

blanc tatoué sur l'épaule de Trinity, la chute interminable dans un tuyau, la

traversée du miroir. .. li est amusant de

se rappeler que, dans son traité sur les

déterminants ( datant de 1867), le

mathématicien Charles Dodgson (alias

Lewis Carroll) récusait ! 'utilisation du terme « matrice », qui pour lui avait

plutôt la signification d'un moule ; il

lui préférait le terme « bloc ».

Dans tout programme informatique

digne de ce nom, il reste des bugs. Éditer des programmes sans bug (ou

tout au moins avec le moins de bugs possible) est le défi de l' industrie

logicielle actuelle. Les mathématiques

se sont emparées de ces sujets bien

avant que les ordinateurs existent (voir

par exemple les travaux de Church,

Godel ou Turing). C'est en partie à cause des bugs de la Matrice que le

héros se doute que quelque chose

cloche dans son monde. The Matrix est donc bien une matrice

de nombreux thèmes classiques. li

possède la vertu de fournir des images

aux idées abstraites, comme la

simulation numérique (dont l' image

restera sans doute associée à un fond vert avec un défilement de chiffres). Le

film met en avant la culture

informatique (le héros est informati­

cien le jour et hacker la nuit). Les

matrices, au sens mathématique, sont

certes moins connues du grand public,

mais omniprésentes : elle mériteraient

d 'être plus connues que le film !

J.J.D.

Page 11: Les Matrices_ Une Representation Du Monde

par B. Hauchecorne et É. Thomas EN BREF

Hlgebre li , .

espaces vectoriels.

Le mot « linéaire »

est l'adjectif asso­

cié à « ligne », sous­

e n tendu « ligne

droite ». Les lignes

droites sont en effet

les sous-ensembles

privilégiés des

Le mot « algèbre », quant à lui, provient

du titre d'un ouvrage d 'al-Khwarizmi,

dans lequel le savant arabe du IX0 siècle

résout les équations de degré 2. On lui

doit également un ouvrage, De numero lndorum , dans lequel il explique le

maniement des chiffres dits arabes

inconnus en Occident à) 'époque et la

numération de position qui permet

d'avoir des algorithmes simples pour

effectuer des opérations. Lors de l'adop­

tion de cette numération en Occident

vers le XYI0 siècle, l'étude et le manie­

ment des nombres entiers s'appelle

toujours arithmétique alors que l' al­gèbre désigne sa généralisation aux

nombres négatifs , à l'introduction de

paramètres. Les nouveaux ensembles

de nombres , les complexes, les qua­

ternions et les espaces multidimen­

sionnels, entrent de fait dans le domaine

de ) 'a lgèbre . Aussi parle- t-on aussi

d'algèbre linéaire ...

0 0 0

0 0 0

0 0 0

La matrice nulle.

matrices rudimentaires En tant que tableau de nombres, il est aisé de comprendre

qu ' une matrice M peut posséder un nombre quelconque de

lignes (disons n) et un nombre tout aussi arbitraire de colonnes

(par exemple p). M sera complètement définie dès lors que les

n x p éléments ( ou coefficients) si tués à l'intersection de cha­

cune des lignes avec chacune des colonnes seront précisés.

On note généralement ( a,.;),.,_ •• les coefficients d'une matrice ls;sp

M quelconque , où chacun des n x p coefficients est un scalaire.

• Dans le cas où n = p, la forme géométrique que prend la

représentation de M fait que la matrice M est dite carrée ; elle

possède alors n2 coefficients ( dans le cas général, on parle de

matrice rectangulaire). • Dans le cas où n = 1, M est une matrice ligne. Dans le cas

où p = 1 , M est une matrice colonne. Dans le cas très parti­

culier où n = p = l , M peut être assimilée à un scalaire .

Les matrices les plus utilisées en mathématiques sont les

matrices carrées (n = p). Les n éléments a;,; situés sur la dia­

gonale principale sont appelés, justement, les éléments dia­gonaux (les autres étant les éléments extra-diagonaux). Si tous les éléments extra-diagonaux de M sont nuls, la matrice

est dite diagonale. C'est le cas particulier de la matrice nulle, dont tous les éléments aij sont égaux à zéro, ou de la matrice identité, dont les éléments diagonaux sont tous égaux à 1 (et

tous les autres sont nuls).

Enfin, l' utilisation des matrices pour la résolution des systèmes

linéaires fait intervenir des matrices carrées dont tous les élé­

ments situés strictement sous la diagonale principale sont

nuls. Ces matrices sont appelées matrices triangulaires supé­rieures. Plus précisément, une matrice M est triangulaire

supérieure si ses coefficients vérifient aij = 0 dès que i <j.

1 0 0

G 5

n 0 1 0 2

0 0 1 0

La matrice identité. Une matrice triangulaire supérieure.

Hors-série n° 44. Les matrices Tangente 9

Page 12: Les Matrices_ Une Representation Du Monde

HISTOIRES par Bertrand Hauchecorne

'

La genèse de la théorie des matrices est confuse, et passe par la Grande-Bretagne, par la France, l'Allemagne, et même ... la Chine ! De simples outils permettant de simplifier les notations, les matrices deviennent ensuite un outil incontournable pour l'algèbre linéaire.

L ' histoire de France commen­ce-t-elle avec les Gaulois, le

baptême de Clovis ou l'ac­

cession sur le trône d'Hugues Capet?

Les historiens ne sont pas tous d'ac­

cord. Pour les matrices, c'est un peu

pareil : doit-on parler de matrices dès

que certains eurent l'idée d'extraire un

tableau de nombres d ' un système

d'équations linéaires, doit-on attendre

que Cauchy note en tableau des déter­

minants, ou faut-il que Sylvester leur

donne un nom et Cayley définisse des­

sus des opérations, les traitant comme

des nombres munis d'une structure?

Historiquement, la résolution de systè­me d'équations linéaires est très ancien­

ne. La donnée des coefficients devant

chaque inconnue suffit à définir ce sys-

Du tableau de nombres à un outil essentiel de l'algèbre linéaire.

tème; c'est en quelque sorte une matri­

ce. Privilégiant l'aspect pragmatique de

la résolution, on a d'abord introduit le

calcul de déterminant, notion nécessaire

à justifier l'existence de solutions. Cet

outil est apparu avec Gottfried Wilhelm

Leibniz dès la fin du xv11° siècle, cent

cinquante ans avant une définition for­

melle de la notion de matrice par James

Joseph Sylvester et Arthur Cayley.

Des Han à Hanovre

Les Neuf chapitres sur ! 'art mathéma­tique sont un ouvrage compi lant les

principales méthodes mathématiques

connues dans l 'Antiqu ité chinoise. Il

apparaît sous la dynastie des Han, au

tout début de notre ère. Le titre du hui­

tième chapitre, Fang sheng, signifie

« comparaison des dispositions». Il

présente des problèmes résolus par des

systèmes d'équations linéaires à deux

ou trois inconnues. On disposait les

coefficients du système en tableau, en

10 Tangente Hors-série n°44. Les matrices

Page 13: Les Matrices_ Une Representation Du Monde

mettant autant de baguettes que le pro­

blème présentait: c ' était, pourrait-on

dire, l'apparition des premières

matrices, tout en baguettes . On résol­

vait alors le système, en maniant ces

baguettes, par une méthode rappelant

le pivot de Gauss.

S ' intéressant, à la fin du xv11• siècle, à un système de trois équations linéaires

à trois inconnues, Leibniz, alors au ser­

vice de la maison de Hanovre, en

extrait les coefficients ; le terme que

nous notons aujourd'hui a, ,2 est pour lui soit 12 (il y a donc confusion avec

l'entier 12), soit 12. Tl se rend compte

que le tableau représenté par les coeffi­cients est ( 'élément essentiel qui

indique s'il y a une solution, plusieurs

solutions ou aucune solution . Tl expri­me en outre le déterminant en fonction

des coefficients. Tout au long du xv111• siècle, l'étude

des systèmes se focalise sur la notion

de déterminant. Plusieurs mathémati­

ciens, comme le Suisse Gabriel Cramer

ou le Français Étienne Bézout,

empruntent la démarche du philosophe

allemand en étudiant les déterminants

de manière utilitaire dans le seul but de

William Hamilton Bien que connu pour ses travaux en mathé­matiques et en physique, Sir William Rowan Hamilton (1805-1865) est avant tout un .. . astronome. D'une précocité stupéfiante, on dit qu'à 5 ans, il lisait déjà le latin, le grec et l'hébreu. Il quitte son Irlande natale en 1823 pour aller étudier au Trinity College de Cambridge. Il obtient à 22 ans le poste très prisé d'astronome royal d'Irlande et passe le reste de sa vie à Dunsink, à proximité de l'ob­servatoire de Dublin. Sa rédaction, dans les années 1830, d'une théorie rigoureuse des nombres complexes qu'il assimile à des « nombres de dimension 2 » est un prélude à une base axio­matique des structures algébriques. Ceci le

conduit à chercher vainement des « nombres de dimension 3 », puis à introduire en 1843 les qua­ternions. Il pense avoir trouvé un outil essentiel pour l'étude de la physique, mais le développe­ment de l'analyse vectorielle par Willard Gibbs et Oliver Heaviside amènera des notations plus simples. Souvent inspiré par des problèmes venus de la physique, comme l'optique ou la dynamique, Hamilton étudie les équations différentielles. Il introduit en 1835 les fonctions hamiltoniennes, qui expriment la variation dans le temps d'un sys­tème physique dynamique, le hamiltonien repré­sentant son énergie totale.

résoudre un système. Dans son

Mémoire sur la résolution des équa­tions, publié en 1771, le mathématicien

français Alexandre-Théophile Vander­

monde est le premier à s'intéresser aux propriétés des déterminants et aux

méthodes pour les calculer en se déta­

chant du système lui-même. Dans ses

travaux sur la mécanique céleste,

Pierre-Simon de Laplace développe un

embryon de calcul matriciel et utilise

la méthode de développement d'un

déterminant par rapport à une colonne.

Hors-série n°44. Les matrices Tangente 11

Page 14: Les Matrices_ Une Representation Du Monde

HISTOIRES L'histoire des matrices

De Cauchy à Cayley

Au XIXe siècle, le mathématicien fran­çais Augustin Louis Cauchy construit une théorie des déterminants presque moderne. Il introduit la notation en tableau et la double indexation des composantes. Il définit ce qu ' il appelle le produit de deux déterminants: c'est en fait le produit des deux matrices associées. Lagrange l'avait déjà défini avant Cauchy pour les matrices carrées de taille n = 3. Le Britannique James Sylvester, quant à lui, reprend en 1850 des travaux du mathématicien alle­mand Julius Plücker publiés en 1828 sur les intersections de coniques. Ce dernier avait en fait résolu le problème géométrique, mais grâce à des méthodes purement analytiques et assez lourdes. Cette étude se plaçait dans le cadre de la géométrie algé­brique, où une courbe est définie par une équation de la forme f (x, y) = O. Ainsi, déterminer des intersections de

coniques revient en fait à annuler simultanément deux polynômes en x et y. Cependant, le mathématicien britan­nique, influencé par son ami Arthur Cayley, aborde ce problème par les déterminants. Il est amené à calculer certains déterminants, qui sont tous issus d ' un tableau de nombres qu'il nomme matrice, les déterminants ini-

Ta.ngente Hors-série n°44. Les matrices

Page 15: Les Matrices_ Une Representation Du Monde

tiaux étant des mineurs. L'année sui­vante, Sylvester généralise ses travaux aux quadriques, c'est à dire aux sur­faces d'équation f(x, y, z) = 0, où f désigne une fonction polynomiale de

degré 2. Au début des années l 850, Cayley et Sylvester, tous deux membres du bar­reau, échangent sur leurs passions communes. Cayley comprend alors toute l' importance en algèbre des tableaux de nombres utilisés par Sylvester. Dans un article publié en

français en 185 5, il parle des matrices comme une « notation commode » pour représenter les systèmes linéai res. Il explique ! 'i ntérêt de la notion matricielle pour étudier les « fonctions linéaires». Trois ans plus tard, Cayley élabore une véritable théorie des matrices dans son

nouvel article A Memoir on the Theory of Matrices. S'inspirant sans doute du mémoire d' Augustus de Morgan, On the Foundation of Algebra, publié en 1841, il définit sur les matrices des opérations d'addition et de multiplica­tion, les considérant de ce fait comme des sortes de nombres (des éléments mathématiques à part entière, et non de simples commod ités d 'écriture). Cayley en est bien consc ient lorsqu 'i l les désigne par le terme de « single quantity » (quantité simple). li s'émer­veille du « remarkable theorem » lors­qu'il énonce le résultat connu sous le nom de théorème de Cayley- Hamilton. Certains voient en lui l' inspirateur de la notion d'hyper­nombre et de la théorie des algèbres.

Les matrices franchissent la manche

Introduites par des Britanniques, les matrices peinent à s'implanter sur le continent. Georg Frobenius approfon­dit les différentes notions d'algèbre

linéaire. Il démontre le théorème de Cayley-Hamilton en 1878 et dévelop­pe la théorie des formes bilinéaires. À cette même époque a été perçue l' im­portance de ces fonctions dans diffé­rentes branches des mathématiques ( espaces euclidiens, systèmes diffé­rentiels de second ordre, théorie des nombres . . . ). Pourtant, bien que très au courant des travaux de Cayley, Frobenius s'obstine dans ses travaux à éviter l 'emploi des matrices! Dans les années 1890, ! ' usage des matrices se développe brusquement. Le mathématicien pragois Eduard Weyr étend le champ des matrices en les utilisant pour étudier les formes bilinéaires (qui sont des fonctions de deux vecteurs x et y, linéaire en x lors­qu 'on fixe y et linéaire en y lorsqu 'on fixe x) . En passant aux coordonnées de ces vecteurs, l'expression de la forme

bilinéaire se reformule en une somme

de termes de la forme ai,J X; yJ" Réciproquement, la donnée de la

matrice des coefficients (a;);J suffit à déterminer une forme bilinéaire. Dès lors, ! ' usage des matrices se répand inexorablement. Elles ne sont plus vues comme des éléments indé­pendants, mais à chacune d 'elles est

associé un certain nombre de proprié­tés, de potentialités. Le mathématicien allemand Leopold Kronecker com­prend par exemple l'importance de

l'entier r correspondant à la taille maximale d ' un système linéairement indépendant que l'on peut en extraire;

il l'appelle rang de la matrice. De nos jours, les matrices sont utilisées dans de nombreux domaines, très divers, bien au-delà du champ mathématique !

B.H.

Hors-série n°44. Les matrices Tangente 13

Page 16: Les Matrices_ Une Representation Du Monde

EN BREF

Scalaire La racine indo-européenne skand signifi ait « lever le pied ». On la retrouve dans le grec skandalon, qui désignait un di spos itif fa isant trébucher, un piège. Les Pères de l'Ég li se l' utili sent dans le sens d ' in­c itati on au péché. Devenu scandalum en latin , il fo urnit à notre langue les mots « scandale » e t « esclandre ». Le latin scandere, « monter », est de même ori­gine . On le retrou ve dans les mots français « des­cendre», « ascension » et bien sûr « transcendant ». Par déri vation , les Romains appe ll ent scala une marche, puis par ex tension un escalier. Ce dernier mot en provient par l' intermédiaire du provençal.

Le mot « échelle » est de même racine. L'ajout du « é » initial est

un phénomène linguistique cou-rant pour fac iliter la prononcia­

tion d ' un « s » initial devant une consonne : penser à « éco le » et

« scola ire », « étude » et « stu­dieux».

Le mot scalaris existe déjà en latin et signifie « relatif à l'échelle ». Les naturali stes l' utili sent au xrxe siècle pour désigner un poisson.

Son emploi en mathématiques __ ,.,.,,,, - ..... vient de l'analog ie entre les

nombres entiers et les barreaux d ' une éche lle. Pour mesurer, en effet , on utili se une gra-

'""t1-11"--......,,i.1 duation que l'on rapporte à

des no mbres. Le mo t dev ient un substantif et se gé né ra li se à to us les

r --.,_-JI nombres réels .

Le mot scalaris existe en latin et signifie « relatif à l'échelle » .

par B. Hauchecorne et H. Lehning

fldditionner des matrices Les tableaux de nombres, comme le tableau à deux

1 4 -2 lignes et tro is colonnes , sont fréquemment

0 3 5

manipulés dans divers domaines (la comptabil ité par

exemple), surtout depuis l' util isation des tableurs. On

peut en particulie r définir des opérati ons dess us.

L' usage es t alors, pour les mathématic iens, de les

représenter entre parenthèses, le tableau précédent

devenant ( 1 4

-2

) . 0 3 5

L'addition de deux matrices de mêmes dimensions, c'est­

à-dire ayant le même nombre de lignes et de colonnes

se fa it élément par élément. Ainsi :

( 1 4 -2) + ( 2 - 1 3) = ( 3 3 16) . 0 3 5 -3 5 1 -3 8

Muni de l'addition, l' ensemble des matrices 2 x 3 a

déjà une structure intéressante , c'est un groupe com­

mutatif.

Si on y ajoute la multiplication par un scalaire, défi­

nie de même é lément par élément :

2.(1 4 -2) = (2 8 -4) 0 3 5 0 6 10 '

cet ensemble peut a lors être considéré comme un

espace vectoriel .

Sa dimension est égale au produi t du nombre de lignes

par le nombre de colonnes. Pour le prouver, il suffi t

de remarquer qu' une base sera fo rmée , par exemple

dans le cas des matrices 2 x 3 , des six matrices pos­

sibles formées d' un « 1 » et de c inq « 0 ».

Une autre façon de l'exprimer consiste à compter le

nombre de paramètres nécessaires à définir une matrice !

Merveille de l'abstraction, cette structure nous auto­

rise à appeler « vecteur » . .. une matrice.

14 Tangente Hors-série n°44. Les matrices

Page 17: Les Matrices_ Une Representation Du Monde
Page 18: Les Matrices_ Une Representation Du Monde

par~.BusseretG.Cohen

Espaces uectoriels l'algèbre à l'assaut de la géométrie La géométrie, longtemps considérée comme une science à part, a subi deux assauts qui ont eu raison de son autonomie par rapport aux autres domaines des mathématiques : l'introduction par Descartes de la géométrie analytique et l'apparition de l'algèbre linéaire.

Représenter tous les points du plan par des couples de réels, et assi­miler le plan à IR2 , voilà le pro­

fond chambardement dont Descartes fut à l'origine (c'est le cas de le dire, puisque tout revient à choisir un repère : deux axes gradués passant par une origine). Après Descartes, faire de la géométrie ne fut plus la même chose. Une fois le repère choisi, un calcul peut représenter n'importe quel résultat géo­métrique . Pour montrer qu'un point du plan appartient à une droite, il suffit que ses coordonnées vérifient l'équation de cette droite ; pour montrer que le qua­drilatère ABCD est un parallélogramme, il suffit que les bipoints (couples ordon­nés de points) AB et CD soient équi­pollents , c'est-à-dire que les différences entre les coordonnées des extrém ités et celles des origines soient identiques.

n la base de l'algèbre linéaire : l'espace uectoriel

De là à définir les vecteurs, il n 'y avait qu'un pas , et il fut rapidement franchi.

À chaque bipoint, on associe un vecteur, être abstrait qui se reconnaît dans tous les bipoints équipollents (associés à des seg­ments parallèles, de même sens et de même longueur). Mais voilà, ces vecteurs, on peut opé­rer dessus : les additionner, les multi­plier par un réel (on dit un scalaire). Le mathématicien, c'est connu , est un générali seur fou. Il a inventé la notion d'espace vectoriel, structure algébrique munie de deux opérations, l' une interne (la somme), l'autre externe (la multi­plication par un sca laire), qui vérifient quelques propriétés directement ins­pirées de ce lles des vecteurs associés à un plan.

L'addition est une loi de groupe com­mutatif, la multiplication par un scalaire (souvent notée par un point) vérifie quelques propriétés supplémentaires :

1. û = û a.(b. ü) = (ab). ü (a+ b). ü = a. ü + b. û a. (ü + v) = a. ü + a. v

Tangente Hors-série n°44. Les matrices

Page 19: Les Matrices_ Une Representation Du Monde

C'est Grassmann (voir encadré) qui, le

premier, a imaginé cette structure , pré­

c isée ensuite plus rigoureusement par

Peano (vo ir encadré en page 18) .

Une combinaison finie de sommes et de

produits par un scalaire s'appelle com­binaison linéa ire. Les combinaisons

linéaires jouent un rôle fondamental dans

la structure d'espace vectoriel.

Cette structure s'applique aux vecteurs

associés au plan ou à l 'espace de la

géométrie classique, dont le modèle est

respectivement IR2 ou IR3, mais se géné­

ralise à des espaces beaucoup plus com­

plexes, comme des espaces de suites ,

de fonctions ...

Elle s'étend même à des corps de scalaires

différents de IR.

Uers de nouuelles dimensions

Pour se repérer facilement dans l'en­

semble des vecteurs d ' un espace vecto­

riel , on cherche ce qu 'on appelle une

base: c'est une famille libre (on dit aussi

qu 'elle est formée de vecteurs indépen­dants : aucune combinaison linéaire de

ces vecteurs ne peut s'annuler, hormjs la

combinaison nulle) , et c'est une famille

génératrice : tout vecteurs' écrit de façon

unique comme combinaison linéaire des

vecteurs de cette famille.

On montre alors un résultat très impor­

tant : si un espace vectoriel E admet

une base finie comportant n éléments,

toute autre base de E compte aussi n éléments.

On dit que l'espace vectoriel E est de

dimension n. Dans le cas d ' un plan, une base est un

couple (Ï ,1) de deux vecteurs ni nuls

ni de même direction. Tout vecteur ü peut alors s'écrire de manière unique

sous la forme ü = xT + YJ où (x,y), couple de réels , sont les coor­

données du vecteur en question.

SYSTÈMES LINÉAIRES

Hennann Grassmann, l'incompris Après des études de théologie à Berlin, Hermann Grass­mann (1809-1877) enseigne les mathématiques à l'Univer­sité de Berlin puis dans un lycée à Stettin. Il publie en 1844 Ausdehnungslehre, c'est-à-dire enseignement des étendues. Cet ouvrage contient en germe les notions fondamentales de l'algèbre linéaire: combinaisons linéaires, indépendance, bases, dimension et produit extérieur. L'exposé de Grass­mann est confus et même opaque et sa théorie ne sera vrai­ment comprise que bien plus tard, par Peano. Pourtant, il avait bâti une définition intrinsèque des espaces vectoriels alors que Cayley n'avait fait que du calcul dans IK!". Devant l'incompréhension de ses pairs, Grassmann abandonne la recherche en mathématiques pour se consacrer à l'étude des textes védiques, en particulier la traduction du Rig­Veda. Il brille également en linguistique puisque son nom a été donné à une loi concernant la dissimilation des consonnes aspirées en Sanskrit et en grec. B.H.

M

0 ~ xi

Le vecteur û = OM et ses coordonnées dans la base (Ï ,T).

Hors-série n° 44. Les matrices Tangente 17

Page 20: Les Matrices_ Une Representation Du Monde

SAVOIRS Espaces vectoriels

Giuseppe Peano, le théoricien

Ainsi, une fois une base choisie , on peut assimiler un espace vectoriel de dimen­

sion 2 à l'ensemble des couples de réels (x, y), autrement dit à IR2

. On dit que les de ux espaces sont isomorphes . De même, un espace vectoriel de dimen­sion n sera isomorphe à IR". La notion d 'espace vectoriel s'applique à notre espace environnant de dimen­sion 3, el le permet aussi d ' imaginer des espaces qui échappent à notre percep­tion. L' espace-temps de dimension 4 , mais aussi, pourquoi pas, des univers de dimensions supérieures ...

Transformer, mais en conservant les propriétés

Les vecteurs, du plan, de l'espace ou d ' un espace Ede dimension supérieure, on sait les ajouter et les retrancher, les multiplier par un rée l quelconque . On vas' intéresser à agir dessus en les trans­formant , c'est-à-dire assoc ier à chaque

Giuseppe Peano (1868-1932) est l'un des plus brillants mathématiciens italiens des deux cents der­nières années. Homme d'une curiosité et d'une inventivité prodigieuses, il fut pionnier dans de nom­breux domaines des mathématiques. Son esprit critique, rigoureux et peut-être aussi son éloignement des pôles mathématiques les plus en vue à l'époque lui ont permis de considérer avec un regard neuf l'évolution des mathématiques et d'oser bousculer des idées reçues. Ses premiers travaux concernent le calcul infinitésimal et en particulier les fonctions de plusieurs variables et l'étude des courbes. Dans ce domaine, on lui doit plusieurs contre-exemples qui ont per­mis de contredire des thèses affirmées par des mathématiciens reconnus. Le fil conducteur de ce savant a toujours été la clarification et la diffusion des mathématiques. Il le fait de souvent de manière très maladroite. Ainsi il crée le Latine sine fiexione appelé aussi Interlingua, langue universelle, dans laquelle il publie en 1908 un monumental formulaire expliquant toutes les mathé­matiques de son temps. Avec la même motivation, Peano introduit de nombreux symboles dans la toute naissante théorie des ensembles et se penche vers l'axiomatique ; celle des entiers naturels l'a rendu célèbre. On sait moins l'importance de son travail pour la vulgarisation de la théorie des espaces vectoriels. Il comprend leur introduction très confuse par Grassmann dans son ouvrageAusdehnungslehre. Il publie, en 1888, Cal­colo geometrico, ouvrage dans lequel il clarifie les notions introduites par le mathématicien allemand. Il y donne une définition axiomatique des espaces vectoriels, introduit les applications linéaires et montre, en donnant l'exemple des polynômes, que cette théorie ne se réduit pas à la dimension finie. B. H.

Tangente Hors-série n°44. Les matrices

Page 21: Les Matrices_ Une Representation Du Monde

vecteur ü le vecteurv de l'espace vec­tori e l F, défini pa r v = f(ü) ; v es t l'image de ü par une certaine applica­tion f de E dans F. Mais on ne s' intéresse pas à n ' importe que lle app licat io n ! Il fa udra que f conserve les opérations sur les vecteurs, c'es t- à-d ire q ue l ' image par f d ' une somme de vecteurs so it la somme des images et celle du produit d ' un vecteur par un réel soit le produit par ce nombre de l' image de ce vecteur. Plus généralement , l' image d ' une com­binaison linéaire de vecteurs est la même combinaison li néa ire des images de ces vecteurs. On dit alors que f est une application (ou un opérateur) linéaire, ce qui s'écrit encore : f(ü + v) = f(ü) + f(v) et, pour tout réel a, !(a. ü) = af(ü) .

Par exemple, l'application de E dans E qui à tout vecteur ü fait correspondre son double 2ü, est linéa ire, a lors que ce lle qui à ü associe 2ü + V où V est un vecteur fixe , ne l'est pas. Ces applications jouissent de proprié­tés particulières: l' image du vecteurnul est le vecteur nul , cell e d'un opposé est l'opposé de l 'i mage, et surtout , e lles conse rvent le para llé li sme : s i v es t multiple de w, l'image de v est aussi multiple de ce lle de w.

Parmi les applications linéaires, les endo­morphismes de E, applications linéaires de E dans lui -même, jouent un rôle important. Citons les plus s imples : l' identité Id E, qui à un vecteur ü de E associe le même vecteur ü ; les endo­morphismes scalaires k IdE, qui à ü font correspondre k ü, k étant un réel fixé. Et les applications linéaires de E dans F forment elles-mêmes ... un espace vectorie l.

SYSTÈMES LINÉAIRES

la relation de Chasles Dans un espace affine (par exemple de dimension 2), associé

à l'espace vectoriel E, si (el' e~ est une base de E et (0 , ei, e~

un repère de l'espace affine, alors: -+ ,

• un vecteur AB a pour coordonnees, dans la base (ei, e2),

(b1 - al' b2 - a2), différence des coordonnées (bi, b2) de B et

(ai, a~ de A dans le repère (0 , e" e2) ;

• additionner deux vecteurs revient à ajouter leurs coordon­

nées dans la base (el' e~ .

Il s'ensuit que BA= -AB, ainsi qu'une interprétation géométrique extrêmement pratique de la somme de deux vecteurs associés à des bipoints dont l'extrémité du premier est l'origine du

second: Aii +Bê=Aê.

Ce résultat, appelé relation de Chasles , du nom du mathé­maticien Michel Chasles, qui l'a exprimée le premier, est extrêmement simple à démontrer à l'aide des coordonnées des points :

(b1 -a" b2 - a~ + (c 1 - b1, c2 -b2) = (c1 -a" c2 -a2).

Cette relation se généralise à un nombre quelconque de points et à toutes les dimensions. En voici une expression classique pour quatre points :

--+ ;:-;:t --+ --+ AB + BL + CD+ DA= O.

Mais pas seulement : elles se compose­ront également entre elles, conférant à leur e nsemb le , dans le cas des endomor­phjsmes d 'un espace vectoriel, une struc­ture d 'anneau (non commutatif) , qui , s'ajoutant à celle d 'espace vectoriel, est affublée du joli nom ... d'algèbre! Et les matrices dans tout cela ? Elles vont être omniprésentes dans les espaces vectorie ls de dimension finie . Les opé­rations qui vont être défi nies dessus vont servi r à la plupart des calcul s dont on aura beso in : ex primer les compo­santes d'un vecteur après un changement de base, mais surtout représenter les applications linéaires, dont e lles expri­meront les effets au moyen de calcul s numériques simples et pratiques.

É.B. & G.C.

Hors-série n• 44. Les matrices Ta.n9ente

Page 22: Les Matrices_ Une Representation Du Monde

SAVOIRS par É. Busser et G. Cohen

• es ma r1ces pour transformer L'algèbre linéaire s'est fixé pour mission de théoriser les transformations affines du plan et de l'espace. Les matrices constituent l'indispensable outil qui permet de les mettre en œuvre de manière pratique.

Faire tourner un objet, en théorie ou sur un écran, étirer une image, la déplacer, l' incliner, la retour­

ner comme dans un mi roi r, autant d 'ac­tions usuelles en géométrie et aujourd 'hui en informatique graphique, derrière les­quelles il y a ... un endomorphi sme (voir pages 16 à 19).

Pour représenter ces endomorphi smes, et donc les transformations assoc iées du plan ou de l'espace, on va se servir de matrices.

Des matrices colonnes pour représenter des uecteurs

Commençons par le commencement. Dans un espace vectorie l E de dimen­sion fi ni e n, on cho is ir une base B = (ei, e2 , . . . , e

11). Tout vecteur de E peut

alors s'écrire de faço n unique v = x1 e1 + x2 e2 + ... + x

11 e

11•

On le représente par une matrice colonne V, c'est-à-dire formée d'une seule colonne (et de n lignes).

Supposons maintenant que nous choi­siss ions une autre base de E : B' = ( e' 1 , e' 2, ... , e ',,) .

Le même vecteur se décompose (toujours de manière unique) dans la base B' : v = x' 1 e' 1 +x\ e' 2 + ... + x'

11e'

11•

On le représente cette fois par une matrice colonne V':

v· = li ;;\I

.,\ ,,

Il reste une question, et de tai lle, à régler! Quelle re lation ex iste entre les matrices colonnes V et V'? C'est une opération matricielle qui va nous donner le résul ­ta t : V = A V' où A est une matrice car­rée n x n a ppe lée la m a tri ce de changement de base. Chac une de ses n colonnes est fo rmée des coordonnées, dans la base B, des vecteurs de la base B' (vo ir encadré).

20 T4n9ent:e Hors-série n°44. Les matrices

Page 23: Les Matrices_ Une Representation Du Monde

Des matrices pour transformer

li reste à voir comment les matrices per­mettent de représenter les transforma­tions du plan ou de l'espace . Dans un premier temps , on va s'intéresser aux endomorphismes associés à ces trans­formations. Ces applications linéaires transforment un vecteur ü en un vec­teur v = f(ü). Quand une base B de l'espace vectoriel E a été choisie, il suffit, pour définir f, de savoir comment cette base est trans­formée par f. Dans la mesure où tout vecteur de E est une combinaison linéaire des vecteurs de B , et où une application linéaire co nserve les combinaisons linéaires, il suffit de connaître les images des éléments de la base B pour connaître l' image par f de n'importe quel vecteur de E. On représente alors cette app lication linéaire! par une matrice A, qui dépend de la base B choisie dans E . Chaque colonne de A est la décomposition dans la base B de l'image des éléments de B. Ains i, en dimension 2, tout vecteur v peut s'écrire de manière unique sous la forme v = xT + YJ où B = (î,T) est la base choisie et le couple de réels (x, y)

les coordonnées du vecteur v dans la base B. La linéarité de l'application f permet d'écrire: f(v) = xj(T) + yf(T). Ce vecteur est connu dès lors que sont connus par leurs coordonnées dans la base (î,T) les vecteurs j(T) et.f(T). Sif(T) =aï+ hT etf(T) = cT + dT, alors.f(ïï) = x(aT + bT) + y(cT + dT)

= (ax + cy)T + (bx + dy)T. La matrice de f dans la base B est

A= (: ;) , dont les vecteurs colonnes

sont bien les vecteursj(T) etf(T) repré­sentés par leurs coordonnées dans la base B.

SYSTÈMES LINÉAIRES

Matrices de changement de base Le même vecteur, exprimé dans deux bases différentes B et B', s'écrit de deux façons:

V= X1 el + X2 e2 + ... + xn en et v = x'1 e'1 + x' 2 e'2 + ... +x\ e\.

Pour exprimer les coordonnées dans l'une des bases en fonction des coordonnées dans l'autre base, on va construire la matrice de changement de base. Voici un exemple en dimension 3. On exprime les éléments de la base B' dans la base B:

e' 1 = au el + a21 e2 + a31 e3 e' 2 = a12 e1 + a22 e2 + a32 e3 e ' 3 = a13 e1 + a23 e2 + a33 e3

La matrice de changement de base associée est :

( ail lli2 a,J \

A= la2, a22 a23 J. aJ, a32 a33

Exprimons alors le vecteur v = x' 1 e' 1 + x' 2 e' 2 + x' 3 e' 3.

v = x'1 (au el+ a21 e2 + a31 e3) + x' 2 (a12 el + a22 e2 + a32 e3) + x' 3 (a13 el + a23 e2 + a33 e3)

v =(aux' 1 + a12 x' 2 + a13 x' 3) el + (a21 x' 1 + a22 x' 2 + a23 x' 3) e2 + (a31 x' 1 + a32 x' 2 + a33 x' 3) e3

Cette dernière expression est à comparer à : v = x1 e1 + x2 e2 + x3 e3. La décomposition dans la base B étant unique, on peut identifier les coefficients. On reconnaît le produit matriciel :

( x, \ ( ail a12 a.3 \{ x; \

V= l::J = l::: ::: ::Jl:tJ. L' usage d'une telle matrice va simplifier considérablement le calcul des coor­données de l'image du vecteur v par f. Si on représente le vecte ur v sous forme d'une matrice-colonne C) , alors la matrice co lonne représentant le

Hors-série n° 44. Les matrices Tangente

Page 24: Les Matrices_ Une Representation Du Monde

SAVOIRS Des matrices pour transformer

vecteur n 'est autre que le produ it , au se ns des p roduit s de ma tri ces ,

(: ;)(:)=(:;:~)· Une fo is cho is ie une base sur l ' e n­semble des vecteurs , la matrice A per­met donc ent ière ment de déterminer l' application f. Inversement , une base étant donnée ,

toute matrice 2 x 2, A = (: : ) peut être

considérée comme la matrice d 'un endo­morphisme de l' ensemble des vecteurs. Chaque colonne de A correspond à un vecteur : k pour la première, T pour la seconde, et! 'application qui au vecteur v de coordonnées (x, y) associe le vec­teur w = xk + y T est linéaire. Au couple (ï ,T) de la base, e lle assoc ie le couple (k , Î ). Voilà donc une façon simple et de déterminer la matrice asso­ciée à un endomorphisme et d ' identifier une application linéaire grâce à sa matrice. Ces résultats se généralisent. Non seu­lement à d 'autres dimensions d 'endo­morphismes, mais aussi à des applications linéaires entre espaces vectorie ls de dimensions différentes. Ainsi, une appli­cation linéaire l d ' un espace vectorie l E de dimension n vers un espace vec­toriel F de dimension p pourra être repré­sentée, dès lors qu 'on connaît une base B de E e t une base C de F, par une matrice à p lignes et n colonnes, dont les colonnes sont les décompositions dans la base C des images des éléments de la base B. Cette matrice sera notée Mat8 ,c(l) .

la matrice associée à la composée gof sera le produit des matri ces defet de g. Plus concrètement :

MatB.D (go!)= Matc.o (g) MatB.C (j) . Dans le cas des endomorphismes , le pro­duit de matrices carrées s'écrit : MatB (go!)= MatB (g) MatB (j).

Les propriétés de la compos ition d 'en­domorphismes se transmettent au pro­duit de matri ces carrées d 'ordre n, dont l'ensemble, muni de cette multi plica­tion, forme un anneau. De même que ! 'élément neutre pour la composition des endomorph ismes est l' identi té, I ' ap­plication « qui ne change rien », c'est­à-dire qui , à tout vecteur, associe lui-même, celui de la multiplication des matrices carrées est la matrice associée, qui est la matrice identité. Ell e comporte des « 1 » sur la di ago na le e t des « 0 »

ailleurs. En dimension 2, c'est 12 = ( ~ ~) .

D'autres endomorphi smes sont extrê­mement simples. Citons parmi eux ! 'en­domorphi sme sca laire ou homothétie de rapport k, qui à tout vecteur v d ' un espace vectorie l de dimension n, asso­cie k v. Sa matri ce assoc iée ne com­porte que la va leur k sur la diagonale et des « 0 » ailleurs.C'est kl ,,.

Saurez-vous maintenant reconnaître ce que fait sur les coordonnées des vecteurs la transfo rmation do nt la matri ce est

(~ ~) ? Elle échange tout simplement

abscisse et ordonnée !

Mais trava iller sur des vecteurs est un matrices et composition conte, traduire ce qui se passe géomé-d'applications linéaires triquement en est un autre.

On peut composer des applications! et É. B. & G. C. g, qu 'e lles so ient linéa ires ou non , à condition que l'ensemble d 'arrivée de l'une soit l'ensemble de départ de l' autre. Lorsqu ' il s'agit d 'applications linéaires,

Tc:1.n9ente Hors-série n°44. Les matrices

Page 25: Les Matrices_ Une Representation Du Monde

par Hervé Lehning

multiplier des matrices La multiplication des matrices est plus dé licate à définir.

Pour cette ra ison, nous com mençons par un exemple très

particulier, la multiplication d ' une matrice ligne (formée

d ' une ligne) par une mat ri ce colonne (formée d ' une

colonne) : ( x\

(a b c)tJ =ax +by +cz.

EN BREF

On définit alors plus généralement la multiplication de

deux matrices de cette manière. Elle sera définie dès lors

que le nombre de colonnes de la première est égal au

nombre de lignes de la seconde. Et le résultat aura le

nombre de lignes de la première et le nombre de colonnes

de la deuxième ! En voici un exemple :

(- 1 2 -3 -4\

( 1 -2 5) l J (4 10 . 5 6 0 1 = 3 -1 4 4 16

3 4 -5 - 6

-28 - 36)· - 29 -37

Cette multiplication n'est possible que si le nombre de Comment l'avons-nous effectué? Tout simplement en mul-

lignes de la deuxième est égal au nombre de colonnes de tipli ant chaque ligne de la première matrice par chaque

la première. Cette condition devra être vérifiée dans tous colonne de la seconde. L'élément obtenu dans la matrice

les cas de multiplications de matrices .

Autre exemple, numérique cette fo is : ( 1 2)(;) = 14.

En effet, 1 x 4 + 2x5 = 14.

Ainsi, chaque ligne d 'une matrice peut être multipliée par

chaque colonne d ' une autre, à la condition qu 'elles aient

le même nombre d 'éléments.

résultat correspond à la ligne de la première et la colonne

de la seconde. Ainsi, l'élément de la première ligne et la

troisième colonne du résultat est le produit de

soit I x (-3) + (-2) x O + 5 x (-5) = -28.

Opérations sur les matrices carrées Cette multiplication des matrices est rarement utilisée dans toute sa généralité. Le plus courant est de se

limiter à l ' espace des matrices carrées de dimension donnée, par exemple à deux lignes et deux colonnes

ou trois lignes et trois colonnes , dans lesquels la multiplication est une opération interne. Ainsi, l'espace

vectoriel des matrices carrées d ' ordre deux , par exemple, se trouve muni d ' une structure englobant celle

d 'espace vectoriel et d 'anneau , la structure d'algèbre.

Cela signifie que la multiplication matricielle a quelques-unes des propriétés de la multiplication usuelle

des nombres . .. mais pas toutes . Elle est associative , c 'est-à-dire que A (B C) =(AB) C, et distributive à gauche

et à droite par rapport à l'addition , c 'est-à-dire que A(B + C) =AB +AC et (B + C)A= BA+ CA.

Ces égalités résultent de calculs faciles , mais pénibles à effectuer.

En revanche , la multiplication n'est pas commutative: il peut arriver que AB*- BA. 0 01

) et (00 01

) ·. Un exemple simple de non-commutativité est obtenu en multipliant entre elles les matrices (

1

En revanche , la multiplication possède un élément neutre , la matrice identité 1.

Tous les éléments de cette matrice sont nuls sauf ceux de sa diagonale, égaux à 1.

Ainsi, ( : !){~ ~) = (~ ~) .(: !) = (: !) .

Hors-série n° 44. Les matrices Tangente 23

Page 26: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

e sens

Le déterminant est souvent présenté à travers des formules ou axiomes abstraits, qui semblent sans lien avec aucune réalité. Pourtant, la question est très concrète : le déterminant mesure une surface, un volume, ou un objet de dimension supérieure.

u

vecteurs V et V du plan déterminent un para ll é lo ­gramme . Le déterminant, noté

det (V, V), de ces deux vecteurs es t l'aire de ce parallélogramme , affectée du signe - si le trajet de U à V se fait dans le sens des aiguilles d 'une montre . Si V a pour coordonnées (a, b) et V a pour coordonnées (c, d), on note

J: :J = det(U ,V).

Les propriétés de l'aire

L'aire d ' un parallélogramme est égale à sa base multipliée par sa haute ur.

V + À.U

Les parallélogrammes vert et orange ont même aire car ils ont même base et même hauteur.

Comme les parallélogrammes détermi­nés par (U, V) et (V, V+ À.V) ont même base U et même hauteur (voir la figure les parallélogrammes) , pour tout À.,

det (V, V+ À.V)= det (V, V). De même, si on remplace V par À. V, on remplace la hauteur h par À.h et donc on multiplie le déterminant par À.. A priori ,

a

Si le vecteur U a pour coordonnées (a, 0) et le vecteur V, (c, d),

alors le parallélogramme a pour base a

et pour hauteur d.

Son aire est donc égale à ad.

Le même calcul d 'aire permet

d 'affirmer que I~ ;J = ad, que ad

soit positif ou négatif.

24 Tangente Hors-série n°44. Les matrices

Page 27: Les Matrices_ Une Representation Du Monde

SYSTÈMES LINÉAIRES

Détermination du déterminant La propriété d'alternance du déterminant vient du fait que (U, V) et (V, U) sont de sens oppo­sés. L'additivité de l'aire implique la linéarité par rapport à l'un des vecteurs.

En notant I et J les vecteurs de coor­données (1, 0) et (0, 1), il vient :

1: :1 = det(al + bJ ,cl+ dJ).

On en déduit alors : L'additivité de l'aire implique

det (U, V+ W) = det (al+ bJ, cl+ dJ) = det (al+ bJ, cl) + det (al+ bJ,dJ)

det (U, V) + del (U, W). et, en utilisant la linéarité par rapport

u au second vecteur : det (al+ bJ, cl+ dJ) = c det (al+ bJ, 1) + d det (al+ bJ, J).

On obtient ensuite : det (al+ bJ, cl+ dJ) = ac det (1, 1) + be det (J, 1) + ad det (1, J) + bd det (J, J). De la propriété d'alternance, on déduit det (U, U) = 0, d'où: det (al+ bJ, cl+ dJ) = be det (J, 1) + ad det (1, J). Or, det (J, 1) =- det(I, J) d'après (1)

et det (1, J) = 1, d'où le résultat: 1: :1 =ad-be.

ce raisonnement n 'est valable que si la constante À. est positive mais on démontre fac il ement que, si e ll e est néga tive , l' orientation des vecteurs est modifiée , et donc le signe aussi.

D'après la définiti on , det (U , V) = 0 si, et seul eme nt s i , l 'a ire du para ll é lo­gramme construit sur U et V est nulle, ce qui équi vaut à dire que U et V sont colinéaires. On en déduit une condition pour que deux droites soient concou­rantes, à travers le déterminant de leurs vecteur directeurs ou de leurs vecteurs

normaux. Enfi n , le déte rminant jouit de no m­breuses propriétés calculato ires, parmi

lesque lles les troi s sui vantes : • alternance: det (V, U) = - det (U , V), • linéarité par rapport au second vecteur

(À et µ sont des constantes) : det (U,}.. V + µW ) = À. det (U , V)

+ µ det (U , W),

V

det(U,V)

Le déterminant de deux vecteurs U et V est l' aire du parallélo­

gramme qu' ils déterminent, affectée du signe - si l' angle

(U, V) est orienté dans le sens des aiguilles d'une montre.

Ainsi, det (V, U) = - det (U, V), puisque (U, V) et (V, U)

sont de sens opposés.

On en déduit la formule suivante, utile

en pratique : 1: :1 =ad-be. Elle conduit à généraliser la notion de déterminant

• ra e1 A aux matnces : det b d = ad - be, et meme

aux systèmes linéa ires via la matrice du système. Ainsi , le déterminant du

système d 'équations { 4

x - Y = 1

est

1

4 _11

2x + 3y =5

2 3 soit 14.

Hors-série n° 44. Les matrices Tangente 25

Page 28: Les Matrices_ Une Representation Du Monde

Le sens du déterminant

On retrouve en particulier que le déter­minant de la matri ce identité est bien égal à l. En utili sant la propriété d 'alternance, on montre que la linéarité par rapport au second vecteur est valable également sur le premier vecteur. Pour résumer ces deux propriétés, on dit que le déter­minant est bilinéaire. La caractéri sation de la colinéarité est importante dans l'étude des systèmes de deux équations du premier degré à deux inconnues. Prenons un exemple pour voir pourquoi. C 'd , l , { 4x - y = 1 ons1 erons e systeme : .

2x + 3y = 5

Comment déterminer s' il a des so lu­tions ou non ? La question est liée au ::::::·:::~: r~r Chacune des deux équations représente une droite dans le plan. Plus préc isé­ment , l'ensemble des points M de coor­données (x, y) vérifiant 4x - y = 1 est une droite.

Une équation du premier degré, telle que 4x - y = 1, représente une droite. Ici, un vecteur directeur de cette droite a pour coordonnées (1, 4), et un vecteur normal a pour coordonnées (4,-1).

Si un couple (x, y) vérifie le système ci­dessus, le point de coordonnées (x, y)

appartient aux deux droites, et récipro­quement. Un système de deux équations du premier degré à deux inconnues repré­sente donc un problème géométrique simple: la détermination de l' intersec­tion de deux droites.

Gabriel Cramer

Gabriel Cramer (1704--1752).

Le mathématicien suisse Gabriel Cra­mer était spécialiste des courbes algé­briques, c'est-à-dire ayant une équation polynomiale, comme le cercle et les coniques. C'est en étudiant le problème de l'exis­tence de courbes passant par des points donnés qu'il introduisit la notion de déterminant (voir le dos­sier « Mathématiques suisses » dans Tangente 136).

Nous en déduisons un résultat qualita­tif : un système de deux équations du premier degré à deux inconnues pos­sède une et une seule solution si et seu­lement les deux droites assoc iées sont concourantes. En hommage à Gabriel Cramer, on dit alors que le système est de Cramer. D'après la condition de colinéarité de deux vecteurs, la condition pour qu ' un sys tè me so it de Cramer est que son déterminant so it non nul.

{

4x- y= 1 Le système

3 est donc de

2x + y = 5

Cramer, puisque 1: ~,, = 14,. O.

26 Tangente Hors-série n°44. Les matrices

Page 29: Les Matrices_ Une Representation Du Monde

les formules de Cramer

Notons (x, y) la so luti on unique du

système . {

4x- y= 1

2x + 3y=5

Une interprétation vector ie ll e du vecteur (x,y) peut être donnée , à condi­

tion de considérer U le vecteur de coor­données (4, 2), V le vecteur de coordonnées (- 1, 3) et B le vecteur de

coordonnées (l, 5). Les deux éga lités du sys tè me se rés ument alors à

xU+yV=B. Appliquons la fonction déterminant. La linéarité par rapport à la première

colonne donne det (8, V) = det (xU + yV, V)

= x det (U, V) + y det (V, V). Comme det (V, V)= 0, nous en

d' d . I ,, I det(B, V) e u1sons a 1ormu e : x = . det(U, V)

Une formule identique existe pour

det(U B) y : y= ' . Ces deux formu les

det(U, V)

constituent les formules de Cramer. Dans notre exemple :

I~ -3

11 4 1: ~I 9 X=-- = - ety=--=-.

14 7 14 7 La résolution des systèmes numériques ne requiert pas vraiment la méthode de Cramer. En effet, les méthodes consis­tant à combiner des équations (comme la méthode de Gauss) sont préférables. La raison d 'ê tre de la méthode de Cramer se trouve dans la discussion des systèmes paramétriques , comme

{

m.x+y=l . En fait, le problème est

x + my = 0

réso lu par le calcu l du déterminant :

17 ~11 = m2

- 1.

Le système a donc une solution unique si et seulement si m est différent de I et de - l.

La solution est alors :

SYSTÈMES LINÉAIRES

1, 'I lm. 'I 0 111 111 1 0 -1 X=-2-=-2- ety=-2- =-2- ·

111-l m.- 1 m-l m-l

Dan s les deux cas restant , il suffit d 'écrire le système pour voir qu'il est incompatible.

Par exemple, pour m = l : {x +Y= 1

. x + y=O

Trois vecteurs U, V et W de ! 'espace déterminent un parallélépipède. Le déterminant , noté det (U, V, W) , de ces trois vecteurs est le volume de ce paral­

lé lépipède . Toutefois , il est affecté du signe - si (U, V, W) n 'est pas dans le sens (majeur, index , pouce) de la main

gauche.

u Le déterminant de trois vecteurs U, V et West le volume du parallélépipède qu'ils déterminent, affecté du signe -si (U, V, W) n'est pas dans le sens (majeur, index, pouce)

de la main gauche. Ainsi, le déterminant est changé en son opposé si l'on échange deux des vecteurs U, V

et W.ont même base et même hauteur.

pouce

index

sont dans le sens (majeur, index, pouce) de la main gauche, alors leur déterminant est positif.

Hors-série n° 44. Les matrices Ta.ngente 27

Page 30: Les Matrices_ Une Representation Du Monde

a a'

b b'

c'

a a'

b b'

Le sens du déterminant

Si U a po ur coord o nnées (a, b, c), V (a', b', c') et W (a", b" , c"), on note ainsi le déterminant de

a a' a"

U , Y etW :b b' b " =det(U , Y, W).

c c' c"

D'après la définiti on, det (U, V, W) = 0 si, et seulement si, le volume du paral­lé lépipède construit sur U , V et W est nul , donc si U , V et W sont coplanaires (c'est-à-dire dans un même plan). On en déduit une condition pour que trois plans soient concourants, à travers le déter­minant de leurs vecteurs directeurs ou de leurs vecteurs normaux. De même qu 'en dimension deux, les pre­mières propriétés calculatoires des déter­minants peuvent être résumées par les trois règles sui vantes : • alternance : le déterminant est changé

en son opposé si l'on échange deux des vecteurs,

• tri linéarité: le détermjnant est linéaire par rapport à chacun des vecteurs, l O O

• 0 1 0 = 1.

0 0

On en déduit une formule de calcul des déterminants d 'ordre troi s appelée règle de Sarrus en hommage à

b" Pierre Sarrus ( 1798-1861 ).

Règle de Sarrus :

c'' on recopie les deux

premières lignes du déter-

minant sous celui-ci,

a" puis on additionne les fac-

teurs verts et soustrait les

facteurs rouges.

b" Autrement dit, le détermi-

nant est égal à :

ab' c" + be' a" + ca' b" -

ch' a" + ac' b" + ha' c" .

Les résultats concernant les systèmes se générali sent de même. Appliquons- les au cas du système

l 2x + y- z = 1

x - 2y + 3z =0, so n dé termin a nt se

3x + Sy - z = 2 calcule grâce à la règle de Sarrus, ce qui donne :4 - 5 + 9 - 6 - 30 + 1 = - 27, qui est non nul , donc le système a une et une seule so lution. Elle vaut

1 1 - 1 2 1 - 1

0 -2 3 1 0 3

2 5 - 1 11 3 2 - 1 4 X=

= 27' y = =--27 -27 27

2 1 1

1 -2 0

3 5 2 - 1 et z =

-27 27

La question se complique un peu avec le système

l x+y +z =I

x - 3y + 2z = 0 car son déterminant est 2x - 2y + 3z =2

nul. S ' il a une solution, elle n'est donc pas uruque. En frut, ce système est incom­patible car, si (x, y, z) est une solution, en ajoutant les deux premjères équations, on obtient 2x- 2y + 3z = 1 , ce qui contre­dit la troi sième équation !

D1mens1ons superi ures

La notion de déterminant se généralise aux dimensions 4 et sui vantes. Sa défi­nition comme mesure demande cepen­dant de généra li ser les notions d 'a ire et de volume , ce qui est pour le moins délicat. C'est sans doute l' une des rai­sons pour lesquelles on préfère une défi­nition plus abstra ite, sui vant les tro is propriétés que nous avons rencontrées précédemment. Malheureusement , la règle de Sarrus n'y a pas d 'équi valent assez simple pour être utili sée dans ces dimensions !

H.L.

28 Tangente Hors-série n°44. Les matrices

Page 31: Les Matrices_ Une Representation Du Monde

par Gilles Cohen

an ments d Des matrices distinctes peuuent représenter la même application linéaire. Elles ont alors en commun certaines propriétés issues de l'application linéaire qu'elles représentent.

matrices carrées semblables Si le même vecteur v del 'espace vectoriel Ede dimension

11 , exprimé dans deux bases différentes , B = ( e I' e2 , ... , e,,) et

B' = (e ' 1, e'2 •••. , e ',,), s'écrit à ) ' aide des matrices colonnes

( x , \

V= l~2J pour exprimer que v = x 1 e 1 + x2 e2 + ... + x,, e,, et

x,, ( x, \

Y= l]' J pour exprimer que v =x ' 1 e' 1 + x '2e '2 + ... + x ',,e',, ,

, ,. alors on aura la relation : V = P V' , où P, matrice carrée

d 'ordre n , est la matrice de changement de base, dont les

colonnes sont les coordonnées des vecteurs de B' exprimés

dans la base B.

Si maintenant u est un endomorphi sme de E qui admet la

matrice M dans la base B et la matrice M' dans la base B',

quelle relation ex iste-t-il entre M et M'? Pour un vecteur v de E, iv = u(v) aura pour matrice colonne W dans la base B

et W' dans la base B' , avec W = PW '. La définition de M

conduit aux relations W = M V et W' = M' V'. La première

relation s'écri t aussi : P W' = M P V' , soit , en multipliant à

gauche par p- 1, l' inverse de P, W' = p- 1 M PY ' , à comparer

avec la relation W' = M' V' .

Le fai t que l'égalité soit vraie pour toute colonne V' entraîne

la relation sui vante: M' = P-1 M P. Deux matrices carrées M et M' sont dites semblables quand

elles représentent le même endomorphisme dans des bases

différentes.

Deux matrices carrées d 'ordre II M et M' sont semblables si

et seu lement s' il ex iste une matrice carrée Pd 'ordre n inver­

sible telle que M' = P- 1 M P.

Pour des matrices carrées d 'ordre n, « être semblables » est

une relation d'équivalence.

EN BREF

matrices rectangulaires équiualentes On considère cette fo is une application linéaire

I d ' un espace vectoriel Ede dimension n dans

un espace vectoriel F de dimension p.

Si B est une base de E et C une base de F, la

matrice M représentant l dans les bases B et C

sera une matrice rectangulaire à p lignes et n

colonnes, chacune des n colonnes représentant

l' image des vecteurs successifs de la base B expri­

mée dans la base C.

Pour un vecteur v de Ede colonne V dans B ,

w = l(v) aura dans la base C la matrice colonne

W=MV .

On considère alors une nouvelle base B' de E et

une nouvelle base C' de F. La matrice M', elle aussi

rectangulaire à p lignes et n colonnes, représen­

tera l dans les bases B' et C'.

Le vecteur v de E de colonne V' dans B' a pour

image w = l(v) qui, dans la base C, sera représenté

par la matrice colonne W' = M' V' .

Si Pest la matrice de passage de B à B' (matrice

carrée invers ible d 'ordre n) et Q la matrice de

passage de Cà C' (matrice carrée inversible d'ordre

p),on aura les relations : V= PV' et W=QW'.

W = MY s'écritdoncQW' = MPY'soit ,en mul­

tipliant à gauche par Q- 1, W' = Q- 1 M P V', à com­

parer avec la relation W' = M' V'.

Le fait que l'égalité soit vraie pour toute colonne

V' entraîne la relation suivante : M' = Q- 1 MP.

Deux matrices rectangulaires de mêmes dimen­

sions Met M' sont dites équivalentes quand elles

représentent la même application linéaire dans

des bases différentes.

Deux matrices rectangulaires Met M' de mêmes

dimensions sont équivalentes si et seulement s' il

existe deux matrices carrées P et Q inversibles

telle que M' = Q- 1 M P.

Évidemment, deux matrices semblables sont en

particulier équivalentes. Pour des matrices rec­

tangulaires de mêmes dimensions, « être équiva­

lentes » est une relation d'équivalence.

Hors-série n° 44. Les matrices Tangente 29

Page 32: Les Matrices_ Une Representation Du Monde

SAVOIRS par Gilles Cohen

Transformations affines et points inuariants L'application des théories de l'algèbre linéaire et de leur mise en pratique via le calcul matriciel apporte à la géométrie un outil puissant dont quelques applications sont entrevues ici.

La géométrie a pour champ d 'ac­tion un ensemble de points, appelé espace affine, dont les plus usuels

sont le plan ou l'espace. Comme on l'a vu dans les articles précédents, cet espace affine A est associé à un espace vecto­riel E dont les é léments, appelés vec­teurs, sont en correspondance avec les bipoints de l'espaces affine. Une transformation géométrique de l'espace affine A sera appelée transfor­mation affine si deux bipoints équipol­lents sont toujours transformés en deux bipoints équipollents, ou encore si un parallé logramme est transformé en parallé logramme. Ce qui est intéres­sant , c'est qu ' une te lle transformation définit a lors un endomorphisme de l 'espace vectorie l assoc ié E. Réc iproquement, à tout endomorphis­me u de l'espace vectoriel E, on peut associer des transformations affines f de l'espace affine. Mais la connaissan­ce de l' image d'un point Ode A par f suffit à définir entièrement! à l'aide de la relation(*) f(O)f(M) = u(OM),

ou encore OJ(M) = OJ(O) + u(OM).

les translations

L'endomorphisme le plus élémentaire de l'espace vectoriel E est l' identité . On peut donc s' intéresser aux transfor­mations affines qui lui sont associées. En remplaçant u par ldE dans la re la­tion (*), on parvient à f(O)f(M) = OM,

qui s'écrit encore Mf(M) = Of(O).

Ainsi, on passe d ' un point M à son image fiM) en opérant une translation de vecteur constant v = Of(O).

Réc iproquement , toute translation es t une application affi ne assoc iée à l ' ide ntité, pui sq u 'e ll e transforme tout bipo int en un bipoint équipol­lent. Et comme il y a autant de choix de vecteurs v que d 'é léments de E, on peut ai ns i mettre en évidence une bijection entre les translations et les vecteurs de E.

La correspondance ne s'arrête pas là : lorsque l'on compose une translation de vecteur v et une translation de vec­teur w, on trouve toujours une transla­tion (son endomorphisme associé est le

30 Tc:in9ente Hors-série n°44. Les matrices

Page 33: Les Matrices_ Une Representation Du Monde

composé de l' identité de E par elle­même) , et le vecteur x de la translation est la somme vectorielle x = ïï + w.

La composition de deux translations est commutative.

Et l'on pourrait même définir la multi­plication d'une translation f de vecteur ïï par un scalaire À, le résultat étant la translation de vecteur À ïï. Ainsi, l'en­

semble des translations de l'espace affine A est isomorphe à l'espace vec­

toriel assoc ié à A : c'est le même é lé­ment algébrique, au nom près des é lé­ments et des opérations. Les points invariants sont une caracté­ristique très recherchée des transfor­mations géométriques, et plus particu­lièrement des transformations affi nes. En dehors de l' identité de A, transla­

tion de vecteur nul , pour laque lle tous les points sont invariants, une transla­tion n' admet pas de point invariant.

Le groupe des homothéties-translations

Après l'identité, les endomorphismes les plus é lémentaires sont les endomor­phismes scalaires , encore appe lés

SYSTÈMES LINÉAIRES

homothéties vectorielles, qui à un vec­teur ïï font correspondre le vecteur k ïï, k étant un réel. Il est intéressant de regarder les transformations affines qui leur sont associées. Soit k un réel non nul différent de 1, et définissons u = k Id6 l'endomorphisme scalaire de E correspondant. Soit f une transformation affine associée à u. Le nombre k étant différent de l ,f n'est pas une translation .

Pour en savoir plus sur sa nature , on va s' intéresser dans un premier temps à la

recherche d ' un point invariant par f. Soit P un point quelconque, etj(P) son image par f. Si j(P) = P, on est tombé sur un point invariant (c'est un cas miraculeux !) . Dans le cas général, Pet j(P) définissent une droite (0), sur laquelle on va mettre en évidence un

point invariant. Supposons qu ' il existe O tel que j(O) = O. Alors(*) s'écrit f(P)f(O) = u(PO), soit f( P )O = kPO.

On applique la relation de Chasles : f( P )P +PO= kPO, et on en déduit: - 1 - -PO= k _ I f( P )P.

Cette suite de calculs se remonte.

Le point O défini par PO= -1-J(P)P

k-1

est l' unique point invariant par f. Alors, pour tout point M de l'espace affine A, la relation (*) f(O)f(M) = kOM s'écrit Of(M) = kOM. Ainsif est l' homothétie de centre O et de rapport k. En conclu­sion, toute transformation affine asso­ciée à un endomorphisme scalaire est une homothétie !

En utili sant le fait que l'endomorphis­

me assoc ié à la composée de deux transformations est le composé des endomorphismes associés à ces trans­formatio ns, on obtient de nouveaux résultats spectacul aires, qui n'ont

Hors-série n° 44. Les matrices Tangente 31

Page 34: Les Matrices_ Une Representation Du Monde

O"

Transformations affines ...

M

0

besoin d'aucune autre démonstration. Ainsi, la composée de l'homothétie h de centre O et de rapport k ::f. 1 et de la

translation t de vecteur v a pour endo­

morphisme associé le composé de k IdE

et de ldE, soit k ldE. C'est donc une homothétie de rapport k. Le seul calcul

consiste à trouver le centre de cette

homothétie , à l'aide de sa caractérisa­

tion comme unique point invariant.

Le centre de ! ' homothétie t o h est le

point O' défini par OO' = -1-~.

1- k

De même, le centre de l'homothétie hot

est le point O " défini par OO" = __!5___ ~-1 - k

La composée de deux homothéties h et

h' de rapports k et k' aura pour endo­morphisme associé ! 'endomorphisme

scala ire k k' IdE.

• Si le produit kk' est différent de l, ce

sera une homothétie de rapport kk' dont on trouvera le centre en cher­

chant le point invariant (sur la droite

des centres d'homothéties de h et h ').

M,

M,

O'

Le centre 0" de l'homothétie h" = h'o h est à l'intersection de

la droite (MM2), qui joint M et son image M2 par h'o h, et de

la droite (00') qui joint 0, centre de l'homothétie h à son

image par h' o h , qui est aussi son image par h', et se trouve

donc sur la droite (00') .

•Sile produit kk' est éga l à 1, ce sera une translation dont on trouvera le

vecteur en cherchant le transformé

de n ' importe quel point. Ainsi, la

composée de deux symétries-points

(une symétrie-point est une homo­

thétie de rapport -1) est une transla­

tion, dont nous vous laissons trou­

ver le vecteur en fonction des

centres de symétrie O et O'. Ainsi, l'ensemble des homothéties­

translations d'un espace affine est

stable par la composition des applica­

tions, ce qui lui confère une structure

de groupe.

Plus d'un point inuariant

Si deux points distincts P et Q sont

invariants par une transformation f ,

c'est que le vecteur V= PQ est inva­

riant par l'endomorphisme associé u. On dit aussi que V est un vecteur

propre pour la valeur propre À= 1, pour

exprimer que u(V) = ÀV. Mais alors,

tout point M de la droite (PQ) vérifie

une relation du type PM= kPQ. On en

déduit:

f(P)f(M) = u(PM) = ku(PQ) = kPQ,

soit :

Pf(M) = kPQ =PM, puisflM) = M. Et donc tout point de la droite (PQ) est

invariant.

Tout ce qui vient d'être dit sur les

homothéties, les translations et les

points invariants est valable dans toute

dimension. Par exemple, en dimension 2, l'espace affine A est un plan.

S'il y a, e n plus des points de la droite (PQ), un autre point invariant (noté R),

on montre a lors que tout point du plan est invariant. En effet, les vecteurs PR

et PQ, invariants, forment une base

de l'espace vectoriel E associé au plan

A (i l est de dimension 2). Donc tout

vecteur de E, combi naison de deux

vecteurs invariants par u, est invariant

32 Tangente Hors-série n°44. Les matrices

Page 35: Les Matrices_ Une Representation Du Monde

f P" u.u est don, r;dent;té, et comme la transformation f assoc iée admet au moins un point invari ant , c'est l' iden­

ti té de A. Dans le cas où les points de la dro ite (PQ) sont les seul s points invari ants de f , on peut montrer que l'endomorphi s­me u admet une deuxième va leur propre À, associée à un vecteur propre W. Cela permet de définir complète­ment la transformation/ de A , qui porte le nom d'affinité. li suffit de se placer dans le repère

(P,V,W).

Pour tout point M, le vecteur PM peut

alors s'écri ra PM= av+ bW, et alors

Pf(M) = f(P)f(M) = u(PM)

= au(V) + blt(W) =av+ bÀW.

L' image.f{M) est parfa itement défini e.

• M

R

, M '

p Q

M' est l'image de M par l'affinité d'axe (PQ), de direction (PR) et de rapport !-î .

Dans le cas où À= 0, la transformation f est appelée projection sur (PQ) paral­lèlement à W. Dans le cas où À = - 1 , la transformation f est appelée symétrie par rapport à (PQ) parallèlement à W. L'endomorphisme associé à une pro­jection vérifie la re lation u o u = u. C'est un projecteur (voir encadré). L'endomorphisme associé à une symé­

trie vérifie la relat ion u ou= ldE . C'est une symétrie vectorielle. Les transfor­mations affines qu i lui sont assoc iées sont-elles toujours des symétries ? Non , mais c'est une autre histoire ...

G. C.

SYSTÈMES LINÉAIRES

Projecteurs et projections Un endomorphisme p est appelé projecteur s'il vérifie la relation p op = p. Pour tout vecteur Ü , p(p(Ü)I = p(Ü).

Ainsi, tout élément de l'image de p est invariant par p.

Si p n'est pas l'endomorphisme nul, il existe donc un vecteur V non nul tel que p(V) =V.

Sip n'est pas l'endomorphisme identité, il existe un vecteur W non nul tel quep(W) # W.

Alors, Ü = p(W)- W # 0 etp(Ü) =p(p(W)-W] =p(W)-p(W) = O. Ainsi, en dimension 2, la matrice P dans la base (Ü, V) d ' un projecteur p différent de l'identité et de l'endomorphisme

nul est de la forme P = (~ ~).

On peut alors se poser la question de savoir quelles sont les transformations affines/ associées à un projecteur p. Si p est l'endomorphisme nul, ce n'est pas très intéressant: f associe un point unique à tout point de l'espace de départ. Sip est l'endomorphisme identique, on a vu que/est une translation. Mais dans le cas général ? •Si/admet un point invariant 0 , pour tout point M, on peut poser OM = xÜ + yV. Alors j(O)j(M) = xj(Ü) + yf(V),

soit 0/(M) = yV. Ainsi,/ est la projection parallèlement à Ü sur la droite (D) passant par O et de direction V.

(D)

M'

--V

0 --u

• Si f n'admet pas de point invariant, on prend l'image A'= j(A) d' un point A. Pour tout point M, on peut poser AM = xÜ + yV. Alors /(A)/ (M) = xf (Ü) + yf (V), soit A'f(M) = yV.Ainsi, toutes les images de/sont situées sur la droite (D') passant par Met de direction V. Si on appelle A1 la projection de A sur (D') parallèlement à Ü (on a donc AA1 = xÜ), on constate que la composée de f par la translation de vecteur A' A1 admet p pour endo­morphisme associé et laisse A1 invariant. D'après ce qui a été vu plus haut, c'est la projection sur (D') parallèlement à Ü .f est donc la composée de cette projection et de la trans­lation de vecteur A1A'.

Hors-série n° 44. Les matrices Ta.ngente 33

Page 36: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

Systèmes linéaires

Les systèmes d'équations linéaires sont liés aux matrices et à leur inversion ... ce qui ne signifie pas que la résolution d'un système exige d'inverser une matrice ! Au contraire, l'inversion d'une matrice passe souvent par la résolution d'un système d'équations linéaires.

Un grand nombre de problèmes se résolvent au moyen de sys­tèmes d'équations linéaires.

En voici un exemple :

!x- y +2z = 2,

2x+ y +3z = O.

5x-y+6z = 6.

où il s'agit de trouver toutes les valeurs des triplets (x, y, z) vérifiant simultané­ment ces trois équations. L'exemple le plus simple et le plus intuitif de problè­me menant à la résolution d ' un tel sys­tème est la détermination de l'intersec­tion de trois plans.

L'ensemble des points de coordon­nées (x, y, z) vérifiant l'équation x - y + 2z = 2 est un plan P. De même,

La résolution d'un système ne passe pas nécessairement par les formules de

Cramer.

34 Ta.n9ent:e Hors-série n° 44. Les matrices

z

y

L'ensemble des points de coordonnées

x, y et z vérifiant l'équation

x - y + 2z = 2 définit un plan P.

On vérifie immédiatement que ce plan

P passe par les trois points (2, 0, 0),

(0, - 2, 0) et (0, 0, 1) sur les axes de

coordonnées, ce qui permet de le

représenter facilement.

Page 37: Les Matrices_ Une Representation Du Monde

l'équation 2x + y + 3z = 0 définit un plan Q, et 5x - y+ 6z = 6 correspond à un plan R. Résoudre le système propo­

sé ci-dessus équivaut à trouver les points communs à ces trois plans P, Q et R. On en déduit qu'en général , un tel système a une solution unique (voir la

figure ci-après).

Deux plans Pet Q se coupent selon

une droite, à la condition qu'ils ne

soient pas parallèles. Si la droite

d'intersection de Pet Q n'est pas

parallèle au plan R, elle le coupe en

un unique point. Ainsi, en général,

trois plans se coupent en un point.

L'article consacré au sens du déterrni­nant dans ce même dossier fournit une

méthode systématique de résolution d ' un tel système et donne une condi­tion numérique pour qu'il ait effective­ment une (et une seule) solution.

le lien auec les matrices

En utilisant les opérations sur les matrices, notre système peut être interprété différemment. Pour cela, considérons la matrice carrée A

suivante :

A-(1 -1 2) 1 3

-1 6

DOSSIER: SYSTÈMES LINÉAIRES

ainsi que les deux matrices colonnes

x-Oet B-m En appliquant les règles de multiplica­

tion des matrices vues précédemment dans ce numéro, nous obtenons :

(

X- y + 2z) AxX = 2x+ y +3z .

5x - y +6z

Le système de trois équations à trois inconnues proposé équivaut donc à une seule équation matricielle : A X = B. Cette équation a une solution unique, à la seule condition que la matrice A soit inversible (voir l'encadré consacré à l' inversion et à la résolution). La solu­tion est alors X = A- 1 B, en notant A- 1

la matrice inverse de la matrice A.

Nous disposons ainsi de deux méthodes de résolution. Pourquoi alors en

Inversion et résolution Considérons l'équation A X= B, où A est une matri­ce carrée donnée, à n lignes et n colonnes ; B est une matrice colonne à n lignes (connue également) ; et X est une matrice colonne inconnue à n lignes. Supposons qu'une solution X existe, donc que A X = B. En multipliant cette égalité à gauche par l'inverse de A, nous obtenons : A- 1 (A X) = A- 1 B. D'après l'associativité de la multiplication des matrices, nous en déduisons : (A- 1 A) X = A- 1 B. Or A- 1 A= I Oa matrice identité), donc IX = A- 1 B, soit encore X = A- 1 B. Ainsi, si l'équation A X = B a une solution, cette solution est précisément la matrice colonne X = A- 1 B. Réciproquement, considérons la matrice X= A-1 B. Cette matrice colonne vérifie : A X = A ( A- 1 B) qui, par associativité, vaut (A A- 1

) B, soit I B, donc B. Ainsi, X est bien solution de l'équation. Nous en déduisons que l'équation matricielle A X= Ba une et une seule solution, à savoir X = A- 1 B.

Tangente Hors-série n° 44. Les matrices 35

Page 38: Les Matrices_ Une Representation Du Monde

SAVOIRS Systèmes linéaires ...

chercher une autre ? Eh bien par

exemple parce que ces deux méthodes

sont souvent lourdes, voire impos­

sibles, à mettre en place. Nous reve­

nons donc à la méthode classique de

résolution des équations, qui consiste à

procéder par analyse et synthèse, sans s'encombrer de théorie. Même si cette

théorie a ! 'avantage de nous apprendre

qu'en général un tel système a une et

une seule solution ; la condition pour

cela est que la matrice de ce système

soit inversible, autre­

ment dit que son déter­

minant soit non nul.

On reprend donc notre

système de trois équa­

tions linéaires, et on

suppose qu'une solution

existe. On note (x, y, z)

cette solution, et on

combine les trois équa­

tions données pour en

déduire x, y et z. Par

exemple, en ajoutant les

deux premières éq ua­tions (d'une part) puis

en retranchant la première à la troisiè­

me (d'autre part), nous obtenons les

deux équations en x et z suivantes

{

3x+ 5z = 2,

X+ Z = 1.

En retranchant alors trois fois la secon­

de équation à la première, nous obte-

36 Tangente Hors-série n° 44. Les matrices

nons 2z = - 1, d'où z = - 1 / 2. En por­

tant cette valeur dans la première équa­

tion ci-dessus, on en déduit x = 3 / 2.

L'utilisation de la première équation du

système de départ fournit alors la

valeur de la dernière inconnue :

y= - 3 / 2. Ainsi, si le système admet une solu­

tion, il ne peut avoir qu ' une seule solu­

tion, à savoir : x = 3 / 2, y= - 3 / 2 et

z = - 1 / 2. Une réciproque est néces­

saire pour affirmer que ces valeurs

fournissent bien une solution du systè­

me initial. Pour cela, il s'agit simple­

ment de vérifier que les valeurs trou­

vées vérifient le système (ce qui est

bien le cas dans notre exemple).

Systématisation

La théorie permet de se passer de cette

réciproque. En interprétant notre résul­

tat de manière matricielle, nous avons

~::l::~:é X qu: ~,'.g:~1

: , ~(~: f 2)8

-1 / 2

En d 'autres termes, l'équation matri­

cielle A (X - X0) = 0 implique que

X = X0. Ceci permet de prouver que la

matrice A est inversible, et donc que X0 est bien la seu le solution. Dans la

pratique, faire une réciproque est tout à la fois plus rapide et plus prudent, car

elle constitue éga lement une vérifica­

tion du résultat. Une erreur de calcul

est toujours possible, en particulier

dans ce domaine.

La méthode qui a été exposée peut être

systématisée. Voyons comment procé­

der sur un exemple générique, dont les

inconnues sont notées x, y , z, t ... Il suf­

fit par exemple d'échanger les équa­

tions de façon à placer en première

ligne une équation comportant la pre­mière inconnue, x. S'il n'en existe pas,

Page 39: Les Matrices_ Une Representation Du Monde

l'inconnue peut tout simplement être

supprimée, puisqu 'e lle n'intervient pas

dans le système ! Le coefficient de x dans la première équation est alors uti­

lisé comme « pivot » pour détruire les

coefficients de x dans les autres équa­

tions, au moyen de combinaisons

linéaires. Sur l'exemple précédent,

cela revient à retrancher deux fois la

première équation à la deuxième, et

cinq fois à la troisième, ce qui donne :

lx - y + 2z = 2.

3y-z=-4.

4y -4z=-4.

Considérons à présent les équations à

partir de la deuxième. Elles ne contien­

nent plus de termes en x, puisque les

opérations précédentes étaient desti­

nées à les supprimer. On recommence

sur elles, avec la deuxième inconnue.

Ici , cela donne :

!X- y + 2z = 2,

3y-z=-4.

-8z = 4.

Ce système linéaire triangulaire se

résout petit à petit en commençant par

la dernière équation, ce qui fournit les

mêmes valeurs que précédemment. On

démontre de plus que le système obte­

nu est toujours équivalent au système

de départ, ce qui dispense de vérifier la

propriété réciproque (qui reste cepen­

dant toujours recommandée, ne serait­

ce que pour s'assurer qu'aucune erreur

de calcul n ' est venue se glisser dans le

processus).

Loin d 'être la méthode idéale de réso­

lution des systèmes, l'inversion des

matrices s'effectue souvent en ré­

so lvant un système. Par exemple,

pour inverser la matrice M = G !) . une idée simple consiste à résoudre

DOSSIER: SYSTÈMES LINÉAIRES

l'équation matricielle suivante :

Cette équation s'écrit sous la forme du

système de deux équations à deux

{

X+ 2y = X, inconnues :

3 y

x +4y = .

En retranchant deux fois la première

équation à la seconde, nous obtenons

x = Y - 2X. Il vient alors, en reportant

dans la première équation, 2y = 3X - Y. Ce résultat s'écrit, sous forme matri­

cielle, de la manière suivante :

Nous en déduisons facilement que la

matrice M associée au système est

inversible, et que

1 (• 2)-l (-2 l ) M- = 3 4 = 3 / 2 - l / 2 .

Les calculs précédents permettent de le

prouver rigoureusement. Une façon

plus simple et plus rapide de procéder est d'effectuer simplement le produit

(l 2)(-2 1 ) 3 4 31 2

_ 11 2

, et de constater

qu 'i l est égal à la matrice identité

H.L.

Tangente Hors-série n° 44. Les matrices 37

Page 40: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

Comment rentrer dans e ran

La notion de rang est au centre de l'algèbre linéaire. Simple et complexe à la fois , elle commande les questions de résolution des systèmes d'équations linéaires comme celles d'inversion de matrices. À l'origine de toutes ces notions de rang, on trouve celle d'un système de vecteurs.

Comme nçons géométriquement en nous donnant deux vecteurs du plan . Trois possibilités se pré­

sentent. Si nous les avons choisis au hasard, il est probable qu'il s forment une base du plan.

Deux vecteurs du plan formant une base, donc un système de rang 2.

Autrement dit , tout vecteur du plan est combinaison linéa ire de ce système. Pour cette raison, il est dit de rang 2,

qui est la dimension du plan. Si les deux vecteurs sont colinéaires, il s engendrent seulement une droite. Le système est alors dit de rang 1, la dimension d'une droite. Dans le cas

exceptionne l où les deux vecteurs sont nul s, le système est dit de rang O car, par combinaisons linéaires, il n 'en­gendre que le vecteur nul. Cette défi­nition se générali se à l' espace et aux espaces vectoriels abstraits : le rang d ' un système de vecteurs est la dimen­sion de l'espace qu ' il s engendrent par combinaisons linéaires. Dans l'article consacré au pivot de Gauss, nous voyons une méthode concrète de cal­cul du rang d ' un système de vecteurs .

Rang d'une application, d'une matrice

Si f est une application linéaire , son rang est la dimens ion de l' espace image. En gui se d 'exemples, exami­

nons le cas des applicati ons géomé­triques c lass iques dans le plan. Les rotations transforment le plan en lui­même, e lles sont donc de rang 2, de mê me que les translations ou les symétries, mais les projections sur des droites sont de rang 1.

38 Tangente Hors-série n°44. Les matrices

Page 41: Les Matrices_ Une Representation Du Monde

Quand l'application est définie ainsi de façon concrète, il est facile de déterminer son rang. On examine comment se transforme l'espace, ou une base de l' espace si l'on préfère. L'exercice se complique si la défini­tion est abstraite . On peut alors se ramener au cas du rang d ' un système de vecteurs : le rang d ' une application linéaire est le rang du système image d'une base . Pour préciser la question, examinons le cas de l' application

( 1 0 2\

linéaire de matricel-1 I 'J dans une 0 1 3

base de l'espace. L' image de la base canonique est formée des troi s vecteurs colonnes , soit des vecteurs de coor­données ( l , -1, 0), (0, 1, l)et(2 , 1, 3). Les deux premiers vecteurs engendrent un plan puisqu ' ils ne sont pas coli­néaires. Le troisième est combinaison linéaire des deux premiers puisque : (2, 1, 3) = 2 X (1,-1,Ü) + 3 X (Ü, 1, 1). li s'ensuit que l' image de l'application linéaire considérée est un plan (engen­dré par les deux premiers vecteurs colonnes) , elle est donc de rang 2.

Une symétrie par rapport à un plan,

comme suggérée sur cette photographie de colverts, transforme l'espace

en lui-même ; elle est donc de rang 3. En revanche, la photographie

elle-même réalise une projection de l'espace sur un plan. Elle est donc de rang 2.

SYSTÈMES LINÉAIRES

Rentrer dans le ranu ...

Lycéens s' entraînant à rentrer dans le rang à lrkousk en Sibérie. Cl Hervé Lehning.

Quel est le lien entre l'expression très militaire de « rang » et la notion mathématique ? Sans doute celui de classement : chacun son rang .. . Un soldat du rang est celui de plus bas niveau, les officiers sont de rang supérieur. Il en est de même des systèmes de vecteurs et des matrices.

Cette remarque conduit à définir le rang d ' une matrice comme celui de ses vec­teurs colonnes. On démontre qu ' il s'agit aussi du rang de ses vecteurs lignes (une démonstration est proposée en fin d 'article). On en déduit que le rang d ' une application linéaire est le rang de la matrice associée. De même , on peut alors définir le rang d ' un système d ' équations linéaires comme le rang de la matrice associée.

le théorème du rang

Une notion n'a guère d'intérêt quand elle n'est pas au centre d ' un théorème fondamental, aux applications nom­breuses. Dans le cas du rang , le théorème porte tout simplement le nom de ... théo­rème du rang . Le voici : « Le noyau d 'une application linéaire est égal à la dimension de l'espace de départ dimi­nuée de son rang. »

Par définition , le noyau est l'ensemble des vecteurs que l'application annule. En particulier, il s'agit d'un sous-espace vectoriel de l 'es pace de départ . Examinons la question dans le cas de

Hors-série n° 44. Les matrices Ta.ngent:e 39

Page 42: Les Matrices_ Une Representation Du Monde

SAVOIRS Comment rentrer dans le rang

l'application Linéaire associée à la matrice

A = ( 1 2 3

) . Son espace de départ est 2 4 6

de dimension 3 et celui d 'arri vée de dimension 2. D 'après la définition ci­dessus, son noyau est constitué des vec­teurs de coordonnées (x, y, z) te ls que A1 (x y z) = 0 ce qui conduit à deux foi s la même équation , soit x + 2y + 3z = 0 . C'est l'équation d ' un plan, qui est donc de dimension 2 . L' image de l ' appli ca­tion est l' ensemble des vecteurs de la forme

(1 2 3)(x\ (1) 2 4 6 l :J soit (x+ 2y + 3z) 2 ,

ce qui correspond à la droite de vec­teur directeur de coordonnées ( 1, 2), qui est donc de dimension l , qui est ainsi le rang de l'application . Sur cet exemple , la relation annoncée est bien vérifi ée pui sque le noyau est de dimension 2 , égal à la dimension de l'espace de départ (3) moins le rang de l' application (1 ) (voir l 'encadré Démonstration du théorème du rang pour une démonstration générale). Considérons un système d 'équations homogènes, comme

l x + y + z = O,

x + 2y + 3z =0,

3x +4y +5z = 0.

Son ense mble de solutions est le noyau de l ' application linéaire de

( 1 1 1 \

matrice l I 2 3J . Il s' agit donc d ' un 3 4 5

espace vectorie l dont la dimension est égale à 3 moins le rang de cette matri ­ce . Pour le calculer, on peut utili ser la méthode de Gauss ; on peut auss i opé­rer directement sur les lignes ou les colonnes. Le rang est égal à 3 si les vecteurs colonnes sont libres , c'est-à­dire si le déterminant de la matrice est

non nul. En utili sant la méthode de Sarrus, on montre qu 'au contra ire ce déterminant est nul. Les tro is vecteurs colonnes sont donc liés. Les deux pre­miers ne sont pas co linéaires , donc l' espace image est de dimension 2. Le rang de la matrice est égal à 2 . On en déduit que l' ensemble des solutions est un espace de dimension 1, c 'est-à­dire une droite. Ce renseignement permet une vérifica­tion après réso lution du système. On peut également l' utili ser pour conclu re si l'on remarque que le vecteur de coor­données (1 , - 2, 1) est so lution. En effet, un te l vecteur constitue alors une base de la droite des so lutions. Les autres solutions sont les vecteurs de la forme t x ( 1, -2, 1 ), soit : x = t , y = -2t, z = t où t est une constante arbitraire . De façon générale, si un système homo­gène à n inconnues est de rang r , l' en­se mbl e des soluti ons est un es pace vectorie l de dimension n - r .

Équiualence des matrices

L'équivalence des matrices concerne des matrices de mêmes dimensions. Consi­dérons A et B des matrices à deux lignes et troi s colonnes pour fi xer les idées. Elles sont dites équivalentes s' il ex iste une matrice carrée P d 'ordre 3 inver­sible et une matri ce carrée Q d ' ordre 2 inversible te lles que A x P = Q x B . Les formul es de changements de base montrent que deux matrices sont équi ­valentes si e lles représentent la même application linéa ire.

Éc lairons la définition et sa caractéri ­sation par un exemple .

Soient A= ( 1 2 3

) et B = ( O 1 0

) . 2 4 6 0 0 0

( 1 1 0 \

Les matrices P = l l o 3 J et Q = ( ~ ~ )

- 1 0 - 2

40 Tangente Hors-série n°44. Les matrices

Page 43: Les Matrices_ Une Representation Du Monde

sont bien inversibles, comme le montre le calcul de leurs déterminants. D'autre part , e ll es vé ri fie nt bi e n la re la ti on de mandée . Ces matri ces P et Q peu­vent être trouvées directement, ou en uti­lisant la caractéri sation qui précède .

L'équi va lence des matri ces possède une caractérisation très simple: l 'éga­lité du rang . Dans un sens, le résultat est fac ile : deux matri ces équi valentes ont même rang . Ma is la réc iproque est dé licate. Décri vons le ra isonnement général sur le cas des matrices A et 8 , qui ont bien le même rang 1. Considérons l'appli­cation linéa ire! assoc iée à A dans une base donnée de l'espace de départ. li s'agit de trouver une autre base dans laq uelle la matrice defest B. Le noyau de f est de dimension deux . Nous en considérons une base {i , k} . Ces deux

(2\ (3\

vecteurs peuvent être l ~ I J et l ~1 J , par

exemple, car il s sont indépendants et é léments du noyau, puisqu ' il s vérifient l'équation x + 2y + 3z = O. On choisi t a lo rs un vec te ur j te l q ue {i , j, k} so it une base de l 'espace de dé part.

( 1 \

Ce vecteur peut être l~J par exemple

pu isque le déterminant du système est 2 1 3

alors -1 0 0 , qui vaut - 1 et est donc 0 0 - 1

non nul. Dans cette base {i, j , k}, la matrice de J est do nnée par les com­posantes def(i),f(j) et f(k) écrite dans une base de l 'espace d 'arri vée qu ' il nous reste à cho isir. Les vecteurs f(i)

et f(k) sont nul s. Il suffit de cho is ir

(1 2 3)( I\ (1) u=f(j),soit 2 4 6 l~J = 2 comme

premier vecteur de base, et de compléter

SYSTÈMES LINÉAIRES

Démonstration du théorème du rang Considérons une application linéaire! d'un espace de dimension 3 dans un espace de dimension 2 , pour fixer les idées. Le noyau F def est de dimension o, 1, 2 ou 3. S'il est de dimension 3, cela signifie que f est nulle, l'image de f est de dimension o. Le théorème est donc vérifié. Si le noyau Fest de dimension 2 , il s'agit d'un plan. On considère alors une droite Gnon incluse dans F et H l'image de f.

F I

1

1

y

1

1

X

Si Fest un plan de l'espace et G une droite non incluse dans F, tout vecteur x de l'espace

se décompose en x = y + z où y est sa projection sur F parallèlement à G et z sa projection sur G

parallèlement à F.

On définit une application g de G dans H en posant g (x ) = J(x) pour tout x appartenant à G. Cette applica­tion est linéaire car f l'est. Si g (x) = o, alors J(x) = o donc x appartient à F, le noyau def. Comme x appar­tient aussi à G, on en déduit que x = o, ce qui prouve que l'application linéaire! est injective. Elle est d'autre part naturellement surjective puisque, si h est un vec­teur de l'image H, il existe x dans l'espace de départ tel quef (x ) = h. En décomposant x sous la forme x = y+ z où y est dans F et z dans G et en appliquant!, on obtient f(x ) = j(y) + f(z) , donc g (z) = h puisquef(y) = o et g (z) = f(z). L'application g est donc surjective, ce qui implique qu'elle est bijective. Ceci prouve que G et Hont même dimension 1. Le théorème est vérifié. Dans le cas où F est de dimension 1, on recommence en considérant G un plan ne contenant pas F. Le cas F de dimension o est impossible car il signifierait que l'es­pace d'arrivée a même dimension que celui de départ, ce qui est faux.

Hors-série n• 44. Les matrices Tangente 41

Page 44: Les Matrices_ Une Representation Du Monde

SAVOIRS Comment rentrer dans le rang

Rang et zéros d'un déterminant X X

2

Prenons l'exemple du déterminant D(x) = x2 x

On peut facilement le calculer en utilisant la règle de Sar­rus, ce qui ne montre pas comment il se factorise. On peut également remarquer que D(l) est nul car ses trois lignes sont égales, et il en est de même de D(-1). Comme D(x) est manifestement un polynôme de degré 4 , on en déduit qu 'i l est multiple de (x- l)(x + 1) . Un calcul plus précis montre que D(x) = (x - 1)3 (x + 1). Une question se pose alors : pouvait-on prévoir ces expo­sants ? Pas totalement , mais la réponse est liée au rang des matrices sous-jacentes. Prenons le cas de A(l), la matrice correspondant à D(l ). A(l) est de rang l puisque toutes ses lignes sont égales. A( l) est donc équivalente à la matrice ( 1 0 o,

l O O 0) . Ceci signifie qu ' il existe deux matrices inver-0 0 0

sibles P et Q telles que A(l) = PBQ. Considérons alors B(x) = p- 1 A(x) Q- 1

, soit A(x) = P B(x) Q . En passant aux

déterminants, il vient: D(x) = det(P) det[B(x)] det(Q). Les règles de calcul des déterminants montrent que les coeffi­cients de B(x) sont des polynômes en x. Comme ils s'an-

Rangs de bambous à la bambouseraie d' Anduze.

nulent tous en 1, sauf celui en pre­mière ligne et pre­mière colonne, il s sont tous multiples de x - l , ce qui

prou ve que x - 1 peut être mis en fac­teur des deuxièmes et troisièmes lignes de det[B(x)]. Autre­ment dit , ce déter­minant , e t don c D(x), est multiple de (x - 1)2 . Ainsi, un simple calcul de rang permet de pré­voir que D(x) est

multiple de (x- 1)2 (x + 1).

par un vecteur v tel que {u, v} so it une base de l'espace d'arrivée. Le vecteur

(~)convient.Dans la base {i,j, k} de

l'espace de départ et la base {u, v} de l'espace d'arrivée, la matrice def est donc

(o I o) . B ,ce qui prouve que A et sont 0 0 0

équi va lentes. Le raisonnement appli­qué dans ce cas particulier est général , ce qui prouve le résultat. Nous en déduisons que s i une matrice est de rang 1, e lle est équi valente à la matrice dont la première co lonne est le vecteur de coordonnées ( 1, 0 ... 0) et les autres nulles puisque celles-ci est mani­festement de rang 1. Si une matrice est de rang 2, e ll e est équiva le nte à la matrice dont les deux premières colonnes sont les vecteurs de coordonnées ( 1 , 0, 0, ... , 0) et (0, 1 , 0, ... , 0) et les autres nulles, et a insi de su ite pour les matr ices de rang 3, 4, etc. Une telle matrice a la parti cul a rité d'avoir le

même rang que sa transposée.

Cette propriété se transporte ai ns i à toute matrice. Soit A une matrice, e lle es t éq ui va le nte à une matrice B du type précédent : A x P = Q x B . En transposant cette éga lité, on obt ient : 1P x 1A = 18 x 1Q, ce qui prouve que les transposées de A et B sont équiva­lentes. Or B et 1B ont même rang, donc A et 1A auss i. Toute matri ce a le même rang que sa transposée , donc le rang des vecteurs lignes est cel ui des vec­teurs co lonnes.

H.L.

42 Tangente Hors-série n°44. Les matrices

Page 45: Les Matrices_ Une Representation Du Monde

par Jean-Alain Roddier

Petits problèmes liés à l'inuersion d'une matrice carrée l'inuersion d'une matrice carrée permet de résoudre de nombrem1 problèmes, a commencer par les systèmes « de Cramer » de n équations indépendantes a n inconnues.

le calcul de l'inuerse Soit A une matrice carrée d'ordre n. Inverser A, c'est trouver

une matriceA·1 telle que: A"1A = AA-1 = I,,où 111

est la matrice

identité d 'ordre n, qui comporte des « 1 » sur la diagonale et

des « 0 » partout ai lleurs. On sait déjà que A-1 ex iste s i et seu­

lement si le déterminant de A, noté Det(A), est non nul.

Dans ce cas , cet inverse est unique, et on peut l'exprimer à

l'aide de ce qu 'on appelle les « déterminants partiels » . Pour

A matrice carrée, on appelle déterminant partiel de rang

(i,J) , noté Du, le déterminant de la matrice d'ordre (n - 1) obte­

nue en supprimant de la matrice A la ligne i et la colonne).

Alors , l'inverse de A est la matrice B d'ordre n dont l'élément

bu, itué à l'intersection de la i-ème ligne etde laj-ème colonne

est: (- Jy+i D .. b = '} .

'1 Det(A)

Dans le cas n = 2 ou 3, on reconnaît , pour les solutions du

système d'équations AX = B, les formules , dites de Cramer,

en posant X =A-18.

Trouuer l'inuerse â e a Cayley-Hami ton

Le théorème de Cayley- Hamilton établit que si PA (X) est le poly­

nôme caractéristique d'une matrice A d'ordre n, alors

P A(A) = 0 , où P A(A) est la matrice obtenue en remplaçant X

par la matrice A et la constante e par cl,, dans le polynôme

caractéristique de A.

Si A est inversible , on montre que cette constante e est non

nulle. Ceci nous permet , à partir de l'égalité P A(A) = 0, de

l'isoler dans un des membres et d'en déduire l'inverse de A en

fonction de A.

Ainsi, si le polynôme caractéristique d'une matrice carrée

d 'ordre 2 est P(X) = X2 + SX + 7 , le théorème de Cayley­

Hamilton affirme que A 2 +SA+ 712 = O.

On ) 'écrit : A 2 +SA= - 712 ou encore A (A + 512) = - 712.

-1 L' inverse de A est donc la matrice 7 (A+ 512).

EN BREF

Permuter les éléments d'une matrice A est la matrice (: !) . Par quelle matrice devons-nous la multiplier pour obtenir une permutation circulaire de ses éléments dans le sens des aiguilles d 'une montre ?

Le problème consiste à trouver une matrice X (si elle existe), telle que :

On peut considérer l'égalité précédente comme une équation, d'inconnue X.

• Si A est inversible , il suffit de multiplier chaque membre (à gauche) par A-1, ce qui donne :

Le calcul de l'inverse donne

A"'=---1 ( d -b) ad-be - c a ·

Tous calculs faits , on trouve :

1 ( de - bd da - b2 \

X= ad - be~ ad - c2 ab - ea) ·

Remarque :on peut , de même, trouver une

unique matrice Y= (: :) A · 1 (différente de X) telle que :

• Si A n'est pas inversible, c'est que les deux lignes sont proportionnelles. A s'écrit par exemple: ( a b), avec k '* O. ka kb

On montre alors que la matrice X existe si b = ka . Nou vous laissons poursuivre .. .

Hors-série n• 44. Les matrices Tcingente 43

Page 46: Les Matrices_ Une Representation Du Monde

SAVOIRS par Bertrand Hauchecorne

les nombres comple,ces comme ensemble de matrices Au début des années 1970, les mathématiques modernes faisaient rage : dans le programme de terminale C, on définissait les nombres complexes à l'aide des matrices. De nos jours, elles ne sont abordées que dans l'enseignement supérieur. Comment une telle idée a-t-elle pu venir à des pédagogues, voici quarante ans ?

Si la méthode prônée par les « mathématiques modernes » n 'est pas pédagogique , elle est

pourtant très séduisante. Présentons­la avant de réfléchir à sa philosophie . Considérons les matrices carrées sui­vantes d ' ordre 2 :

M •. b = (: -:) , où a et b désignent des

nombres réels. Il est clair que cet ensemble G de matrices définit un sous-groupe additif de l'ensemble Mi (!RI) des matrices carrées à coefficients réels. Le produit

des deux matrices Ma ,b et M c,d de ce

type est la matrice M ac-bd,ad+bc ·

On remarque l'analogie avec les com­plexes , pu isque le produit (a+ ib)(c +id)= ac - bd+ i(ad + be). C'est pourquoi, si l'on définit l'application f de IC dans G par f(a + ib) = M a,b et si l'on note z = a + ib et z' = c + id , on obtientf(z + z') = f(z) + f(z') et f( zz ') = f(z)f(z'). Comme, de plus,f est bijective (c'est-à-dire qu 'à chaque nombre

complexe z correspond un élément et un seu l de G),f transporte les opéra­tions de IC sur ce lles de G. On appelle ce phénomène un isomorphisme. Mathé­matiquement , les deux ensembles ont exactement les mêmes propriétés. On peut donc les identifier. Il reste à com­prendre pourquoi ceci « marche » bien .

les complexes et les rotations

On doit à Jean-Robert Argand la confi­guration plane des nombres complexes , mais cette vision s'est développée après 1820 (voir en encadré). L'un des inté­rêts de cette représentation est de voir quel 'on peut assimi ler le plan euclidien , muni d ' un repère orthonormé, à l'en­semble des nombres complexes. Ainsi, au point M de coordonnées (a, b) dans ce repère , on associe le nombre com­plexe z = a+ ib appelé affixe de M. De nombreuses propriétés en découlent. Ainsi, si z et z' sont les affixes de M et

44 Tcingente Hors-série n°44. Les matrices

Page 47: Les Matrices_ Une Representation Du Monde

M', z + z' est celle du point N tel que OM + OM ' =ON. Par ailleurs, le module de z correspond à la norme (c'est-à-dire à la longueur) de OM . On transforme ai nsi les opérations vectorielles en opé­rat ions dans un ensemble de nombres. Cependant, l'addition dans les complexes est la même que celle dans IR2

, et ce que nous venons d 'énoncer n'a rien de sur­prenant. Le plus intéressant concerne la multiplication par un nombre complexe. S ' il est de module 1, on sait qu ' il peut s'écrire u = e;o_ Multiplier un complexe

z, affixe du point M , correspond à appli­quer à M une rotation de centre O et d'angle e. Ainsi, la multiplication par i = é712 n'est autre qu ' une rotation d'angle :n:/2 ou, si l'on préfère, de 90° . Prenons

un autre exemple avec Jï /2 + iJï / 2 = eird4

et M d 'affixe z = 1 + i. Considérons N d 'affixe z ' = eird4 z = iFz. C'est bien l' image de M par la rotation de centre O et d'angle :n:/ 4. De la même faço n, il est clair que mul­tiplier un nombre complexe z par un réel positif correspond géométrique­ment à opérer une homothétie de rapport r. Plus généralement , la multiplication de z par un nombre u = re;o induit une

similitude de rapport r et d'angle e, c'est­à-dire la composée d ' une rotation d 'angle e et d ' une homothétie de rapport r

(ou inversement) .

Regardons ce qu'il se passe au niveau matriciel. Si u = re;o =a+ ib, la rotation

(cose -sine)

d 'angle e a pour matrice . ; sine cose

quant à la similitude de même angle et

de rapport r, sa matrice est

M = . , donc de la forme (rcose -rsine) rsine rcose

(a -b). Ainsi nous voyons qu 'à chaque b (I

complexe non nul u = re;o =a+ ib cor­

respond une simili tude de centre 0 ,

SYSTÈMES LINÉAIRES

la vision plane des complexes : toute une histoire I Si, de nos jours, les nombres complexes nous sem­blent attachés au plan, il fallut deux siècles pour introduire cette vision géométrique. John Wallis en avait bien eu l'idée sans toutefois faire le lien entre les opérations sur les complexes et les transforma­tions géométriques. Le Danois Caspar Wessel est le premier en 1797 à écrire un essai sur ce thème. Publié deux ans plus tard dans son pays, son article passe totalement inaperçu. Il faut attendre 1897 pour que Sophus Lie le retrouve et le fasse publier en français. Entre temps, Jean-Robert Argand publie à compte d'auteur, sans mentionner son nom, un Essai sur la manière de représenter les quantités imaginaires dans des constructions géométriques. Il l'envoie à Legendre, qui le transmet au mathématicien Fran­çois Français. Celui-ci meurt peu après. Par chance, son frère le trouve et le fait publier dans le Journal de Gergonne, en précisant que l'auteur en est inconnu. Argand dévoile alors sa paternité.

unique , notée Su, de telle sorte que l 'af­fixe de l' image d ' un point M par Su so it le produit de u par l'affixe de M . On retrouve un phénomène d ' isomorphisme . On peut donc identifier les deux ensembles IC et G. Non seulement ils sont en bijec­tion , mais les opérations sur l' un et sur l'autre se correspondent. On a ainsi trans­formé un problème de géométrie en des opérations élémentaires sur un ensemble algébrique. Poursuivant cette idée, William Hamil­

ton a longtemps cherché un ensemble de nombres qui puisse de la même façon représenter les rotations de l'espace par une multiplication. Il a ai nsi introduit les quaternions. Cet ensemble n 'est pas commutatif: rien d 'étonnant , le produit de deux rotations de l'espace ne com­mute pas en général !

B.H.

Hors-série n° 44. Les matrices Tc:ingent:e 45

Page 48: Les Matrices_ Une Representation Du Monde

Propriétés affines et propriétés métriques En géométrie, les notions de droites, de plans, de parall é li sme , d'intersection , peuvent se défi nir

sans faire appel à des longueurs ou à des angles : on parle de propriétés affines. Lorsqu'on ajoute la notion de di stance , qui entraîne celle d 'angles, on traite de propriétés métriques. Ainsi, la définition d ' un parallélogramme, obtenu

comme intersection de deux couples de parallèles, relève de l'affine . Celles de rectangle ou de carré

est du ressort de la métrique , puisqu 'on doit intro­duire la notion d 'angle droit ou d 'égalité des côtés.

La théorie des espaces vectoriels formalise la géo­métrie affine. Pour introduire les propriétés métriques, il faut lui ajouter la notion de produit scalaire. Au lycée, on définit le produit scalaire de deux vecteurs comme un nombre réel correspondant au produit de la longueur de l' un d 'entre eux par celle

de la projection orthogonale de l'autre si les deux sont de même sens, par son opposé sinon. Réci­proquement, si on connaît le produit scalaire, on récupère la notion de longueur en prenant la racine carrée du produit scalaire par lui-même et le cosi­nus d ' un angle en divi sant le produit scalaire des deux vecteurs par le produit de leur longueur.

Dans le cadre axiomatique de la théorie des espaces vectoriels introduite par Peano , on appelle produit scalaire une fonction bilinéa ire f, qui associe à deux vecteurs ü et v un nombre réel, de telle sorte

que s i le vecteur ü n'est pas nul,f(ü, ü) > O. On en déduit les notions d 'angles et de longueur (on parle de norme d ' un vecteur) comme expliqué précédemment. On peut ainsi intégrer la géométrie métrique dans le cadre des espaces vectoriels , qui , s' il s sont de

dimension finie, sont alors bapti sés euclidiens en l' honneur d 'Euclide qui , le premier, avait défini ,

troi s siècles avant Jésus Christ , une axiomatique de la géométrie associant tant les propriétés affines que métriques.

par Bertr h cor

André-Louis Cholesky

Oui était CholeskY ? Durant de nombreuses années, le monde mathéma­tique ignorait à qui l'on devait le nom de la « décom­position de Cholesky » (voi r dans le dossier sui vant).

Lors d ' un congrès mathématique au Japon , l' un des participants s'écri a « Mais qui est donc Cholesky? »

Personne ne sut lui répondre ... Le compte rendu de la séance tomba sous les yeux d ' un étudiant de l'Université de Bordeaux . Il recon­nut le nom des voisins de ses parents à Montguyon , en Charente-Maritime. Après une enquête, il décou­vrit que Pierre-Loui s Cholesky éta it bien en famille avec ces gens- là.

Fils de restaurateurs , Cholesky est entré à !' Éco le polytechnique en 1895 . À sa sortie, il intègre l'armée. Affecté à la section géodés ique du service géogra­phique, ses aptitudes théoriques sont vite remarquées et ses idées nouvell es très appréc iées. Pour amélio­rer les méthodes dans cette branche, il est amené à

étudier des systèmes d 'équations linéa ires. Il met au point un procédé de résolution, qui nécessite la décom­position matricielle qui porte désormais son nom. Il poursuit ses act ivités en Crète , en Afrique du Nord pui s en Roumanie durant la Première Guerre mon­diale. Revenu en France, on l' envoie sur le front, où

il tombe deux mois avant l'armistice à l'âge de 43 ans . Ses travaux sont publiés de manière posthume, en 1924, dans le Bulletin géodésique, sous le titre de Procédé du commandant Cholesky.

46 Tangente Hors-serie n°44. Les matrices

Page 49: Les Matrices_ Une Representation Du Monde

par Bertrand Hauchecorne

Transposée d'une matri,e La transposée 'M d'une matrice M ayantp lignes

et n colonnes s'obtient en échangeant ses lignes

et ses colonnes. Ainsi 'M possède n li gnes et p

colonnes et le terme de la /me li gne et la /-me

colonne de M devient celui de la/-me ligne et la /me colonne de 'M .

Exemple: si M = ( ~ ! !) , (l 4\

alors 'M = l ~ ~ J .

Si la matrice est carrée, la transposition corres­

pond à intervertir les termes symétriques par

rapport à la diagonale. L'opération qui trans­

forme Men 'M est involutive, c ' est à dire que

la transposée de 'M n'est autre que ... M !

Diverses propriétés se conservent par transposition ;

c'est le cas du rang pour toutes les matrices,

rectangu laires ou carrées : rappelons que le rang

d'une matrice est la dimension de l'espace vec­

toriel engendré par les colonnes de la matrice,

c ' est-à-dire le nombre maximum de vecteurs

libres que l'on peut trouver parmi ces co lonnes.

Pour les matrices carrées , le déterminant , le

polynôme caractéristique, les valeurs propres,

sont conservés par transposition. De plus une

matrice est semblable à sa transposée; en d ' autres

termes , si M est la matrice d'une application

linéaire u dans une base , il existe une autre base

dans laquelle sa matrice est 'M.

EN BREF

Matrices symétriques et antisymétriques On appelle matrice symétrique une matrice

carrée égale à sa transposée. Elle est donc

invariante par symétrie par rapport à la dia­

gonale , ce qui explique bien sûr son nom .

Les matrices diagonales sont des cas particuliers

de matrices symétriques .

4 5\

! ~J est une matrice symétrique .

Le théorème spectral affirme que toute

matrice symétrique est diagonalisable, et, qui

plus est, à l'aide d ' une matrice de passage

orthogonale. On peut l'exprimer matriciellement : étant

donné une matrice symétrique S , il existe une

matrice orthogonale P et une matrice diago­

nale D telles que S = P D 'P, où 'P = P-1.

On appelle matrice antisymétrique une matrice

carrée égale à l'opposée de sa transposée.

Une conséquence est qu'elle ne comporte que

des « 0 » sur la diagonale.

( 0 4 -5\

Ainsi,A=l-54 ~

6 ~J

est une matrice antisymétrique.

Pour toute matrice carrée M, (M + 'M) / 2 est

une matrice symétrique tandis que (M - 'M) / 2

est antisymétrique. On en déduit que toute

matrice carrée M se décompose de manière

unique en la somme d'une matrice symétrique

et d'une matrice anti symétrique .

Il suffit d'écrire:

M = (M + 'M)/2 + (M-'M)/2.

Hors-série n• 44. Les matrices Ta.n9ent:e 47

Page 50: Les Matrices_ Une Representation Du Monde

SAVOIRS par Bertrand Hauchecorne

le théorème de Cayley-Hamilton Pivot de la réduction des endomorphismes, le théorème de Cayley-Hamilton porte le nom de l'astronome et mathématicien William Hamilton et de l'algébriste Arthur Cayley. Pourtant, la première démonstration générale est due à l' Allemand Georg Frobenius en 1878.

Un endomorphisme est une appli­cation linéaire d ' un espace vec­torie l dans lui-m ê me . Son

expression dans une base, ou la donnée de sa matrice, ne permet en général pas de le « visualiser » simplement , a for­tiori de ('étudier.La réduction des endo­morphi smes consiste à déco mposer l'espace en sous-espaces vectoriels en sommes directes, sur lesquel s l'endo­morphisme est le plus « simple » pos­sible (vo ir la partie suivante de ce hors série). La matrice de l'endomorphi sme dans une base respectant ces sous-espaces vectoriels est alors très « simple » ; au mieux e lle est di agonale (c'est-à-d ire ayant des O en dehors de la diagonale), sinon e ll e contient beaucoup de O en dehors de la diagonale .

Une uue géométrique

Prenons l'exemple d' une symétries par rapport à un plan P de l'espace (noté E). Si on décompose E en la somme P + D,

où P désigne le plan de la symétrie et D la droite parallèlement à laquelle on effec­tue la symétrie, la restriction de s à P est l' identité et celle des à D est l'opposé de l' identité. L'endomorphisme se paraît dès lors d ' une expression très si mple dans cette décomposition : en choisis­sant une base dont les deux premiers vecteurs sont dans P et le troi sième dans D, la matrice des est di agonale avec res­pectivement 1, 1, - 1 sur la diagonale. On est ainsi amenés à rechercher les vec­teurs u colinéaires à leur image, c'est-à­dire vérifiant! (u) = Àu où À désigne un nombre réel. Un te l vecteur s'appelle un vecteur propre et À une valeur propre. Pour trouver cette dernière , il suffit de cher­cher les réels À pour lesquels f- ÀldE s'annule pour des vecteurs non nuls. On calcule alors le déterminant de f- ÀldE en considérant À comme une inconnue. Le polynôme en À obtenu s'appelle le polynôme carac1éris1ique de f. Son degré est éga l à la dimension de l'espace, et ses racines sont les valeurs propres. Dans

48 Tangente Hors-série n°44. Les matrices

Page 51: Les Matrices_ Une Representation Du Monde

la pratique, on calcule le déterminant en

utilisant une matrice M représentantf. Ce

polynôme s'appe lle donc aussi le poly­nôme caractéristique de M . On en déduit

d'autre part que ce polynôme ne dépend

pas de la base dans laquelle on ex prime

la matrice def. En d'autres termes, deux

matrices semblables ont le même po ly­

nôme caractéristique !

Donnons un exemple: considérons ! 'en­

domorphisme f de IR2 défi ni par

f(x,y) = (2x +y; x + 2y) . La matrice de

f dans la base usue lle de IR2 est do nc

M = (~ ~). La matricedef-À.l~ , s'écrit

( 2 ~ ).

2 ~ ).) , donc son polynôme carac­

téristique est À. 2 - 4À. +3. Les rac ines en

sont 3 et 1 ; ce sont les valeurs propres.

On remarque a lors que u = ( 1, 1) véri­

fie f(u) = 3u et que v = ( 1 , - 1) satisfait àf(v) = v. Les vecteurs u et v sont deux

vecteurs propres . Le couple (u , v) forme

une base dans laquelle la matrice de f . (3 0) s'écnt N =

0 1 •

C'est une matrice diagonale.

Point d 'orgue de cette théorie, le théo­

rè me d e C ay ley-Ha milton a ffirm e

qu 'étant donnée une matrice carrée M ,

s i l 'on re mpl ace À. par M da ns l 'ex­

press ion de son po lynô me carac té ri s­

t ique, on obtient O. Dans ce calcul , le

terme constant (noté a) du po lynôme

es t re mpl acé par al , o ù l dés ig ne la matr ice ide ntité. On dit que le po ly­

nôme caracté ri stique de M est un poly­nôme annulateur pour M .

Vérifi ons ce calcul sur notre exemple:

M2 - 4M + 31 =

(! :)-4(~ ~)+3(~ ~)=o

Le théorème est vé ri fié !

SYSTÈMES LINÉAIRES

Georg Frobenius, un mathématicien II normal II Georg Frobenius est fils de pasteur. Il étudie dans les universités de Gêittingen et Berlin où il suit les cours de Kronecker, Kummer et Weierstrass. Son doctorat en poche, il enseigne d'abord en lycée puis à l'Université de Berlin et enfin à l'École polytechnique de Zurich. Il s'intéresse à la théorie des groupes, consi­dérée en elle-même et non comme un outil. Dans ce cadre, il démontre en 1874 les théorèmes de Sylow puis, se tournant vers l'algèbre linéaire, celui de Cayley­Hamilton en 1878. Par la suite, il s'intéresse à la théorie des corps et à celle des algèbres. Il démontre dans ce domaine plu­sieurs résultats importants, parmi lesquels le théo­rème qui porte désormais son nom : toute algèbre de dimension finie sur IR, sans diviseur de zéro, est iso­morphe à IR, à C ou au corps non commutatif des quaternions d'Hamilton.

Hamilton et ses quaternions

A u début du XIXe s iècle, Argand pro­

pose de représenter les nombres complexes

sur un plan muni d ' un repère orthonormé

(0 , u , v) . Ainsi on associe au point M de

coordonnées (x, y) dan s ce repè re le

nombre complexe z = x + iy, que l' on appe lle l'affixe de M . La mu ltip lication par le complexe z = e;;, correspond à

opé re r une rota tion d 'ang le À.. Astro­

nome et mathématicien William Hamil ­

ton cherche à généra li ser cette propriété

pour les rotations de l'espace . Il échoue

d 'abord e n che rchant à construire un

ensemble de nombres de dimension 3,

comme celui des complexes est de dimen­

s ion 2. Soudain il a l ' idée d ' introduire

un espace de nombres de dimension 4 .

Il re marque en effet qu ' il fa ut quatre

para mètres pour définir une rota ti o n

d 'axe passant par l ' origine: trois pour définir un vecteur de l ' axe, et un dernie r

pour l'angle. Se promenant tranquillement

Hors-série n• 44. Les matrices Tangente 49

Page 52: Les Matrices_ Une Representation Du Monde

SAVOIRS Cayley-Hamilton

Démonstration du théorème Pour démontrer le théorème de Cayley-Hamilton, il suffit de montrer que le polynôme caractéristique d'une matrice est annulateur pour celle-ci. Plaçons­nous sur le corps des nombres complexes. Nous savons alors que toute matrice est semblable à une matrice triangulaire supérieure. Il suffit donc de montrer le résultat pour une telle matrice (notée M) et d'ordre n. Supposons d'abord que M possède une valeur propre unique, notée À.. Alors M - À.In est triangulaire supérieure avec des zéros sur la diagonale. Elle est nilpotente d'ordre n, donc (À.I - M)" est la matrice nulle, ce qui montre le résultat pour cette matrice. Prenons maintenant M triangulaire quelconque. Notons\, À.2 , • •• , À.P les termes diagonaux distincts et µ 1, µ 2 , • •• ,µ/leurs nombres d'apparitions respectifs ; appelons un endomorphisme de matrice M dans une base. Le polynôme caractéristique de M est clai­rement P = (\ - X)µ ,(À. 2 - X)µ2 • •• (À.P - XYP. Par le théorème de décomposition des noyaux, on sait que le noyau Ker(P(f)) est la somme directe des espaces F; = Ker (À.; - JYi et que ces espaces sont stables par f En choisissant une base adaptée aux sous-espaces F;, la matrice N def dans cette base est composée de blocs, à cheval sur la diagonale, de matrices N; tri­angulaires supérieures d'ordre µi avec un même terme À; sur la diagonale. Par ce qui précède, on déduit que (À; - NiYi est la matrice nulle. Il est clair alors que (\ - N)'', (À.

2 - NY2 ••• (À.P - N)µP est nulle également.

Comme M et N sont semblables, P(M) est nul aussi, ce qui achève la démonstration. Une matrice réelle pou­vant être considérée comme complexe, le théorème est prouvé pour ces matrices.

avec son épouse ce 16 octobre 1843 , il court soudain graver sur le Brougham Bridge la notion de produit qu ' il vient d ' inventer : les quaternions étaient nés ! Dix ans plus tard, Hamilton fait paraître un ouvrage, Lectures on Quaternions, dans lequel il étudie les propriétés de ces nombres et leur utili sation pour la des­cription des transformations de l'espace. C'est dans ce cadre, en recherchant l'express ion de l ' inverse d ' un quater-

nion , qu ' il démontre que ces transfor­mations et leurs itérées vérifient une équation. Cependant, il n'énonce aucun théorème général.

Cayley et les matrices

Après avoir utili sé les matrices comme des tableaux de nombres pratiques à manier pour l'étude des systèmes linéaires, Arthur Cayley se rend compte que l'on peut les sortir de leur contexte et les appréhender comme des é léments d ' un

ensemble. On peut alors les manier en quelque sorte comme des nombres, en défi­ni ssant dessus des opérations de somme et de produit. En 1858 , il publie cette nouvelle approche dans un article inti ­tulé A Memoir on the Theory of Matrices. Il s'aperçoit que chaque matrice « véri­fie une équation algébrique de son propre ordre » (c'est bien sûr le polynôme carac­téristique) et s'émerveille alors d 'avoir trouvé un « remarkable theorem » , qu ' il

considère comme le point central de sa théorie et qu ' il énonce ainsi:

« The determinant, having for its matrix a

given matrix less the same matrix consid­

ered as a single quantity in volving the

matrix unity, is equal ta zero. »

Le déterminant dont la matrice est une

matrice donnée moins la même matrice

considérée comme une simple quantité

associée à la matrice unité est égal à zéro .

On sent bien Cayley mal à l'aise pour énoncer ce résu ltat. En effet , au lieu de ca lculer le déterminant de M -À. I , puis de remplacer À. par M , comme nous le faisons de nos jours, il place directe­ment M dans la matrice en la considé­rant comme une « quantité simple » (« a

single quantity ») c 'est-à-d ire comme

un nombre . Dans son énoncé, Cayley ne fai t aucune référence à la taille n de la matrice. Pour

50 Tangente Hors-série n°44. Les matrices

Page 53: Les Matrices_ Une Representation Du Monde

1

la démonstration, il se place avec une

matrice M = (: ;) d 'ordre n = 2. Il cal-

cule le déterminant de (0

- M c ) , b d-M

so it M2 - (a+ d)M + (ad - bc)M0 . En

posant M0 = 12 , on vérifie aisément par le calcul que l'on obtient la matrice nulle . Cay ley affirme alors avo ir montré ce résultat pour n = 3 et soutient enfin qu ' i I n'est pas nécessa ire de le prouver dans

le cas général.

Ferdinand Georg Frobenius (1849-1917).

Georg Frobenius et la rigueur allemande

Moins connu que les deux mathémati­ciens précédents, moins original et moins excentrique aussi, l 'A llemand Georg Frobenius est un mathématicien conscienc ieux qui s'attache à déve­lopper des théories rigoureuses. Il est amené à reprendre la théorie de Cayley dans le cadre de l'étude des formes bi li­

néaires symétriq ues . Il justifie et com­plète les résultats é noncés par son prédécesseur. C'est ains i qu'il fournit

SYSTÈMES LINÉAIRES

Un exemple explicite Considérons l'endomorphisme f de défini par J(x, y , z) =(2X + y + z, x + 2y + z, x + y + 2Z).

Un calcul facile montre que le polynôme caractéris­tique est P = (1 - X)2(4 - X). Les valeurs propres sont donc 1 et 4. L'image du vecteur u1 = (1, 1, 1) est (4, 4, 4) = 4(1, 1, 1), ce qui montre que u1 est un vecteur propre associé à la valeur propre 4. Par ailleurs, six+ y+ z = o, alorsf (x, y, z) = (x, y, z) donc l'espace propre associé à la valeur propre 1 est le plan d'équation x + y + z = o. En choisissant une base (u2 , u

3) de ce plan, on obtient

une base (ui> u2 , u3

) de l'espace, dans laquelle la matrice N de f est diagonale avec respectivement 4, 1 et 1 sur la diagonale. Il est immédiat de constater que (41

3 - N)(I

3 - N) est

nul. Ainsi le polynôme minimal (1- X)(4 - X) divise le polynôme caractéristique (1 - X)2(4 - X), comme l'avait démontré Frobenius.

en 1878 la première démonstration rigoureuse du théorème de Cayley­Hamilton dans le cas général.

En fait, le polynôme caractéristique n'est pas le seul polynôme annulateur d ' un endomorphisme ou d ' une matrice . On montre qu ' il existe un polynôme uni­taire unique annu lateur de degré mini­mal. Alors les polynômes ann ulateurs sont exactement les multiples de ce poly­nôme, appelé polynôme minimal. Le théorème de Cayley-Hamilton revient alors à dire que le polynôme minimal d ' un endomorphisme (ou d'une matrice) divise son polynôme caractéristique.

Frobenius démontre que ces deux poly­nômes possèdent en fait les mêmes fac­teurs irréd uctibles, ceux-ci pouvant apparaître avec un exposant inférieur dans le polynôme minimal que dans le polynôme caractéristique .

B.H.

Hors-série n• 44. Les matrices Tangente 51

Page 54: Les Matrices_ Une Representation Du Monde

SAVOIRS par François Lavallou

les fonctions homographiques Fonction clef de la géométrie projective, la fonction homographique reste étudiée au lycée sous une forme cachée, sans jamais en montrer le lien avec les matrices. Elle suscite pourtant un intérêt nouveau et est au cœur de recherches mathématiques modernes.

De la désintégration des pro­

grammes scolaires, due au

souc i de ne pas confronter

notre progéniture à la traumatisante

expérience d ' un effort inte llectue l, ne

subsistent que des notions parcella ires

de constructions mathématiques clas­

siques. Des ruines de ces monuments

émerge la fonction homographique , ou

fo nction de Mobius, qui n 'est rien

d 'autre , d ans la majorité des cas ,

qu ' une .. . hyperbo le camouflée.

Hyperboles cachées

Rappelons quelques propriétés analy­

tiques des équations de coniques. Une

conique est une courbe plane dont

l'équation générale , dans un repère

R(O , x , y), est du second degré:

a x2 + b x y + c y2 + d x + e y + f = 0. Si un point (x, y) de cette courbe peut s'élo igner à l ' infini , les te rmes du

52 Tangente Hors-série n°44. Les matrices

second degré ax2 + b.xy + cy2, qui sont vite prépondérants dans l' équat ion de

la conique, do ivent être de somme

null e . Pui sque ax2 + bxy + cy2 = (a + bp + cp2)x2

, avec p = y/ x, la direction p dans laque lle un point peut

« partir à l' infini » doit alors être solu­

tio n de l' équati on du second degré

a + bp + cp2 = O. Son di scriminant

~ = b2 - 4ac caracté ri se le type de

conique:

• si~ < 0 , pas de d irection à l' infi ni, la

conique est une e llipse ; • si~= 0 une seule d irection à l' infi ni,

la conique est une parabole d ' axe

parallè le à cette direction ;

• s i ~ > 0 deux directi o ns sont pos­

s ibles à l ' in fi ni , qui représentent

ce ll es des asymptotes d ' une hy per­

bo le . Considérons la plus simple des équa­

ti o ns d ' une hyperbo le , celle d ' une

hy pe rbo le équil atè re : x y = 1. Ses

Page 55: Les Matrices_ Une Representation Du Monde

asymptotes sont les axes du repère. Elle est souvent présentée sous la fo rme fonctionnelle y= f (x) = 1 / x.

Les mathématiques sont l'art du di s­cernement et s'attachent au fond plutôt qu'à la forme. Si nous effectuons une translation de vecteur (a, ~) et une homothétie de rapport 1 / k sur notre hyperbole équilatère, sa forme ne sera pas changée, contrairement à son équa-

. . d . R kz , twn, qui ev1ent y = JJ + --, c est-x - a

, d' Bx + k2 - aB L , , a- 1re y = . e cas gene-x - a

ra i des courbes d'équation y= ax + b. cx +d

représente donc des hyperboles équila­tères, auxquelles sont ajoutées des droites (pour c = 0). Depuis Michel Chasles ( 1793-1880), ces fonctions sont dénommées homographies, du grec homos ( « semblable ») et grafein (« écri re, dessiner »), car l'hyperbole admet une symétrie centrale et possède deux branches identiques.

Il est mani fes te que la fonction homo-

graphique f (x) = ax + b est entière-cx + d

ment déterminée par les coeffi cients a, b, cet d. La compos ition des homogra­phies, effectuée en encadré, justifie la

notation matricielle de y = ax + b par cx +d

( a b \ y=~ c d ) x.Composer deux fonc-

tions homographiques rev ient alors à calculer un produit de matrices. Mais si à chaque matrice correspond une fonc­tion homographique unique, à une homographie est associée ... une infini­té de matrices ! Puisque une homogra­phie est un rapport de fo nction linéaire, les coeffic ients sont défini s à un facteur

SYSTÈMES LINÉAIRES

Composition de fonctions homographiques

Calculons la composition des deux fonctions homogra-

phiques J( x )= ax+b et g (x )= a 'x +b ' Par défini-cx +d c 'x +d '

tion , nous avons donne :

(Jog)( x )= ag(x )+b , et le calcul cg( x )+d

a' x +b'

(! )( ) = a c 'x+d'+b = (aa '+bc')x+(ab'+bd ') og X I b ' ( ) ( ) ' ca x+ +d ca '+dc' x+ cb '+dd'

c' x +d '

Le premier constat est que la composition de deux homographies est une homographie. Cette propriété fut découverte par Carnot en 1803, en étudiant le problème de Castillon . L'ensemble des homographies est donc stable par la composition des fonctions.

Si on associe naturellement la matrice A = ( : ! ) à

l 'homographie f et la matrice B = ( a' b 1

\) à l' homo-\ c' d '

graphie g , on constate que la matrice associée à la com­position f O g des homographies est le produit A X B des matrices. Voir l'article en pages 132 à 134.

près. Ainsi, pour tout nombre réel non nul a, les matrices a A défini ssent la même homographie que la matrice

. ax +b A. L' homographie y = -- peut cx +d

s'écrire y = !:!. _ ad - be x - - -c C

2 X + d f C

Elle apparait ainsi clairement comme la composition d 'une translation, d ' une inversion, d ' une homothétie et enfin d' une dernière translation. Puisque la translation x ~ x + a est représentée

Hors-série n°44. Les matrices Tangente 53

Page 56: Les Matrices_ Une Representation Du Monde

Les fonctions homographiques

Utilisons la coordonnée non homogène z = x / y, définie

d I' .

1 . , , ( ax \

ans art1c e, comme assoc1ee a un vecteur l ay ) .

Nous noterons pour simplifier z = [ ; ] ·

Avec cette notation (qui fait intervenir des crochets et

que nous allons retrouver dans l' article), nous avons:

[ Y l ( a b \ ( x \ [ ax+b ] ax+b

y= 1 =~ e d Hl)= ex+d =ex+d ·

Nous allégeons encore cette écriture en assimilant y et

[ ~ l , de sorte que nous pouvons écrire :

[ a b ] ax+b y= X=--e d ex+d·

nous avons la confirmati on que nous sommes en présence d ' une invo lution,

la fo nction f étant sa propre inverse :

(f oj)(x) = x. En utili sant la représentation matri ciel­

le, nous pouvons déterminer rapide­

ment ) 'ensemble des homographies

involutives. Puisque:

A 2 = (l a2

+be b(a +b) \) ,

e(a +d) d 2 +be

pour tr(A) = a + d = 0, nous obtenons:

A2) a 2 +be O \ l O a 2 + be ) '

qui est bien une matrice associée à l' identité! Pour qu ' une homographie

so it son propre inverse, il suffit donc

que la trace de sa représentation matri-

. Il . Il A ' . . 2x - 3 c1e e so it nu e. ms,, s , y =--, Sx-2

par la matrice ( l a \ et l' inver- nous pouvons directement écrire: l O )

s ion x ~ l / x par J = ( O ~ ) .

l'écriture matricielle de cette homogra­

phie est alors :

( 1 y =~ 0

( 0 X ~ )

a / e \ (l -( ad - be)/ e2

, r a

1 \ ( 1 d ie\

a r~ a 1 J 1 ( a b \

= ~~ e d r·

0 \

)

L' identité est associée aux matrices a l ,

multiples de la matri ce ide ntité

I = ( ~ ~ ) , et l' hyperbole équilatère

d 'équation y = f (x) = 1 / x est liée à la

. J ( 0 1 \ p . 12 I matnce = ~

1 0 ) . UISque = ,

54 Tangente Hors-série n°44. Les matrices

x = 2Y - 3 ! Si jamais les termes dia-5 y - 2

gonaux sont égaux, le calcul peut aussi être s implifié. Par exemple, si

2x-3 . . y = --, no us pouvons ecnre Sx - 2

( ) -2x + 3 . . 1 . - y = ---, qu, est mvo ut, ve , Sx + 2

et donc x = - 2(-y)x + 3 = - 2Y+ 3 _ 5(- y) + 2 Sy - 2

Pour a ll éger les calculs, preno ns

que lques exemples avec des matrices

( 0 - 1 \ de la fo rme A = ~

1 a ) . Cette

matrice e t ses puissances sont de déter­

minant égal à 1 . Nous allons étudier les

n - 1 vale urs du paramètre a te lles que

A" = 1 pour différentes valeurs entières

den.

Page 57: Les Matrices_ Une Representation Du Monde

, ( _, Pour n = 2, A- = l a

-a \ a 2 -1 ) '

a = 0 et y = - 1 / x. Pour 11 = 3,

- a

a 2 -I

a 2 = 1 et y = --=..!___ Pour 11 = 4, X ± J

l- a 2 - a (a 2 - 2) \

a(a2 - 2) a 4

- 3a2 + 1 ) '

2 2 - 1 Π= et y = ---

x ± .fi.

Nous avons exclu la valeur a = 0 , qui n'est pas caractéri stique de la puissan­ce quatri ème. Pui sque A2"=(A2

)",

toutes les puissances paires accepte­ront év idemment a= 0 comme solu­tion. Enfin , pour n = 5,

( - a ( a 2 - 2) - ( a 4

- 3a 2 + 1) \

As=l a 4 - 3a2 +1 a (a 2 - 1)(a 2 -3) J·

et les quatre so lutions sont a = ± <!> ± 1

où <!> = ( 1 + Js) /2 est le nombre d 'or.

Nous avons représenté, sur le schéma ci-dessous! la fo nction homographique h(x )=--- qui , comme nous

x +<j>

1 h(x)=---

! x+ </J 1

1

1

1

- · - · - · - · - · - • . • . .l . • . • . •.• . • .

SYSTÈMES LINÉAIRES

venons de le montrer, est d 'ordre 5 , c 'est-à-dire te lle que h5(x) = x . Si on note M; = h (M;_ 1) l' image du point M; _ 1, nous constatons que M 5 = M 0 ,

quel que so it le point de départ M 0 .

Si on veut établir une bijection , c'est-à-

Fraction continue Utilisons le nombre d 'or pour illustrer le lien entre les fractions continues et les homographjes ( donc les matrices). Rappelons que la décomposition en fraction continue du nombre x est la détermination des entiers X;

tels que

X= X1 + 1 . X2 +-­

X3 + ...

On note x = [x1, x2 ••• x,, .. . ] et x(n) = [x 1, x2 • • • x,,] la rédui­te d 'ordre n de x , c'est-à-dire la fraction obtenue en pre­nant les n premiers termes de la décomposition de x en fraction continue. Si h/x) = a + 1 / x est

l' homographje de matrice ( ~ ~ ) , le calcul de la

réduite d'ordre n est facilité, avec les notations de l'en­cadré Notation, en utilisant l' expression matricielle:

( x1 1 \ ( x. 1 \ x (n) = l 1 0 ) X •• • X l 1 0 ) X 1.

Puisque <!> = 1 + 1 / <!> , <!> = {l, 1... 1...}. Une

on en déduit que réduite d'ordre n du

nombre d'or est donc <l>(n) = ( ! ~ r .1, c'est-à-dire:

où u11

est le énième terme de la suite de Fibonacci. Nous venons de démontrer que le rapport de deux termes consécutifs de la suite de Léonard de Pise converge vers le nombre d'or.

Hors-série n°44. Les matrices Tangente 55

Page 58: Les Matrices_ Une Representation Du Monde

SAVOIRS Les fonctions homographiques

dire une correspondance unique, entre

l'homographie f ( x) = ax + b et la cx +d

. A(ab\ . matnce = ~ c d ) on peut a Jouter

la contrainte det(A) = ad - b c = l. On exclut alors les fonctions constantes j(x) =a / c = b / d, qui sont associées à une matrice de déterminant nul. L'ensemble des homographies de déterminant égal à 1 constitue donc un groupe , un groupe projectif.

Géométrie projectiue

Considérons dans le plan réel les droites passant par l'origine. Un vec­teur non nul (x, y) détermine une unique droite vectorielle constituée de l 'ensemble des multiples de ce vecteur: {(k.x, ky), k E IR} Pour tout vecteur de cette droite , le rapport abs­cisse / ordonnée est constant et égal à z = x / y. Cette droite (l'.\z) coupe donc la droite (L\) d 'équation y = l en un point unique d 'abscisse z (voir la figu­re) . Pour être complet, il faut accepter la valeur z = oo qui correspond à l'axe des x, c 'est-à-dire à l'ensemble des

points de coordonnées (x , 0).

Nous appellerons droite projective P 1 (IR) cette droite (L\), complétée par son point à l' infini. Nous venons d'éta­blir une bijection entre cette droite pro­jective P 1 (IR) et les droites vectorielles du plan , qui dépend bien sûr du repère choisi. Les coordonnées (x, y) d 'un point de P 1 (IR) sont appelées coordon· nées homogènes et z = x / y est sa coor· donnée non homogène , qui appartient à iR u {oo}. Une application linéaire du plan fa it correspondre une droite vectorielle à une droite vectorielle. Ainsi , l'applica-

tion linéaire f de matrice ( : ! ) transforme le vecteur (x, y) en le vec­teur (a x + b y, c x + d y) . En utilisant la coordonnée non homogène z = x / y, l'application correspondante f de P 1 (IR) dans P 1 (IR) est telle que :

f ( z) = ax + by = az + b ex + dy cz + d

avec J(oo)=a l c si c 1:- 0 , et J( oo) = oo sinon. Les homographies ne sont donc rien d 'autres que les applica-

M(x,y)

Droite projective.

1

z=x/y

Ta.ngente Hors-série n°44. Les matrices

Page 59: Les Matrices_ Une Representation Du Monde

tions de P 1 (IR) correspondant aux appli­cations linéaires dans IR2

. Deux applica­tions multiples l' une de l'autre définis­sent sur P1(1R) la même application, puisque la multiplication par une constante (non nulle) laisse les droites vectorielles invariantes. On retrouve ainsi l' idée que les nombres (a , b, c, d) définissant une homographie sont déter­minés à un facteur multiplicatif commun près. Il y a donc trois degrés de libertés pour les déterminer, ce qui signifie que trois points non alignés définjssent entiè­rement une homographie . Un vecteur propre d ' une application linéaire est, par définition , proportion­nel à son image. Son point correspon­dant sur la droite projective est donc invariant par l' homographie associée. Rechercher les vecteurs propres d ' une application linéaire revient à recher­cher les points invariants d'une homo­graphie. Pour le vecteur propre (x, y),

de coordonnée non homogène z = x / y, tel que f(x , y) = (A.x, Ày), nous avons

ff . () ax+by Âx e ect1vement f z = --- = - = z. cx +dy Ây

On montre, en jouant sur les propriétés des homographies ou par un calcul courageux , que , dans le cas où une homographie h admet deux points fixes a et 13 , il existe une constante C

telle que h( z)-a =C z-a h( z)-/3 z -{3·

Dans le cas d ' un seul point fixe , cette relation devient :

1 = -

1-+ C' Si nous avons h( z)-a z -{3 ·

à étudier une suite récurrente du type u

11+ 1 = h(u

11), une méthode « astu­

cieuse» consiste alors à utiliser la suite

la suite intermédiaire u,, -a

V=--II un - /3 '

SYSTÈMES LINÉAIRES

1 ou v,, = -- pour un point fixe u,, -a

unique. On se ramène ainsi à étud ier le cas classique d'une suite géométrique, pour deux points fixes, ou arithmé­tique, pour un seul point fixe.

Nous venons , très rapidement, de mon­trer les coulisses du camouflage d ' une hyperbole en fonction homographique par un changement de repère et de l'étude des suites récurrentes données par une fonction homographjque. Nous n'avons présenté ici qu ' une légère introduction à la géométrie projective, dans le cas bien particulier de la droite projective réelle. Derrière ces méthodes classiques, enseignées comme des « recettes » à nombre d 'étudiants , se cachent de nombreux prolongements mathématiques. Poincaré et Klein ont ainsi introduit en géométrie non-euclidienne, dans un espace hyperbolique , la notion de fonc­tions automorphes, utilisées par Andrew Wiles pour la démonstration du célèbre théorème de Fermat. Or, une fonction automorphe f est invarian­te sous l'action d'un groupe d'auto­morphismes, comme celui constitué des fonctions homographiques :

!(az+b) =J(z). cz +d

On retrouve une relation semblable avec les formes modulaires qui véri­fient l' équation fonctionnelle

f ( az + b) = ( cz + d Y f ( z) , cz +d

pour des coefficients entiers et la condi­tion ad - b c = 1. Mais là , nous sortons de notre domaine de compétence !

F.L.

Hors-série n°44. Les matrices Tangente

Page 60: Les Matrices_ Une Representation Du Monde

En omorphismes orthogonauK Les isométries, c'est à dire les transforma­tions de l'espace affine euclidien A qui conser­vent les distances, sont fondamentales, puisqu'elles peuvent décrire les transforma­tions d'un solide indéformable. On peut citer parmi elles les translations, les rotations, les symétries orthogonales ... Les endomorphismes associés à ces isomé­tries, qui agissent sur l'espace vectoriel eucli­dien E associé à A, sont caractérisés par le fait qu'ils conservent les longueurs (les normes) des vecteurs. C'est ce qu'on appelle des endomorphismes orthogonaux. Ils sont aussi caractérisés par le fait de conserver les bases orthonormées. On montre que la matrice dans une base ortho­normée d'un endomorphisme orthogonal est une matrice orthogonale (voir dans cette page). Réciproquement, toute transformation de l'es­pace affine A associée à un endomorphisme orthogonal est une isométrie. Certaines iso­

métries, comme les rotations ou les symétries orthogonales, possèdent un (ou plusieurs) point fixes. Toute isométrie peut se décomposer en une transformation qui laisse un point fixe et une translation.

Le déterminant d'un endomorphisme ortho­gonal ( ou de sa matrice) vaut 1 s'il conserve

l'orientation ou -1 dans le cas contraire. En effet, c'est le coefficient multiplicateur de l'aire orientée d'un parallélogramme (ou du volume orienté d'un parallélépipède en dimension 3) lorsqu'on applique cet endomorphisme.

par Bertrand Hauchecorne

matrices orthogonales On appe ll e orthogonales les matrices inversibles te lles que leur transposée est égale à leur inverse. Elles vérifient donc 'M = M-1 ou , si l ' on préfère,

'M M = l où 1 dés igne la matri ce identité. Les colonnes de ces matrices forment une base ortho­

normée. Ell es sont donc les matri ces de passage d ' une base orthonormée à une autre; mais e ll es

représentent donc auss i les endomorphismes ortho­gonaux, ce qui ex plique leur importance. Comme on l'a vu, on peut affirmer que leur déterminant vaut so it 1, so it - 1.

L'ensemble des matrices orthogonales étant stable par produit et par inverse, il fo rme un groupe pour la multiplication : c'est le groupe orthogonal.

En dimens ion 2, une matrice o rthogonale est soit de la forme

(cosa

sma - sin a) cos a

auque l cas e lle représente la rotation d 'angle a,

soit de la forme

(c~sa sma

sin a ) - cos a

où elle est associée à une symétrie orthogonale par rapport à une droite.

Dans une base bien choisie, la matrice d ' une te ll e

symétri e sera ( 1 O). 0 - 1

En dimension 3, une matrice orthogonale est sem­blable à l' une des deux matri ces

( l O O \ (- 1

lo c~sa -sin a J ou l O O sma casa O

0

cos a

sin a

0 \

- sin a J . cos a

58 Tangente Hors-serie n°44. Les matrices

Page 61: Les Matrices_ Une Representation Du Monde
Page 62: Les Matrices_ Une Representation Du Monde

SAVOIRS par Norbert Verdier

Diagonaliser pour calculer les puissances d'une matrice Une matrice peut souvent être « réduite » , c'est-à-dire être exprimée sous la forme, plus simple, d 'une matrice diagonale ou d'une matrice triangulaire. Cette propriété permet alors de réaliser de nombreux calculs, parmi lesquels celui des puissances successives de la matrice.

A étant donnée, com­ment calculer la puissance énième de A , à savoir A"? Dans

certains cas, c'est simple! Par exemple, si A est diagonale ou triangulaire (voir en encadré) . Dans le cas général, le pro­blème devient difficile et la méthode « frontale » (multipl ier par elle-même la

Puissance d'une matrice diagonale Partons une matrice diagonale A = (: :) •

En la multipliant par elle-même, on obtient A 2 = ( ~ ;

2) •

En re-multipliant par A, il vient Al= ( al O 'J. \ 0 dl

{ a" 0, Cela suggère fortement que A" = 1 ) .

\ 0 d"

De fait , cette formule est correcte et se démontre faci­lement par r écurrence. É lever à la puissance n une matrice diagonale revient à élever à la puissance n chaque élément de la diagonale.

matrice et« deviner» la formule géné­rale de A") n 'est pas appropriée !

Il faut passer par un changement de base, et donc revenir intrinsèquement à ce qu 'est une matrice : la représentation d'une app lication linéaire. Autrement d it, A représente une application linéaire u, et c'est u qu ' il faut étudier. S 'i l existe une base dans laquelle la matrice de u est diagonale , c'est gagné !

En effet, si Pest la matrice de passage dans cette base (elle comporte les vec­teurs de la base en colonnes), alors on peut écrire D = p- 1 A P, où D , matrice

de u dans la« nouvelle» base , est dia­gonale. Cela revient à chercher une matrice diagonale D semblable à A. Par itération immédiate, il en résulte que A" = PD" P-1

• Or, on sait calculer D". Ainsi, si nous sommes capables de trou­ver une base de diagonalisation , alors de facto nous serons capables de calcu­ler A" . C'est encore le cas si la matrice semblable est triangulaire, sous forme de Jordan (voir en encadré).

60 Tangente Hors-série n°44. Les matrices

Page 63: Les Matrices_ Une Representation Du Monde

Ualeurs propres simples el diagonalisation

Comment diagonali ser ou trigonaliser une matrice? Pour ce faire, il faut intro­duire la notion de valeur propre. Pour diagonaliser la matrice A, il faut trouver des vecteur X (non nuls) tels que AX =À.X.Par linéarité, tous les vecteurs multiples de X vérifient le sys­

tème : le système a donc une infinité de solutions, ce qui revient à dire (grâce à la notion de déterminant) que det (A-À. I) = O. Cette quantité est appe­lée polynôme caractéristique de A (c 'est bien un polynôme en À).

Étudions ce qui se passe pour les matrices carrées d 'ordre 2. La matrice A s'écrit

(: :). Alors, det (A- ÀI) = 11.2 - À(a + b)

+ det A. C'est un polynôme du second degré. Ses racines réelles , s i elles exis­tent, sont les valeurs propres de A .

On appelle sous-espace propre associé à une valeur propre À l'ensemble des vecteurs X du plan tels que A X = À X. On note traditionnellement cet espace

EÀ. Si À est une valeur propre simple (c'est-à-dire une racine simple du poly­

nôme caractéristique), alors EÀ est tou­jours une droite. Si À est une valeur propre double, alors E1,. est une droite ou le plan tout entier. Il en résulte qu'il faut disso­cier le cas où il y a deux valeurs propres distinctes du cas où il n'a qu ' une valeur

propre double. Quand la matrice admet deux valeurs

propres simples distinctes, notées À etµ, EÀ est une droite, dont on note ü un vec­teur directeur. De même, E

1, est une

droite, dont on note v un vecteur direc­teur. Dans cette nouvelle base (ü, v), l'application linéaire associée a

. (À 0) pour matrice D = 0

µ .

RÉDUCTION DE MATRICES

Le tour est joué : nous avons diagona­li sé la matrice ! Il est ensuite aisé de calculer D" (voir en encadré), puis A"= PD" p- 1

Application à la matrice ( 1 -12). -2

det(A - Àl) = Il -À -2

1 -2 1-À

= ( 1 - À )2 - 4 = (À+ 1 )( À - 3) .

Ce polynôme de degré 2 possède deux racines, 3 et-1, qui sont les deux valeurs

propres de A. L'espace propre E3 asso­cié à 3 (et qui résulte de A X= 3X) se réduit à x + y = 0, c'est la deuxième bis­sectrice du plan. Un vecteur directeur en est îi = (1,-1). De même,E_1 se réduit à x - y = 0, soit x = y .C'est la première bissectrice , dont un vecteur directeur est ÏÏ=(l,l). Dans la nouvelle base (îi, v) ,f est repré­sentée par la matrice diagonale

D = (~ ~1). La matrice de passage P de la base usuelle (ï ,T) à la nouvelle base (ü, v) est

P = ( 1 1

) . On inverse P (qui est néces--1 1

sairement inversible, car les change­ments de base sont des bijections !) et on en déduit A".

le cas d'une ualeur propre multiple

Quand la matrice admet une valeur

propre double À, alors EÀ est soit une droite , soit un plan. Si c'est un plan, il est aisé de démontrer que dans le cas d ' une matrice carrée d'ordre 2, A= À I. L'endomorphisme associé est un endo­

morphisme scalaire. Et ses puissances se calculent aisément : A"= À.11 I. Si E1,. est une droite de vecteur directeur ü, On démontre quel 'on peut toujours construire une base (ü, v), avec v tel que

f (v) = ü + À v. Dans cette nouvelle

base , la matrice de f est J = ( ~ ~) .

Hors-série n° 44. Les matrices Tangente 61

Page 64: Les Matrices_ Une Representation Du Monde

SAVOIRS Diagonaliser ...

Le mathématicien Camille Jordan (1838-1922).

Puissance d'une matrice de Jordan Une matrice de Jordan est une matrice triangulaire simplifiée, dans la mesure où, en dehors des éléments de la diagonale, elle contient des blocs ayant la même valeur sur la diagonale, des « 1 » ou des « 0 » sur la « sur­diagonale », et des « 0 » partout ailleurs. Ce qui est intéressant, c'est que toute matrice « trigonalisable »

se réduit à une forme de Jordan.

Pour ce qui est des matrices carrées d'ordre 2,

une matrice de Jordan sera de la forme A= (: :) .

Pour calculer ses puissances, on procède comme dans le cas précédent :

A 2 {a 2 2a\ . 3 {a3 3a2\

= l O az) ' pms A = l O aJ )"

Cela conduit à proposer la formule

n { a" na·-· \ A = 1 J· \ 0 a"

Là encore, la formule se démontre par récurrence sur n.

C'est une matrice triangulaire. On dit (de

manière quelque peu familière) que l'on

a trigonalisé la matrice, sous une forme

particulière appelée forme (ou réduite) de Jordan. Le calcul de J" ne pose pas

de problèmes (voir en encadré) . Le cal­

cul de A" se déduit ensuite de la for­mule A" = P J" p- l .

Illustrons l' étude avec la matrice

det(A-Àl) =

1

3-À -1 1

1 1-À

=(3-À)( t -À)+ 1 =(À-2)2•

Il y a une seule valeur propre, 2. L' es­

pace propre E2 associé à 2 (et qui résulte

de A X= 2 X) se réduit à x =y. C'est la première bissectrice du plan, dont un

vecteu r directeur est ü = ( 1, 1 ). À la manière de Jordan, on cherche v tel que f (v) = ü + 2 v. Cela revient à résoudre le système

A(x) = ( 1) + 2(x), soit {3x -Y = 1 + 2x y I y x+y= l+ 2y

et donc x = l +y.On peut choisir y= 0

et x = 1 , on obtient alors un vecteur v

qui convient. Ainsi, v =(~).Le couple

(Ü, v) constitue une nouvelle base , dans

laquellef est représentée par la matrice

. I . (2 1) tnangu aire J = 0 2

.

La matrice de passage de la base cano­

nique (ï ,T) à la nouvelle base (ü , v) est

P=(: ~)· On inverse P, et on en déduit A".

Et si le polynôme caractéristique n'ad­

met pas de racine réelle ? Il n ' y a plus

de diagonalisation ni de trigonalisation

dans IR , mais le passage aux complexes

permet de retrouver des formes plus

simples . N.V.

62 Tangente Hors-série n°44. Les matrices

Page 65: Les Matrices_ Une Representation Du Monde

par François Lavallou

matrices en décomposition : la factorisation LU La « décomposition LU » correspond à la décom­

position d ' une matrice inversible en produit d'une

matrice triangulaire inférieure 1 (ou L pour « Low »,

« bas» en anglais), et d ' une matrice triangulaire supé­

rieure S (ou U pour « Up »,« haut ») . Cherchons

( 1 2 31 à décomposer ainsi la matrice A= l2 8 14).

3 14 34

On soustrait un multiple de la première ligne aux

li gnes suivantes pour faire di sparaître le terme de

la première colonne.

( 1 2 31 On obtient la matrice A

1'1

= l~ ; 2s5J.

Les coefficients multiplicateurs utilisés, 2 et 3 ici,

complètent la première colonne de la matrice L , sachant que la diagonale de cette matrice n 'est

constituée que de chiffres 1 . On continue avec la

deuxième li gne , et un coefficient 2 pour obtenir la

( 1 2 31 matrice Am = lo 4 8J = u.

0 0 9 Nous avons effectué la factorisation

( 1 0 01( 1 2 31

A=LxU=l! ~ ~Jl~ ~ :J qui permet de résoudre « économiquement » un

système d 'équations linéaires où le second membre

peut changer.

Soit par exemple à résoudre l'équation matriciel le

AX =LUX= B. Le vecteur Y= UX est solution du

système tri angul a ire infé rieur LY = B, qui se résout

rapidement par récurrence ascendante (on calcule

les termes un par un ,« de y 1 à y3 »). On détermine

alors X comme solution du système tri angulaire

supérieur UX = Y, qui se résout par récurrence des­

cendante(« de x3 à x 1 »). La complex ité algorith­

mique de cette méthode, inqépendante du second

membre B, est inférieure à celle de l' inversion par

le pivot de Gauss.

EN BREF

la factorisation QU La « décomposition QU » est de la forme

A = QU, où Q est une matrice orthogo­

nale , ses vecteurs colonnes constituent

une base orthonormée et donc 1QQ = 1,

et U est une matrice triangulaire supé­

rieure . On note souvent cette décompo­

sition QR. Il existe des décompositions

RQ, mais aussi QL et LQ, où Lest une

matrice triangulaire inférieure. Ces décom­

positions sont souvent utilisées pour déter­

miner l ' inverse généralisé d'une matrice

rectangulaire (décomposition SVD , voir

en page 75) .

Hors-série n° 44. Les matrices Tangent:e 63

Page 66: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

• e PIUO auss

Pour résoudre de petits systèmes d'équations, la méthode de Gauss a l'avantage d'être simple. Mais gare aux résultats obtenus si le système contient des paramètres ! En fait, la méthode du pivot présente surtout un intérêt historique.

~ un système d 'équa­tions d'inconnues x, y , z ... Nous échangeons les équations de

façon à placer en tête une équation com­portant la première inconnue (x). S'il n'en ex iste pas, l'inconnue peut tout simplement être supprimée puisqu'elle n'intervient pas dans le système. Le coefficient de x dans la première équa­tion est alors utilisé comme « pivot » pour détruire les coefficients de x dans les autres équations, au moyen de com­binaisons linéaires.

Déroulement des calculs

Pour préciser le procédé, considérons le système su ivant :

lx+2y +2z = 1,

2x+ y + 2z = 1,

3x +2y +3z = 1.

Nous notons les trois équations (1), (2) et (3) respectivement pour simplifier l' écriture. L'équation (2') = 2 x (1 )-(2) ,

soit 3y + 2z = 1, ne contient plus de terme en xet de même pour (3') = 3 x (l)-(3),

soit 4y + 3z = 2. Ces calculs montrent que si (x , y, z) est solution du système {(I), (2), (3)}, alors il est aussi solution de {(I) , (2 ' ) , (3 ' )}. La réciproque est vraie car (2) = 2 x ( 1) + (2 ' ) et (3) = 3 x (1) + (3') . En procédant ainsi , ce résultat est toujours valable. Nous obte­nons donc le système équivalent, c 'est­à-dire ayant la (ou les) même solution:

lx + 2y +2z- 1,

3y + 2z = 1, 4y +3z = 2.

À partir de la deuxième, le équations ne contiennent pas de termes en x . On recommence sur elles, avec la deuxième inconnue, autrement dit on considère (3") = 3 x (3')- 4 x (2') , soit z = 2. Nous obtenons un système triangulaire équiva lent au précédent , donc au pre­mier également :

lx + 2y + 2z =I ,

3y +2z =I ,

= = 2.

Ce système peut se résoudre en com­mençant par la dernière équation et en remontant jusqu'à la première. On peut

64 Tangente Hors-série n°44. Les matrices

Page 67: Les Matrices_ Une Representation Du Monde

également reproduire la première série d'opérations pour obtenir un système diagonal. Les combinaisons linéaires (2)-2 x (3) et ( l )-2 x (3) donnent :

lx+ 2y = -3,

3y = -3,

z = 2.

En div isant la deuxième équation par 3 pui s en la combinant à la première, le rés ultat s'ex prime sous la fo rme

l;: =:: z = 2,

qui est donc la so lution du

système in itial.

méthodes modernes

Cette méthode n'a plus qu ' un intérêt historique. Elle n'est pas la plus pra­tique dans un usage « à la mai n » car elle peut introd uire des coeffic ients plus compliqués que la méthode usuelle par combinaisons linéa ires, vue dans l'ar­ticle sur les systèmes linéa ires. D 'autre part, elle n'est pas adaptée aux systèmes avec paramètres. Dans ce cas, mieux vaut util iser la méthode de Cramer vue dans l'art icle sur le sens du détermi­nant , au moi ns pour savoir dans quels cas le système a une et une seule so lu­tion. En ce qui concerne l ' ut ili sation d' un ordinateur, e lle n'est efficace que pour des systèmes d'au plus une centaine d'équations à autant d' inconnues . Ceci peut sembler énorme, mais les appli ­cations des mathématiques comme la météorologie ou la phys ique nucléaire conduisent à des systèmes de plusieurs mi ll iers d'équations. On préfère alors des méthodes itérati ves co mme ce ll e de Gauss-Seidel.

Un nolvnôme annulateur Avec les notations de l'article, la matrice A peut s 'écrire A = 2U - 1. En élevant U au carré, on obtient : U2 = 3U. À partir de là, A2 = 4U2 + l - 4U, donc A2 = SU + l = 4A + 51. Cette égalité peut être écrite en mettant A en facteur: A(A- 41) = 51, c'est­à-dire AB= l où B = (1/ 5)(A- 41). On en déduit que A est inversible et que A- 1 = B, ce qui donne bien

( -3 2 2 \

- 1 I l J A = S 2 -3 2 .

2 2 -3

l 'article Systèmes linéaires et matrices. Ce sys tè me peut ê tre réso lu par la méthode de Gauss. Il est également pos­sible de résoudre n systèmes dont les seconds me mb res sont nul s sauf un terme qui est égal à 1. Précisons cela avec une matrice carrée d 'ordre 3.

( 1 2 2\

La matri ce A= l2 1 2J est inversible 2 2 1

pui sque, d 'après la règ le de Sarru s, son déterminant est égal à 1 + 8 + 8 - 4- 4- 4 = 5 ;t: O. Considérons le système d 'équation

(x\ ( 1\

Ax l; J = l ~J. En multipliant à gauche par

A- 1, la matrice inverse de A ,

(x\ (1\

nous obtenons l:J=A-1xl~J · ce qui

signifie que la solution est la première colonne de la matrice inverse A- 1

• Nous obtenons les autres co lonnes en utili-

( 0\ ( 0\ sant les seconds membres l ~ J et l ~ J. Les manipulations pour résoudre ces

Le ca lcu l de l ' in verse d'u ne matrice trois systèmes peuvent être regroupées. carrée d'ordre n correspond à la réso- On les reprend donc en parallè le sur lution d' un système linéaire avec n para- A et I jusqu 'à ce que A so it remplacé mètres (les coefficients d u second par I. La matrice I sera alors remplacée membre), comme nous l'avons dans par A- 1

Hors-série n• 44. Les matrices Tangente 65

Page 68: Les Matrices_ Une Representation Du Monde

( 1 2 0 1/5

l~ -3 0 -6/5 0 1 2/5

( 1 1

et enfin l ~ 1 0

Le pivot de Gauss

On part donc de la matrice (A I) :

( 1 2 2

l~ 1 2

2 1

1 0 0\

~ ~ ~J et, comme vu précédemment, on retranche

deux fois la première à la deuxième et à la troi s ième .

( 1 2 2

On obtient l ~ =~ =~ puis, à l'étape sui vante,

1 0 0\

-2 1 o1J

-2 0

( 1 2 2 1 0 O\

lo -3 -2 -2 1 o,J· 0 0 -5/3 -2/3 -2/3

On multiplie alors la dernière ligne par -3/ 5, d 'où:

( 1 2 2

lo -3 -2

0 0 1

1 0 0 \

-2 1 0 J. 2/5 2/5 -3/5

On reprend ensuite dans l 'autre sens : on obtient

-4/5 6/5 \ ( 1 2 0 1/5 -4/5 6/5 \ 9/5 -6/5J·l0 1 0 2/5 -3/5 2/5 J 2/5 -3/5 0 0 1 2/5 2/5 -3/5

0 -3/5 2/5 2/5 \ 0 2/5 -3/5 2/5 J ,ce qui signifie que 1 2/5 2/5 -3/5

(-3 2 2\

A - 1 =il~ -3 2 J. 2 -3

Ce résultat est facile à vérifier en mul­tipliant A par la matrice trouvée. La forme de la matrice trouvée donne l'idée d ' une autre méthode en introduisant la

( 1 1 1\

matrice u=ll 1 'J (voirl 'encadréUn 1 1 1

polynôme annulateur).

Portrait de Carl Friedrich Gauss (1777-1855) réalisé en 1840

par Christian Albrecht Jensen

(1792-1870).

La même méthode est utili sable pour calculer le rang d ' une matrice car les

opérations considérées conservent le rang.

( 2 5 4 \

Appliquons-le sur la matrice l }2 ! -

52 J.

La suite des transformations donne

(2 4 \ (2 5 4 \

l~ -18

-~8 J puis l ~ - 18 -~8 J '

9 0

qui est de rang 2 puisque les deux pre-mières lignes sont indépendantes.

H.L.

66 Tangente Hors-série n°44. Les matrices

Page 69: Les Matrices_ Une Representation Du Monde

par François Lavallou

Décomposition de Crout-Cholesky La « décomposition de Crout » complète la décom­position LU (voir en page 63) pour le cas d ' une matrice symétrique . Considérons la décomposition LU de la matrice

2

8

3 \

14J , 14 34

et « divisons » la matrice U par sa diagonale

( 1 0 o, ( 1 2 3\

NousobtenonsU=l~ ~ ~Jl~ ~ !) qui nous donne directement la décomposition de Crout A= LD 1L. Comme la matrice A est de plus définie positive (et admet donc des valeurs propres réelles posi ­tives) , nous pouvons extraire une « racine carrée » de la matrice diagonale D.

( 1 0 o, En posant B =Lx Jo = l ! : ~J ,

nous obtenons la décomposition dite de Cholesky

EN BREF

lanczos

Cornélius Lanczos (1893-1974) est un mathématicien et physicien hongrois assez méconnu. Il découvrit une solu­tion exacte de la théorie de la relativité générale, connue maintenant sous le nom de poussières de Van Stockum, et il éta­blit les bases de la transformée de Fou­rier rapide (FFT) vingt-trois ans avant James William Cooley et John Wilder Tukey. On donna tout de même son nom à un potentiel tenseur en relativité et à une approximation de la fonction gamma. Il développa de nombreuses méthodes numériques, dont la célèbre méthode du gradient conjugué (qui permet une réso­lution itérative des systèmes d'équations linéaires) , l 'approximation o (qui éli­mine les phénomène de Gibbs, à savoir les oscillations des méthodes de Fou­rier) , et un algorithme (dit de Lanczos) qui permet , itérativement, de détermi­ner les valeurs propres et vecteurs propres d ' une matrice carrée ou la décomposi­tion SVD d'une matrice rectangulaire, par­ticulièrement pratique pour les très grandes matrices .

Hors-série n• 44. Les matrices Tc:a.ngente

Page 70: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

La relation de similitude est au centre de la réduction des matrices, ce qui importe car deux objets similaires ont des propriétés communes. Au premier abord, cette notion de similitude semble se confondre avec la notion d'équivalence. Elle est pourtant bien plus difficile à appréhender, et bien plus riche.

La similitude des matrices concerne les matrices carrées de même dimension. Elle a donc un champ

d'application plus restreint que I 'équi­valence, qui concerne les matrices de même dimension en général (rectangu­laires ou carrées). Pour fixer les idées, considérons A et B des matrices carrées d'ordre trois . Elles sont dites semblables s'il existe une matrice carrée P d'ordre trois inversible telle que A P = PB. En algèbre linéaire, les formu les de chan­gement de base montrent que deux matrices sont semblables si elles repré­sentent le même endomorphisme. La relation définissant la similitude peut également s'écrire A= PB P-1, ce qui implique que la seule matrice semblable à la matrice identité est elle-même.

Similitude et équivalence

La similitude implique l'équivalence , mais la réciproque est fausse. Par exemple, puisqu'elles sont toutes deux de rang 1 ,

les matrices A = (: :) et B = ( ~ ~)

sont équivalentes. Si elles sont sem­blables, il existe une matrice inversible

P= (: !) vérifiantAP= PB ,

c'est-à-dire(a+ c b+d)=(a 00),

a+c b+d c

ce qui implique a= c =O ... et contre­dit ainsi que P soit inversible. Les matrices A et B ne sont donc pas semblables. Les matrices considérées peuvent être à coefficients rationnels, réels ou com­plexes. Dans tous les cas, les matrices inversibles peuvent être considérées à coefficients dans le même corps. Plus précisément, si deux matrices A et B à coefficients rationnels sont semblables, il existe une matrice inversible à coef­ficients rationnels P telle que A P =PB. De même, si elles sont réelles, la matrice inversible P peut être considérée à coef­ficients réels (voir l 'encadré Perma­nence de la similitude pour une démonstration).

68 Tangente Hors-série n°44. Les matrices

Page 71: Les Matrices_ Une Representation Du Monde

Oiagonalisation et similitude

La diagonalisation des matrices peut se

lire en termes de simi litude: une matrice

diagonalisable est une matrice semblable

à une matrice diagonale. On remarque de

suite que cette notion dépend du corps

dans lequel on se place . Une matrice

réelle peut être diagonalisable dans le

corps des complexes sans l'être dans

celui des réels . Pour s'en convaincre, il

suffit de considérer la matrice ( O 1),

-1 0

dont le polynôme caractéristique

1

-x 1

1 =x2 + 1 n'a pas de racines réelles. -1 -X

Elle n'est donc pas diagonalisable en tant

que matrice réelle . En revanche, le même

polynôme a deux racines complexes dis­

tinctes (± i), la matrice est donc diago­

nalisable en tant que matrice complexe.

Combiné au résultat précédent, cette

remarque a un résultat inattendu.

Considérons les deux matrices ( O 1)

-1 0

RÉDUCTION DE MATRICES

La notion de similitude dépasse le monde des matrices et correspond plus généralement à un ensemble

de caractéristiques partagées, comme chez ce couple de martins-pêcheurs.

Permanence de la similitude Pour simplifier, considérons deux matrices carrées

(a b\ (a' b'\ d'ordre deux, A= 1 ) et B = 1 ) , à coefficients \C d \C' d'

rationnels. On les suppose semblables en tant que matrices réelles, c'est-à-dire qu'il existe une matrice

P = (; ;) inversible (soit xt - yz * o ), à coefficients

réels, telle que AP = PB. Un calcul matriciel fastidieux mais simple montre que l'existence de la matrice réelle P correspond à l'exis­tence d'une solution vérifiant xt - yz * o à un sys­tème homogène de quatre équations à quatre inconnues (x, y, z, t). Par hypothèse, ce système a des solutions non nulles, il est donc de rang au plus 3. Les solutions s'expriment ainsi rationnellement en fonction des données, elles sont donc rationnelles, ce qui prouve le résultat.

Hors-série n° 44. Les matrices Tangente 69

Page 72: Les Matrices_ Une Representation Du Monde

SAVOIRS Similitude et diagonalisation

et ( 1 2

) . Elles ont le même polynôme -1 -1

caractéristique, qui possède deux racines complexes distinctes (± i) ; ces matrices

sont donc diagonalisables en tant que matrices complexes. Elles sont sem­blables à la même matrice diagonale

( i 0

.) , elles sont donc semblables entre 0 -1

elles en tant que matrices complexes. La permanence de la similitude implique qu 'elles sont semblables en tant que matrices réelles.

Nous avons ainsi démontré que les deux

matrices ( O 1) et (

1 2 ) sont sem-

-1 0 -1 -1

blables comme matrices réelles, et même comme matrices rationnelles en vertu du même théorème.

Un certain nombre de notions sont inva­riantes si l'on passe d'une matrice à une matrice qui lui est semblable. Les plus simples sont le rang, la trace, le déter­

minant et le polynôme caractéristique. Malheureusement , dans tous ces cas, la réciproque est fausse. Ces quatre notions sont donc seulement utiles pour

montrer que deux matrices ne sont pas semblables. Par exemple, les deux matrices

( ~ :) et ( ~ ~) ont même rang (2), même

trace (2), même déterminant (1), même

polynôme caractéristique (x2 - 2x + 1) mais ne sont pas semblables. En effet, la seule matrice semblable à la matrice identité est elle-même.

Densité des matrices diagonalisables

Comme il est établi dans l'artic le Dia­gonaliser pour calculer les puissances d'une matrice, le cas le plus simple où l'on peut affirmer qu'une matrice est

diagonalisable est celui où son poly­nôme caractéristique n'a que des racines

simples. Considérons donc une matrice

carrée complexe d'ordre deux A= (: !) , le discriminant de son polynôme carac­téristique est alors ô =(a+ d)2 - 4(ad - be). Si cette quantité est non nulle, la matrice A est diagonalisable en tant que matrice complexe. Si elle est nulle , il suffit de modifier l' un des paramètres a, b, cou d de manière infinitésimale pour obte­nir une quantité non nulle. Ainsi, en modifiant la matrice A de manière infi­nitésimale, on obtient une matrice dia­gonalisable. On résume ce résultat en disant que 1 'ensemble des matrices dia­

gonalisables est dense dans l'ensemble des matrices . De même , on démontre que, si l'on choisit une matrice aléatoi­rement , elle est presque sûrement dia­gonalisable ... ce qui signifie que la probabilité qu 'elle soi t diagonalisab le

est égale à 1. Ces résultats permettent de généraliser des résultats vrais pour les matrices diagonales à toutes les matrices, par exemple, le théorème de Cayley­Hamilton selon lequel toute matrice annule son polynôme caractéristique. Pour simplifier l'écriture , nous consi­dérons des matrices carrées d'ordre trois et une matrice diagonale D dont nous notons a, b etc les éléments de la dia­gonale. Son polynôme caractéristique est donc P(x) = (a - x)(b - x) (c - x).

Un calcul simple montre alors que P(D)

est la matrice diagonale dont les élé­ments de la diagonale sont P(a), P(b) et P(c), qui sont tous nul s, donc P(D) est la matrice nulle .

Nous opérons a lors deux généra li sa­

tions. La première générali sation est de nature algébrique, elle permet d'établir le théorème pour les matrices diagona­li sables. Si A est diagonalisable, il existe une matrice inversib le Q et une matrice diagonale D telles que A= Q D Q- 1

70 Tangente Hors-série n°44. Les matrices

Page 73: Les Matrices_ Une Representation Du Monde

Invariance de la trace La trace d'une matrice carrée est la somme des éléments de sa diagonale.

La trace de A = (: ! ) est donc égale à tr(A) = a + d.

Considérons alors une autre matrice

P- ( a fJ\ -lr o)· La trace de A Pest aa + by + c/3 + do. En échangeant les lettres latines et les lettres grecques, on remarque que tr(A P) = tr(P A) . Cette égalité étant vraie pour toute matrice A, on peut l ' appliquer à P-1 A si Pest supposée inversible . Cela donne : tr[(P-1 A) P] = tr[P (P-1 A)], qui implique qu ' une matrice a la même trace que toute matrice qui lui est semblable.

Une matrice diagonalisable est une matrice semblable à une matrice diagonale.

Les matrices A et D ont même poly­nôme caractéri stique P et P(A) = Q P(D) Q- 1 = O.

La seconde générali sation est de nature analytique, e t utili se la densité des matrices diagonali sables . Si A est une matrice non di ago nali sable, il ex iste une suite (A),, de matrices diagonali ­sables de limite A. On démontre que la suite de po lynômes caractéri stiques (P,,)

11 de A,, converge vers le polynôme

caractéri stique P de A, puis que P,,(A,,), qui est nul , converge vers P(A) ... qui est donc nul également.

H.L.

RÉDUCTION DE MATRICES

Trace du passage de l'eau sur un rocher

à Capitol Reef (États-Unis).

Hors-série n° 44. Les matrices Tangente 71

Page 74: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

Diagonalisation, géométrie et algèbre Les matrices carrées peuvent être diagonalisables ou ne pas l'être. La question est liée à la dimension des espaces propres, une question de nature géométrique. Elle est également liée à l'annulation de polynômes, une question de nature algébrique.

C r A une matrice carrée

d ' ordre troi s, pour simplifie r. Dans une base del 'espace, il lui

correspond un endomorphisme f. Si A est diagonalisable , c'est-à-dire semblable à une matrice diagonale D , alorsf a pour matrice D dans une base (i,j, k). Soit , si a, b et c sont les éléments de la diago­nale de D :f(i) = ai,f(;) = bj etf(k) = ck. Cela donne une caractérisation géomé­trique de l'endomorphisme f.

Image d'un vecteur par un endomorphisme diagonalisable.

Tout vecteur V de l'espace se décom­pose en V= xi+ yj + zk sur la base donc, par linéarité:

f( V) = xf(i) + yf(;) + zf(k)

= axi + byj + czk ,

ce qui a une signification géométrique (voir la fi gure ci-contre).

Dimensions des espaces propres

Selon que les valeurs propres a, b et c sont di stinctes ou pas , les espaces propres sont de dimension 1, 2 ou 3. Dans tous les cas, la somme de leurs dimensions est éga le à 3, la dimension de l'espace. La réciproque est vraie : si la somme des dimensions des espaces propres d'une matrice carrée est égale à sa dimension, e lle est diagonali sable . On peut simpli ­fier cette caractéri sation géométrique en introdui sant la notion de multiplicité d ' une valeur propre, comme multipli­cité en tant que zéro du polynôme carac-

72 Tangente Hors-série n°44. Les matrices

Page 75: Les Matrices_ Une Representation Du Monde

téris tique. On démontre alors qu ' une matrice est diagonalisable sur le corps des complexes si les espaces propres asso­ciés aux valeurs propres multiples sont de dimensions égales à cette mul tipli ­cité . Pour qu 'elle soit di agonalisable sur le corps des réels, il suffit de plus que tous les zéros du polynôme caractéri stique so ient réels. Prenons l'exemple de la matrice

(- 1

A=l~ 2

- 1

2

2\

2 J. - 1

Il est possible de calculer son polynôme caracté ri stique pour la diagona li ser, mais on peut éga lement s'en passer. En effet , il suffit de changer les éléments de la diagonale (égaux à - 1) en 2 pour obtenir une matrice de rang 1 . Autrement dit , A + 31 est une matrice de rang l . Le théorème du rang nous permet alors d'affirmer que son noyau est de dimen­sion 2, ce qu i signifie que -3 est une valeur propre de A et que l'espace propre associé est un plan . La trace de A est égale à-3, on en conclut que 3 est également valeur propre, ce qu ' il est fac ile de véri­fie r en calculant le rang de A - 31, qui est égal à 2. La matrice A est donc dia­gonalisable, semblable à la matrice dia­gonale dont les éléments diagonaux sont respecti vement -3, -3, 3.

Restons sur cet exemple. D'après le théo­rème de Cayley-Hamilton, A est annu­lée par son polynôme caractéri stique (3 + x)2(3-x).

Autrement dit : (A + 31)2(A- 31) = O. En fa it , il est aisé de vérifier la relation plus forte (A + 3l)(A-31) =Ü. De manière générale, si A est di agonalisable, elle est annulée par un polynôme n'ayant que des racines simples: les valeurs propres comptées chacune une seule fois (voir l'en-

RÉDUCTION DE MATRICES

Calcul d'un nolvnôme d'une mauice diagonale

Soit D une matrice diagonale dont les éléments de la diagonale sont res­pectivement a , b ... Un calcul simple montre que D2 est encore diagonale et que les éléments de sa diagonale sont respectivement a2, b2

.• . Le raisonne­ment peut être itéré, et on obtient de façon générale (p est un entier) : IY' est diagonale et les éléments de sa dia­gonale sont respectivement aP, bP ... Un polynôme Pest une combinaison linaire de puissances x.P, donc P(D) est la même combinaison linéaire de puissances IY'. La matrice P(D) est donc diagonale et les éléments de sa diagonale sont P(a), P(b) .. .

On en déduit que si P est un polynôme annulant chacun des éléments de la diagonale de D, alors P(D) est la matrice nulle. Si A est une matrice diagonali­sable, il existe une matrice inversible Q et une matrice diagonale D telles que A= Q DQ-1. Le même type de rai­sonnement que précédemment per­met de prouver successivement :

A2 = QD2Q-1, A3 = QD3Q-1 ...

P(A) = QP(D)Q-1,

où P est un polynôme. Le résultat pré­cédent se généralise donc aux matrices diagonalisables.

cadré Calcul d'un polynôme d'une mntrice

d iagonale). De façon plus étonnante, la réciproque est vraie : si une matrice est annulée par un polynôme n'ayant que des racines simples, alors elle est dia­gonalisable. Ses valeurs propres fo nt alors partie des racines du polynôme. On peut en proposer une démonstration relati vement simple si le polynôme est

Hors-série n• 44. Les matrices Tangente 73

Page 76: Les Matrices_ Une Representation Du Monde

SAVOIRS Diagonalisation, géométrie ...

Polvnôme annulateur et diagonalisation Supposons que la matrice carrée A d 'ordre 3 vérifie l'équa­tion (A - al)(A - bl) = 0 , où a"# b. D ' après cette relation , l ' image de A - bl est incluse dans le noyau de A - al. Or, le théorème du rang permet d ' affirmer que la dimen­sion de l ' image de A - bl est égale à 3 moins la dimension du noyau de A - bl.

L' inclusion annoncée plus haut implique donc l ' inégalité : 3 - dim [Ker(A- hl)] ~ dim [Ker(A- al)],

que l'on peut écrire : dim [Ker(A- al)]+ dim [Ker(A- hl)] i!:: 3.

Si a et b sont valeurs propres de A , les deux noyaux ci­dessus sont les espaces propres associés. La caractérisation géométrique vue plus haut implique alors que A est diagonalisable .

Si a n'est pas valeur propre , alors dim [Ker(A - al)]= 0 et donc dim [Ker(A - bl)] ~ 3, ce qui implique A= bl. A est donc diagonalisable , et de même si b n'est pas valeur propre.

de degré 2 ( voi r l 'encadré Polynôme annulateur et diagonalisation). Dans le cas de la matrice A précédente, le simple constat (A+ 31) (A - 31) = 0 suffit donc pour affirmer qu 'elle est diagonali sable. Considérons la matrice

(a-b-c

A = l 2b 2c

2a

b-a - c

2c

o ù les coeffic ients a , b e t c sont des nombres réels. Est-elle di agonalisable?

Nous di sposons de deux méthodes pour

attaquer la question : géométrique ou algébrique. La présence des trois para­mètres rend le calcul du polynôme carac­téristique délicat , il vaut mieux essayer de jouer sur les particul arités de cette matrice. Nous remarquons alors que, si

nous ajouto ns la somme a + b + c à chaque terme de la diagonale, nous obte­nons une matrice dont les é léments de la première ligne sont tous égaux à 2a , ceux de la seconde, à 2b et ceux de la troi sième , à 2c . Autrement dit , chaque ligne est colinéaire au vecteur colonne ( 1 , 1, 1). L e ra ng de la m at rice A+ (a + b + c) 1 est donc égal à 1, sauf si a = b = c = 0 , auquel cas il est nul.

Excluons donc ce dernier cas . Le nombre -(a + b + c) est valeur propre, et l'espace propre qui lui est associé est un plan. La trace de A est égale à -(a + b + c), donc a + b + c est auss i valeur propre .

Pour conclure, il suffi t de calculer le pro­duit [A+ (a + b + c) I] [A-(a + b + c) I], c'est-à-dire A 2 .

Nous trouvons: A2 =(a + b + c)2 l ,

ce qui montre que le produit ci-dessus est nul. La matrice annule donc le polynôme x2-(a + b + c)2, qui n'a que des raci nes simples à la cond ition que a + b + c so it différent de O. Dans ce cas, A est diago­nalisable. Si a + b + c = 0, la seule valeur propre de A est 0, A n'est donc diago­na li sable qu 'au cas où e ll e est null e, c'est-à-dire si a= b = c = O.

En résumé, la matri ce donnée est dia­gonalisable si et seulement si a + b + c "# 0 ou a = b = c = O.

H.L.

74 Ta.ngente Hors-série n°44. Les matrices

Page 77: Les Matrices_ Une Representation Du Monde

par François Lavallou EN BREF

La décomposition d'une matrice en valeurs singulières (ou SVD pour singular value decomposition) est un outil de factorisation de matrices rectangulaires très utilisé en théorie du signal. Pour une matrice rectangulaire A possédant m lignes et n colonnes, la décomposition en valeurs singulières correspond à la factorisation A= M X I X tN, où M est une matrice carré de taille m, N est une matrice carrée de taille n, M et N sont unitaires (M tM = l m et N tN = In) et I est une matrice rectangulaire (de même taille que A) dont les seuls éléments non nuls sont « diagonaux » (à savoir les termes I; i pour i = 1.. . min(m, n)) et positifs. Les valeurs « diagonales » de I sont appelées les valeurs singulières.

Un problème récurent du traitement du signal est de déterminer n paramètres d'un système linéaire, de matrice A, dont on effectue m mesures (avec m > n), dans l'espoir, justifié, d'obtenir une meilleure précision. Nous avons alors à résoudre l'équation Y = AX, avec Y carrée de taille m, X carrée de taille n, et A rectangulaire ayant m lignes et n colonnes. Si la matrice A était carrée, tout « tournerait rond » et il suffirait d'en calculer la matrice inverse. Alors rendons-la carrée en la multipliant par sa transpo­sée ! Nous avons tA Y = (tA A)X, et par suite X = (tA A)- 1 tA Y, si la matrice B = tA A est inversible. Dans ce cas, la matrice A* = (tA A)- 1 tA est l'inverse généralisé, ou pseudo­inverse, de la matrice A.

Dans la pratique, les mesures sont bruitées : Y = AX + b. En cherchant un ensemble de paramètres X qui minimise l'écart aux données, c'est-à-dire tel que IIY -AXII soit minimum, on trouve la même solution ! La solution des moindres carrés est l'inverse généralisé. En utilisant la décomposition SVD de la matrice A, on obtient une expression simple, et surtout pratique, de cet inverse généralisé : A* = N x I,+ x tM, où I,+ correspond à la transposée de I dans laquelle tous les coefficients non nuls sont remplacés par leur inverse. Nous avons ainsi l'expression d'un inverse généralisé (non unique) dans le cas où la matrice B = tA A est non inversible.

Il arrive souvent qu'un problème soit mal posé, c'est-à-dire que l'inverse, ou l'inverse généralisé, même s'ils existent, amplifient le bruit. Ceci est dû à une valeur singulière proche de zéro dont l'inverse devient très (trop) grand. Il suffit alors, dans I +, de rendre nulle la valeur correspondante, ce qui revient à annuler cette valeur singulière dans I. On pourrait aussi translater cette valeur d'une quantité qui rende son inverse « acceptable » . Il s'agit là d'un filtrage , ce qui nous conduit à la théorie spectrale, domaine bien trop vaste pour être abordé ici.

Hors-série n°44. Les matrices Tangente

Page 78: Les Matrices_ Une Representation Du Monde

SAVOIRS par Hervé Lehning

la trigonalisation Quand une matrice n'est pas diagonalisable, c'est-à-dire semblable à une matrice diagonale, peut-on encore la réduire à une matrice « simple » ? La réponse tient dans l'utilisation du corps des complexes et dans la trigonalisation.

Co ns idé rons une matrice com­plexe. Si son polynôme caracté­ri s tique n 'a que des rac ines

simples, alors elle est diagonalisable. Si

ce n 'est pas le cas, il se peut qu 'elle le soit quand même ... si l'espace propre correspondant à chaque valeur propre

multiple est de dimension égale à son ordre de multipl icité. Dans la suite, nous

considérons donc les cas, relativement rares, où cette propriété est fausse.

Cas de non- diagonalisation

Considérons la matrice A= ( ~ =~) etf

l'endomorphisme associé dans une base

Fleurs trigonales dans le désert du Namib.

du plan, association qui sera systémati­

quement fa ite dans la suite. Son poly­nôme caractéristique est égal à

I

J- x -2

1 = x 2 - 2x + 1 , qui a une 2 - 1-x

racine double, 1. La seule valeur propre de A (et de f) est donc 1. S i A était dia­gonalisable, elle serait semblable, donc égale, à l 'identité, puisque p 1p- 1 = 1. Bien entendu, ce n 'est pas le cas. L'es­

pace propre associé à I est de dimen­s ion 1, ce que l 'on peut vérifier en

cons1derant le rang de A - I = , . , (2 -2) 2 -2

qui est bien égal à 1. Cette matrice per­

met de trouver un vecteur propre de/: le vecteur i de coordonnées ( 1 , 1). Autre­ment dit,f(i) = i. Considérons alors un vecteur j non coli­

néaire à i, celu i de coordonnées ( 1, 0) pour fi xer les idées. Le système (i, j) définit une base du plan. Pour détermi­ner la matrice def dans cette base, il suf­

fit de calculer f(J) dans la base (i ,J). Dans la base initiale, les coordonnées de f(J)

sont fournies par le produit A ( ~) = ( ~ ) .

Pour déterminer celles dans la base (i,j) ,

76 Tangente Hors-série n°44. Les matrices

Page 79: Les Matrices_ Une Representation Du Monde

il suffit de résoudre l'équation

( ~) = x(:) +y(~) .. . ce qui est facile. On

trouve: x = 2 et y= l. La matrice def

dans la base (i, j) est donc B = ( ~ ~) .

La matrice B est trigonale, supérieure en l' occurrence. Si on change l'ordre des vecteurs, c'est-à-dire si on écrit la matrice de f dans la base U, i) , on obtient

la matrice B' = ( ~ ~) , qui est trigonale

inférieure . Dans la suite de cet article, on opte pour les matrices trigonales

supérieures. On peut penser que ces résultats tien­nent à un choix heureux du vecteur j. Il n ' en est rien : tout autre vecteur k non colinéaire à i aurait donné une matrice trigonale . En effet,f(k) s 'écrit sur la

base (i, k), soitf(k) =ai+ bk . La matrice

de f dans cette base est C = ( ~ :) .

En calculant le polynôme caractéris­tique de f , on trouve ( 1 - x)(b - x), soit

x2 - 2x + 1, d'où l'on déduit que b est égal à 1. Le coefficient a est non nul, sinon f serait diagonalisable . En remplaçant k par k / a, on obtient une matrice plus

« simple » : D = ( ~ : ) , qui est également

la matrice def dans la base (i,j/2). Ce résultat se traduit de manière matri­cielle par: A= PD P-1

, où Pest la matrice de passage de la base initiale à (i,j/2),

. p (0 1) L . . soit : = . a matnce inverse est 2 -2

P-1 = (0 1

) , ce qui permet de vérifier 2 -2

l'égalité précédente. Ce cas est général. Autrement dit, toute matrice carrée d 'ordre deux non diago­nalisable, de valeur propre À. , est semblable

à la matrice ( ~ ~) . Cette forme est dite

de Jordan (voir l' encadré Trigonalisa­

tion de Jordan).

Vecteur propre et plan stable Considérons une matrice A carrée d'ordre 3 et/ son endo­morphisme associé dans une base de l'espace. la matrice trans­posée tA a au moins une valeur propre A, et donc un vecteur

(a\ propre associé V= l: J :f:. o pour lequel tAV = AV soit,

en transposant, ty A= A tv. Soit M un point de coordonnées (x, y, z) appartenant au plan Q d'équation ax + by + cz = o, ce que l'on peut écrire sous forme matricielle:

(x\

tvx = o où X = l ! J . Le point/ (M) correspond à la matrice

colonne AX, et : tv(AX) = (tv A)X = (A tv)X = A (tvx) = o. Ainsi, l'image par f de tout point de Q appartient à Q, ce qui prouve l'existence d'un plan stable parf.

De même que la diagonalisation, la tri­

gonalisation permet de calculer des puis­sances de matrices. Pour le montrer, prenons d'abord l' exemple de la matrice A . Puisque A= PD p- l, il vient A2 = pop- l PDP-1 = PD2 p- 'car

p- l P = I. En itérant, on montre que

A3 = PD3P- 1 ••• et, de façon générale, An= ponp-1 pour tout entier n. Un cal­

cul simple fournit :

0 2=(~ ~),03=(~ ~), ... IY'=(~ ~)·

On en déduit que

An=(' 1/ 2)(1 n)(O 1) uis ueAn=(2n+I -2n) 1 0 0 1 2 -2 'p q 2n 1- 2n ·

Considérons maintenant une matrice A carrée complexe d ' ordre 3 et f son endomorphisme associé dans une base de l ' espace . En utilisant la notion de valeur propre sur la matrice transposée, on montre qu ' il existe un plan Q stable

par f, c'est-à-dire tel quef (Q) soit inclus dans Q (voir l'encadré Vecteur propre et plan stable) . Grâce à ce résultat, on passe de la dimension 2 à la dimension 3 et au-delà . On considère une base (i ,j) de Q dans laquelle la matrice def(ou plus

Hors-série n• 44. Les matrices Ta.ngent:e

Page 80: Les Matrices_ Une Representation Du Monde

SAVOIRS La trigonalisation

Trigonalisation de Jordan On appelle bloc de Jordan une matrice dont tous les éléments sont nuls saufla diagonale principale, sur laquelle tous les nombres sont égaux, et la diagonale immédiatement supé­rieure, sur laquelle tous les nombres sont égaux à 1.

On démontre que toute matrice complexe peut être trigo­nalisée sous la forme d'une matrice diagonale par blocs dont les blocs sont de Jordan. En dimension 2, cela donne une seule forme. En dimension 3, cela en donne deux : ()... 1 o\ ().. 1 o\ l ~ ~ :J (où À etµ peuvent être égaux) et l ~ ~ :J.

Camille Jordan (1838-1922)

est à l'origine des matrices portant son nom ..... mais pas de la méthode

de Gauss-Jordan qui est due à un homonyme,

Wilhelm Jordan.

précisément de la restriction de f à Q) est trigonale supérieure, soit de la forme

( ~ :) . En complétant cette base par un

vecteur k n'appartenant pas à P, on obtient une base (i,j, k) dans laquelle la matrice

( À E p\ de f est l O µ aJ . En calculant son

Ü Ü V

polynôme caractéristique, on montre que

les éléments de la diagonale sont les valeurs propres de A comptées avec leurs ordres de multiplicité. Toute matrice car­rée d'ordre 3 est donc trigonalisable.

Pratique en dimension trois

La pratique de la trigonalisation en dimen­sion 3 est plus compl iquée qu'en dimen­s ion 2 car plusieurs cas peuvent se présenter, a priori : • La matrice A peut avoir une valeur propre simple et une double, mais d 'es­pace propre associé de dimension 1 ; • La matrice A peut avoir une valeur propre triple, d'espace propre associé de dimension 1 ou 2. Le premier cas est similaire à celui des matrices d'ordre 2.

( 3 1

La matrice l-4 -1 4 -8

en est un

exemple. La valeur propre -2 et un vec­teur propre associé i de coordonnées (0, 0, 1) sont en évidence. L'autre valeur

propre est double , et égale à 1. L'espace propre associé est de dimension 1, engen­dré par j de coordonnées (3, -6, 20). Il suffit de compléter par un vecteur k quelconque (mais indépendant dei et)) pour trigonaliser la matrice donnée. On peut cependant s'inspirer de la forme de Jordan (voir l'encadré) en cherchant k tel que f(k) = k + j , ce qui revient à

résoudre le système . {

2x+ y= 3

4x-8y-3z =20

On trouve le vecteur de coordonnées (], 1 , -8) . La matrice trigonale cherchée

(-2 0 0\

est l O 1 1 J . 0 0 1

Le second cas est plus délicat. Prenons l'exemple de la matrice ( 2 0 1 \

l-1 1 -IJ . La seule va leur propre est 1 2 0

1, d 'espace propre associé de dimension 1, de vecteur propre de coordonnées (1,-1,-1). En s'inspirant de la forme

( 1 1 0\

de Jordan lo 1 1 J , on cherche troi s 0 0 1

vecteurs i,jet k tels quef(i) = i,f(j) = i + j etf(k) = k + j. En lisant cette liste « à l'en­vers », on obtient) et i en fonction de k: j = (f - id)(k) et i = (f - id)()), ce qui donne i = (f- id)2(k).

La conditionf(i) = i devient if- id)3(k) = O. Or, un calcul simple montre que (f- id)3 = O. Le choix de k est donc libre de cette contrainte. En prenant k de coor­données ( 1, 0 , 0) , on trouve j de coor­données ( 1 , - 1 , 1) et i de coordonnées (2, -2, -2). La matrice donnée est donc bien semblable à la matrice de Jordan ci-dessus.

H .. L.

Tangente Hors-série n°44. Les matrices

Page 81: Les Matrices_ Une Representation Du Monde

par Bertrand Hauchecorne EN BREF

e et produit de matrices diagonalisables La somme de deux matrices diagonales est une matrice diagonale. Il en est de même du produit. Cependant, ces propriétés deviennent fausses pour des matrices diagonalisables, comme le montre les exemples suivants.

Posons A=(1 1

)et B= (-l O). Le polynôme caractéristique de A est P A(X) = (X - 1)(X - 2). 0 2 0 - 2

Il possède deux racines distinctes, donc A est diagonalisable; B l'est aussi puisqu'elle est dia­gonale! C=A+B = (~ ~) n'admet que o pour valeur propre. Si elle était diagonalisable, elle serait

semblable à la matrice nulle, ce qui est clairement faux.

Posons maintenant A=(~ ~ )et B= (~ ~).Le polynôme caractéristique de A est P A=X(X-1).

Il possède deux racines distinctes donc A est diagonalisable. B l'est aussi, puisqu'elle est

diagonale! Leur produit C = (~ ~) n'est , lui, pas diagonalisable.

Le théorème spectral affirme que toute matrice réelle symétrique est diagonalisable dans une base orthonormée. Cette propriété est spécifique au corps des réels. Sur deux exemples, nous allons voir que ceci devient faux si le corps de base est l'ensemble des rationnels ou des complexes. Le polynôme caractéristique de la matrice complexe A = G ~) est (X - 1)2. L'unique

valeur propre étant 1, si A était diagonalisable, elle serait semblable à la matrice unité et représenterait donc l'identité. Ce n'est clairement pas le cas ...

Posons enfin B= (1 1 ) considérée comme matrice à coefficients rationnels. Son polynô-

1 - 1

me caractéristique, X2 - 2, ne possède aucune racine rationnelle. En effet, .Ji est un nombre

irrationnel, et donc B ne possède aucune valeur propre rationnelle.

contre-exemple à méditer A et B étant deux matrices carrées de même taille, les produits AB et BA ont le même poly­nôme caractéristique. Donc ces deux matrices ont les mêmes valeurs propres. Cependant, leurs polynômes minimaux peuvent être distincts !

Posons A=(~ ~) et B= (~ ~) . Un calcul facile montre que AB est la matrice nulle et que

BA= B. Comme B2 est aussi la matrice nulle et que B n'est pas nulle, le polynôme minimal de AB est X alors que celui de BA est X2

• Ainsi AB est diagonalisable, tandis que BA ne l'est pas.

Hors-série n°44. Les matrices Tangente

Page 82: Les Matrices_ Une Representation Du Monde

ACTIONS par Philippe Langenaken

manipuler des matrices auec un tableur Les tableurs peuvent traiter rapidement des calculs matriciels. Cet article présente quelques procédures simples qui vous éviteront bien des calculs ! Microsoft Excel ( version 2010) est utilisé ici, mais Open Office Cale, par exemple, ferait tout aussi bien l'affaire.

Un tableur est simplement un pro­gramme informatique capable de gérer les feuilles de calculs

(c'est-à-dire des tables contenant des informations que l'on peut mathémati­quement modéli ser à l'aide de matrices) . Les pères fondateurs du tableur sont les Américains Robert Frankston et Daniel Bricklin , dans les années 1970 (voir par exemple les Algorithmes, page 53, Biblio­thèque Tangente 37, 2009). On utili se généralement un tableur pour des cal­culs locaux , des simulations ou des pro­jections, pour des fonctionnalités absentes des logiciels de gestion et beaucoup plus diffic ilement réalisables en recourant à de la programmation . Abordons ) ' utilisation d'un tableur par quelques exemples simples. L'un des exercices les plus courants, proposés aux élèves du secondaire, est le calcul du détemùnant d'une matrice carrée. Voyons comment on peut y arriver rapidement en utilisant un tableur (une liste des princi­pales fonctions disponibles est proposée en encadré). Soit une matrice carrée de

taille 3 encodée dans les cellules (B 1 :D3) (voir la figure ci-dessous). Localisons par exemple le calcul de son détemùnant en cellule B5 . Il suffit d'utiliser la fonction prédéfinie Determat. Dans 85 , écrivons =DETERMAT(BI :D3). Appuyer sur Entrée permet de voir immédiatement le résultat s'afficher.

A C D E

1 ( 1 0 )

2 1 4 -5 7 1 l 1 -3,2 6 )

4

Le calcul d'un déterminant d ' une matrice de taille 3.

Pour obtenir l'i nverse de cette matrice , par exemple en (H 1 :13), il suffit d'uti­li ser la fonction Inversemat : sélection­nons les cellules (H 1 :13), qui contien­dront la matrice résultat, tapons =INVERSEMAT(BI :D3) et validons avec les touches Ctrl-Maj-Entrée. De fait, les formu les qui renvoient des

TC1.ngente Hors-série n°44. Les matrices

Page 83: Les Matrices_ Une Representation Du Monde

'

matrices doivent être tapées sous forme matric ie lle, en validant avec Ctrl- Maj-Entrée. Une fo is saisie, la formule matricielle apparaît également dans la barre de formule, encadrée par des accolades.

. ( i •. ) ~ l . ~ .;! ' ',.,

:i i . ,vtll\l.\UT,ll i l-1~·- 1

L'inverse de la même matrice.

Multiplions à présent la matrice carrée (H l:13) par la matrice colonne (M 1 :M3). Le résultat sera bien entendu une matrice colonne, que nous faisons calculer en (Q 1 :Q3) . Il suffit d ' utiliser la fonction Produitmat, en procédant comme suit : sélectionner la plage de cellules résultats (Q 1 :Q3), taper =PRODUITMAT(H 1 :J3 ;M 1 :M3), puis valider.

• " 1 • C f

0

r;.."ll tlC'n41.M'• l C:,C:l-C:.U"C •• t,

_. 1 , c;11; -e..- c:te._

La multiplication de la matrice par

un vecteur.

On peut évidemment additionner deux matrices, pour autant qu 'elles soient de tailles identiques. Sur l'exemple c i­dessous, on sélectionne la plage résul­tat (L6:M8), on saisit la formule (ic i tout simplement =B6:C8+G6:H8), puis on valide .

' . ' .. l [ . ... l l . c ~ • ~ ' • • • • • z. [[G ]

L'addition de deux matrices

rectangulaires.

Il est possible de multiplier une matri­ce par une constante, ou par la valeur d ' une cellule, en utilisant respective­ment dans la cellule résultat =3*B6:C8 ou =A 10*B6:C8.

RÉDUCTION DE MATRICES

Pour plus de clarté, il est souvent utile de nommer les cellules et les plages. Le calcul matriciel ne fait pas excep­tion à cette règle . Attribuons le nom A à la plage (B 1 :D3), en cherchant dans l'onglet Formules la fonction Définir un nom.

Nom : Al Zont : @,-o.s- -..-----__B-.-..,.., C&!rrmentaire :

F• n!f6rence à : -Feull 1$8$1 :$0$3

()1( 1 [ Arruer

Si l'on nomme successivement InvA la plage (HI:J3), B la plage (Ml:M3), M la plage (B6:C8), N la plage (G6:H8) et k la cellule A 10, les formules ci-des­sus deviennent respectivement =DETERMAT(A), =INVERSEMAT(A), =PRODUITMAT(InvA;B), =M+N , =3*M et =k*M. Les possibilités d 'application des tableurs sont nombreuses ! Outre les calculs de déterminants ou d ' inverses de matrices, on peut effectuer des simulations ou des calculs à la chaîne . Voici deux idées d ' applications relati­vement simples et utilisables dans un cadre scolaire. La résolution d 'un système de n équa­tions linéaires à n inconnues se résout aisément, pour autant que ce dernier soit de Cramer (c 'est-à-dire que le détermi­nant de la matrice des coefficients est non nul). Regardons le système

3x, - 2x2 + x4 + l ,4x5 = 3

6x, + 2x2 + 0 ,5x3 + 3x4 + 2x5 = 2

Sx, + 2x3 - x4 - x5 = 1

x, + 2x2 + 6x3 + 2x4 + 3x5 = - 4

- 3x2 + l,5x3 - x4 + l,2x5 = 5

Nommer un

ensemble de

cellules.

Hors-série n" 44. Les matrices Tangente 81

Page 84: Les Matrices_ Une Representation Du Monde

ACTIONS 1

A B c 0

( · 2 0

1 2 0,5

1 · l

4 1 5 l -3 1,5 -1

Manipuler des matrices ...

Ce système peut s'exprimer sous la forme du produit matriciel suivant :

(3 -2

6 2

5 0

1 2

0 -3

0 1 1,4\(x,\

0 ,5 3 2 X2

2

6

- 1 - 1

2 3

1,5 -1 J,2 X5 ~---~--~______.. A X

( 3 \ 2

1

-4 5

ou encore AX = B . On introduit les valeurs des différents coeffic ients dans le tableur, et on vérifie que le détermi­nant de A est non nul :

G H K M N

1,4 ) ( xl 3 ) 2 1 1 x2 2 1

·l 1 1 x3 l 1 3 1 1 x4 -4 1

1,2 J l x5 5 J

les commandes prédéfinies De nombreuses fonctions matricielles

existent dans Openüffice Cale comme

dans Excel.

• Le produit de deux matrices Mt

et M2 correspond à la commande

Produitmat(M1;M2),

• L'inverse d 'une matrice inversible M s'obtient à l'aide de

lnversemat(M),

• L'opération de transposition de la matrice M s'effectue grâce à

Transpose(M).

• Le calcul du déterminant de M s'obtient via Determat(M).

7 IAI = 311,4

Les commandes en version anglo­

saxonne sont respectivement Mmult(M1;M2), Minverse(M),

Transpose(M) et Mdeterm(M)

8

9

10

11

12

13

Le déterminant de A vaut 311,4 ; il est non nul.

La cellule B7 contient la formule = DETERMAT(A). La matrice A est donc inversible, le système proposé est bien de Cramer. SiAX=B,alorsX=A- 1 B.

La solution s ' obtient ainsi :

-0,l 0,155 0,091 -0,07 0,123

·O, 76 0,448 -0,05 -0,12 0,396

0,385 -0,35 0,14 0,232 -0,33

1,445 -0,81 0,025 0, 372 -1,25

-1,19 0,883 -0,29 -0,28 1,198

"--- =INVERSEMAT(A)

3 )

2 1 1

-4 1 5 J "-•

=PRODUITMAT(B9 Fl3.19 113)

La solution apparaît :

x. = 1, Xz = 1, x3 =-2, x4 =-5 et x5 = S.

l )

1 1 -2 1 -5 1

5 J

J

En outre, il est possible d'extraire les

colonnes ou les lignes de la matrice M,

en utilisant les fonctions Colonnes(M) et

Lignes(M) (ou Colurnns(M) et Rows(M)

dans la version anglo-saxonne).

Enfin, il faut faire attention aux sépara­

teurs d'arguments requis par les options

régionales pour votre tableur préféré ( en

général, point-virgule en version fran­

çaise et virgule en version anglaise) !

Calculs à la chaîne ... de markou

Les procédures de s imulation utilisent souvent des matrices stochastiques. L'exemple suivant va permettre d ' illus­trer une suite de compositions de trans­

formations (constituant des chaînes de Markov convergentes) ainsi que la notion de distribution stationnaire. Au pays imaginaire du Mathendesh, on observe des mouve ments de popula­

tion entre zones urbaines (U) et zones péri urbaines (P) : tous les ans, 12% des habitants de la ville migrent vers la banlieue et 8% des banlieusards vont

82 Tcingente Hors-série n°44. Les matrices

Page 85: Les Matrices_ Une Representation Du Monde

habiter en vi lle . Cette situation peut se décrire par la transformation linéaire suivante:

{U;. 1 : 0,88U; + 0,08P;

P;. 1 - 0,l 2U; + 0,92P;

ou, sous forme matricielle :

(U;.,) = (0,88 0,08) (U;) P;. , 0,12 0,92 P;

U; et P; désignent respectivement les populations urbaine et rurale pour l'an­

née i. Imaginons une populat ion urbai­ne initiale de un mill ion d' habitants, avec 500 000 habitants dans les zones périurbaines. Introdu isons toutes ces valeurs dans une feui lle de calcul :

L'évolution de la démographie au Mathendesh.

Plaçons en B5 et B6 les populations initiales. Nous avons pris soin de nom­mer T la matrice de transformation en (B 1 :C2). Dans la colonne C , on calcu­le les effectifs des populations après un an sur la base des taux de transfert observés. Le résultat matriciel s 'ob­tient grâce à la formule =PRODUIT­MAT(T;B5:B6). Il suffit alors de tirer la poignée de recopie vers la droite pour obtenir les populations respec­tives dans chaque milieu pour toutes les années suivantes.

o.aa o.oa 0,12 0.92

S U !120000 &)6000 804800 763840 731071 7t14151 68 . ' S10000 644000 595200 736160 761921 79'14:Z Il

Évolution des bassins de population au cours des années à venir.

On observe la convergence de ces popu lations vers des valeurs corres­pondant aux taux (théor iques) de

RÉDUCTION DE MATRICES

Recherche de valeurs propres L'outil Valeur cible d 'Excel permet de rechercher des valeurs propres approchées d'une matrice. Considérons par exemple une matrice de taille 5 entrée dans une feuille de calcul en (C1:G5). Appelons cette matrice A. Un vecteur propre associé à A est une matrice colonne X non nulle telle que AX = ÀX, où À est une valeur propre de A. Pour une telle valeur propre À, le déterminant de la matrice A - ÀI sera nul. En (L1:P5), encodons la matrice iden­tité 15. En C1, réservons une place pour la valeur propre À.

Nommons cette cellule Lambda. Le but est de faire recher­cher par le programme les racines À du déterminant de A - ÀI. Calculons ce déterminant en A10 :

• I[ C O I 1 ~ '., G l Ml O

1 12 o, 0 1 11

J 1 11

~ 1-,1

On reste posi­tionné sur A10, et on fait appel

, à l'outil Valeur ' ~ .bl ( ~"-"""- '-""-"-' ~~~~~~~~ ~~~~~ c1 e avec

Excel2010, cliquer dans l'onglet Données, sur le bouton Analyse scénarios, puis sélectionner Valeur cible). Dans la boîte de dialogue Valeur cible, on entre les données utiles (Cellule à définir : A10, Valeur à atteindre : o, Cel­lule à modifier: Lambda; en effet, la cellule à définir, A10, contient le calcul du déterminant de A - ÀI, la valeur à atteindre est zéro, et la cellule à modifier pour atteindre cette valeur cible est Lambda). Si une solution existe, Excel la trouve : • 1

[

0 ,08 /(0 ,08 + 0 ,12) = 40% et 0,12/(0,08 + 0 ,12) = 60% des 1 500 000 habitants initiaux , lesquels vont progressivement se di sperser vers 600 000 en ville et 900 000 en ban­lieue. Cette répartition constitue alors une distribution stationnaire. Certes , ces calculs success ifs ne constituent en

rien des démonstrations des propriétés sous-jacentes. Mais e lles permettent d ' illustrer efficacement plusieurs pro­priétés . Bons calculs à tous !

P. L.

L MO'\ OO\ Ql

1 0 0 0 l O O

l O

O l

La valeur >.. = -4,42562

fournit le résultat 5 x 10-S pour le

déterminant de

A-Â.I.

Hors-série n° 44. Les matrices TC1.n9ent:e 83

Page 86: Les Matrices_ Une Representation Du Monde

EN BREF par Bertrand Hauchecorne

l'exponenti lie d'une matrice La fonction exponentielle est la réciproque du logarithme népérien. Par ailleurs, exp(x) est aussi la limite, quand l'entier n tend vers l'infini, defn(x) = 1 + x + x:2/2! + ... + x'/n!. En utili­sant cette formule, on peut définir l'exponentielle d'un nombre complexe quelconque. Pourquoi ne pas aller plus loin ? La somme et le produit de matrices existent, peut-on donner un sens à l'exponentielle d'une matrice? Soit A une matrice carrée d'ordre p ; notons IP la matrice unité et Sn la matrice IP +A+ A2/2! + ... + An/n!. Le problème est de donner un sens à la limite de la suite (Sn\· Pour le faire, il faut définir une norme sur l'ensemble des matrices carrées. On dit alors que la suite (Sn\ tend vers la matrice B si la norme de Sil - B tend vers o. En l'occurrence, on montre que (Sil\ converge, quelle que soit la matrice A choisie. Sa limi­te s'appelle l'exponentielle de A et se note exp(A). Mais comment la calculer? C'est là que l'on voit l'intérêt de la diagonalisation ou de la trigonalisation !

Prenons une matrice diagonale D, avec A.1' A.2 ... ÀP sur la diagonale. Notons Qn = In + D + D2 /2! + ... + on/n!. Un calcul facile montre que le produit de deux matrices diagonales l'est aussi, et qu'on l'obtient en multipliant les termes correspondants. On en déduit que les termes diagonaux de Qn sont 1 + Ài + A.N2! + ... + A.tfn!, suite qui conver­ge vers exp(A.J La matrice exp(D) est donc la matrice diagonale ayant, sur sa diagonale, l'exponentielle des termes correspondants de D. Si A est diagonalisable, il existe une matrice diagonale D et une matrice inversible P telles que A= PD p- 1

• Par distributivité du produit, on a encore Sn= P Qn p- 1• Il est ten­

tant d'affirmer qu'à la limite on a encore exp(A) = P exp(D) p- 1• Encore faut-il le justi­

fier. On utilise alors la notion de continuité, la norme jouant le rôle de la valeur absolue dans la définition. On montre alors que la fonction tf, qui, à la matrice M, associe la matrice PM p-1

, est continue (attention, la variable est une matrice, de même que son image). On utilise une propriété classique des fonctions continues Oa limite de l'image est l'image de la limite). Comme exp(D) est la limite de la suite (Qn)n, on en déduit que tf,(Qn) = Sn tend vers tf,(exp(D)) = P exp(D) p-1

Dans le cas où A est seulement trigonalisable, on opère de même. Le seul inconvénient pro­vient de la difficulté de calculer la puissance d'une matrice triangulaire. Les exponentielles de matrices sont d'une grande utilité. Considérons par exemple le systè­me différentiel x = 2X + y, y' = x + 2y. Les solutions sont les fonctions de IR dans IR2 de la

forme t H exp( tM) U où M = G ~) désigne la matrice du système et U est un vecteur

de 1R2• Ceci se généralise à tout système différentiel linéaire à coefficients constants en

dimension p.

Tangente Hors-série n°44. Les matrices

Page 87: Les Matrices_ Une Representation Du Monde

Hors-série n° 44. Les matrices Tcingente 85

Page 88: Les Matrices_ Une Representation Du Monde

ACTIONS par Élisabeth Busser

Hgrandir les images sans perdre en qualité Matrices et vecteurs sont certes avant tout les éléments d 'une théorie algébrique. Mais ils sont devenus aujourd'hui des outils mathématiques et informatiques incontournables pour tout ce qui concerne le traitement numérique des images, qu'elles soient matricielles ou vectorielles.

Georges Seurat (1859-1891), La Seine à Courbevoie.

L'imagerie matricielle peut être traitée par un calcul algébrique simple,

mais elle résiste mal au grossissement.

S i la base de la représentation des images numériques est la géo­métrie analytique, celle où les

points aussi bien que les courbes sont représentés par des données ou des for­mules algébriques, il ex iste néanmoins plusieurs formats pour les images que nous voyons sur nos écrans. Sous cha­c un de ces formats se cache nt des concepts de calcul matric ie l : matrices de grandes dimensions, opérations algé­briques sur les matrices, transforma­tions géométriques, expression matricielle d ' une forme algébrique ... En ce qui concerne la représentation des données informatiques, là aussi, nombreux sont les emprunts au vocabulaire des matrices et des vecteurs : vecteur-ligne ou vec­teur-colonne pour représenter une suite de données, matrice pour représenter les pixels de l'écran, matrices encore pour représenter un volum e . L' un des logiciels les plus connus de calcul scien­tifique ne s'appelle-t-il pas« Matlab »,

comme « Matrix Laboratory » ?

86 Tangente Hors-série n°44. Les matrices

Page 89: Les Matrices_ Une Representation Du Monde

Evidemment , il ne fa it appe l qu 'à des matrices ! C'est cette omniprésence de ces notions algébriques importantes do nt no us do nn ero ns ic i qu e lqu es exemples.

Images matricielles

À l' instar de certains procédés de bro­derie (comme le point de cro ix), des techniques de la mosaïque (q ui fo nt d' une image une juxtaposition de« tes­selles ») ou du pointilli sme (tel celui de la peinture de Seurat), l' image numé­riq ue dite « bitmap » est , comme son nom l' indique, une « carte de points ». Une tell e image n'est donc rien d'autre qu' un tableau de va leurs dont les cases son t les pixels (picture elements, ou élément d ' image). De là à représenter cette image sous fo rme d ' un tableau den lignes et p co lonnes, c'est-à-dire une matrice n x p, il n'y a qu ' un pas, que les in fo rm ati c ie ns ont très v ite fra nchi . Il s ont a insi défi ni les images matricielles. Chaque é lément de cette matr ice, à savo ir chaque pi xe l déj à repé ré par ses coordonnées géomé­triques, va en plus être caractéri sé par une pondération représentant son inten­sité ou sa couleur.

Pour une image en noir et blanc, cette pondération va de O à 255, la valeur O étant pour le no ir, la va leur 255 cor­respondant au bl anc, les valeurs inter­médi a ires étant attribuées aux 256 d iffére nts ni veaux de gri s, a ll ant du plus sombre (noir) au plus clair (blanc). Les entiers étant stockés dans l 'ordi ­nateur en écritu re binaire, tout nombre entre O et 255 ne nécess itera pas plus de huit caractères O ou 1, c'est-à-dire huit bits, fo rmant un octet. Pour une image en couleurs, selon le code RVB (rouge, vert , bleu), on réserve un octet par couleur, ce qui correspond

LES MATRICES SONT PARTOUT

Un exemple de nuancier RVB, ici, les composantes

sont exprimées en pourcentage.

Non,.

Modèle . ~-~---==m-~·

V • .,.,.---- ~

• n.;;.-- ~

Les formats d'image matricielle Les formats d'images matricielles les plus répandus ont pour nom JPEG (Joint Photographie Experts Group), qui est le format de photo « classique », GIF (Graphical Interchange) et son rem­plaçant PNG (Portable Network Graphie). Les formats TIFF (Tagged Image File) ou PSD (Photoshop Document), pour la retouche d 'image, sont également très répandus.

à 256 intensités de rouge, autant de vert et autant de bleu. Ainsi, un pixel de bleu pur sera codé (R, V, B) = (0, 0 , 255). Dans la pratique, on utili se dans la matrice tro is octets (un par composante) pour coder la couleur de chaque pi xel. La notation matri cie lle joue donc un grand rôle dans le stockage des images numériques ; e lle va également jouer un rô le primordial dans la modifica­ti on de ces images, autrement dit le traitement d'images. Comme on peut modi fier les images couleur en appli­quant à chaque couleur (R , V, B) la même méthode qu 'aux ni veaux de gri s, il nous suffi ra de traiter les modifi ca­tions d ' images en ni veaux de gri s. Et là encore, les opérations sur les matrices vont jouer un rô le important. L' une des modifications les plus cou­rantes pour améliorer la qualité d ' une image est la création de filtres de trai-

Hors-série n• 44. Les matrices Tangente 87

Page 90: Les Matrices_ Une Representation Du Monde

ACTIONS Agrandir les images ...

tement. Les opérations sur les matrices vont prendre place lors de l'opération « convolution ». L'opération consiste à transformer les éléments de la matrice d ' image A , généralement de très grand format , par une matrice F dite de convo­lution, plus petite, appelée encore noyau. On modifiera par exemple chaque pixel de A grâce à ses huit voisins , par l' in­termédiaire de la matrice F, qui sera donc une matrice 3 x 3. Si vous voulez par exemple renforcer la brillance d ' un point sur un fond uniforme, comme celui que décrit la matrice A, vous utiliserez le noyau F ci-dessous :

(. .. ... \ 50 50 50 50 50 50 50 50 50 50

A= 50 50 100 50 50

50 50 50 50 50 50 50 50 50 50

On calcule alors la valeur de chaque pixel de la matrice transformée A' en multipliant sa valeur par celle du pixel central du noyau et en additionnant la valeur des produits des pixels environ­nants point par point. Le coefficient « 1 OO » central devient ainsi 5 x I OO - 1 x 50 - 1 x 50 - 1 x 50 - 1 x 50 = 300, et la matrice image sera:

(.. . . . ·\ 50 50 50 50 50

50 50 0 50 50 A' = 50 0 300 0 50

50 50 0 50 50 50 50 50 50 50

Il restera à multiplier tous les é léments par un facteur convenable pour reste r entre O et 255 , et le pixel central appa-

raîtra avec un contraste accentué. Le calcul matriciel aura , là encore, prouvé sa capacité d'économie opératoire lors du traitement d ' image.

Images uectorielles

Image bitmap

Image vectoriel le

rt Jt Différence entre une image bitmap

et une image vectorielle.

L' imagerie matric ielle a certes l'avan­tage de pouvoir être traitée par un cal­cul algébrique simple, mais e lle résiste mal au grossissement , donnant très vite un effet d 'escalier. li ex iste une autre catégorie d ' images numériques, plus « résistantes» au gros­sissement, moins lourdes en taille, mais pour laquelle le vocabulaire de l'algèbre linéaire intervient encore: le images vectorielles. Ce sont des repré­sentations d'objets géométriques simples, lignes, points , polygones , courbes défi­nis, selon des tableaux d 'octets appelés vecteurs, par leur forme, leur position, leur couleur. Un cercle sera par exemple défini par son centre et son rayon, un carré par deux sommets opposés, une courbe par plusieurs points et son équation. Décrites avec peu d'informations , les données, représentées par des entités mathématiques, seront aussi moins sen­sibles aux transformation , et le images resteront nettes après grossissement. Le mot « vecteur» intervient à double titre dans ces images : dans la qualifi­cation « vectorielle », mais en plus dans le rôle important des tangentes aux points d 'ancrage des courbes, autrement dit

88 Tangente Hors-série n°44. Les matrices

Page 91: Les Matrices_ Une Representation Du Monde

des vecteurs tangents , comme les uti ­li se l'outil « plume » du logic ie l de créa­

tion graphique Ulustrator (Adobe Systems). On veut par exemple, étant donnés quatre po in ts A , B, C, D, tracer une courbe allant de A à D, la plus « li sse » pos­

sible, tout en restant contenue dans le plus grand ensemble convexe contenant ces quatre po ints , que l'on appe ll e enve­loppe convexe de ces points , et dont les vecteurs tangents en A et D sont AB et CD. S i on part de A à l' instant 1 = 0 pour arri ver en D à l' instant 1, comment décrire l'end ro it où se trouve, à chaque instant I compri s entre O et 1, la pointe de la plume? C'es t Pie rre Béz ie r, in gé nie ur chez Renaul t, qui , en 1962, a parfa itement transcrit la situation dans l' idée de conce­voir des pièces automobiles sur ordina­teur. Pour décrire un segme nt [AB ], pensa-t- il , on fa it occuper à la plume à l' instant Ile barycentre de A et B , avec pour coefficients I et 1 - 1, dont la somme est égale à 1 . Pour tracer entre A et B une courbe li sse restant à l' intérieur d ' un certain tri angle ABC, on fa it de même: c'est ici le barycentre de tro is points qui intervient. De même aussi avec les quatre points A, B , C, O. li s ' ag it alors de déter­miner les coeffic ients de somme 1, dont ces quatre points seront affectés. L'as­tuce est d'élever au cube 1 = 1 + ( 1 - 1)

pour tro uve r ces qu atre no mbres de

somme 1 : 1 = t3 + 31( 1 - 1)2 + 312( 1 - 1) + ( 1 - 1)3

.

Vo il à quatre rée ls, t3, 31( 1 - 12),

312( 1 - 1) et ( 1 - 1)3, de somme 1, qui

permettront de sui vre le chemin de l'ou­t il « plume » dans son tracé de courbe.

C'est une courbe de Bézier cubique qu ' il parcou1Ta, allant A à D, avec B et C pour « po ints de contrô le » et surtout AB comme vecteur tangent e n A et CD comme vecteur tangent en D. L'équation d' une telle courbe prendra alors la forme sui vante :

LES MATRICES SONT PARTOUT

Pierre Bézier (1910-1999).

les formats d'image vectorielle Les formats d'image vectorielle les plus populaires se nomment PICT (Apple Picture), qui est un peu ancien, PDF (Portable Document Format), pour un affichage efficace des documents, Postscript, intéressant pour l'impression, SWF (Flash), pour des animations sur le Web, SVG (Scalable Vector Graphie), permettant ani­mations et transparence.

B C ... D- ···--·------···q ....

.. ·········· .... ____ _ . ·

Courbe de Bézier de A à D, avec B et C comme points de contrôle .

A D

O P(t ) = (1 - t 3 )0 A + 31(1 - 1)2 08 + 312 (1 - t )OC + t 30 D,

que l'on écrit pour simplifier:

P(t ) = (1- t 3 )A + 31(1 - 1)2 8 + 312(1 - t )C + t 3D.

Ici , en plus des vecteurs, les matrices seront encore une fo is mises à contri­bution puisque l'écriture matric ielle ser­vira à mettre cette équation sous une

fo rme plus condensée : ( 1 0 0

( , , , ')l-3 3 0 P(I)= ( l-1 ), 31(1- rf, 31 · (1-1) , 1 3

_6 3

- 1 3 -3

Les vecteurs et le calcul matric ie l sont donc encore présents dans les fa meuses courbes de Bézier , outil de base des

images vectori e lles, qui permettent de dess iner des courbes li sses et suppor­tant le gross issement sans dégradation puisque défini es exclusivement à l'aide d 'é lé me nts mathé matiques indépen­dants des pi xe ls.

E.B.

Hors-série n° 44. Les matrices Tangente 89

Page 92: Les Matrices_ Une Representation Du Monde

SAVOIRS par François Lavallou

Partout en physique, des matrices L'étude dynamique d'un système physique consiste à transcrire des relations entre forces en un système d'équations. La résolution numérique amène à réécrire les équations sous forme matricielle. De fait, plus de la moitié du temps de calcul de tous les ordinateurs se passe à manipuler des matrices !

Les matrices sont partout ! Peu

de calculs, di scréti sés pour être traités par la puissance informa­

tique, leurs échappent. E lles peuvent

intervenir dans la formul ation même

du problème, si celui -ci peut être vec­

tori sé, ou dans la représentation d 'opé­

rateurs. Nous allons illustre r que lques

cas classiques d ' utili satio n des

matrices, sans vouloir pré tendre à l'ex­

hausti vité puisque la mise en forme

matric ie ll e est fréque nte dans to ut

do maine mathématisé .

matrices en physique

Un calcu l n 'est qu ' une manipulation

de règles préétablies . Et qu ' importe le

sens réel des méthodes mises en jeu.

C' est a ins i que l ' on a inventé les

nombres négatifs, les nombres com­

plexes et bien d 'autres outils « pra-

tiques », do nt... les matr ices. Ces

tableaux de nombres représenta ient

initi a lement des applications linéaires .

On les uti lise donc nature llement pour

tout système phys ique décrit par des

équations linéaires. C'est a insi le cas

en é lectric ité où un courant é lectrique i crée aux bornes d ' un c ircuit passif de

résistance r une tension proportionnel­

le u =ri (lo i d 'Ohm). Pour un réseau

é lectrique constitué de n mailles , on

attribue à chaque maille un courant de

maille (Ik)k = 1. .. 11 et une force é lectro­

motrice (FEM) (Ek\= 1. .. n· Les re la­tions entre les FEM et les courants de

mailles sont synthéti sées par la loi

d ' Ohm matric ie lle E = R 1 (voi r en

encadré) . La matrice R , de dimension

n, est symétr ique. L'élément R;, ; de la di agona le princ ipale est égal à la

somme des résistances de la maille i,

alors que la quantité - R i.j correspond

90 Tangente Hors-série n°44. Les matrices

Page 93: Les Matrices_ Une Representation Du Monde

à la somme des résistances communes aux mailles i et j. Connaissant les forces électromotrices d ' un tel réseau ,

nous obtenons les intensités de chaque maille en inversant la matrice R : en effet, I = R- 1 E. Dans le cas d ' un qua­

dripôle, la linéarité du réseau permet d 'établir une relation matric ielle entre courant et tension d 'entrée et de sortie:

( ~: )=(Q,)x( ~ .. l Une mise en série de n quadripôles de

matrice (Q); = 1 .. . 11

est alors équivalen­te à un seul quadripôle de matrice (Q) = (Q

11) X (Q

11_ 1) X ... X (Q 1), et

nous avons toujours :

( ~: )=(Q{ ~· l Une méthode similaire est utili sée pour une success ion de systèmes optiques centrés. Dans le cas de fa ibles angles avec l'axe optique, l' approx imation de Gauss linéari se la lo i de Descartes n 1 sin (a 1) = n2 sin (a2) , qu i re lie la variation de direction d ' un rayon à la variation de l' ind ice, pour la transfor­mer en une lo i de conservation de

l' angle optique na: n 1a 1 = n2a 2. Au passage d ' un plan perpendicul aire à l' axe optique, un rayon est donc entiè­

rement caractéri sé par sa di stance à l'axer et son angle optique , donc par le

vecteur ( nra J· Chaque mili eu

homogène ou dioptre est représenté par une matrice, et le calcul de la propaga­

tion, entièrement algébrisé, se ramène à un produit de matrices. Mais si les matrices sont incontour­nab les en phys ique, c ' est que tout pro­blème se tradui t en équations différen­tielles, qui nécess itent ! ' utilisation des matrices pour leur résolution .

LES MATRICES SONT PARTOUT

Des mailles aux maths Si toutes les résistances sont identiques dans le schéma ci-dessous, le système à résoudre s'écrit matriciellement

[ E l [ 2 -1 -1 ][ 1, l 0 = r -1 3 -1 12 .

0 -1 -1 3 1 3

Dans la « matrice résistance », les éléments diagonaux

correspondent à la somme des résistances des mailles et les autres éléments à l'opposé des résistances com­munes à deux mailles. L'inversion de l'équation (E) = (R) (1) nous donne :

On constate en particulier que 12 = 13, et donc que i = 13 - 12 = O. Ce résultat pouvait être établi par des arguments de symétrie, en remarquant par exemple que le schéma proposé est topologiquement équivalent à un tétraèdre.

E

Problèmes équivalents.

Équations différentielles

En dynamique classique, le mouve­ment d ' un point matérie l est caractéri­sé par une relation entre sa pos ition x(t), sa vitesse (ou déri vée temporelle)

i 1\t) = dx(t) / dt, et son accélération x<2\t) = dx<1>(t) /dt= d2x(t) / dt2, que

l'on sait proportionnelle à la somme des forces depuis Newton. La trajectoi­re de ce point , la courbe (t, x(t)), s'ob­tient en intégrant une équation diffé­rentie lle linéa ire à coeffi c ients

Hors-série n°44. Les matrices Tangente 91

Page 94: Les Matrices_ Une Representation Du Monde

SAVOIRS Partout en physique

constants d ' ordre 2 de la forme m x<2l(t) + f x(l >(t) + k x(t) = O. Puisque l'exponentielle est invariante par déri ­vation, nous avons (eA1)<11> = A"eA1

• La fonction x(t) = x(O)eAr est alors solution

de cette équation , à la condition que A soit solution du polynôme du second degré mA2 + JA + k = O.

,i - 1

)"l + I, ak)kl k=O

= y(") + a y(,,- 1) + + a y (i) + a y= 0 11- I • • • 1 0 '

le polynôme à résoudre est de degré n. Mais nous pouvons réduire l'ordre de cette équation au prix d ' une augmenta­tion de dimension, en passant d ' une équation différentie lle d 'ordre 11 sur un espace de dimension 1 (les réels) à une équation di fférentielle d 'ordre I sur un

Dans le cas généra l d ' une équation di f­férentie lle linéaire d 'ordre n,

Puissances des matrices Les vecteurs propres d'une application linéaire a sont proportionnels à leur image: a(x ) = ,li ,

avec X. pour valeur propre. Pour l'application a de ~ 2 dans ~ 2 représentée

par la matrice A = ( : ~ ) , cette relation devient

(A - AI)X = O. La condition nécessaire pour qu'il existe d'autres solutions que le vecteur nul est det(A - AI)= O. Les solutions de cette équa­tion polynomiale caractéristique sont les valeurs

propres. Pour norre exemple

1

:

det ( A - ÀI) = I - À I = À 2 - À- 1 = 0.

1 -À

Ses solutions sont A1 = <1> et A2 = -1 / <J>, où

</) = Js + 1 est le nombre d'or. On en déduit les 2

vecteurs propres X 1 = (<j>,I) et X2 = ( - 1,<j> ), et

la matrice de passage P = r </) ~I l · On véri­

fie que , dans la base de vecteurs propres , la matrice de l' application a est diagonale:

P'AP= dei(e)[ ~! ~ ]( : ~ l[ ~ ~! l =(: _;, )=D

Cette écriture facilite le calcul algébrique avec les matrices. Puisque p- 1 A P = D , nous avons A= PD P-1

, et donc : A2 =(PD P-1

) (PD P-1) = P 0 2 P-1

• Par récur­rence, nous obtenons A"= PD" p- 1 avec

En notant Ll11

= </>" - ( - cp- 1 )" , cette expression

. , J [ Ll ,,+1 il ,, l devient A ' = - et est encore Lli li ,, ll ,,_1

valable pour des valeurs négatives de l'expo­sant. En appliquant l'écriture A"= P 0 11 P-1 dans

- 1 l'expression exp(A)= I,-A", nous pouvons

k=O n!

avec exp(D)=[ e q, 0

_, l· O e - q,

On vérifie au passage que les coefficients du polynôme caractéristique d'une matrice sont indépendants de la base. En particulier, det(D) = - 1 = det(A) et tr(D) = <p - 1 / <p = 1 = tr(A). On en déduit la très belle relation det(exp(A)) = ir(A), valable pour toute matrice

carrée.

92 Tangente Hors-série n°44. Les matrices

Page 95: Les Matrices_ Une Representation Du Monde

LES MATRICES SONT PARTOUT

espace de dimension n. Le vecteur l'équation matricielle admet pour solu-y (" - 1) tion Y(t) = exp(At).Y(O) avec :

Y= de dimension n admet

pour dérivée y (i) = , et est

donc solution de l'équation du premier ordre y ( I l = A Y, où la matrice A est la

matrice compagnon de l'équation ini­tiale:

A= [ T O -a, -f J Par analogie avec l'équation scalaire /'l = ay, de so lution y(t) = y(O) e'",

t" exp(At)=I,A"- (voirenencadré) n~O n!

et Y(O) le vecteur des conditions ini­tiales déterminé par n données.

Prenons le cas de l 'équation y<2l = y< 1l + y , avec y(O) = 0 et y<' l(O) = 1. Elle s'écrit y ( I ) = AY, en

posaet Y=[ y:I } Y(O)=( ~) et

A=( : ~}

Sa résolution nécessite le calcul de l'exponentiel le de A. Considérons maintenant la célèbre suite de Fibonacci , définie par la relation de

Hors-série n°44. Les matrices Tangente 93

Page 96: Les Matrices_ Une Representation Du Monde

SAVOIRS Partout en physique

Maths· Tavlor is maths-riches Toute fonction « bien gentille » (sans irrégularités, comme on en rencontre souvent en physique) admet un développement de Taylor. Ce développement en un point x est une série contenant les dérivées en x de tous les ordres de la fonction, à savoir : f (x + h) = f (x) + h/1l(x) + h2

/2l(x) / 2 + . . . En notant

!; = f (x;) , nous avons h+i = !; + hJ;(l ) + h2 J;<2l / 2 + .. . Ces expressions peuvent nous fournir, par différentes combinaisons linéaires, une estimation de n'importe quelle dérivée. Ainsi, de la partie paire de ce développe­ment, soit: if;+ 1 + J;_1) I 2=!;+h21;<2l / 2! + h41;<4l I 4! + ... , nous pouvons obtenir une estimation d'ordre 2 de la dérivée seconde , avec l'expression :

La généralisation à deux dimensions est le laplacien

[ il a2

] N(x,y)= - 2 +-2 J(x,y). En notantJ;J=f(x;,Y), âx ây

A..f __ J i.J- Ji .J+ Ji-.) J ;+ ,} 4[

+: . 1++: . 1++:1 . ++:1 . nous avons '-' .. -

2 I .J h 4 t]. l ,J

Le laplacien mesure donc l'écart de la valeur en un point à la moyenne des points environnants , ce qui justifie qu'il soit l'opérateur fondamental des processus de dif­fusion , qui tendent à uniformiser les densités des corps en présence ...

récurrence u,, = u,,_1 + u11

_ 2 avec u0 = 0

et u 1 = 1. En posant U,, =( u,, ], u,,_1

u1 =( ~ } avec cette équation

s'écrit U 1 = AU 1 = A"- 1 U 1• En utili-

' IJ-

sant la formulation de A" calculée en encadré, nous déduisons l'expression du terme général de la suite de Fibonacci : u,, = 6.,, / 6. 1 avec :

6.,, = <!>" - ( - <f,- 1 t et </> = .Js + l . 2

Ces exemples illustrent le fait que les suites récurrentes linéaires sont struc­turellement liées aux équations diffé­rentielles linéaires , et peuvent donc être résolues avec les mêmes outils. Ainsi, la recherche d'une solution exponentielle eAr de l'équation diffé­rentielle ou d'une solution de la forme A" de la suite récurrente nous conduit à résoudre la même équation X. 2 - X. - 1 = O, dont les solutions sont les valeurs propres de la matrice A commune aux deux problèmes. Si vous savez résoudre une équation différen­tielle linéaire , vous savez résoudre la suite récurrente associée , et récipro­quement!

Discrète dériue

Tous les opérateurs intégro-différen­tiels linéaires sont représentés , après discrétisation, par une matrice. Prenons l' exemple de la dérivée . Comment exprimer la dérivée d ' une fonction f dont on connaît les valeurs

if;); =, ... 11 en n points, régulièrement espacés, d ' abscisses X;= h X i , pour i variant de l à n ? Nous noterons [!] le vecteur colonne constitué des valeurs

if;);= 1. .. 11

• En prenant le cas particulier d ' une fonction nulle à l'origine, une approximation de la dérivée est donnée par df; = if; - J;_1) / h pour i > 1 et df

1 = f, / h. L'écriture matricielle de ce

système est ( df) = D1 [!] = _!_ D[f] h

0 0 0 0 -1 0 0 0

avec D = 0 -1

0 0 0 -1

matrice de dimension n. Remarquons que nous pouvons écrire D = I - N, où

94 Tangente Hors-série n°44. Les matrices

Page 97: Les Matrices_ Une Representation Du Monde

est une matrice nilpotente, que nous avons prise d'ordre 4 pour l'exemple . Dire que la matrice N est nilpotente d'ordre 4 signifie simplement, par défi­nition, que la matrice N4 est la matrice nulle. La dérivée seconde étant la déri­vée de la dérivée, la matrice associée à cet opérateur doit A . D 0 2 1 0 2 etre 2 = 1 = 2 , avec

h

0 2 = l-2N+N2

1 0 0 0 0 -2 1 0 0 0 1 -2

0 0 0 0 -2

En notant (d,j) = 0 2[!] , nous avons

( d2f ); = ~2 (J;- 2.f-i + k 2) = J/2) -h.{;(J)

pour i > 1 (des développements sont proposés en encadré). Pour h suffisam­ment petit, nous obtenons bien une approx imation de la dérivée seconde . Bien sûr, les schémas numériques utili­sés dans les codes sont plus raffinés que ces exemples é lémentaires ! D' une façon générale, en notant F et G les matrices associées respectivement aux opérateurs f et g, la matrice F X G correspond à la composition f O g.

Ainsi , si f et g sont des opérateurs inver es l'un de l'autre, nous avons f a g = id et les matrices associées sont inverses l' une de l' autre : F=G- 1

Vérifions que la matrice S = 0 - 1 = (l - N) _ , correspond à

! ' opérateur d ' intégration. Pour une matrice N nilpotente d'ordre n (c'est-à­dire telle que N" = 0) , nous avons

LES MATRICES SONT PARTOUT

(1 - N)(I + N + ... + N"- 1) = 1 - N" = 1.

Nous venons d'établir, sans trop de cal­culs, que S = 1 + N + N2 + N3

, soit

0 0 0

S= 0

L'équation différentielle F'(x) = f(x), avec la condition initiale F(O) = 0 ,

s'écrit matriciellement [!] = .!. D [F] . h

Son inversion [F] = hD- 1[!] = hS[f] donne, en utilisant l'expression de la

;

matrice S , F; = h Lfk, pour toute k= I

valeur i variant de I à n. Nous récupé­rons bien l'estimation des intégrales

F (X;) = J:' f ( t ')dt par les sommes de

Riemann aux points (xk)k = 1. . . 11 , espacés d ' un pas constant h. On retrouve abondamment la représen­tation matricielle de toutes sortes d 'opérateurs intégro-différentiels en traitement d ' images ou de photos et dans vos jeux vidéo. Alors , cher lec­teur, apprécie les matrices que les maths risquent et sache que celui qui dit faire des maths tristement avec les matrices te ment !

F.L.

Hors-série n°44. Les matrices Tangente 95

Page 98: Les Matrices_ Une Representation Du Monde

ACTIONS par François Lavallou

La trilatération La trilatération, technique courante pour les systèmes GPS, en cinématique, cristallographie et robotique, donne la localisation d'un point de l'espace en fonction de ses distances à trois points fixes. Elle permet de s'affranchir de l'arbitraire d'un repère.

de la tril atération cons iste à locali ser un po int q dans l'espace en fo nction de ses

di stancesx 1 ,x2 et x3 à troi s points fi xes p 1, p2 et p 3 . Les premiers tra itements, dans les années 1980 , simplifiaient les calcul s en utili sant des repères privi­lég iés, ce qui rompait la symétrie natu­re lle du problème. On développa alors, à partir de techniques d'algèbre linéaire, des formulations « sans coordonnées »

de ces systèmes vers la fin du siècle der­nier. Une technique récente utili se des coordonnées barycentriques e t fo urnit une formule composée de déterminants de Cay ley-Menger, qui ont tous une in terprétation géométrique, en terme de long ueurs, surfaces ou vo lumes . Cette fo rmul ation a de plus le mérite de permettre, pour ce problème d ' ori ­gine phys ique, une plus simple expres­sion de l'erreur.

Les déterminants de Cayleq-menger

Le problème peut être présenté comme la détermination de l' intersection de trois sphères, respecti vement de centres p 1,

p2 ,p3 et de rayons Xi, x2,x3. La figure ci­après présente une construction géomé­trique de la projection p du point q cherché dans le plan du tri angle tlp 1piP3•

, , , , ,

, , , , ,

Trace de l' axe radical de trois sphères.

Analytiquement , le problème consiste à résoudre un système de trois équa­tions quadratiques. Par si mples com­binaisons de ces équations, on se ramène à l'étude de l'i ntersection d' une sphère et d ' une dro ite, qui n'est autre que l' axe rad ica l des trois

96 Tangente Hors-série n°44. Les matrices

Page 99: Les Matrices_ Une Representation Du Monde

sphères, perpendiculaire au point p au plan de référence . Il existe alors deux solutions, symétriques par rapport à ce plan. Néanmoins des singularités appara issent quand le point à locali ser est « proche » du plan de référence . Nous allons donc utili ser les détermi­nants de Cayley-Menger, qui présen­tent l' intérêt de ne pas rompre la symétrie du problème (voir des préc i­sions en encadré).

Une application directe du détermi­nant de Cay ley-Menger concerne les polytopes . Un polytope est la générali­sation à toutes dimensions de la notion de polygone (20 ) et de polyèdre (30 ). Le « plus simple » polytope convexe est nommé simplexe, terme inventé par Pieter Schoute en 1902. li est constitué de n sommets (p) = (p 1 • • ·Pn) dans un espace de dimension n - 1, et

~ D,. (p ) son volume Y,. (p ) = --­

(n - I)!

s'exprime en fonction d ' un détermi­nant de Cay ley-Menger ! Le simplexe est donc la générali sation du tri angle (20 ) et du tétraèdre (3 0 ) . Cette géné­rali sation s'étend à la notion de tri an­gulation. Tout polytope convexe dans un espace de dimension n peut être décomposé en somme de n-s implexes dont les intersections deux à deux sont l'ensemble vide ou un s-s implexe (avec s < n). Le vo lume de tout poly­tope convexe peut donc s 'exprimer en fo nction de la longueur de ses arêtes et de ses diagonales !

Héron et tridngle

Voyons ce que donnent les formules vectorielles et matricie lles données en encadré pour les dimensions « cou­rantes ». En dimension un , le simplexe est un segment.

LES MATRICES SONT PARTOUT

le déterminant de cavlev-Menger Considérons deux groupes de n points, les n-uplets (p) = (p 1 •• • pn) et (q) = (q 1 ••• qn), de l'espace euclidien !Rm, et notons d; ,J la distance entre le point P; et le point qi"

On définit le déterminant de Cayley-Menger de la façon suivante : 0 1 1 1

1 D ( ) - (-!)" 1

n p ,Q - 2•-I

d~, d~.,

d;_, dJ.2 d~.

dJ .• .

d;., d;_, d;_. Pour deux groupes de points identiques, notons D"(p) le nombre D)p, p). Ce déterminant d'une matrice symé­trique et de trace nulle est très largement utilisé dans les problèmes géométriques traitant de distances dans les espaces euclidiens. Ils possèdent, pour les ordres les plus usuels, les interprétations vectorielles suivantes :

D, (p ,q ) = P,P2 ·q,q,,

D3(p ,q) = r P,P, /\ P1P31 · r q,q, /\ q,q3 l, D.(p,q) = det(P,Pi ,P,P3,p1p4 )ctet( q,q2 ,q,q3,q,q4 ) .

où ü · ii et ü A ii représentent respectivement le produit scalaire et le produit vectoriel des vecteurs ü et ii. Le vec­teur ü A ii a pour norme la surface du parallélogramme établi sur les vecteurs ü et ii, et la valeur absolue du déter­minant det{ü,ii,w) correspond au volume du parallélépi­pède construit à partir des vecteurs ü, ii et w ( comme le précise l'article le Sens du déterminant).

En notant SP (respectivement St) la surface et iip (respecti­vement n.) une normale du triangle généré par les points (p) (respectivement (q)) , nous avons en particulier D3(p ,q) =4Sps. (n. ii.). Nous pouvons aussi écrire D3(p,q) = 4S_a. , où a. = s.(n. ·n.) est la projection de la surface Sq sur la surface SP.

-UÂV ---- I __ .,,,.-; -- , -- ' ~:----.,!.-------------.,--- , - , , ,

W , , , , , , -+- ,' ,' ,'

V, , , , , ,' -------------;'----::~'

,' ----.. ;;;. ________________ -'!'"~--u

Hors-série n• 44. Les matrices Tangente 97

Page 100: Les Matrices_ Une Representation Du Monde

ACTIONS La trilatération

Nous avons D2 (p) = IIP,P,112 = d~2 , et par suite V2 (p) = ~D2 (p) = d1.2 , ce qui corres­

pond bien à la distance entre les points

P1 et P2·

Pour un triangle, n = 3 et D3(p) = IIP,P2 "p,p31!2. La surface du triangle S a donc pour expression

S = V3(p) = ~IIP,P2 "P,P311, qui est bien la

moitié de la surface du parallélogram­

me généré par les vecteurs P,Pi et p,p3 •

Pour un tétraèdre, La trilatération.

0 4 (p) = r det(P,/J2 ,/J,/J3,/J1/J• )f, et la formule du simplexe nous donne le GPS

le volume v. (p) = ildet(p,p2 ,P,PJ> P,P. )I · Le volume d'un tétraèdre est le sixiè­

me du vo lume du parallélépipède

engendré par trois côtés concourants

en un même sommet. En prenant les expressions matricielles,

nous avons bien

(0 1 1 \

D2 (p)=~ll O d~2 J=d,\ . I d; 2 0

Avec les notations de la figure donnée en encadré,

(0 1 \

'l' 0 c2

b' J Dl p)=- c2 0 2 .

4 1 a

1 b2 ai 0

Son développement donne

( ai - b2 - c2 \ i

Di (P) = b2c2 - l 2 ) .

Puisque 4S2 = Dlp) nous obtenons , avec un peu de calcul élémentaire , la

célèbre formu le de Héron d'Alexandrie:

S2 = s (s - a) (s - b) (s - c) , où s =(a+ b + c) / 2 est le demj-péri­

mètre du triangle.

La formule du simplexe nous donne

pour le volume d ' un tétraèdre

'~ . v. (p) = 6 · \10 4 (p) , express ton que nous

allons exploiter pour la géolocalisation.

Nous pouvons maintenant déterminer

la position d'un point q en fonction de

ses distances à trois points de référence

p = (pl' p 2 , p3) (voir la figure). Nous noterons classiquement a; le côté

du triangle b.p 1p,p3 opposé au sommet

P;- Considérons le tétraèdre défini par

le quadruplet p' = (p 1, p 2, p3 , q). La

position du point q est entièrement

déterminée par sa projection p dans le

plan de référence, et par son altitude h,

hauteur du tétraèdre.

Un tétraèdre est un cas particulier de

cône, ensemble de droites passant par

un point et s'appuyant sur une surfa­

ce . Son volume sera donc éga l au

tiers du produit de sa surface de base

par sa hauteur. Si S est la surface du

triangle b.p 1p,p3, nous avons alors

V4 (p') =.!. Sx h . En utili sant la formule 3

du volume pour les simplexes p et p' , 3V ( ') D ( ')

nous obtenons h = _ ._P_ = ~ . S Dl p)

Le vecteur ;:;; = p1p2 "p,p3 est perpendi­

culaire au plan de référence , est indé­

pendant de l' origine choisie , et a pour

norme 11 ;:;; II = ~03 ( ~_).

- w En notant n = E ll;:;;II un vecteur normal

98 Tangente Hors-série n°44. Les matrices

Page 101: Les Matrices_ Une Representation Du Monde

au plan de référence, avec E.2 = 1 (sui ­vant l'ori entation choisie du plan),

- - ~ D, (p') -nous avons pq = hn = f ---w.

0 3(p)

Avec ] 'expression vectorielle du proje­té p donnée en encadré, nous obtenons

finalement

q = -1-[± 0 3(p ,p10 )J;; + c~D, (p') ·w].

D3(p) ,-1

La détermination du point q ne néces­site que le calcul de quatre détermi­

nants de type Cay ley-Menger (puisque 3

}: D3(p,p1'>) = Dl p)), et est indépendante ,_ , du repère choisi. Les expressions des coordonnées barycentriques et de la hauteur du simplexe se générali sent à n dimensions !

Bien sûr, avec n points fi xes au lieu de

trois, s i poss ible dans des plans diffé­rents, nous avons n (n - 1) (n - 2) / 6 tri angles de références, ce qui permet d ' amé liorer la préc ision de la mesure . Ce problème de loca li sation d ' un point en fo nction des di stances à un ensemble de points fi xes est similaire à des problèmes d ' holonomie et de cal­cul de stabilité de systèmes articulés, comme un échafaudage ou une tribune de stade.

Soufflet sans jouer

Au XIXe s ièc le, les mathé mati c ie ns Adrien-Marie Legendre et Joseph-Louis Lagrange suggérèrent à Augustin Loui s Cauchy d 'étudier la fl ex ibilité de poly­èdres à faces ri g ides . Il fut le premier à établir un théorème sur le sujet : tout polyèdre convexe est rigide. Si vous construi sez un polyèdre convexe avec des faces métalliques re li ées avec des charnières , la structure de l'ensemble e mpêchera toute défo rmati on . Ma is ex iste-t-il des polyèdres non convexes flex ibles ? Raoul Bricard trou va bien

LES MATRICES SONT PARTOUT

Coordonnées barvcentriuues Dans le plan défini par le triangle 11p 1piP3, le point p a pour coordonnées barycentriques normalisées les rap­

ports s; = S/ S, pour i valant l , 2 ou 3, avec s1 + s2 + s3 = l, puisque S = S1 + S2 + S3• Cela signifie que pout tout point w

du plan du triangle, nous avons la relation vectorielle

co p = s,co p , + s2cop2 + s3coPJ ,que l'on peut écrire p = s, p, + s2 --;i;_ + s3A. Dans la suite, notons p<i) le triplet dans

lequel le point P; est remplacé par le point q. Il correspond à la face du tétraèdre ayant pour sommet le point q et le

segment a ; pour côté. D'après les résultats présentés dans l'autre encadré, nous avons Dl p , p<O) = 4S;S.

Nous en déduisons les coefficients barycentriques s; du projetép:

4SS, 0 3(p ,pm) s. = - -= . ' 4S2 0 3(p )

Nous obtenons ainsi une expression du projeté p du point q sur le plan de référence en conservant la symétrie des données:

- ,{, - 1 ,{, (1) -p= L, s, p, =~( ) L,D3(p ,p )P;,

i•I 3 p i • I

Un flexaèdre de Connelly.

des octaèdres articulés en 1897 , mais des faces s' interpénètrent , ce qui en

empêche une réalisation matérielle. Il fal­lut attendre 1977 pour que le Canadien Robert Connelly construi se un poly­èdre fle xible, mais non convexe bien

Hors-série n° 44. Les matrices Tangente 99

Page 102: Les Matrices_ Une Representation Du Monde

ACTIONS La trilatération

sGr. li existe un polyèdre flexibl e de

Kl aus Ste ffe n à neuf sommets, e t on

sait qu ' un polyèdre ayant au plus sept

sommets est ri g ide. Trouver un po ly­

èdre flexible à huit sommets reste une

question ouverte !

Robe rt Conne ll y dé montra que le

volume de son polyèdre resta it

constant au cours de la déform ation et

supputa, sous le nom de conjecture du soufflet , qu ' il en était de même pour

tout polyèdre fl ex ible. Idjad Sabitov

prouva en 1996 une générali sation de

la formu le de Héron . Il démontra que

le volume d ' un polyèdre à troi s dimen­

s ions est solution d ' une équation po ly­

nomia le dont les coefficients sont eux­

mêmes des po lynômes des carrés des

longueurs des arêtes. Ce volume ne

peut donc prendre qu ' un no mbre fi ni

de va leurs. Lors de la déform ation

d ' un fl exaèdre, son volume ne peut

alors varier continGment , car il pren­

dra it nécessairement une infinité de

valeurs . Le volume garde une va leur

constante, et la conjecture du soufflet

dev ient un théorème !

F. L.

Tangente Hors-série n°44. Les matrices

Page 103: Les Matrices_ Une Representation Du Monde

orn

Hrthur Cayley (1821-1895)

t oatt1

Bie n que nati f de Ri ch­

mond en Angleterre, Arthur

Cayley passe les hui t pre­

mières années de sa vie à

Saint-Pétersbourg où ses

parents font du commerce.

Il étudie les mathématiques

et le droit au Trinity Col­

lege de Ca mbridge . Il

devient avocat en 1849, mais se livre à sa passion pour

les maths à ses temps libres. En 1863, il peut tota­

lement s'y adonner puisqu ' il obtient une chaire de

mathématiques pures à Cambridge.

Cayley semble avoir obtenu toutes les vertus pos­

sibles : une gentillesse reconnue par tous, une mémoire

fantastique, sans oublier des dons intellectuels et

artistiques hors du commun. Il pe int des aquarelles ;

passionné de romans, il en écrit quelques-uns et en

lit en anglais mais aussi en français, en allemand et

en italien . Sportif, féru d 'escalade, il venait séjour­

ner régulièrement dans les Alpes pour s'adonner à

son sport favori.

Les travaux d ' Arthur Cay ley concernent tous les

domaines, mais surtout l' algèbre linéaire et les fonc­

tions elliptiques . On lui doit de nombreux résultats

sur les groupes, les matrices, les formes quadratiques.

li développe la théorie des invariants ; ce terme,

inventé par Sylvester, recouvrait les propriétés des appli­

cations linéaires ou multilinéaires (comme le déter­

minant) invariantes par changement de base .

,.-5,50!) e&.) ... . . s,o o8611' ........ !)08 •• •••• 88,411·1 + •,1,87r 1N••+ e.Nlgo8lf0 + 01oooe4SN°' :.-: n,

o,~7865N +(r - u ,8u ~ )N"' .. 5,71 , ,._~·+tt,o.S8 7, , ·1- • +•,1s8o&l~··+.•,018;8tfl\0 + 0,,.,o'l'l4N., - '

•, .. 9099N + 4,:lo8o33N'+ (1 + • • ,97ofo8,) !<" + •,•'9 J:00• 1 + 1 ,Gtls,o87tc'"+ o,°"'J:$8oN"'+ o, ... S9,4N•• =r o,

a découuerte de neptune Urbain Le Verrier

(portrait par Henri

Giacomotti ; Versailles,

musée national des châteaux

de Versailles et de Trianon).

Quelques années avant sa .2 "' découverte de Neptune (en

j 1846), J'astronome et mathé-

o maticien français Urbain

Jean Jose ph Le Verrier ( 1811-1877) publie en 1840, dans

le Journal de mathématiques pures et appliquées (ou

Journal de Liouville), des travaux mathématiques pré­

curseurs de ce qui deviendra la théorie des matrices. Posant

les équations différentielles des mouvements des sept

planètes connues à cette époque, il introduit l'équiva­

lent des valeurs propres et de la diagonalisation d ' une

matrice. Il relie ces notions à l'analyse astronomique

du problème, distinguant les trois « grosses » planètes,

plus perturbatrices (Jupiter, Saturne, Uranus), et les

quatre « petites » planètes (Mercure, Vénus, la Terre

et Mars).

Ce faisant , il simplifie son système matriciel 7 x 7 en le

décomposant en deux blocs de 4 et 3. Bref, il transforme

un problème d'astronomie en un problème d 'algèbre!

C'est d'ailleurs cette dextérité et cette persévérance dans

le maniement des systèmes différentiels et de leur réso­

I ution matricielle (avant la lettre) qui mèneront Le

Verrier à la découverte de la huitième planète, Neptune.

Elle était désignée comme planète « troublante » , au

sens mathématique, car elle modifiait la trajectoire de

sa voisine Uranus : les observations des positions de

celle-ci ne correspondaient pas aux solutions approchées

des systèmes différentiels.

C'est bien la trace des mathématiques qu'a suivie Le

Verrier pour découvrir Neptune, bien plus que celle

de l'observation astronomique (voir le texte d 'Alain

Juhel sur le site www.bibnurn.education.fr). Le fameux

•,eo6,351f + • .-.6g85,ll'+ ,,>p, 36sll"=( ,-,,.5g&..,)ll·i + S,Jo.4 e38 !C"'+e,1d&46~+ .... ,,s,N•• = • , ,4)

bon mot d 'Arago le confirmera : « Monsieur Le Ver­

rier vit le nouvel astre au bout de sa plume. » •,OMo'l'ISt N+ •,0007.,,srr+ o,oo~ 1h 117W+ •,001 1S46-t ·1

+ (1 - 7,4'9•4•)11~ + 4,8,54541" + o,ol$J,9-'I" = •, o, ... 001,45l'C + o,"""°e.45ntt'+o,uoe 13688 •+o,ooo oG56S -i

+ t1 ,893 M9N'''+ (1 - 1S,S8S 4,o) t{'+ tt,d s.,41 " 1: 0

o,HO oooo6Pf + o,000001 9-ir<'+o,tl09 oo519N"'4· • ,.,..eo, 73 ·1 + o,)o) ~,gN" + o,83548,l<'+(K - ,,3,59'5) " "' •,

Le système 7x7 de Le Verrier, brut, avant simplification. On remarquera la petitesse des quatre premiers coefficients dans les trois dernières lignes.

en n 44. L m ne a.n9 nt 101

Page 104: Les Matrices_ Une Representation Du Monde

ACTIONS par Daniel Justens

les matrices actuarielles Les contrats d'assurance-vie peuvent garantir le paiement d'un capital déterminé en cas de survie d'un assuré à un âge donné (capital différé), ou le paiement de ce capital aux ayant­droit au moment du décès de l'assuré (assurance décès). L'actuariat, tant «vie» que « accident », a aussi recours au calcul matriciel.

L ' actuariat recouvre l'en­semble des méthodes mathé­matiques utilisées dans le

monde des assurances. On parle d'ac­tuariat de premier type lorsque l'on traite d'assurances couvrant le risque de décès ou de survie d'un assuré, d'actuariat de deuxième type pour qua­lifier tous les contrats couvrant des risques accidentels, et, depuis quatre décennies, d'actuariat de troisième type pour tous les modèles financiers , lesquels aujourd'hui se taillent la part du lion étant donné l'importance et le nombre de produits « étranges » (on dit exotiques) qui inondent les marchés.

On imagine mal une compagnie d'assurances exigeant la restitution

d'un capital invalidité en cas de guérison miraculeuse ...

l'actuariat uiager

Les contrats d'assurances-vie sont de deux types : certains garantissent le paiement d'un capital déterminé en cas de survie d'un assuré à un âge donné (le capital est différé) , d'autres garan­tissent le paiement de ce capital aux ayant-droit au moment du décès de l'assuré (assurance décès). Le contex­te de ces types de contrat est donc celui d'un système à deux états : vie ou mort. L'assuré vivant peut rester vivant ou passer à l'état« décédé» (n ' insis­tons pas sur la seule possibilité laissée à l'assuré mort ... ). On peut convenir d'observer un assuré lors de ses anni­versaires successifs et de noter systé­matiquement son état. Admettons que l'on puisse déterminer la probabilité de survie d ' un assuré pendant un an, notée p (0 < p < 1 ), que nou supposons dans un premier temps indépendante de son

Tangente Hors-série n°44. Les matrices

Page 105: Les Matrices_ Une Representation Du Monde

âge. On peut noter les probabilités de transition d'états vie- mort au moyen de la matrice suivante :

M=( ~ l~p J La première ligne décrit les probabili­tés de transition vers les deux états vie et mort d ' un individu vivant. La secon­de ligne correspond aux probabilités de transition à partir de l'état décédé. Cet

état est qualifié d'absorbant pour des raisons évidente dans notre contexte (voir l'encadré consacré aux chaînes de Markov). On peut à présent s'inté­resser à l'état de l'assuré après deux ans. En supposant les transitions suc­cessives indépendantes, on sait que la probabilité de survie après deux ans doit valoir p2. La probabilité de décès, complémentaire, doit être égale à 1 - p 2. En effet, ce décès a pu survenir pendant la première année (probabilité 1 - p), ou durant la seconde, auquel cas l' assuré a du survivre un an puis décé­der l' année suivante. Ces événements étant indépendants par hypothèse, leur probabilité de réalisation simultanée est égale au produit des probabilités soit p X (! - p). Les deux événements (décès la première ou la seconde année) étant disjoints, la probabilité de réalisation de l'un ou l'autre des évé­nements est la somme des probabilités, soit [1 - p] + [p (1 - p)] = l - p 2. On a vérifié ainsi que la matrice de transi­tion d 'états en deux ans correspondait exactement à la matrice M2, et égale­ment que la procédure de calcul mise en place était celle du produit matri­

ciel:

M ' =[ ~ (1-,p)' l On généralise sans peine ce résultat pour obtenir la matrice de transition d'états après n années :

M" =( ~· (1-i")" }

On constate hélas que la limite pour n tendant vers l' infini de cette matrice prend la forme suivante :

M - =( ~ ~ J qui exprime que le seul état final attei­gnable, quel que soit l'état initial, est celui de décédé. Apparaît ici la notion très claire d'état transitoire (être

vivant) et d'état persistant (être mort). Toutes ces notions sont formalisées dans le cadre de la théorie des chaînes de Markov.

La réalité est un peu différente : les probabilités de transitions dépendent de l'état du système (la probabilité de

survie varie avec l'âge). Les matrices décrivant les probabilités de transition deviennent :

Mx=[~ 1-t-' } où x désigne l'âge de l'assuré. Après

deux ans, on retrouve la multiplication matricielle classique :

MM =( P., 1-p, J( p_.. , 1-p_.. , ) x x+ I Û i Û i

avec les mêmes conclusions sinistres à long terme ...

maladie et inualidité

Tournons-nous vers les contrats cou­vrant les cas de maladie ou d ' invalidi­

té. Dans ce contexte, le système étudié () 'assuré) peut connaître quatre états : être vivant et actif, être vivant et inva­lide, être mort en tant qu 'actif ou être

Hors-série n°44. Les matrices Ta.ngent:e 103

Page 106: Les Matrices_ Une Representation Du Monde

ACTIONS

les chaines de Markov Considérons un système en évolution pouvant prendre un nombre fini ou dénombrable d'états notés Ei, E2 . .. et travaillons à temps discret en considérant des indices de temps naturels 0, l, 2 ... Toutes les unités de temps, on postule que le système passe de l'état E; à l'état Ej avec une probabilité Pij· Ce processus n'a pas de mémoire: les probabilités de transi­tion dépendent uniquement de l'état du systè­me avant sa transformation (E; ou plus simple­ment i) et de son état après (Ej ou j). Elles ne dépendent pas des états antérieurs. Un proces­sus markovien est un système évoluant de manière aléatoire dans le temps tel que sa dis­tribution de probabilité conditionnelle des états futurs, étant donné la connaissance de ses états passés et son état présent, ne dépend que de ce dernier. Pour de tels processus , la meilleure prévision que l'on puisse faire du futur, à partir de son passé et de son présent, est identique à la meilleure prévision élaborée sur base de la seule connaissance de son état actuel. Dans le cas d'un nombre finis d'états , ces probabilités de transition peuvent se ranger dans une matrice P dite stochastique (ou matrice de Markov), à savoir une matrice car­rée s X s dont chaque élément est un réel posi­tif et pour laquelle la somme des éléments de chaque ligne vaut 1 (et constitue donc une dis­tribution de probabilité discrète) . Ce type de matrices permet d 'obtenir une classification des états du système. Par exemple, si pour l' un des états du système on a P;; = 1 (et donc Pij = 0 pour j '# i) , cet état i sera qualifié d 'ab­sorbant pour des raisons évidentes. Mais il y a plus subtil ! Notons p/11l la probabilité de pas-

Les matrices actuarielles

ser de l'état i à l'état} en exactement n transi­tions. Eh bien, cette probabilité est fournie par la puissance énième de la matrice P. Un état} est accessible à partir d'un état i s'il existe un n tel que pJ") > O. Les états i etj communiquent s'ils sont accessibles l'un à partir de l'autre. Si tous les états d'une chaî­ne communiquent, on dit que la chaîne est irréductible. Un état i est récurrent ou encore persistant si la probabilité du système d'y retourner (en un nombre quelconque de pas) est égale à 1. Dans le cas contraire, l'état est transitoire. On dis­tingue encore les états persistants nuls ou non nuls elon que le temp moyen de retour est infini ou fini. Supposons à présent que l'on observe un ensemble de systèmes évoluant selon la même dynamique, et que les fréquences de présence dans les différents états Ei de ces systèmes soient décrites par le vecteur a= (a 1, a2, a3 ....

a.,) dont toutes les composantes sont positives et de somme nulle. Après une transformation, on s'attend à retrouver un ensemble caractéri­sé par le vecteur aP. De même, après n pas, le vecteur d'états de l'ensemble des systèmes sera aP'. Sous certaines conditions, cette pro­cédure génère une « stabilité» : à long terme, pour les chaines non périodiques constituées d'états persistants , le vecteur d'états tend vers une distribution dite stationnaire (c'est-à-dire globalement identique après chaque transfor­mation individuelle des différents systèmes de l'ensemble). Des exemples d'ensembles de ce type se retrouvent en actuariat accident, lorsque l'on considère un portefeuille d'assu­rés constitués de conducteurs tarifés indivi­duellement en fonction du nombre d'accidents dont ils sont responsables.

mort en tant qu ' invalide. Les deux der­niers états sont considérés comme dif­férents, les prestations de ( 'assureur étant le plus souvent significativement supérieures dans le second cas de figu-

re (qui survient après deux change­ments d' état et se traduit donc généra­lement par deux débours de la part de l'organisme assureur). Reprenons une description des probabilités de transi-

~ 04 Tangente Hors-série n"44. Les matrices

Page 107: Les Matrices_ Une Representation Du Monde

tion d'état indépendante de l'âge

comme plus haut :

[ p"' p"j q(l,(l q"·i

l p"' p jj q i.a q jj

0 0 1 0 0 0 0 1

Les exposants a et i font référence à l'état initial (premier indice) et final

(second indice) de l'assuré, a signifiant « actif» et i, « invalide». Les nota­tions p se réfèrent au maintient dans ! ' état de vivant, les notations q quanti­fient les probabilités de passage à l'état de décédé. Les sommes des éléments de chaque ligne doivent évidemment être égales à 1. Pour simplifier un peu cette matrice, les assureurs font généralement ( 'hy­pothèse de non-retour à l' état d'activi­té en partant de l' état d'invalide. Cette

hypothèse est réaliste : le passage à l' état d'invalide se traduit générale­ment par le versement d ' un capital. On imagine mal une compagnie d ' assu­rances exigeant la restitution de ce capital en cas de guenson miraculeuse ! Voici la matrice simpli­

fiée avec suppression des doubles indices inutiles :

p"j q l/JI q"j

l / 0 qi

0 1 0 0 0

Pour traduire cette hypothèse selon la terminologie des chaînes de Markov, on dit que l' ensemble des états d'inva­lidité est un ensemble f ermé. Il faut alors particulariser toutes ces probabilités de transition en fonction de l' âge des assurés. Par matrice, donc par catégorie d'âge, on doit calibrer six paramètres. Ces paramètres sont liés : les transitions d 'états sont des distribu-

LES MATRICES SONT PARTOUT

tions de probabilité pour lesquelles les sommes de probabilités doivent être égales à 1. Restent quatre degrés de liberté par matrice. En considérant des catégories d ' âge de O à 104 ans, ce sont 420 paramètres que les assureurs sont censés estimer ! On constate ici à quel point le processus de tarification de ce type de contrat est délicat. ..

Hctuariat accident

Nous sommes presque tous confrontés à l' obligation de souscrire une assuran­ce responsabilité civile. Celle-ci est tarifée à partir d ' échelles de primes calculées selon deux modes complé­mentaires : le mode a priori, en fonc­tions de critères plus ou moins arbi­traires, et le mode a posteriori, en fonction du comportement de chaque conducteur. Parmi les critères a priori figurent le type de véhicule et sa puis­sance, l'âge du conducteur, son lieu de résidence, sa profession, la date d 'émission de son permis de condui­

re . .. Le critère a posteriori paraît plus objectif puisqu'il consiste à comptabi­liser chaque année le nombre d'acci­dents en tort à mettre au crédit (ou plu­tôt au débit !) de chaque assuré. Le nombre d'accidents en droit pourrait également être pris en compte, ce ren-

Hors-série n°44. Les matrices Tangente 105

Page 108: Les Matrices_ Une Representation Du Monde

ACTIONS Les matrices actuarielles

seignement apportant des informations sur le comportement du conducteur. . .

Sur la base des critères a priori, l'or­

ganisme assureur détermine une pre­

mière prime, qui pourra éventuelle­

ment soit augmenter l'année suivante

si l'assuré est responsable d ' accidents,

soit diminuer s ' il n ' est responsable

d'aucun. L' assureur doit établir une échelle de tarification définissant dif­

férents niveaux de primes, notés de O à s. Le niveau d'entrée q dans le système

(0 < q < s) doit aussi être détenniné.

Ces niveaux représentent les états du

système. Des règles de passage d'un

niveau de tarification à ! 'autre doivent

être définies par l'organisme assureur.

Les probabilités de passage d'un état à ! 'autre sont présentées dans une matri­

ce, que l'on construit à partir des

règles de passage et des probabilités pk d'observer k accidents dans l' année

qui vient.

Supposons pour simplifier que le sys­

tème compte cinq états correspondant

à cinq niveaux de prime croissants,

numérotés de O à 4, et que chaque

accident en tort provoque le passage

dans le niveau de tarification supérieur

alors que l'absence d'accident permet

de redescendre d'un cran. Sous ces

conditions simples (en fait, les sys­

tèmes réels comportent plus d'états et

des règles de transition plus com­

plexes), la matrice de probabilités de

transition prend la forme suivante (la

dernière colonne est construite pour

obtenir une distribution de probabilité

à chaque ligne) :

Po P, P, P, 1 - Po - P, - P, - P,

Po 0 P, P, 1- po- P, - p,

P= 0 Po 0 P, 1- po- P,

0 0 Po 0 1- po

0 0 0 Po 1- po

La modélisation des probabilités d ' ac­

cident se fait théoriquement au moyen

d'une distribution de Poisson de para­mètre À qui quantifie le nombre moyen

d'accidents dont l'assuré est respon­

sable chaque année. Le problème

consiste à affecter à chaque assuré le

« bon » À. Pour arriver à une tarifica­

tion sur base d'observations issues

d'un portefeuille hétérogène, les

actuaires considèrent généralement ce

paramètre comme une deuxième

variable aléatoire. Ceci donne naissan­

ce aux distributions Poisson-mélange.

Regardons comment évolue un porte­

feuille de clients pour lequel les fré­

quences d'assurés présents dans les

cinq états ou niveaux de prime sont

représentées par le vecteur a = (a0, al> a2, a3, a4), dont les composantes sont

positives et de somme 1. Après un an,

la compagnie d ' assurance se trouvera

en présence d ' un portefeuille caractéri­

sé par un vecteur de fréquences aP. Après deux ans, ce vecteur sera aP2 et,

après n années, aP''. Chaque compa­

gnie peut ainsi déterminer le niveau

total de ses encaissements, étant donné

les primes initiales et la grille de taux

de primes choisie. Ceci est fondamen­

tal pour une gestion réaliste. L'idéal est

évidemment la constitution d'un porte­

feuille rentable et stable ...

Pour obtenir un tel portefeuille stable,

de composante b = (b0, bJ> b2, b3, b4) , ne

changeant pas au niveau des percep­

tions de primes, année après année, on doit avoir 8 = BP. Un tel portefeuille de

composante 8 est appelé distribution

stationnaire. Sous certaines conditions, on peut démontrer que tout portefeuille

tend naturellement vers cette distribu­

tion stationnaire, ou encore

que lim AP" = B. Malheureusement,

cela nëgarantit aucunement la rentabili­

té de ce secteur d ' activité d ' assurances !

D.J.

ri 06 Tangente Hors-série n°44. Les matrices

Page 109: Les Matrices_ Une Representation Du Monde

par B. Hauchecorne et N. Verdier

u ~ go :,: Q

L' IUT de Cachan fo rme des techniciens et ingénieurs électroniciens qui contribuent à concevoir le monde de demain, un monde qui se nourrit de matrices . ..

électronique consomme ... des matrices ! S' il est un secteur grand consommateur de matrices, c'est

bien l' é lectronique . Les é lectronic iens aiment à extraire

de leurs montages de fi ls des opérateurs leur permettant

d'analyser un circuit é lectrique. Il s servent à modéliser

les relations uni ssant des grandeurs de sortie en fo nction

de grandeurs d 'entrée (courants, tensions, intensités . . . ).

1 ,, - ~ +-- -::;: ::;:

Sur ce quadripôle, v, les entrées et les sor ties v,

sont des intensités. = = - -

Souvent, les grandeurs d'entrée, notées (x, y), et les gran­

deurs de sortie, notées (x', y'), sont liées par une relation

du type x' = a x + b y et y' = c x + d y, où a, b, c et d sont

des constantes. Le système peut alors être modélisé par

S = A x E, où S désigne le vecteur des sorties , E le vecteur

des entrées et A représente la matrice (: !) . L'électronicien aime à itérer. Si l'on accole un deuxième

quadripôle au premier, pui s un tro isième quadripôle, et

plus, comment exprimer les « nouvelles» sorties en fonc­

tions des entrées initi ales ? La modélisation matri cie lle

saute aux yeux ! En appelant E0 les entrées initiales et E,,

les entrées résultant de l'adjonction de n qu adripô les,

nous aurons simplement E,, = A" E0 . Il suffit de savoir

élever une mat rice à la pui ssance n pour avo ir immédia­

tement les paramètres de sorti e en fo ncti on des para­

mètres d'entrées . L' itération des quadripôles se réduit à

un calcul matricie l ! Mais comme nous ! 'avons vu dans

l' article précédent , élever une matrice , c'est du trava il ...

EN BREF

Un peu d'histoire En cherchant à résoudre les mouvements d'une corde vibrante, d'Alembert se ramène à une équation différentielle aux dérivées partielles . Pour la résoudre, Lagrange aboutit à un système avec des coefficients « en miroir » ; c'est en fait une matrice symétrique. Par une méthode fort habile il par­vient alors à un polynôme, en fait, le polynôme caractéristique ; il sait résoudre l'équation de départ si ses racines sont distinctes . Lagrange généralise cette méthode pour étudier les pertur­bations des trajectoires des planètes et la stabilité du système solaire.

Dans les années 1820, en étudiant les quadriques, surfaces d 'équationflx,y,z) = 0 oùf est une fonc­tion polynomiale de degré 2, Cauchy annule les dérivées partielles secondes de f et se retrouve devant le même problème que Lagrange. En termes modernes, il montre que les axes correspondent aux vecteurs propres de la matrice de la quadrique et que les valeurs propres sont les racines de ce qu'il appelle l'équation caractéristique. Il fait alors le lien avec la recherche des axes d'inertie d'un solide en rotation .

Pierre de Fermat avait au xvn• siècle posé le pro­blème de la décomposition d'un entier en somme de deux carrés, par exemple 13 = 32 + 22

. Ceci cor­respond à chercher les valeurs entières de x2 + y2. Legendre généralise ce problème en l'étendant à la recherche des valeurs entières prises par une forme quadratique. Gauss se retrouve devant le même problème, en introduisant la méthode des moindres carrés pour trouver l'orbite de l'astéroïde Cérès. La solution revient à classifier les formes quadra­tiques, c'est-à-dire les exprimer comme combi­naison linéaire de carrés des coordonnées après avoir fait subir à celles-ci une transformation linéaire. Gustav Jacobi démontre en 1841 qu ' une telle forme peut se mettre comme somme et diffé­rences de carrés. Ce résultat est connu sous le nom de théorème d' inertie de Sylvester, le savant anglais l'ayant démontré indépendamment peu après. En 1858, Weierstrass aboutit au résultat en restant dans le cadre des bases orthonormées. Les matrices des formes quadratiques étant symétriques, il démon­trait en fait le théorème spectral.

Hors-série n° 44. Les matrices Tc:ingeni:e 107

Page 110: Les Matrices_ Une Representation Du Monde

ACTIONS par J. Bair et A. Coolen

les tableaux entrées-sorties I •

en econom1e Wassily Leontief est un célèbre économiste américain, d'origine russe. Il a reçu le prix Nobel d'économie en 1973. Il est principalement connu pour des travaux qui portent sur des tableaux d'échanges interindustriels, encore appelés tableaux d'entrées-sorties (ou input-output).

Wassily Leontief (1905-1999) .

Une économie aujourd'hui com­porte de nombreux secteurs S 1 ,

S2 . .. S11, par exemple l'industrie,

l'agriculture , les services . . . Chacun de ces secteurs produit un seul type de bien ou de service, mais interagit avec les autres secteurs . La livraison intermé­diaire représente la production (I 'out­put, en anglais) du secteur S; à destination du secteur SP et donc aussi l'entrée (I ' in­put, en anglais) du secteur s1 en prove­

nance du secteur S;. Cette quantité sera

désignée x;J·

Les biens produits par les différents sec­

teurs ne sont pas nécessairement homo­gènes, de sorte que leurs quantités physiques peuvent parfois ne pas être comparables. Comment, par exemple , additionner le nombre de tonnes de fruits récoltés avec le nombre d ' heures récla­

mées par un service à la personne ? En conséquence, en vue de calculer la pro­duction globale et l'entrée globale d ' un secteur, il faut être capable d 'exprimer

les X; J en valeurs monétaires , de manière à pouvoir notamment les ajouter les uns aux autres . Par exemple , si le secteur S1

désigne l'agriculture et le secteur S2 celui

des services , alors x 1,2 est la valeur, en euros , de la production agricole néces­saire au fonctionnement du secteur des services. Mais les faits sont rarement aussi simples dans la vie : un tel choix peut poser des problèmes pour la com­

paraison de tableaux relatifs à des dates différentes , puisque les systèmes des prix varient au cours du temps ! Le modèle que nous allons développer est donc valable uniquement dans le court terme .

108 Tangente Hors-série n°44. Les matrices

Page 111: Les Matrices_ Une Representation Du Monde

Trauail et capital

Les secteurs effectuent généralement des li vrai sons de produits fini s dans le but de sati sfaire une demande finale (comme la consommation des ménages , les investissements des pouvoirs publics, les exportations de biens et services à des­tination de ('étranger. .. ) . Appelons d; la valeur (en unités monétaires) de la demande finale adressée au secteur S;. Les X;J et les d; peuvent être repris sous la forme d ' un tableau :

Secteurs Demandes consommateurs fi nales

s, s 2 .. . s,, ,,, s, x1.1 x,.2 x 1.11 d, ... .. . :::, <)

ü c/2

:::, s 2 X2.I x 2.2 .. . X

"Cl 2,,

e a. : : ,,, : : : : ... :::, <)

ü s,, X x n.2 ... X d,, <) n.l "·" [/'J

Synthèse des livraisons intermédiaires

et des demandes finales, le tout étant

exprimé en unités monétaires.

La somme des éléments dans chacune des lignes donne la production globale de chaque secteur (exprimée en unités monétaires) . Celle du secteur S; est dès lors donnée par la somme

x ;,1 + x;.2 + . ;, . + X ;1, + d;, ce qui s'écrit

également 2:X;.j + d; et que l'on note J-1

plus simplement x, La somme des éléments de chacune des co lonnes fo urnit l 'entrée g lobale de chaque secteur (également exprimée en unités monétaires). Celle du secteur S; est donc donnée par x1 . + x2 . + .. . + x ·,

., .l " ll ,l

soit , en notation plus condensée , 2 xj.;. j-1

Enfi n, chaque secteur S; consomn~.e des

biens intermédiaires à raison de 2 x1.,.

j- 1

LES MATRICES SONT PARTOUT

Comment la production doit-elle varier lorsque la demande change ? À l'origine, on a X = (I - A)- 1 D. Si les demandes D deviennent D +L:. D alors les productions X deviennent X +L:.Xavec X +l':.X = (I-Ar(D +L:. D)

= E(D +L:. D) = E X D +E X l':. D. On en déduit que l':. X = E x l':. D

En considérant le cas où la demande finale du secteur} aug­mente de 1 tandis que les autres demandes ne sont pas modi­fiées, on constate quel':. X correspond précisément à la/'me colonne de E.

Autrement dit, les éléments de la/'me colonne de E = (I - A)- 1 représentent les quantités supplémentaires que les différents secteurs auront à produire pour répondre à un accroissement d'une unité de la demande finale du secteur}.

Plus précisément, (L':. X); = e;J représente la quantité sup­plémentaire que doit produire le secteur S; lorsque la demande finale du secteur s1 augmente d'une unité.

(somme des éléments de la colonne i du tableau des échanges), et augmente la valeur des biens achetés par l' i ntermé­diaire des facteurs « travail » et « capi ­tal » de manière à produire un bien de valeur X; (somme des éléments de la ligne i du tableau). La différence entre la valeur de la production globale et la valeur de l'entrée globale du secteur S; est appe­lée sa valeur ajoutée, notée v;. La valeur ajoutée V; vaut

n

v, = x, - 2 xjJ' J-1

Hors-série n• 44. Les matrices Tangente 109

Page 112: Les Matrices_ Une Representation Du Monde

ACTIONS Les tableaux entrées-sorties ...

"O s i 0 .... o..

(/) s 2

À court terme, il est permis de supposer que chaque secteur doit utili ser une pro­portion constante d 'entrée pour sa pro­

duction finale. En d 'autres termes,xij' qui est la quantité produite par S; pour Sj , est proportionnelle à la production glo­

bale xj du « secteur receveur » Sr En termes plus mathématiques, cette relation

s'écrit X;J = aiJ x xj , avec aiJ = x;/ xj le coeffic ient de proportionnalité .

En conséquence, a;J représente la valeur de la production du secteur S; que Sj doit acquérir pour produire (l a quantité cor­respondant à) une unité monéta ire de

son propre bien. Les nombres aiJ sont appelés coefficients techniques, car il s

dépendent de la technologie employée.

l'arriuée des matrices

Commençons avec l'exemple d ' une éco-nomie à deux secteurs .

Secteurs Demandes consommateurs finales

s1 s 2

x1. 1 x1.2 d l

X 2. I x 2,2 d 2

Une économie à deux secteurs.

La production de Si, à savoir x 1 = x1.1 + x 1.2 + di, peut également s ' écrire sous la forme

X 1 = a1 ,1X1 + a1 ,2X2 + d 1. De même, la production de S2 vaut

X2 = a2,1 X1 + a 2.2X2 + d2. Ces deux relations peuvent nature lle­ment s'écrire sous la forme matric ie lle sui vante:

ou encore X = A X + D. Dans cette der­nière écriture , on a noté X le vecteur des producti ons g lobales, A la matrice des coeffic ients techn iques (A est appe­lée la matrice technologique), et D est le vecteur des demandes fi nales. Le rai­sonnement c i-dessus peut aisément être

généralisé au cas d ' une économie à plus de deux secteurs. La re lation matricielle X = A X + D peut aussi s 'écrire sous la forme (1 - A)X = D , où I désigne la matrice identité . La matrice 1 - A joue dès lors un rôle cap i­tal ; elle est connue sous le nom de matrice de Leontief, en l' honneur de l'écono­miste améri ca in Wass il y Wassil yov itch

Leonti ef. Lorsque la matri ce de Leon­tief est inversible, le ni veau de produc­tion de chaque secteur s' obtient simplement

par la relati on X= (I - At1 D.

Lorsque les conditions technolog iques restent inchangées et que les demandes

fi na les adressées aux d iffére nts sec­teurs se modi fie nt , D devenant alors D ' , il s'ensui t que les nouvell es pro­duc tions g loba les X ' seront don nées par (1 - At 1 D'. Ainsi, un seul calcul d ' invers ion matric ie ll e est à réaliser,

celui de la matri ce de Leontief.

Voyons un exemple concret, toujours da ns le cas d' une écono mie à de ux secteurs.

Secteurs consommateurs

s, s2

Demandes fina les

-ci s, 12 3 5 e o.

Cil s2 4 6 5

Un exemple concret dans le cas

d ' une économie à deux secteurs.

Dans cette situati on initiale , la produc­tion du secteur I vaut 12 + 3 + 5 = 20 ,

110 Tangente Hors-série n°44. Les matrices

Page 113: Les Matrices_ Une Representation Du Monde

et la production du secteur 2 est égal à

4+6+5=15.

Les relations a;J = X;) xj permettent d'obtenir la matrice technologique asso­ciée à cet exemple :

a 1_1 = 12 / 20 = 0,6,

a 1,2 =3 / 15=0,2, G1,3 = 4 / 20 = 0,2 et a 1,4 = 6 I 15 = 0 ,4.

InSI , A= . A. . (0,6 0,2) 0,2 0,4

Imaginons à présent que les demandes finales deviennent 6 unités monétaires (au lieu de 5) pour les deux secteurs.

Lorsque le vecteur D = ( 5

) devient

D'=(!), 5 le vecteur X=(~~) devient

X'={I-Af'D'=(~ ~)(!) =(~:).

la uariation des demandes

On peut montrer (voir l'encadré consa­cré à l'évolution de la production) que

les éléments e;J de la matrice E = (l-Af I permettent de prévoir com­

ment doit varier la production lorsque la demande évolue, « toutes choses égales par ailleurs » (cette expression, cou­ramment utili sée par les économistes, signifie que les conditions de produc­tion , et donc ici le éléments de la matrice technologique , restent inchangées).

Lorsque la demande finale du secteur I augmente d ' une unité , la production du secteur I doit augmenter de troi s uni­

tés et la production du secteur 2 doit augmenter d ' une unité (valeurs lues

dans la première colonne de E = (l-Af 1

). Lorsque la demande finale du secteur 2 augmente d ' une unité , la production du secteur I doit augmenter

LES MATRICES SONT PARTOUT

À court terme, chaque secteur doit utiliser une proportion constante d'entrée pour sa production finale.

La part de la valeur ajoutée de l'agriculture ne cesse de décroître

dans l'économie française.

d ' une unité également et la production du secteur 2 doit augmenter de deux unités (valeurs lues dans la deuxième colonne de E = (I-Af1). Donc , lorsque les demandes finales des deux secteurs augmentent chacune de I unité , la pro­duction du secteur I doit augmenter de quatre unités et la production du sec­teur 2 doit augmenter de trois unités. En d ' autres termes ,

x 1 = 20 devient x 1 + = 20 + 4 = 24, etx2 = 15 devientx2 + = 15 + 3 =18 .

On voit ainsi qu ' il y a de nombreuses façons d 'obtenir les résultats demandés pour satisfaire une évolution de la demande. L' avantage de la méthode

matricielle est de pouvoir se généraliser aisément à un nombre quelconque de secteurs d'activités, et de ne nécessiter

qu'une seule inversion de matrice.

J.B.&A.C.

Hors-série n• 44. Les matrices Tangente 111

Page 114: Les Matrices_ Une Representation Du Monde

ACTIONS par Jacques Bair

Exemples élémentaires de matrices en économie Les économistes sont souvent amenés à manipuler des tableaux de nombres qui sont les résultats d'observations empiriques ou qui sont construits à partir de règles précises . Illustrons les opérations matricielles de base par des exemples variés et très simples rencontrés dans l'univers économique.

Lorsque des clients ont la poss i­bilité d'acheter plus ieurs pro­duits, leurs commandes peuvent

être rassemblées dans un tableau dont les lignes se réfèrent aux acheteurs et les colonnes aux biens .

Pour fixer les idées, considérons le cas de trois clients, a, b etc, qui peuvent acheter quatre produits A, B , Cet D . Par exemple, le premier c lient , a, com­mande cinq unités de A , deux unités

de B, quatre unités de Cet une unité de D. Le deuxiè me c lient , b, porte son choix sur trois unités de A, deux uni­tés de C et trois unités de D , mais ne désire pas acquérir de produit B . Enfin , la troisième personne, c, souhaite obte­

nir deux unités de A et cinq unités de C , et n 'est inté ressée par aucun des

deux produits B et D . Ces données, écrites sous forme d ' un tableau comprenant trois lignes et quatre colonnes, forment une matrice M de format 3 x 4, à savoir :

(5 2 4 1\

M=l~ ~ ! ~J· matrices de commandes, matrices de fabrication

Admettons que cette matrice M ras­semble les commandes effectuées par

nos clients au cours de deux jours suc­cessifs. Au total sur ces deux journées, les troi s personnes achèteront évidem­

ment les quatre produits conformément à ces calculs simples :

Ainsi, on a « ajouté» la matrice M à elle­

même, ce qui revient au même que de l'avoir « multipliée» par le nombre 2.

Plus généralement , s i E = (e;) est une matrice quelconque et a un scalaire, le produit aE est, par définition , la matrice

112 Tangente Hors-série n°44. Les matrices

Page 115: Les Matrices_ Une Representation Du Monde

de même taille que E et dont l'élément situé sur la ième ligne et la /me colonne

vaut ae;J· Quant à la somme de deux

matrices E = (e;) et F =(!;)de même tai lle , e lle n 'est autre que la matrice obtenue en additionnant les éléments

correspondants.

Nous allons considérer la fabrication de différents produits en admettant que :

• la production de k unités d ' un pro­duit réc lame k fois les quantités de

facteurs utili sées pour une seule unité de ce produit ;

• la production simultanée d ' une unité d'un produit A et d ' une unité d ' un produit B nécessite des quantités de facteurs égales à la somme des quan­

tités nécessa ires pour fabriquer une unité de A et une unité de B.

Ces deux hypothèses, somme toute assez naturelles, confèrent un carac­tère « linéaire » à la production et per­mettent d ' illustrer aisément le produit matriciel . En effet, en guise d'exemple

élémentaire , intéressons-nous à la fabri­cation de deux produits semi-finis S I et S2 au moyen de trois facteurs primaires de production , F1, F2 et F3 (qui pour­raient être, pour fixer les idées , le tra­vail, le capital et ( 'énergie) . La quantité du facteur Fj nécessaire pour une unité de produit S; est donnée par ( 'élément a .. de la matrice M = (a,.J). Les élé-

1,1 ments de M seront supposés fixes, aussi longtemps que la technique de pro­duction reste inchangée . Comme exemple numérique , considé­

rons la matrice de fabrication suivante:

M = ( JO 3 6). 15 5 4

Ainsi, la production d ' une unité de S 1

réclame dix unités de F 1, trois unités de

LES MATRICES SONT PARTOUT

F2 et six unités de F3, tandis que la pro­duction d ' une unité de S2 fait appel à quinze unités de Fi, cinq unités de F2

et quatre unités de F3 .

Par ailleurs, les deux produits semi­fini s S I et S2 servent à leur tour pour fabriquer deux produits finis P 1 et P2 •

Plu s préci sément , pour obtenir une unité du produit fini P;, il faut employer

la quantité b ;J de SF Les nombres b;J

forment une nouvelle matrice N = (b;). Par exemple, on di spose des informa­tions suivantes: il faut cinq unités de S I et s ix unités de S2 pour produire une unité de P 1 et, de même , il faut

deux unités de S 1 et trois unités de S2

pour produire une unité de P2, ce qui fournit la matrice

N = (~ ~) .

Les quantités de chaque facteur pri­maire intervenant dans la fabrication de chaque produit fini peuvent être aisément calculées en utilisant nos hypothèses initiales. Elles peuvent être rassemblées dans une matrice P,

de format 2 x 3, dont les lignes se rap­portent aux produits finis et les colonnes aux facteurs primaires. De fait, on obtient sans peine :

P=(5x10+6x15 5x3+6x5 5x6+6x4)=(140 45 54) 2 X J Ü + 3 X J 5 2 X 3 + 3 X 5 2 X 6 + 3 X 4 65 2 J 24

En réalité, la matrice Pest obtenue en « multipliant » N par M, ce produit s'effectuant « 1 igne par colonne » et

s'écrivant P = N M

Plus généralement, le produit E F de deux matrices E et F ne peut être exé­

cuté que lorsque le nombre de colonnes de E est égal au nombre de lignes de F , comme le suggère l'exemple ci-des­

sus. Si donc E = (e;) est de format mxn et F =(!;)est de format nxp,

Hors-série n• 44. Les matrices Tangente

Page 116: Les Matrices_ Une Representation Du Monde

ACTIONS Matrices en économie

le produit E Fest, par définition , la matrice Q = (q ), de format mxp,

1.J

telle que

q . . = e. ,!,, . + e. ,f , . + . . . + e f. . = f e ,J,, .. t.J , . . J / , ,} '·" fi.} ,.L.,, , . . J k-l

le double classement en comptabilité

En comptabilité, on a quelquefois recours à une méthode dite en partie double, car elle consiste à enregistrer deux fois chaque opération : une pre­mière fois au crédit d ' un compte , et une deuxième fois au débit. Pour évi­ter toute erreur éventuelle, il convient de toujours vérifier l'égalité entre la somme des crédits et celle des débits. Ce double classement peut avanta­geusement être réalisé sous forme matri­cielle: dans ce cas, nous allons constater que les contrôles sont automatiques. Construisons une matrice carrée d'ordre n, notée M = (a;), dont les indices des lignes indiquent les numéros des comptes crédités, tandis que ceux des colonnes se réfèrent aux comptes débités. Ainsi,

le nombre a;J désigne la somme débi­tée au compte d'indice jet créditée au compte d'indice i. Considérons à présent le vecteur colonne (c'est-à-dire une matrice comportant

La balance des comptes s'effectue en comparant les sommes des crédits et des débits. Or, le total des débits de tous les comptes vaut

( l\

td,-(d d, ... d·tJ-('UM)U

De même , le total des crédits de tous les comptes est égal à

( c, \

i ,, -(1 1 .. . t :J- 'U(MU)

L' égalité entre le total des débits et celui des crédits résulte de l' associati-vité du produit matriciel, puisque

CUM)U = 1U(MU) = 1UMU

ce qui équivaut à

Plus généralement , l'associativité du produit matriciel se traduit comme suit : pour des matrices Ede format m x n, F de format n xp et G de format px q , on

peut écrire

une seule colonne) U composé den E(FG) = (EF)G = EFG , éléments égaux à 1. Le produit matri-ciel MU définit un vecteur colonne le résultat final étant de format m x q. dont tous les éléments c 1, c2, ••• , c

11 sont

les sommes des crédits relatifs aux J. B. comptes qui correspondent aux indices

" des lignes, puisque c, = ~ a,.r

J- 1

Par ailleurs, le produit tu M, où tu désigne le vecteur transposé de U, donne un vecteur ligne dont les é léments d 1, d2 , .•• , d

11 représentent les sommes

des débits qui correspondent aux indices "

des colonnes , car d j = ~ a,.r i- 1

:114 Tcingente Hors-série n°44. Les matrices

Page 117: Les Matrices_ Une Representation Du Monde
Page 118: Les Matrices_ Une Representation Du Monde

ACTIONS par Hervé Lehning

• a r1ces et codes secrets Tout ce qui se prête à des calculs compliqués peut être utilisé pour coder, les matrices ne font pas exception. Ces codes, nommés chiffres de Hill du nom de leur inventeur, ne sont guère utilisés de nos jours. Pourquoi ? Tout simplement parce qu'ils ont un talon d'Achille ... Dans cet article, nous montrons lequel, et comment y remédier.

Commençons en restant dans le classicisme cryptographique. Les messages sont constitués des

lettres de l' alphabet (de A à Z) , sans espace ni accent ou signe de ponctua­tion. Ainsi, le message « Tangente est mon magazine préféré » devient TANGE NTEES TMONM AGAZI NEPRE FERE où nous avons groupé les lettres par cinq pour que cela reste lisib le. Ces vingt-six lettres peuvent être codées numérique­ment de O à 25, par exemple en utilisant le tableau suivant :

ABCDEFGH I J KLM 0 2 3 4 5 6 7 8 9101112

NO P Q R ST UV W X Y Z

13 14 15 16 17 18 19 20 21 22 23 24 25

Codage des lettres de Notre message devient alors une suite l'alphabetpardes de chiffres: 19,0, 13,6,4, 13, 19,4,4, nombres de0à25. 18, 19, 12, 14, 13, 12,0,6,0,25,8, 13,

4, 15, 17,4,5,4, 17,4.

Chiffrement par multiplication

Pour coder un tel message, il suffit de savoir coder chaque nombre entre O et 25. Une idée pour ce faire est d'utiliser la multiplication dans "1l../ 26"1l.. (l ' en­semble des nombres entre O et 25, voir l'encadré Calculs dans "1l.. /26"1l..), qui consiste en la multiplication ordinaire dont on ne garde que le reste dans la division par 26. Ainsi , 12 fois 7 vaut 84 normalement , donc 6 dans "1l.. / 26"1l.. puisque 84 = 3 x 26 + 6. Un tel multiplicande constitue la clef du chiffrement. Si nous utilisons 7 comme clef, notre message commence par 19 fois 7, soit 3 puisque 19 fois 7 vaut 133 qui a pour reste 3 dans la divi­sion par 26. Nous continuons ainsi pour obtenir: 3, 0, 13 , 16 , 2, 13 , 3, 2, 2,22,3,6,20, 13 , 6,0, 16,0, 19 , 4, 13 , 2, 1, 15,2,9, 2, 15,2.Cettesuitepeut alors être convertie en lettres en utili­sant le tableau précédent à l'envers , ce

116 Tangente Hors-série n°44. Les matrices

Page 119: Les Matrices_ Une Representation Du Monde

qui donne: DANQC NDBBW DGUNG AQATE NCBPC JCPC .

Déchiffrement, décryptement

Pour déchi ffrer, nous devons détermi­ner l'opération inverse du chiffrement. Pour ce la, nous chercho ns s i 7 a un inverse dans Z/26"1!... C'est bien le cas et nous trouvons qu ' i I est égal à l 5 ( voir l'encadré Calculs dans "l!../26"1!..) . Il est diffic ile de trouver ce nombre ( 15) mais fac il e de vé rifi e r a posterio ri qu ' il convient puisque 7 fo is 15 vaut 105 , dont le reste dans la divi sion par 26 est 1 ... Il suffit donc de multiplier par 15 pour déchiffrer. Remarquons à ce ni veau que toute clef ne donne pas un code déchiffrable. Pour cela, il est nécessaire d' utili se r un é lé me nt in ve rs ible de "l!../26"1!..,c'est-à-dire un nombre premier avec 26 ( voir l'encadré). Si on ne connaît pas la clef, nous disposons de deux méthodes pour casser le code. Premièrement , nous pouvons essayer les onze clefs possibles. Deuxièmement, nous pouvons utili ser la méthode des fréquences puisque notre méthode cor­respond à une simple substitution alpha­bétique. Nous ne rev iendrons pas sur la question : e ll e est développée dans le hors-série 26 de Tangente, Cryptogra­phie et codes secrets. L'art de cacher , comme dans notre li vre sur l 'Univers des codes secrets.

lnteruention des matrices

En 1929, I 'Améri ca in Lester Hill eut l' idée de généraliser cette méthode en rem­plaçant les é léments de "l!../26"1!.. par des matrices carrées d 'ordre 2 sur ce même ensemble. Bien entendu , comme pré­cédemment , les matrices do ivent être in versibles dans "l!../26"1!.., c'est-à-dire qu e le ur dé te rmin a nt do it l 'ê tre .

LES MATRICES SONT PARTOUT

Calculs dans z / 2&z Traditionnellement, nous notons "l!../26"1!.. (ou "l!.. /26) l'en­semble des nombres de O à 25. Les résultats des trois opé­rations (addition , soustraction et multiplication) sont ramenés à Z/26"1!.. en prenant leur reste dans la division par 26. Ainsi , dans ce contexte , 13 + 14 = 1 puisque le reste de 27 dans la division par 26 est 1. De même, 2 x 13 = 0 et 7 x 11 = 25. Le premier résultat montre que 2 et 13 ne sont pas inversibles. De façon générale , un nombre non nul de Z/26"1!.. n'est pas forcément inversible.

Claude Gaspard Bachet de Méziriac (1581-1638) est l'au­teur de la traduction latine de l' Arithmétique de Diophante dans les marges de laquelle Fermat nota l'énoncé de son fameux théorème. On doit de plus à Bachet la première preu­ve connue du théorème qui porte aujourd'hui son nom.

Le calcul des inverses dans un anneau modulaire comme Z/26"1!.. est une application du théorème de Bachet selon lequel l'équation au + bv = pgcd (a, b) où a et b sont connus a toujours une solution en u, v. De plus, on peut en trouver une en utilisant l'algorithme d'Euclide . À titre d 'exemple, appliquons-le aux nombres 26 et 7 en commençant par diviser 26 par 7. Le quotient est 3 et le reste 5. Celui-ci peut donc être écrit sous la forme 26 u + 7 v, en l'occurrence : 5 = 26 - 3 x 7. Nous recom­mençons avec 7 et 5, le reste (2) peut encore être écrit sous la forme 26 u + 7 v puisque 2 = 7 - 5 , soit : 2 = -26 + 4 x 7. Nous divisons alors 5 par 2 et il en est de même du reste (1) : 1 = 5 - 2 x 2, soit l = 3 x 26 - 11 x 7 . Nous avons donc trouvé une solu­tion à l'équation de Bachet . .. et il en est toujours ainsi. En remarquant que 11 + 15 = 26, nous en déduisons : 15 x 7 = 1 + 4 x 26. Donc, 7 est inversible dans "l!.. /26"1!.. et son inverse est égal à 15. Il en est de même de tous les nombres dont le pgcd avec 26 est égal à 1, c'est-à-dire des nombres impairs non divisibles par 13.

Les codes de Hill sont attaquables par la méthode du mot probable.

Hors-série n• 44. Les matrices Tangente 117

Page 120: Les Matrices_ Une Representation Du Monde

ACTIONS Matrices et codes secrets

lester Hill En 1929, Lester Hill a publié un article sur l'utilisa­tion des matrices pour chiffrer un message dans un journal éducatif. Il s'agit donc plus d'un exemple d'utilisation des matrices que d'un chiffre destiné réellement à cacher. De fait, il demande des amélio­rations pour offrir une bonne sécurité.

Autrement dit, nous utilisons une matrice

(: !) où le nombre ad - be est impair

et non multiple de 13. Cette matrice sera la clef de chiffrement. Un calcul fasticlieux mais simple montre que le nombre de clefs possibles est égal à 157 248, ce qui n'est guère important pour une attaque par force brute, c'est-à-dire en essayant toutes les possibilités. Cependant , il est fac ile de généraliser la méthode à des matrices d'ordre 3, 4 ou 5. Le nombre de clefs y est autrement plus important , ce qui la prémunit d 'une attaque par force brute. Cependant , même s' il vaut mieux l' appliquer avec des matrices d 'ordre 5 , nous la décrirons complètement uni­quement dans le cas d 'ordre 2 pour ne pas compliquer inutilement les calculs.

Prenons par exemple la matrice

A=( ~ }0), dont le déterminant vaut

35 , qui est bien inversible. Son inverse dans ~ se calcule fac ilement, il s'agit

de I._(20 -

5). Dans "ll../26"ll.., l' inverse

35 - 1 2

de 35 est égal à 3 puisque 3 fo is 35 vaut 105 , dont le reste dans la division par 26 est 1. L' inverse de la matrice A

est donc 3 x ( 20

-5) = (

60 -

15) ,

- 1 2 - 3 6

. ' ( 8 11) 0 , .f. soit A - = . n peut ven 1er ce 23 6

résultat en effectuant la multiplication

de A par A- 1; on trou ve qui (

131 52) . 468 131

est bien la matrice identité dans "ll.. /26"ll.. . Nous codons alors le message en groupant les chiffres deux par deux. Ainsi , le premier groupe est 19, O. Nous calculons le produit matric iel

. ( 19) . ( 38) sui vant : A x O

ce qui donne 19

soit 12, 19. Le second groupe est 13 , 6,

ce qui donne A x ( 1:) , so it 4, 21.

On continue a insi, mais comme le nombre de chiffres est impair, on ajou­te un O à la fi n . On obtient : 12, 19, 4, 21, 21 , 4, 6, 7, 20, 2, 20, 9, 15 , 14, 24 , 12, 12, 6, 12, 1 , 20, 1 , 11 , 3, 7, 2, 15, 18, 8, 4. En lettres, cela donne: MTEVV EGHUC UJPOY MMGMB UBLDH CPSIE . Pour déchiffrer, il suffit de multipl ier par la matrice inverse. Comme le chif­frement se fa it par groupe de deux lettres, la méthode des fréquences ne suffit plus pour décrypter, c'est-à-dire déchiffrer sans connaître la clef. En effet , le nombre de digrammes est de 26 x 26, soit 676. De ce point de vue , la méthode peut être rapprochée de celle de Playfair, rendue célèbre par son utili sation par John Fitzgerald Kennedy pendant la Seconde Guerre mondiale . Comme dans ce cas, la méthode du mot probable reste adap­tée. Pour montrer comment elle fonc­tionne, imag inons un autre message codé par la même méthode, mais en changeant la clef. Supposons que nous interceptions un message chi ffré de cette manière, donc avec une matrice 2 X 2 : NCPDN IFMGD YWDKJ GZYGF TSGM , et que nous soupçonnions qu ' il commen­ce par le mot « ordre » . Dans ce cas ,

notons A = (: !) la matrice de chif­

frement. Dans celui -ci, OR devient NC

donc A X ( )~) = ( 1:) et de même :

ri 18 Tangente Hors-série n°44. Les matrices

Page 121: Les Matrices_ Une Representation Du Monde

A x ( 1~) = (

1;) (DR devient PD). Cela

équivaut à deux systèmes de deux

équations à deux inconnues :

et . {

14a+ l7b= l3 {14c+ l7d=2

3a + 17 b = 15 3c + 17 d = 3

Ces systèmes se résolvent comme dans le corps des réels, mais en prenant garde que les calculs se font dans "ll./26"11., où le calcul d'un inverse peut être délicat (voir

! 'encadré Résolution d'un système dans un anneau) . Nous trouvons : a= 2, b = 3, c = 7 et d = 2, et obtenons donc la clef

de chiffrement : A= ( 1; ~).

Pour décrypter le message, il reste à déterminer l' inverse de A.

On trouve : A_, = ( 4 7

) . 25 2

En appliquant cette matrice à la suite 13,2, 15,3, 13,8,5, 12,6,3,24,22,3,

10,9,6,25,24,6,5, 19, 18,6, 12,on obtient : 14, 17,3, 17,4,3,0, 19, 19, 0 , 16,20,4, 17,0,3,8,23,7,4,20 , 17,4, 18 soit : ORDRE D ATTAQ UER A DIX HEURES. Le fait que le message ait un sens confirme que notre décryp­tement est le bon. Le chiffre de Hill est donc fac ilement attaquable par la

méthode du mot probable, même si nous augmentons la taille de la matri­ce. Autrement dit , sa sécurité repose

sur le secret, ce qui est toujours impru­dent. Comme l'a énoncé Claude Shannon : dans un code secret, on doit supposer que l'ennemi connaît le sys­tème. .. la sécurité étant assurée par une clef (ici la matrice) que l'on chan­ge régul ièrement (voir le Principe de Kerckhoffs dans l 'Univers des codes secrets de ['Antiquité à Internet).

Renforcement du chiffre

Il est donc nécessaire de rendre le chiffre de Hill résistant aux attaques par mots probables. Pour ce faire, il ne

LES MATRICES SONT PARTOUT

suffi t pas d ' util iser des matrices d 'ordres plus importants, même si cela est utile, il faut également rendre diffi­

cile la reconnaissance de mots pro­bables. Ceux-ci sont souvent légions, comme l'ont montré les erreurs alle­mandes de la Seconde Guerre mondia­le dans l'emplo i de la machine Enigma. Une idée simple est de com­

mencer par coder en ASCII , ce qui revient à travailler dans "ll./256"11., et

d'appliquer une compression du texte par la méthode de Huffman , par exemple . Celle-ci va en effet traduire le mot probable d ' une façon non « facile­

ment prévisible ». Le chiffre obtenu en sera fortement amélioré.

H.L.

Résolution d'un svstème dans un anneau Pour resoudre , on retranche la seconde , {14a+l7b=l3

3a+l7b-15

équation à la première, on obtient 11 a= 24. Comme l ' in­verse de 11 est 19, puisque 11 multiplié par 19 vaut 209

dont le reste dans la division par 26 est 1, a est égal à 24 fois 19, soit 14. En remplaçant dans la seconde équation et en utilisant l'inverse de 17, qui est 23, on trouve b = 3.

e secon systeme se resout e meme, on L d ' {14c +l7d=2 , d A

3c +l7d=3:

trouve c = 7 et d = 2.

Bibliographie • Cryptographie et codes secrets, l'art de

cacher. Bibliothèque Tangente 26, 2006. • L'univers des codes secrets de l'Antiquité

à Internet. Hervé Lehning, Ixelles, 20 12.

• The code Breakers . David Kahn , Scribner, 1996.

Hors-série n° 44. Les matrices Tangente ~ 19

Page 122: Les Matrices_ Une Representation Du Monde

HISTOIRES par Jean-Jacques Dupas

les mathématiciens préfèrent les grosses ...

matrices Matrix computations: contrairement à ce que ce nom laisse entendre, nous ne sommes pas en présence d'un nouvel opus de la série Matrix. Il s'agit d'un ouvrage, d'ailleurs plus connu pour les numériciens que le film ! L'histoire de l'analyse numérique est indissociable de celle de l'un des auteurs de cet ouvrage, Gene Golub.

S i vous cherchez à inverser ou dia­

gonaliser une matrice , vous avez

forcément une solution efficace dans un livre, véritable bréviaire du cal­

cu l numérique : Matrix computations, qui est le vade-mecum du calcul matri-

Blason de de la prestigieuse université de Standford (Californie, États-Unis)

où Gene Golub exerca à partir des années soixante.

ciel pratique. Car il ne faut pas s'y trom­

per (et vous l' ignoriez peut-être) : la

plupart des ordinateurs de la planète

passe nt le ur temps à ma nipuler des

matrices. C'est bien pour cette raison que Matrix computations est un best-seller (nous en sommes à la troisième éd ition ,

plus de cinquante mille exemplaires ont

été vendus, et plus de dix mill e réfé­

rences dans des artic les pointent sur cet

ouvrage). Ses auteurs sont Gene Howard

Golub ( 1932-2007) e t Charles Francis

Van Loan (né en 1947). Comment ce

livre est-il né ?

L' Américain Roger Alan Horn (né en

1942) ava it fondé le département de

mathé mat iques à l ' univers ité Johns­

Hopkin s. Avec les John s Hopkins

Press, il publiait des monographies

courtes reprenant des cours. Il ava it

inv ité Gene Golub à dispenser un de

ses cours. Charlie Van Loan éta it pré­

sent et pensait que le cours de Go lu b

ferait un livre excellent. Il s décidèrent

Tangente Hors-série n°44. Les matrices

Page 123: Les Matrices_ Une Representation Du Monde

d'essayer d 'écrire cette monographie. Selon Golub , toujours mode s te , Charlie Van Loan es t le principal auteur du livre, et son âme. L' hi stoire de Gen e Golub pe rmet e n fait de retracer une grande partie de l' histoire de l'analyse numérique.

les débuts

Gene Howard Golub est né le 29 février 1932 de Bernice e t Nathan Golub . Sa mère é tait originaire de Lettonie et son père d 'Ukraine . Tous les deux étaient arrivés indépendam­ment aux États-Unis en 1923 et s'étaient installés à Chicago , ayant des parents déjà dan s la ville. Gene naît au cœur de la grande dépress ion , trois ans après son frère ainée Alvin. À 12 ans, il commence à travailler dan s la pharmacie de so n cousin Sidney. Alors qu ' il est au lycée, ses parents divorcent et son père meurt l'année suivante , en décembre 1948 . Au départ, Gene voulait devenir chi­miste. Puis il découvrit la géométrie analytique et le calcu l, et sa passion débuta. li suivit des cours de mathé­matiques à l'univers ité de Chicago , puis décida d'aller à l ' université d ' Illinoi s à Urbana-Champaign pour sa licence . Une déc ision qui changera sa vie, car parmi les cours qu'il sui ­vra figure un cours sur les matrices de Franz Edward Hohn . Licencié, Golub suit les cours du fameux stati s­ticien Calyampudi Radhakri shna Rao . Pendant ce cours, il apprend plus sur les matrices que sur les stati stiques ; il devient vite familier de la manipu­lation des matrices. Gene Golub avait un travail à temps partiel chez un physicien travaillant sur un accélérateur. Il apprend à pro­grammer l' ILLIAC , l' un des premiers ordinateurs de l'époque. John Nash

LES MATRICES SONT PARTOUT

lui offre alors un poste d'assistant dan s le laboratoire d ' informatique ; nous sommes en 1953. De la sorte, Golub se familiarise avec les pro­blèmes pratiques que les informati­ciens rencontrent.

À l' université d'Illinois, Gene Golub croise le Britannique David John Wheeler (l 927-2004), qui développe les routines de base. Golub ne suivra jamais de cours d'analyse numérique , mais apprendra en essayant de com­prendre les élégants programmes de Wheeler.11 rencontrera également l' in­formaticien britannique Stanley Gill ( 1926-1975). Bien plus tard, Golub travaillera pour l'accélération de l'algorithme PageRank de Google : sans le savoir, vous utili­sez tous le s jours les travaux de Golub ! Il recevra en échange un cer­tain nombre d 'actions Google , qu'il donnera pour la plupart afin de fonder la chaire Paul-et-Cindy-Saylor à l' uni­versité d ' Illinois . Il di sa it que ce cadeau en disait long sur l' importance

Gene Howard Golub

(1932-2007).

Hors-série n• 44. Les matrices Tangente 121

Page 124: Les Matrices_ Une Representation Du Monde

HISTOIRES Les mathématiciens ...

méthode de réduction cyclique pour la résolution de certains systèmes linéaires, permettant la construction de solveurs de Poisson rapides. Mais quand on demandait à Gene ce qui définissait sa carrière, il ne mention­nait pas telle contribution ou tel artic le scientifique : il parlait des gens. li louait ses étudiants et aimait à répéter qu ' il avait eu de la chance de les rencontrer.

Par ailleurs, Golub a rendu d 'énormes Publications de SIAM. services à la communauté de l'infor-www.siam.org matique scientifique. Il fut président

de la Society for Industrial and Applied Mathematics (SIAM) et joua

qu'avait eue l'université d'Illinois un rôle central en fondant le Conseil dans sa vie ... Abraham « Abe » Haskel Taub ( 1911-1999) prend Golub comme étudiant. C'était un proche de John von Neumann et un spécialiste de mathé­matiques appliquées. Taub donne jus­tement à Golub un papier de von Neumann, sur l'utilisation des poly­nômes de Tchebychev dans la résolu­tion des systèmes linéaires. Ce papier sera décisif dans la direction que pren­dront les recherches de Golub . Il obtient ensuite une bourse et part à Cambridge pour quinze mois, jusqu'à l'été 1960. Après quelques mois pas­sés dans l 'industrie, Golub accepte en août 1962 un poste d 'ass istant au département de mathématiques de Stanford , qu ' il ne quittera plus.

Une carrière bien remplie

Golub a écrit ou co-écrit autour de deux cents articles dans les meilleurs journaux. Sa contribution la plus conn ue est la décomposition en valeurs singulières (ou SVD, pour sin­gular value decomposition). On peut éga lement citer l'invention de la

international pour l ' industrie et les mathématiques app liquées. Il est le fondateur de deux journaux impor­tants du SIAM, le SIAM Journal on Scientific Computing (le Journal du SIAM de l' informatique scientifique) et le SIAM Journal on Matrix Analysis and Applications (le journal du SIAM de ! 'analyse matricielle et de ses applications). Il a enfin fondé NA-NET et NA-Digest, des outils de travail et de réseaux indispensables pour la communauté de l 'a lgèbre linéaire numérique.

J.-J.D.

Références • Matrix computations. Jean-Jacques

Dupas, Tangente 120, 2008. • Gene H. Golub Biography. Chen

Greif, Oxford University Press, 2007, en anglais, disponible en ligne à l'adresse suivante: http://fds .oup.com/www.oup.co.uk/ pdf/0-19-92068 1-3 .pdf

• Matrix Computations. Gene Golub et Charles van Loan, Johns Hopkins University Press, 1996 pour la troisième édition.

~ 22 Tangente Hors-série n°44. Les matrices

Page 125: Les Matrices_ Une Representation Du Monde
Page 126: Les Matrices_ Une Representation Du Monde

ACTIONS par Daniel Justens

Calculs matriciels en statistique multiuariée Les bases de données statistiques sont comme de grands tableaux de nombres. L'usage des notations matricielles simplifie alors le formalisme. La collecte des données se fait progressivement, relativement à chaque unité statistique interrogée, et en notant les observations ligne par ligne.

L 'obs:rvati~n quan~ifiée de p~é­nomenes econom1ques , soc10-log iques ou autres vise

essentiellement à la construction de

modèles uti lisables soit par leurs aspects prédictifs , soit en vertu de leur puis­sance explicative. Deux optiques peu­vent être développées . On peut s'intéresser à une variable par­ticul ière, notée Y, que l 'on suppose

dépendante de k variables X 1, ~, ••• , Xk indépendantes entre elles et qualifiées d'explicatives . La relation s'écrit for­

mellement Y= f(X 1 , X2 , ... , Xk), et on se place dans le cadre de la régression , qu i tend à paramétrer « au mieux »

(dans un sens à définir) la fonction f en tenant compte des observations. On peut aussi étudier directement les

k variables X" X2 , ... , Xk en tentant de mesurer et d'utiliser « optimale­ment » leur niveau de dépendance . Le but de la démarche consiste à donner du système observé une représentation conviviale et interprétable en réduisant sa dimension à une ou deux : des obser-

vations dans l'espace à k dimensions

(k > 3) sont en effet difficiles à visua­li ser par notre cerveau formaté pour un espace à deux ou trois dimensions. Le cadre est ce lui de la construction de composantes.

Collecte de l'information, régression

La collecte d'observations statistiques multivariées se fait à partir d'indivi­dus, encore appelés unités statistiques et désignant toute entité abstraite ou concrète à laquelle ! 'observateur est susceptible d 'assoc ier une valeur à Y et

un vecteur de valeurs à (X 1, X2, •.. , Xk). Supposons que nous disposions de n unités statistiques. Afin de particulari­ser chaque observation du vecteur, on utilise une notation doublement indicée. Le premier indice va être relatif à la variable, le second au numéro de l' unité

statistique. Comme les observations sont notées ligne par ligne (chaque ligne correspondant aux valeurs associées pour chaque variable à un individu) ,

ri 24 Tangente Hors-série n°44. Les matrices

Page 127: Les Matrices_ Une Representation Du Monde

l'ord re des indices se ra « co lo nne­

ligne » : X;Jest donc située à la lig~ej de la co lonne i e t re prése nte la /me observation de la variab le X;. On se trouve donc à l'opposé de la notation usuelle « ligne-colonne ». Dans la suite, nous noto ns Y le vecteur co lonne des observati ons de la variab le Y et X la

matrice des observat ions X;J·

Le cas le plus s imple est ce lui de la

régress ion li néa ire. On suppose que la variable dépendante Y peut s'ex primer

comme combinaison linéai re des valeurs des k variab les ex pl icat ives X;. For­mellement, si B est le vecteur co lonne des coeffic ients de cette combina ison

LES MATRICES SONT PARTOUT

Karl Pearson (1857-1936).

linéa ire, notre modè le se no te par le Composantes principales vecteur co lonne X B. O n note Y le vec-teur colonne des observations, et l'on peut introduire alors le vecteur colonne

E des écarts (erreurs) entre observa­tions et va leurs prévues par le modèle : E = Y - X B . La somme des carrée des erreurs correspond à la fo rme 'Ex E, dans laque ll e 'E représe nte le vecteur ligne transposé de E. La méthode clas­s ique LSS (least sum of squares, ou mo indre somme des carrés) visant à min imiser 'Ex E va li vrer un système de n équations à n inconnues qui per­met généra lement de calibrer B. Nous passons ic i sur les problèmes de co li ­néarité appara issant lo rsque deux ou plus ieurs vari ables ex plicati ves sont dépendantes en partie (corré lation signi­ficat ivement d iffé rente de 0) et que le ca librage est fo rtement affecté par les observations. Ceci se comprend intui ­tive ment : en cas de dépendance, le système à résoudre est proche d ' un sys­

tème indéterminé . .. On peut auss i adjoi ndre une constante add iti ve au modèle en y introdui sant une variable X0 prenant systématique­me nt la va leur I e t e n aj o utant une colonne de « 1 » à X.

Considérons à présent la seule matrice X. Ces observations constituent un nuage de po ints dans un espace à k dimen­sions. L' idée est de se représenter ce

nuage dans un plan de façon à visuali ­ser les proximités et les différences des unités stati stiques. Pour y arri ver, on propose de remplacer les vecteurs

observés (qui constituent les ,,! li gnes de la matri ce) par une ou deux valeurs (repré-sentation dans le plan) qui en sont des combina isons linéa ires, tout en conser­vant un max imum d ' in­

formation . Ce qui fa it le contenu de l'information,c'est la varia­

bilité des observations. En

j

économie ou en sociologie, la constance d ' un para ­mètre ne s ignifi e jamais que la non-conna issance d e sa va ri a b i lité ! Il

Exemple type d ' une analyse

en composante principale (ACP).

Le nuage de points est représenté

convient donc de construire des co rn-binaisons linéa ires des observations de variance max imale. Les activités de ce

dans un plan.

Hors-série n• 44. Les matrices Tangente 125

Page 128: Les Matrices_ Une Representation Du Monde

ACTIONS Statistique multivariée

Joseph-Louis Lagrange (1736-1813).

type portent le nom d 'anal yse en com­posantes principa les (AC P) e t sont issues des travaux du stati sticien contro­versé Karl Pearson (1857-1936), tri s­tement célèbre par ai lleurs pour ses positions eugénistes. Avant de commencer toute manipula­tion , il fa ut prendre consc ience du fa it que la variance d 'une variable statistique est dépendante du système d ' unités de mesure choi si. Une unité di x fois plus petite li vre des observations dix fois plus grandes, de variance cent fois plus é levée. Il convient de se débarrasser avant tout de cette influence en ne consi­dérant que les variab les réduites :

Valeur observée - Moyenne

Écart type

inscrites dans la matrice (i ndicée par r)

Xr.

En considérant le produit matric ie l

_!_, X, X, , on vérifie que ce dernier cor­n

respond , e n variables réd uites, à la matrice variances-covariances ( ou matrice variances-corrélations), notée R, qui comprend des I sur la di agonale (variance d'une variable réduite) et les

corré lations entre X;,,. et Xj,,. aux empla­cements (i,j) et U, i). Notons enfin A= 1(a 1, ... , ak) la matrice (ou le vecteur) co lonne de l' une des transformations linéa ires cherchées. Cette dernière donne comme valeur le vecteur colonne XrA, de variance:

_!_, A ' X X A=' ARA ' ' . n

On sait que la matrice carrée R est symé­trique (car la corrélation entre X; et Xj est identique à la corré lation entre \ et XJ Cette propriété permet d'étendre certa ines formules courantes de déri ­vation au calcul matriciel.

Il faut déjà se convaincre qu'il est impos­s ible de max imi se r la variance sans imposer de conditions aux éléments de A. En effet, si ses va leurs a 1 ... ak ne sont pas bridées, alors en les faisant croître indéfiniment on peut faire tendre la variance de la combinaison linéaire Xr A vers l'i nfini . Cette constatation se voit confirmée par calcu l direct: le seul extremum libre de 1A RA est un mini­mum constitué du vecteur identique­ment nul (0, 0, ... , 0), lequel correspond à une variance également nulle, toutes les observat ions étant « résumées » par l'orig ine. Le ca lcul des dérivées par­tielles relativement aux composantes de A peut être noté comme suit :

a' ARA= 2RA aA '

générali sant formellement la dérivation d ' un carré . Le système obtenu par annu­lation des dérivées partielles est donc

126 Tangente Hors-série n°44. Les matrices

Page 129: Les Matrices_ Une Representation Du Monde

homogène. S'il n 'est pas indéterminé , ce qui est infiniment peu probable , il n ' admet que la solution triviale A= 0 (abus de notation). Il faut donc se tourner vers la recherche d'un maximum sous contra inte en uti ­li sant les multiplicateurs de Lagrange . En choisissant d ' imposer la contrainte I A A = 1 aux éléments de A, on garan­tit la conservation des di stances, refu­sa nt toute homothétie et donc tout gonflement des écarts.

Considérons à présent la fonction

et calculons ses dérivées partielles. L'an­nulation des k premières conduit au sys­

tème de k équations

2RA-2À.A=0, équivalent à (R - À l)A = 0

(où I désigne la matrice identité).

L' annulation de la dernière dérivée ,

relativement à À, redonne la contrainte. Pour sortir de la so lution triviale du premier système, il faut imposer à celui­c i d'être indéterminé. Son déterminant

doit être nul. Ceci revient à donner à À

une valeur vérifiant det[R - À I] = O. Notre problème se résume finalement à la recherche des valeurs propres de la matrice R. Cette équation de degré k admet généra lement k so lutions .

Sous notre contrainte (1 A A = 1 ), on montre par s imple calcul direct que chaque valeur propre À mesure très exacteme nt la variance de la combi­naison linéa ire obtenue par résolution du système complet obtenu pour cette valeur (k équations linéairement dépen­dantes, donc k - 1 degrés de liberté, plus la contrainte imposée) . Il suffit donc de retenir les solutions associées

LES MATRICES SONT PARTOUT

aux deux plus grandes valeurs de À pour être à même de transformer le nuage de points en nuage planaire tout en conservant un maximum d ' information. On peut même quantifier l'information disponible dans la réduction planaire du nuage . En effet, les variances des k variables de départ sont toutes égales à 1. Si ces variables sont indépendantes (ce qui est le cas si on en fait une repré­sentation dans un espace à k dimen­sions) , alors la variance associée à leur so mme sera égale à la somme des variances, soit k. En retenant pour notre plan les valeurs propres les plus éle­vées, À. 1 et À.2 , on conserve la fraction (À 1 + À.2) / k de l ' information initiale . Cette façon de faire permet donc une représentation efficace d ' une partie connue de l ' information disponible dans la base de données initiale . On peut aussi donner une interprétation

géométrique de la démarche. Le plan retenu est le plan contenu dans l'es­pace initi al à k dimensions tel que la projection orthogonale des observa­tions sur ce plan présente un max imum de dispersion.

D.J.

Siège de l'lnsee.

Hors-série n° 44. Les matrices Tangente 127i

Page 130: Les Matrices_ Une Representation Du Monde

SAVOIRS par François Lavallou

les matrices de

La qualité des communications modernes repose sur la capacité à s'affranchir du bruit et des interférences dans un signal. Parmi les nombreuses structures mathématiques utilisées en théorie des codes correcteurs d'erreurs apparaissent les matrices de Hadamard.

Les matrice~ de Hadamard pos­sèdent une structure des plus simples : e lles sont carrées et

leurs vecteurs colonnes, constitués uni­quement de + l ou de - l , sont ortho­gonaux. Elles po1tent le nom de Jacques Hadamard , mais James Joseph Syl­vester, inventeur du terme « matrice » et pionnier de la théorie des déterminants , fut sans doute le premier à les avoir étudiées systématiquement. Il mit au point, en 1867, une méthode de construc­tion de telles matrices d 'ordre 2", pour toute valeur den. Objet d 'étude depuis plus de cent quarante ans, les struc­tures de ces matrices , aux multiples applications, renferment encore de nom­breux secrets.

Inégalité de Hadamard

Considérons une matrice A de rang n

et de terme général ( a ;.j ) 1 .;_.,, • Hadamard l,s;j:Sfl

a établi en l 893 la majoration su ivante de la valeur absolue du détermjnant de A :

Cette inégalité est connue sous le nom d'inégalité de Hadamard. Le détermi­nant est la somme de tous les produits den termes , un par li gne et un par colonne, affectés par un coefficient - 1 ou+ 1. Ces produits sont au nombre den! . Si les termes de la matrice sont majorés en valeur absolue par le nombre positif M (c'est-à-dire si la;) :SM), alors chaque produit de n termes est majoré par M" et donc I det(A) 1 :S n!M". L'inégalité d'Hadamard fournit la majo­ration I det (A) 1 :S n"12 M" , qui est bien plus précise. Cette relation a été conjec­turée par Lord Kelvin (1824-1907) et démontrée en 1885 par Thomas Muir (1844-1934) pour des nombres réels. L' inégalité de Hadamard a une inter­prétation géométrique simple. En notant uj = (a 1 J ... a

11) les vecteurs co lonnes

de la matrice A, elle s ' écrit

ldet(A)I :S ùllu,IJ.

128 Tangente Hors-série n°44. Les matrices

Page 131: Les Matrices_ Une Representation Du Monde

1

Hadamard note que l'on a l'égalité si, et seulement s i, les termes I a;) sont constants et les vecteurs colonnes (u)is_;,;,, orthogonaux. Cette inégalité s ignifie donc que le volume I det (A) 1 du paral­lélép ipède construit sur les vecteurs (u)i sjs" est max imal quand ces vec­teurs sont orthogonaux .

Le déterminant des matrices H11

d'ordre n, constituées de coefficients réels égaux à± 1 avec ses vecteurs colonnes ortho­gonaux, est donc extrémal. En effet, nous avons H

11 'H

11 = n 1

11, où 1

11 est la

matri ce unité , et la borne supéri eure de l' inégalité de Hadamard est bien atteinte puisque (det (H))2 = n" . Ces matrices réelles, quand elles ex istent , sont nom­mées matrices de Hadamard ou H­matrices. Hadamard a démontré que les ordres poss ibles d ' une telle matrice sont n = 1, n = 2 ou les multiples de 4 (vo ir en encadré). Par une méthode récursive, Sylvester a construit de telles matrices d'ordre n = 2m. Dans ce qui suit, nous noterons les va leurs + l ou - 1

simplement par leur signe. Les matrices de Hadamard sont g lobalement inva­riantes par permutation ou changement de signe des vecteurs, lignes ou colonnes les constituant. Nous pouvons donc ne considérer que les matri ces possédant des va leurs pos itives sur leur première ligne et leur première colonne. La H-matrice d 'ordre deux est alors

H2 = ( : :) .

À partir de cette matrice , on construit des matrices de Sylvester-Hadamard d' ordre n = 2111 en utili sant la relation

On multiplie chaque terme de la matrice H2 par la matri ce H2., pour obtenir la matri ce H2 • . Par exemple, on obtient de la sorte

LES MATRICES SONT PARTOUT

Jacques Hadamard Mathématicien universel, Jacques Hadamard (1865-1963) s'est intéressé principalement à la théorie des nombres, à l'analyse mathématique et à la mécanique, mais aussi aux langues, à la musique et surtout à la bota­nique. Son résultat le plus célèbre est certainement la démonstration en 1896, conjointement avec Charles-Jean de La Vallée Poussin, du théorème des nombres premiers. Il a laissé son nom aux matrices éponymes utilisées en traitement du signal, pour la compression des données et dans des algorithmes quantiques. Il existe aussi une pseu­do-transformation de Hadamard en cryptographie. Très impliqué dans la vie politique et sociale, il écrira sur l'éducation et la psychologie de l'invention. Georges Colomb (1856-1945), directeur du laboratoire de botanique de la Sorbonne, était un ami de la famille Hadamard. Il se considérait comme l'inventeur de la bande dessinée. Il créa, sous le nom de Christophe, le personnage du savant Cosinus, dont on peut imaginer qu'il fut inspiré par la grande distraction et l'excentricité du « petit père Hadamard », comme le nommait ses contemporains. Jacques Hadamard, un mathématicien universel.

Vladimir Maz'ja et Tatyana Shaposhnikova, EDP sciences, 2005.

= l(: : : :\! H4 . + + - -

+ +

Hors-série n° 44. Les matrices Ta.ngente 129

Page 132: Les Matrices_ Une Representation Du Monde

SAVOIRS Les matrices de Hadamard

Hadamard a réussi à construire des matrices d'ordre 12 et d'ordre 20, mais on ne sait toujours pas s'il en existe pour tous les multiples de 4. La conjec­ture d'Hadamard avance que c'est bien

le cas. La construction de ces matrices de Syl­vester-Hadamard s'effectue de façon ité­rative , mais nous pouvons néanmoins accéder directement à la valeur d ' un

de ces termes. Associons à chaque nombre entier O ~ i ~ 2111

- l , dont la

la transformation de Walsh-Hadamard Les fonctions de Walsh sont définies sur l'intervalle [0, 1]. Les fonctions d ' ordre 2n prennent les valeurs + 1 ou - 1 sur des segments de longueur 2-n, et l'ensemble de

ces valeurs constituent les lignes de la matrice de Hada­

mard Hz· · Elles forment donc une base orthogonale de l'intervalle [0, 1), semblable à la base de Haar utilisée pour les ondelettes. Elles jouent le rôle dans la trans­formée de Hadamard des fonctions sinusoïdales dans la transformation de Fourier. La transformée de Hadamard permet des algorithmes de calcul économiques. Pour calculer directement l ' image

w=H4l(:\J=l (~ -1 1 ~I\Jl(:\J=(l:::: ::~\J, c 1 1 -1 -1 c a+b-c-d

d l -1 -1 l d a-b-c+d

douze additions et soustractions sont nécessaires. Dans le cas général d'une matrice d'ordre n, le nombre d'opérations est n(n - 1). Mais en calculant les variables intermédiaires

l r::\J rl:::\Jl r;::;:\J

= , on obtient notre résultat w' = c' c + d a' - c'

d' c-d b' -d'

en huit opérations seulement ! On montre qu 'en général n logz n opérations suffisent. Le facteur de réduction est environ (l / n) logz n, soit 1 % pour n = 2 10 = 1024.

m- 1

décomposition binaire est i = }: i, x 2', k·O

le vecteur (i0 , i 1, ••• , i,,,_1), possédant m composantes. Alors, le terme général de

la matrice Hz. est

( H,. ) .. = (-1 r ··· .i • . ,>.u, . .. . i • . ,> ' - 1.; m-1

où (io, ... , im _,).<Jo, ... , jm_ ,)= 2>, j , est k-0

le produit sca laire des deux vecteurs (i0 , ... , i,,,_1) et U0 , ... ,J,,,_1). Ces pro­priétés permettent de définir la trans­formation de Wal sh- Hadamard (vo ir en encadré), utili sée en traitement des signaux , qui est l'équivalent d'une trans­

formée de Fourier discrète.

Imageries codées

Les matrices de Hadamard trouvent par exemple des applications en théorie du codage, en morphologie mathématique, en communications, en théorie des réseaux et en statistique . La transfor­

mation de Hadamard est un outil de traitement en imagerie , dans le cas par­ticulier de masques à ouvertures codées. Le principe général d'une imagerie s'inspire des chambres noires. On perce un trou dans un écran opaque au rayon­nement et on récupère le signal sur un détecteur en face arrière. La netteté de l'image est d'autant plus grande que le trou est petit, ce qui induit un signal faible. On accroît alors la sensibilité des di spositifs d'imagerie faible flux, comme l 'i mager ie gamma en astro­physique, sans perdre en finesse en perçant la face avant de nombreux trous . Ces trous constituent un masque codé dont la structure s'i nsp ire des matrices de Hadamard . On obtient alors une image complexe constituée de la

superposition de plusieurs images de la source , et un algorithme d 'i nver­

sion, lié à la structure de l'ouverture codée, est nécessai re pour extraire l'i mage de l'objet observé.

Tangente Hors-série n°44. Les matrices

Page 133: Les Matrices_ Une Representation Du Monde

la coniecture d'Hadamard Les matrices d ' Hadamard considé­rées dans l ' article sont normalisées , c'est-à-dire que leur première ligne et première colonne ne contiennent que des + 1. En notant les valeurs par leur signe, pour n = 2, la seule

H-matrice est H2 = (: : ) .

Pour n supérieur à 3, prenons le pre­mier vecteur co lonne et deux autres quelconques . Nous n'avons que les quatre combinaisons sui vantes de signes poss ibles par ligne :

a lignes + + + b lignes + + -c lignes + - + d lignes + - -

où nous avons noté a, b, c, d le nombre de lignes de chaque combinaison . Le nombre total de lignes nous donne la re lation a + b + c + d = n, et l'o r­thogonalité des vecteurs se traduit par les re lations complémentaires :

a + b - c + d = 0 , a - b + c - d = 0, a - b - c + d = O.

L'additi on de ces quatre égalités donne 4a = n. L' ordre d ' une matr ice de Hadamard est donc nécessa ire­ment un multiple de 4 . La réciproque est-elle vraie ?

De no mbre use s rec he rc hes sur le s matri ces de Hadamard ont été fa ites, comme la construction de Paley et de Williamson. La conjecture d 'Hadamard est pourtant toujours d 'actualité . Le plus petit ordre multiple de quatre pour lequel on n'a pas su construire de matrice de Hadamard est . depuis 2004 , l'ordre 668. Av is aux amateurs !

F.L.

LES MATRICES SONT PARTOUT

Matrices à diagonale dominante A est une matrice

( 13 7 3\ à diagonale dominate car :

A= l 5 - 11 ~J 1131?;;171+131, -1 0 l-111?;;151+121,

111?;;1-11+101.

On assoc ie parfo is le nom d 'Hadamard à la c lasse des matrices qui ont la diagonale principale strictement dominante, c'est­à-dire te lles que la valeur abso lue d ' un terme de la diagonale est strictement supé­rieure à la somme des valeurs absolues des

autres te rmes de sa ligne : la;; I > I laJ Hadamard a effectivement montré qu 'une telle matrice a un déterminant non nul , et est donc inversible . So it A une matri ce te lle que chacun de ses éléments diagonaux so it strictement

dominant dans sa ligne : laJ > 4la;.J 1 • 1

pour tout indice i. Soit X un vecteur solu­tion du système linéa ire A X = 0 et so it X; sa plus grande composante en valeur absolue : lx; 1 ~ lx) quel que so it l' indice j . Puisque AX = 0 , nous avons

" ~ a .x . = 0 et donc - a .. x . = ~ a .. x . LJ /,) j 1,1 1 LJ 1.J j

~ I ~-J .. I

Nous en ti rons laullx;I s L ja;.1llx1I s lx;I 2 la;J

que nous pouvons éc rire laul- .l la;.1111x;I s O. IS)'J.n

j .. 1

Puisque la matrice A est à diagonale stric­tement do minante , nous avons

la. ·1-~1a. ·I > 0, 1.1 LJ ,., J- 1

et la seule poss ibilité est X; = 0 , donc X= O. L'équation A X = 0 admet donc pour unique solution le vecteur nul X= 0 , ce qui signi­fi e que la matrice A est inversible .

Hors-série n° 44. Les matrices Tangente

Page 134: Les Matrices_ Une Representation Du Monde

ACTIONS par François Lavallou

' emes I •

eo ma r1ces De nombreux problèmes de géométrie font appel à des transformations admettant une représentation matricielle. Nous allons donner pour illustration deux problèmes de géométrie classique dont la résolution est simplifiée par l'utilisation de matrices associées à des homographies.

La représentation matricielle des fonctions homographiques (décrite dans l'article les Fonc­

tions homographiques dans le dos­sier précédent) peut être exploitée pour résoudre une généralisation du problème de Pappus, puis, en consé­quence directe , un problème ... de bi llard e lliptique .

Problème de Castillon

Le problème de Cramer-Castillon s'énonce ainsi : « Étant donnés un cer­cle et trois points A, B et C, construire à la règle et au compas un triangle inscrit dans le cercle dont les côtés passent respectivement par les points A, B et C. » Au quatrième siècle de notre ère, Pappus d'Alexandrie avait déjà résolu le problème dans le cas particulier où les trois points A, B et C sont alignés. En 1742, Gabriel Cramer (1704--1752) propose de généraliser la construction en supposant les points

A, B, C choisis quelconques dans le plan : « Dans ma jeunesse, un vieux géomètre, pour essayer mes forces en ce genre, me proposa le problème que je vous proposai ; tentez de le résoudre et vous verrez combien il est difficile. » Tous les mathématiciens de l 'époque, dont Leonhard Euler, s'y intéressent. C'est ]'Italien Giovanni Francesco Salvemini da Castiglione (1704--1791), dont le nom est francisé en Casti llon, qui résout le problème en 1776. Il raconte que, le lendemain de la lecture de sa solution à l'Académie des sciences, il reçut une solution ana­lytique de Lagrange ! Pierre-Simon de Laplace ( 1749-1827) s'intéresse au problème dans sa généralité, avec n points et un n­gone. Et Lazare Carnot (17 5 3-1823) trouve en 1803 la solution particuliè­rement élégante que nous allons pré­senter. Elle s'effectue à l ' aide des transformations homographiques, ou transformations de Mi:ibius.

132 Tcingente Hors-série n°44. Les matrices

Page 135: Les Matrices_ Une Representation Du Monde

En considérant un cercle de rayon unité , les coordonnées d ' un point M du cercle sont (cosa, sina) . En utilisant pour paramètre la tangente de la moitié de l'angle polaire, z = tan(a /2), nous obtenons une nouvelle expression pour les coordonnées de M :

( 1- z2 2z \ C . .

Mi --, ,--2 ). e point se construit \ l+ z l+ z

comme étant le second point d ' inter-

section du cercle et de la droite passant par les points D(-l , 0) et P(O , z). C 'est

la projection de pô le D du cercle sur l' axe des ordonnées. Le point M par­court le cercle dans le sens trigonomé­trique quand le paramètre z varie de - OO à + OO,

Notre problème général est de déter­miner un polygone à n côtés, ou n­go ne, B 1, B 2 .. . Bn in sc rit dan s le cercle unité dont les côtés passent res­pectivement par les points Ai, A2 ...

A,,. En partant d ' un point (quel­conque) B 1 du cercle, on construit le

point B2 comme sa projection sur le cercle par le point A 1•

0 0

Paramétrage du cercle.

On construit de la même façon tous les points B;, avec la contrainte finale

B,,+ 1 = B 1• La procédure étant itérati­ve, il importe donc de savoir détermi­

ner le point B2 de paramètre z2 à partir des points A 1(xi, y 1) et B 1(z 1). La coli­néarité de ces troi s points se traduit , après quelques calculs , par la relation :

yz + x -1 z, = ' ' ' ou, pour reprendre les (1 + x,)z, - y,

notations des transformations de Mobius ,

[z2

] = M, [z, ] avec M, = ( Y, x, -1) .

1 1 x, + 1 - y,

On constate que la trace de cette matrice est nulle , car cette transforma­tion est involutive , et que son détermi­nant det(M 1) = 1 - (~+y~) s'annule s i le point A 1(x 1, y 1) appartient au cercle. En itérant le calcul sur le péri­mètre du n-gone, le paramètre du point

B 1 (z 1) vérifie la relation az, + f3

z •• , = z, = y z, + ô '

avec(; !)=M.x ... xM,. Cette équation quadratique possède en général deux solutions . Nous en pré­sentons un exemple dans le cas d ' une configuration de Pappus .

Double solution du problème de Pappus.

Billard elliptique

Considérons maintenant une table de billard elliptique . Il est connu que la trajectoire d'une bille passant par un foyer passera, après réflexion élastique sur le bord , par l'autre foyer. De même que nous avons cherché la relation entre les paramètres z 1 et z2 dans le problème de Castillon , établissons une

relation entre les angles el et e2 de la figure ci-dessous.

Hors-série n° 44. Les matrices Ta.ngente 133

Page 136: Les Matrices_ Une Representation Du Monde

ACTIONS Problèmes de géo-matrices

Q

Billard elliptique.

Rappelons qu'une ellipse de demi grand axe a et demi petit axe b a pour excentricité e = c/a, où c =axe= '10

2 - b2

, et pour équation b2

polaire r = . En prenant les a - ccose

axes de l'ellipse pour repère et en notant x l 'abscisse du point P sur le grand axe, nous avons :

b2 x+c lj= =--.

a - ccose, cose,

N d ' d . 8 x + c O • x - c ous en e u1sons: cos , = --. e meme, cose2 = --. a+ex a-ex

Il s'agit de deux transformations de Mobius, ce qui nous permet d'éliminer fac ilement la variab le x entre ces deux expressions.

-2e / (1 + e2)\

)"

Nous constatons fort heureusement que la solution ne dépend que de la nature de l'ellipse , à savoir son excen­tricité e. Posons e = tan(a /2). Pour une ellipse, nous avons O :S e < 1, c'est-à-dire aE [O, .n/2[. La matrice de la transformation de Mobius qui relie

les cosinus des angles devient

T=-'-( .1 -sina) et nous avons

cosa -sina I

e cose, - sin a

cos =-~---2 1- sinacose,

Nous pouvons maintenant établir une démonstration d'un théorème dû au mathématicien austra li en Malcolm Livingstone Urquhart (1902-1966), qui stipule que si les points A, B , P, Q, R, S sont disposés comme sur la figure suivante, alors AP+ PB =AQ +QB =>AS+ SB =AR+ RB.

Un théorème d'Urquhart.

Pour une telle disposition de points, si les points P et Q appartiennent à une ellipse de foyers A et B, alors il en est de même des points R et S. Une bille doit donc pouvoir suivre la trajectoire APBRA ou la trajectoire ASBQA avec les mêmes ang les . En notant T(a) et T(/3) les matrices assoc iées à chaque

ellipse, T(a)T(/3) = ( 1 + P -S ) -S 1 + P

avec S = sin a+ sin/3 et P = sin a sinf3. Ces deux matrices commutent donc, et la matrice de la transformation reliant les angles 8 1 et 83 est bien la même pour les deux trajectoires !

F.L.

134 Tc:ingent:e Hors-série n°44. Les matrices

Page 137: Les Matrices_ Une Representation Du Monde
Page 138: Les Matrices_ Une Representation Du Monde

SAVOIRS par Michel Criton

Les carrés magiques: des matrices comme les autres Une matrice est un tableau de nombres. Un carré magique est également un tableau de nombres, qui satisfait à certaines propriétés. Même si on ne s 'intéresse généralement pas aux applications linéaires auxquels ils sont liés , les carrés magiques sont des matrices comme les autres.

Que lles opérations peut-on effectuer avec des carrés mag iques ? Avant de tenter de

p à cette question, il faut don­ner une définiti on de ce que l'on appel­le un « carré mag ique ».

Déjà, un carré semi-magique est une matrice carrée de dimension n telle que la somme des termes d ' une ligne et la somme des termes d ' une co lonne soit toujours la même (on appelle générale­ment cette somme la somme magique). Si , de plus, les sommes des termes de chacune des deux grandes diagonales sont aussi égales à la somme magique, le carré est dit magique. Ensuite, si la somme des termes de n' importe quelle di agonale bri sée (le tableau étant considéré comme un tore) vaut égale­ment la somme magique, on dit que le carré est pandiagonal. Dans la littéra­ture anglo-saxonne, les carrés mag iques pandiagonaux sont parfois dés ignés sous l'appe ll ation nasik­squares. Ce nom leur a été donné par le

136 Tangente Hors-série n°44. Les matrices

Page 139: Les Matrices_ Une Representation Du Monde

le révérend Andrew Hollingsworth Frost.

révérend Andrew Hollingsworth Frost ( 18 19- 1907) , pass ionné de mag ie arithmétique, qui fut missionnaire dans la ville indienne de Nasik. Enfin , si les 11

2 termes d ' un carré mag ique de dimension n sont tous les entiers de I à n2, on dit que le carré est normal.

Des espaces uectoriels

Imaginons que l'on n' impose pas que les carrés magiques soient normaux. Les carrés magiques d 'ordre n compo­sés de nombres réels, munis de l'addi­tion vectorielle et de la multiplication par un réel, forment un espace vectoriel sur IR. Cet espace vectoriel est en fait un sous-espace vectoriel de l'espace des matrices carrées à coefficients réels d 'ordre n. En effet , l' addition de deux matrices carrées magiques d'ordre n est encore une matrice carrée magique d'ordre n, et le produit par un réel d ' une matrice carrée magique d 'ordre n est également une matrice carrée magique d'ordre n (ce n'est évidemment pas vrai pour les carrés magiques normaux !). Dans ce qui précède , on pourrait rem­placer « magique » par « semi­magique » ou par « pandiagonal » sans altérer la propriété.

1

DES MATRICES ET DES JEUX

la multiplication des carrés magiques Le produit matriciel appliqué aux carrés magiques ne

conserve évidemment pas la magie arithmétique (le pro­

duit tensoriel la conserve, mais il ne conserve pas le

caractère normal). Des mathématiciens ont néanmoins

essayé de définir une « multiplication » des carrés

magiques.

Le premier à tenter une telle opération a été le mathé­

maticien belge Maurice Kraitchik (1882-1957) dans son

livre la Mathématique des jeux (1930). Cette multiplica­

tion permet de former un carré magique normal de

dimension m X n à partir de deux carrés magiques nor­

maux, le premier de dimension met le second de dimen­

sion n.

Le produit de deux carrés magiques selon Maurice

Kraitchik. Les n2 termes du second carré sont rempla­

cés par n2 blocs images du premier carré. À chaque

bloc image, on a ajouté (k - 1) m2, où k est la valeur

correspondant au bloc dans le second carré.

(

1 12 7 14) 8 13 2 11

10 3 16 5

15 6 9 4

8 1 6 107 100105 625560 125 118123

3 5 7 102 104 106575961120 122 124

4 9 2 !03 108 101 58 63 56 121126 119

7 1 6469 116109114 17 10 15 98 9 1 96

66 68 70 11 1113 115 12 14 16 93 95 97

677265 112 117 110 1318 11 949992

89 82 87 26 19 24 1431361414437 42

848688 2 1 2325 138 140 142 3941 43

85 90 83 22 27 20 139 144137 40 45 38

134 127 132 53465 1 807378 352833

129 1311 33 48 50 52 75 77 79 30 32 34

130 135 128 495447 768174 3 1 3629

On vérifie que cette multiplication est bien associative.

En revanche, elle n'est évidemment pas commutative.

Il a été démontré que l'espace vectoriel des carrés magiques d 'ordre 3 est un espace vectoriel de dimension 3 . Les trois carrés sui vants constituent une base de cet espace vectoriel :

Hors-série n°44. Les matrices Tangente 137

Page 140: Les Matrices_ Une Representation Du Monde

SAVOIRS Les carrés magiques ...

Par exemple, le carré magique :

[ ! H] (qui en outre est normal) peut écrire 51 + 3J - K. On montre plus généralement que l'es­pace des carrés magiques d 'ordre n est un espace vectoriel de dimension n(n - 2). Des auteurs se sont également intéressés aux déterminants des carrés

magiques normaux. Dans ce qui suit , les carrés magiques seront tous suppo­sés normaux. Le déterminant de l ' unique carré

magique d'ordre 3 (aux rotations et symétries près) est égal à 360 (ou - 360). Pour les carrés magiques d 'ordre 4, il a d 'abord fallu les dénombrer ! Dès le xv11e s iècle , Bernard Frénicle de Bessy (vers 1605- 1675) a répondu à cette ques­tion, en prouvant que les carrés magiques d'ordre 4 sont au nombre de 880 (hors rotations et symétries). Plus tard , le ludologue britannique Henry

Ernest Dudeney classa ces carrés en douze types, selon leur configuration par paires complémentaires de somme 17 (la moitié de la somme magique, égale à 34) . Dans un article de 1948 , le mathémati-

Les douze types de carrés magiques répertoriés 1>ar Dudeney :

deux cases reliées portent des nombres dont la somme vaut 17.

Type I Type II Type Ill Type IV

Type V Type VI Type VII Type VIII

Type IX Type X Type XI Type XII

138 Tangente Hors-série n°44. Les matrices

Page 141: Les Matrices_ Une Representation Du Monde

Type Propriétés

Pandi agonal

II Semi-nas ik

Ill Semi-nas ik

IV Semi-nas ik

V Semi-nas ik

VI Semi-nas ik ou simple

VII S imple

VIII S imple

IX S imple

X Simple

XI Simple

XII S imple

c ien américa in Charles Wilderman Trigg ( 1898- 1989) étudie les détermi­nants de ces douze types de carrés

mag iques. Si les nombres d ' un carré sont dés ignés par les lettre A, B ... Q, correspondant au schéma c i-contre,

A B C D E F G H

J K L M N P Q

alors on obtient les déterminants du tableau (voir c i-dessus) . Dans ce tableau, un carré est dit semi­nasik s' il est magique et si les sommes

E + B + L + P et 1 + N + C + H sont auss i égales à la somme mag ique . Les

RÉFÉ RENCES

DES MATRICES ET DES JEUX

Déterminant

0

0

0

0

0

0

- 136 (A - 1) (B - J) (C - F)

- 136 (A - E) (B - F) (C - N)

- 136 (A - l ) (B - J) (C - N)

136 (A - E) (B - F) (C - J)

136 (A - 1) (B - D) (C - A)

136 (A - E) (B - A) (C - D)

valeurs de ce tableau s'appliqueraient de même à des carrés magiques qui ne seraient pas normaux mais constitués de nombre en progress ion arithmétique (il faudrait alors remplacer le facteur 136 par 4S , où S serait égal à la somme magique). Pour les carrés magiques normaux d 'ordre 4 , on obtient douze valeurs absolues différentes pour ces détermi­nants: 0 , 2 176, 3 264, 4 352, 5 440 , 6 528, 7 616 , 8 704 , 9 792, 10 880 , 13 056 et 17 408.

M.C.

• A11111se111e11ts i11 Mathematics. Henri Ernest Dudcncy, 1917.

• Detem1i11m1ts of Fourth Order Magic Squares. Charles W. Trigg, The American Mathcmatical Monthly, novembre 1948.

• Les carrés magiques. l3crnar<l Belouzc, Maurice Glaymann. Paul-Jean Haug et Jean-Claude Herz, APMEP, 1975.

• L 'a/gèhre des rnrrés magique. Jean-Michel Groizard. APMEP, 1984.

Hors-série n°44. Les matrices Tangente 139

Page 142: Les Matrices_ Une Representation Du Monde

PASSERELLES par B. Hauchecorne, D. Nordon et A. Zalmanski

Diuertissements littéraires Les matrices se trouvent tout naturellement en littérature, dans l'écriture sous contraintes. Les diagonnets , par exemple, sont des poèmes oulipiens de n vers ( chacun de n syllabes) phonétiquement symétriques en suivant une diagonale.

Les adeptes de l'écriture sous contrainte ( et notamment les assidus del 'Ouvroir de littératu­

re potentielle, ou Oulipo) connaissent les diagonnets, qui sont des poèmes qui se lisent, syllabe par syllabe, aussi bien horizontalement que verticalement. Par exemple, si on lit verticalement la pre­mière syl labe de chaque vers, on retrouve exactement le premier vers. Si on lit verticalement la deuxième sylla­be de chaque vers, on retrouve exacte­ment le deuxième vers . Et ainsi de suite jusqu 'au dernier vers .. . Voici déjà un premier diagonnet de taille 6 (six vers de six syllabes).

Haletant sur les .flots, Le tronc du pin sourit, Tendu d'un sombre sang ... Sûrs pinçons rhapsodiques, l es soubresauts haineux Florissant d'ichneumons.

Si l' on dispose les syllabes de ce poème sous la forme d'une matrice, on trouve une matrice symétrique de taille 6. Cette structure rappelle celle que l'on trouve sur la figure ci-dessus ( on la retrouve dans plusieurs inscrip­tions, la plus ancienne étant datée de l'an 79 à Pompéi). Les lettres de cette phrase en latin (sémantiquement diffi­cile à interpréter) peuvent être lues de haut en bas, de bas en haut, de gauche à droite et de droite à gauche. En fait, cette propriété est possible car chacun

140 TC1.n9ente Hors-série n°44. Les matrices

Page 143: Les Matrices_ Une Representation Du Monde

des mots de la phrase est lui-même est lui-même un acrostiche et un palindro­me vertical et horizontal. Une traduc­tion possible est « le laboureur Arepo utilise une charrue comme force de travail ». Mais ce carré de taille 5 nous éloigne du diagonnet.

Le poète Robert Rapilly, compagnon de route de l'Oulipo, a lui aussi com­posé des diagonnets, comme Qui s'étonne?.

Quis 'étonne ? Ouverts s'ennuient Sept paravents qui volaient.

Ô rage, ô dent ! L'eau bout froide. Nous vendangeons mes tricots.

Vert kilomètre et pot vide, Sans vos bourricots on part.

Nuit ... L 'effroi d 'Ovide arrive!

Un autre ami de l'Oulipo, l'astrophysi­cien Gilles Esposito-Farèse, a rédigé le diagonnet suivant, intitulé Hommage à Borgès (bien évidemment, la com­plexité de ! 'exercice croît avec le

nombre de vers) :

Lentement la couleur pâlit Te plongeant dans la cécité Mangeant tout ce palais floral La danse des ombres d 'effroi Coule à pas ondulant d'oubli Leur célèbre langueur sans art Passif lot des doux sanglots d'or Littéral froid blizzard dormant.

Il a également écrit le sonnet sui vant, qui n 'est pas exactement un diagonnet ( quatorze vers de douze syll abes 1' in­terdisent !), mais presque :

DES MATRICES ET DES JEUX

Lorsque la netteté frêle quimpe, excédée,

Que cryptent dans le tas mille opportuns rameaux,

Lattes-tu leur hublot, soûl de harpe accordée,

N'a idant le rainé gris d'indices lacrymaux ?

Te leurre une aigre faune, et l 'eau les vaut, codée,

Tes tableaux griffonnés : korê par animaux!

Frémit soudain Écho, parallèle, entraidée,

Le lot de dits laurés, ramollis, tout primaux.

Qu 'importe, harcelé par les lyriques mandchoues,

Et qu 'un pâle avocat hante ou que tu échoues

Ces raccords, cris honnis, réprimandés, guindés,

Démodés : Maud aime ode et mots chouchous des bardes.

L 'or scripturaire n'est pas mort ! Ris-tu, guimbarde,

Des rapaces locaux, colosses paradés?

Le lecteur pourra avec intérêt placer chaque syllabe dans une matrice pour vérifier la qualité de la composition. Enfin, Robert Rapilly a composé un texte sur-contraint, dans une matrice à vingt et une lignes et seize colonnes,

contenant donc trois cent trente-six lettres. Se lisant indifféremment dans les deux sens, le « poème matriciel » révèle deux poèmes, Ô banalité (lectu­re horizontale) et Orage désiré (lecture verticale). Ce dernier poème alterne en outre de manière systématique voyelles et consonnes. Un travail monstrueux !

Hors-série n°44. Les matrices Tc::a.ngente 141

Page 144: Les Matrices_ Une Representation Du Monde

PASSERELLES Divertissements littéraires

O B A N A L I T E D E P A L E G R A V U R E ~ A N A L A L O C E ANENO D 1E CANE .MONO R G A N E M U R I R A S A T Y P E EMILECUSENOS.AVEC DARI DITE LEC O L OM U E T E X O D E .L A M I R E L A P S U N I R A ~ A R A D O X A L A I R E R I L A S U .L E C A L E R REPAGAYERAMEMORU E GAG AL A F A 'Y OTE PEN

·s IVE~ EDE LA LU NI PO ETE.DA Z URE LED IN ER LADOS A.NA LAVE LER I EN ORIN ADAM AS .ALI G NERÀLEDEMIGALET.A E D E H E L I C E L I B I T U M LECUMERABATETANI E .LEM UV ET U FUT AL AB R E G E .T E T I R E M A S O .D E U X I R J S O R I T E F I N A L

HORIZONTALEMENT -" Q banalité de pâle gra vure I

Fa11al à l 'océan en ode cané Mon organe mûrira sa typ ée Mil écus en os Avec d 'aridité / 'écolo muet exode

L 'ami relaps unira Paradoxal - airer il a su -Le cal erre, pagaye, rame morue Gaga la fàyote pensive

Né de / 'aluni poète D 'azuré le dîner la dosa N'a la vé le rien orin à damas Alignera le demi galet

Aède hélice libitum L'écume rab à tétanie Le mû vêtu Jutai abrège T 'étire maso deux iris

Ô rite final I

VERTICALEMENT

O rage désiré sélè11e le ruban A mâture g itane de / 'ex-avenir En épave doré ce g in un élixir Âge d 'Or à humer arôme d'origan

Asile mutilé du Cid à / 'a /e:an Élève si fëru te paya du nadir Et ôta , cisela, se f era décatir En are la rurale lame Buridan

Âne ma!ayalam il a fêté le soc Idem olé vagi tu me pâmas ô roc ! Études â bêta .falot ô l 'examen

Il alita si l '011 y vola / 'opine/ Étalon écopé mâle re-périt un Adage reçu par un origami hel

Ta.ngente Hors-série n°44. Les matrices

Page 145: Les Matrices_ Une Representation Du Monde

par Michel Criton EN BREF

3 5 4 7 1 2 4 5 7 8 1 2 5 5 2 3 5 6 4 7 8 4 4 9 7 8 1 2 3

8 1 2 3 5 6 4 5 6 9 8 9 3

Rentrer dans le rang Une autre question de nature matricielle se pose concernant les Sudokus. Quel est le leur rang? On rappelle que le rang d'un matrice carrée est la plus grande taille d'une sous-matrice extraite de cette matrice dont le déterminant est non nul. La grille de Sudoku 4 X 4 ci-dessus a un rang égal à 3, la grille 6 X 6 a un rang égal à 4 et la grille 9 X 9 un rang égal à 7. Pour chacune de ces tailles de grilles, peut-on trouver un rang strictement inférieur? Références : • A Sudoku Matrix Study, Merciadri Luca,

http://orbi.ulg.ac. be/bitstream/ 2268 / 19649 / 1/ sudoku. pdf • http://www.mathkb.com/Uwe/Forum.aspx/recreational/3261/Rank-of-Sudoku-matrices

Hors-série n°44. Les matrices Tangente 143

Page 146: Les Matrices_ Une Representation Du Monde

;rn-:,»-.:;Ji'H;f?F'I' · :i. ·1··' ~ T:f'l''fl;-,~,·· l JP,ASSEREL·L.ES , ',1: , ! ·. · · .t i · 1j ; ; 'J T 11 : ! ! • , : 'I t; J. { 1; 'i ! J; I. I' j li: [ 1 i.i J ! ) 11 I iH _ rJ

les matrices lumineuses • 1

De nombreuxjeux se présentent sous forme de matrices, mais faut-il utiliser des matrices pour les résoudre? Nous allons analyser le cas du jeu Lights Out, ce qui permettra par ailleurs d'illustrer certaines notions abstraites utilisées en algèbre linéaire et rencontrées dans ce hors série.

144

Le Lights Out (que l'on pourrait traduire « Éteindre les lumières »)

est un jeu électronique produit par la société Tiger Toys en 1995 . Il se présente sous la forme d ' une matrice d 'ordre 5 de boutons poussoirs:

lîJ lw 1 wl lw wl w w [w w w ~ w w w w rw w w w w w w IW w w

Présentation du Lights Out.

Chaque bouton possède deux é tats, allumé ou éteint , que l'on peut modéli ­se r par O (éte int) et 1 (a llumé) . Au début du jeu , un motif de boutons allu­més est choisi par la machine. On peut

repérer les boutons par leurs numéros , comme sur la fi gure ci-dessous, plutôt que par un repérage matriciel .

Numérotation des cases de la matrice (cas où les vingt-cinq boutons

sont tous éteints).

Une configuration de jeu devient alors une matrice colonne : 1(a 1, a2 , a3 ...

a24 , a25), où le symbole I désigne la transposition. Par convent ion, dans le Lights Out, les touches enfoncées sont dessinées en ro uge , et les touches

Page 147: Les Matrices_ Une Representation Du Monde

allumées sont en jaune. Par exemple, la configuration de la figure suivante (à gauche) est : c 1 =

1(1, 1,0,0,0, ],0,0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0), alors que la configuration de la figure de droite est : c 13 =1(0,0,0,0,0,0,0, 1,0,0,0, 1, l , 1,0,0,0, l ,0,0,0,0,0,0,0). En appuyant sur l' un quelconque des boutons, on modifie l'état de ce bou­ton et celui de ses voisins, suivant une règ le du jeu fixe. Ici, cet effet est de basculer l'état du bouton choisi et des ses voisins hori zontaux et verticaux immédiats, si ceux-ci existent.

En haut, l'effet de l'appui sur le bouton 1 depuis la configuration

« tous boutons éteints ».

En bas, l'effet de l'appui sur le bouton 13 en repartant de la

configuration « tous boutons éteints ».

- ~ ..,. T •

DES MATRICES ET DES· JEUX

Le but du jeu est d 'éteindre tous les boutons (lights out) en un minimum de coups. Face à un tel problème, plu­sieurs questions sont naturelles : Est­ce toujours possible ? Si oui, y-a-t-il une seule solution ? Si oui, comment l'obtenir ?

Déjà, point besoin de s'acharner sur chaque bouton, il suffit d'appuyer zéro ou une fois au plus sur chaque bouton. Car deux appuis correspondent à pas d'appui du tout , un appui annulant l'effet du précédent. Cette remarque va nous permettre de raisonner sur l 'e nsemble {O, l} pour chacun des vingt-cinq boutons. Ensuite, l 'éta t d'un bouton ne résultant que du nombre d'appuis sur ce bouton ou sur ses voisins horizontaux et verticaux immédiats, il ne dépend pas de l'ordre d 'ac tivation de ces boutons. On en déduit que l'on peut modéliser une séquence d 'appuis par une matrice colonne. Par définition, on appellera stratégie cette suite finie. Par exemple , les stratégies impliquant uniquement un bouton s'expriment par les vingt­cinq matrices colonnes suivantes : bi =1(1 , 0 , 0 , 0,0,0 , 0,0 , 0 , 0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0), b2 = 1(0, 1, 0 , 0, 0, 0 , 0 , 0 , 0 , 0 , 0, 0 , 0 , 0 , 0 , 0 , 0 , 0 , 0,0 , 0 , 0 , 0,0,0),

b25 = 1(0, 0 , 0, 0 , 0 , 0 , 0 , 0 , 0, 0 , 0, 0 , 0 , 0, 0, 0 , 0 , 0, 0 , 0 , 0 , 0 , 0, 0, 1).

Un peu d'algèbre linéaire

Nous pouvons décrire le comporte­ment du jeu grâce aux matrices . Dés ignons par J la matrice carrée d'ordre 25 synthétisant le jeu . Cette matrice vérifie, par définition :

J b1= Ci, J b2= C2··· J b 25 = C25"

On peut donc la construire de proche en proche : la i-ème ligne et la i-ème

n 4. 1ce a 9 n 145

Page 148: Les Matrices_ Une Representation Du Monde

( K5 15

1, K5

l= 0 5 15

o, o, 0 5 0 5

( 1 0 0

0 1 0

1, = 0 0 1

0 0 0

0 0 0

146

0 5 0 5

15 0 5

K5 15

1, K,

o, l 5

0 o, 0 0

0 0

1 0

0

colonne sont les configurations induites par l'appui sur le bouton i, ce

qui fournit donc J. La matrice J peut

s'exprimer de façon condensée à l'ai-

de de matrices blocs :

0 5' ( 1 0 0 o, 0 5 1 0 0

0 5 avec K5 = 0 1 0

1, 0 0 1

K5 0 0 0

(0 0 0 0 o, 0 0 0 0 0

et 1, = 0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

La matrice carrée symétrique J est la

matrice caractéristique du jeu Lights

Out.

Dire qu'une stratégie donne la confi­

guration c, c'est dire que J b = c. Voyons maintenant le problème

inverse : dire qu'une configuration

donnée c est réalisée par une stratégie

b, c'est toujours écrire J b = c. Si la matrice J était invers ible , il suffirait

de multiplier à gauche par r' : nous

aurions b = r' c et l 'affa ire serai t entendue (en outre, pui sque nou s

aurions une méthode explicite pour calculer b , nou s pourrion s même

affirmer que la solution serait unique ,

e t un bon logiciel de calcul formel

nous la trouverait).

Mais.. . La m a trice J est-elle

invers ible ? Nous savo n s qu ' une

matrice est inversible si , et seulement

s i, so n déterminant est non nul .

Calculons le déterminant de J (à la

main pour les courageux, avec un logi­

ciel de calcul formel pour les autres).

Le résultat est sans appel : det(J) = O.

Quelle est la significat ion profonde de

la nullité d'un déterminant? La matri­

ce J est constituée de v in gt-cinq

a.ngen e Hor · ene n 44 L matr c

matrices colonnes, qui sont les vingt­cinq configurations C; ré sultats des

vingt-cinq s tratég ies n ' impliquant

qu ' un bouton (à savoi r le bouton

numéro i). Dire que le déterminant est

nul , c'est dire qu ' il existe au moins

une colonne qui est une combinaison

linéaire de s autres colonnes ; en

d'autres termes, toutes les colonnes ne

sont pas linéairement indépendantes. Il

se trouve que la colonne numéro 24

est la somme des co lonnes numéros 2, 3, 4, 6, 8, 10 , 11 , 12 , 14, 15 , 16 , 18 ,

20, 22, 23 modulo 2, alors que la

colonne 25 est la somme des colonnes

1 , 3, 5, 6, 8, 10 , 16 18 , 20, 21, 23

modulo 2. Par définition , le rang d ' une matrice

carrée est le nombre de colonnes

indépendantes. Dan s notre cas, le

rang de la matrice caractéristique du

Lights Out est 23 (merci aux logiciels

de calcul formel ... ). L'es pace des

configurations que l'on peut obtenir

est donc une combinaison linéaire de

vingt-trois éléments, so it un espace

qui contient 223 confi gurations. Ce

jeu fourni donc 223 probl è mes que

! 'o n peut réso udre , c'est-à-dire

8 388 608 problèmes. Mê me si c'est

quatre fois moin s (2 25 ) que l 'e n­

semble des configurations poss ibles,

cela devrait occuper quelques-unes de

vos longues soirées d ' hiver ... En pas­

sant , nous venons de calculer que, si

l 'o n affiche une configuration au

hasard , il y a une chance sur quatre

qu'elle soit résoluble.

Le noyau, ou l'ensemble des stratégies silencieuses

Nous venons de découvrir la notion d'image de A: lm(A) est l'espace vec­

toriel des configurat ions que l'on peut

obtenir. Un autre espace est souvent

rencontré en a lgèbre linéaire : le

Page 149: Les Matrices_ Une Representation Du Monde

noyau. Par définition , le noyau Ker(A) est l 'es pace des stratégies qui ne modifient pas la configuration du jeu : sis est une telle stratégie, alors J s = 0 5 ,

où 0 5 désigne une matrice colonne contenant cinq zéros. Ces stratégies qui ne modifient pas la configuration du jeu sont parfois appelées stratégies silencieuses. Un théorème d 'algèbre linéaire nous dit que la dimension du noyau plus la dimension de l'image égale la dimen­sion de la matrice J, soit 25. Nous en déduisons que la dimension de l'espa­ce des stratégies silencieuses est 2 ; cet espace est engendré par les stratégies s I et s2• Cet espace contient donc o (la stratégie nulle) , s 1, s2, et s 1 + s2 .

<r i ~ ~ I [ <i) J (<i)

~ ,<, j) x [î <r <r x <i) <i)

(,> <r ~ <r <i) (,>- ~ ~ <i) <i)]

Quelle est la signification pratique des stratégies silencieuses (en dehors de la stratégie nulle) ? Si nou s avons identifié une stratégie gagnante s, alors la stratégie gagnante « la plus courte » (celle qui contient le moins d 'appuis, donc de 1) sera l' une des stratégies s, s + s 1, s + s2, s + s 1 + s2•

Ce théorème est dû à Marlow Anderson et Todd Feil. Comment savoir facilement si notre configuration de départ appartient à Im(A), c'est-à-dire est soluble ? L'espace vectoriel Im(A) est engen­drée par vingt-trois configurations. Le noyau Ker(A) est engendré par deux configurations, s I et s2 . Comme la matrice A est symétrique, on montre

Les quatre stratégies silencieuses (de haut en bas) : la stratégie nulle, s 1, s2, s 1 + s2•

or cri n 44. Les matrice Tangent 147

Page 150: Les Matrices_ Une Representation Du Monde

(par un résultat d'algèbre linéaire) que toute configuration de ! ' image de A, donc soluble, doit être orthogonale à s I et à s2 ( ce théorème est également dû à Marlow Anderson et Todd Feil). Pour mémoire , avec nos notations : s 1 =

1(1,0 , 1,0, 1, l,O , 1,0, 1,0,0,0, 0,0, l,O, 1,0, l, 1,0, l,O, 1),

s2 = 1(0, J , l, 1, 0, 1, 0, 1, 0, 1, l, 1, 0 , 1, 1, 1, 0 , 1, 0, 1,0, 1, l , 1,0).

Et comment sait-on que deux configu­rations sont orthogonales ? Tous sim­plement si leur produit scalaire est nul ! Voyons un exemple pratique. Nous savons que c I est résoluble .

c 1 = (11 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0) s 1 = (1 0 1 0 1 1 0 1 0 1 0 0 0 0 0 1 0 l O 11 0 1 0 1) CI .SI = 1 +O+O+O+O+ 1 +O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O = 0

C1 = (110 0 0 10 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0) s2 = (0 1 1 1 0 1 0 1 0 1 1 1 0 1 1 1 0 1 0 1 0 1 1 1 0) C 1 .s2 = O+ 1 +O+O+O+ 1 +O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O+O = 0

148 q n

Pour effectuer ce calcul , il faut évide­ment app liquer les tables d'addition et de multiplication binaires :

+ 0 0 0 1

1 1 0

X

0 1

0 0 0

1 0

Maintenant que nous savons si une configuration est soluble, il ne nous reste plus qu 'à trouver une méthode pour trouver une solution. Là encore, l'algèbre linéaire peut nous offrir de puissants moyens, mais qui dépassent le cadre de cet article. Nous pouvons par contre toujours recourir à un logi­ciel de calcul formel (résoudre un système avec une matrice d 'ordre 25 est un peu fastidieux ... ). Une métho­de moins calculatoire est l'algorithme du repoussage de la lumière.

n 4

l'algorithme du repoussage de la lumière

Avec cette méthode , on se débrouille pour éteindre la ligne du haut , puis on éteint la deuxième ligne sans rallumer un seul bouton de la ligne du haut, et ainsi de suite. On « repousse » ainsi la lumière vers le bas. Arriver là , so it la dernière ligne est éteinte et on a gagné, soit la ligne du bas exhibe l'une de s sept configurations du tableau ci-contre.

On enfonce a lors les bouton s de la ligne du haut correspondant à la ligne du bas obtenue, et on recommence ! 'a lgorithme du repoussage de la lumière. Normalement, tout s'éteint ! Nous avons ainsi obtenu une solution, mais pas forcement la plus courte.

Nous savons maintenant déterminer si une configuration est soluble, nous avons trouvé plusieurs méthodes pour trouver une so lution , et enfin nous avons vu , à partir de cette solu­tion, comment trouver la so lution la plus courte. Nous avons également constaté que ! 'assistance d'un logi­ciel de calcu l formel pouvait nous éviter nombre de calculs pénibles. Par ai ll eurs, la co nn aissance de quelques résultats d'algèbre linéaire trouve avec le Lights Out des appli­cations pratiques . Forts de cette expérience, nous pouvons modifier à l' infini le jeu , changer la taille de la matrice (avec une matrice d 'ordre 3, d'ordre 6, d 'ordre 7 , d 'ordre 8 ou d 'ordre 10, il y a toujours une solu­tion unique), modifier les règles (la matrice pourrait représenter un tore , un app ui pourrait basculer toute la ligne et toute la co lonne du bou­ton ... ), ajouter des états (couleurs) aux boutons . . . Les lecteurs les plus

Page 151: Les Matrices_ Une Representation Du Monde

Configuration de la dernière ligne Boutons à enfoncer sur la ligne du haut

~~~~Il~~ ~~ ............... 11~~ ~---...a.li~ -~~~Il~ ~~~ll~w~ ~:w>~II~ _ ~~1!~~-~~

Références • Turning Lights Out with Linear Algebra .

courageux pourront implémenter ces variations en programmant un micro­contrôleur et ainsi vérifier que l'al­gèbre linéaire est source de nom­breuses applications ludiques !

Marlow Anderson et Todd Feil, Mathematics Magazine 71 (4), 1998.

J.-J. D.

• Pour une analyse beaucoup plus rigoureuse et théorique du jeu : Jeux d'ampoules ou comment év iter la crise de nerfs à un é lectric ien dépressif à coup d'algèbre linéaire sur F2.

Grégory Berhuy, Quadrature 79, 2011.

149

Page 152: Les Matrices_ Une Representation Du Monde

JEUX & PROBLÈMES .. Niveau de difficullé

i ) très facile Il facile IIV pas facile 111111 difficile

Problèmes t.1111111 très difficile

HS4401 - Les dominos HS4403 - Les parquets

• ·1··· ....

Placez les dominos de façon à former anallagmatiques de Lucas 1111 un carré magique, c'est-à-dire un carré ayant le même nombre de points dans chaque ligne, dans chaque colonne et dans chacune des deux grandes diagonales . Trois dominos sont déjà en place.

HS4402 - Séance de photos II Neuf amis qui se retrouvent décident de faire des photos en respectant les conditions suivantes : • sur chaque photo figurent exactement trois personnes du groupe, • chacun devra choisir exclusivement des photos où il ne figure pas, mais de façon à pouvoir néanmoins retrouver les visages de ses huit amis.

Quel est le nombre minimum de prises de vues nécessaires ? Note: une prise de vue peut donner lieu à plusieurs tirages.

Un carré anallagmatique est un carré formé de cases colorées et de cases blanches, en nombre égal ou inégal , de telle sorte que, pour deux lignes ou deux colonnes quelconques, le nombre des variations de couleurs soit toujours égal au nombre des permanences. Quatre exemples vous sont proposés ci-dessus. Existe-t-il des carrés anallagma­tiques de 4 cases sur 4 présentant un nombre impair de cases colorées ?

HS4404 - Les demoiselles de llirkman vvv Le révérend Thomas Penyngton Kirkman ( 1806- 1895) proposa ce pro­blème en 1850 dans le Ladys and Gentlemans Diary. Quinze écolières sortent chaque jour en promenade, réparties en cinq groupes de trois. Comment constituer ces groupes chaque jour de la semaine pour que chaque jeune fille ne marche qu ' une seule fois en compagne de chacune des autres? On pourra représenter les quinze éco­lières par les nombres de 1 à 15.

~ 50 Tangente Hors-série n°44. Les matrices

Page 153: Les Matrices_ Une Representation Du Monde

HS4405 - Un carré bien naturel vv Pour 11 entier naturel non nul , que vaut

le déterminant d(n) suivant ?

c!(n)=

2 3 11+1 2n+I

11+ 2

211+ 2

(n - 1)11+1 (11 - 1)11+2

n+3 2n+3

HS4406 - Une suite bien naturelle vv On considère la suite de matrices car­

rées suivante :

JEUX & PROBLÈMES

HS4408 - Le mathématicien et le bouffon vvvv

M(l)=[I] , M(2)=[ ! ~ HS4407 - Sens uniques

l M(3)·[ I~ ::

généralisés vvv La ville de Strategy-City possède six

places, reliées par des boulevards

comme l'indique le plan ci-contre.

Afin de faciliter une circulation deve­

nue apoplectique, le conseil municipal

décide de mettre toutes les rues en sens

unique, de telle sorte que l'on puisse

arriver à chaque place par deux boule­

vards, et en repartir par deux autres. Le

schéma indique l' un des projets.

Le maire souhaite faire réaliser tous les

schémas possibles .

Mais ... combien en existe-t-il ? On pourra représenter chaque plan réa­

lisable par une matrice antisymétrique

6 X 6.

Pl . des Dames

Le mathématicien officiel de la cour

reçut son salaire de l'année en une

seule fois, en pièces d'argent. Il devait

placer les pièces en neuf piles inégales

formant un carré magique. Le roi exa­mina l'arrangement et déplora qu'au­

cun des nombres de pièces du carré ne

soit un nombre premier.

« Si j'avais neuf pièces de plus, dit le mathématicien, je pourrais ajouter une pièce à chaque pile et faire en sorte que chaque pile contienne un nombre de pièces qui soit un nombre premier. » Ils vérifièrent et constatèrent que c'était

exact. Le roi s'apprêtait à donner les

neuf pièces, lorsque son bouffon remar­

qua : « Attendez, si au lieu d 'ajouter une pièce, on en enlève une de chaque pile, alors on obtient aussi des nombres de pièces qui sont tous des nombres premiers. » Alors le bouffon ôta une

pièce de chaque pile, empocha les neuf

pièces, et ils vérifièrent que les

nombres étaient tous premiers.

Quel était le salaire annuel du mathématicien ?

Hors-série n°44. Les matrices Ta.ngente 151

Page 154: Les Matrices_ Une Representation Du Monde

JEUX & PROBLÈMES

HS4409 - Triplets de nombres triangulaires vvv On appelle trip let triangulaire un tri­plet d'entiers (a , b, c) tels que les nombres triangulaires T

0, T6 et Tc véri­

fi ent T0

+ T 6 = Tc (on rappelle que T

11 = n (n + 1) / 2).

Étant donné un entier k, montrez qu ' il existe une infinité de triplets triangu­laires distincts (a;, b;, c;) pour i = 1, 2, 3,

a, b, c,

tels que a 2 h2 C2 =k.

aJ b3 C3

HS441 O - Une matrice aléatoire vvv Quelle est la probabilité pour qu 'une matrice 3 X 3, dont les termes sont des entiers choisis au hasard, ait un déter­minant qui soit divisible par 7 ?

S4411 - Un déterminant multiple de la somme v v Soit S la somme des nombres consti ­tuant un carré magique d' entiers quel­conques d 'ordre 3 (un carré magique quelconque est un carré magique dont les termes ne sont pas forcément des entiers consécutifs) et soit D le déter­minant de ce carré considéré comme une matrice. Montrez que D / S est un nombre entier.

• Revue Spécial Logique (HS4401)

HS4412 - Déterminant d'un carré pandiagonal (1 J v v v Montrez que le déterminant d ' un carré magique normal pandiagonal d ' ordre 4 est nul. On rappelle qu ' un carré magique nor­mal d 'ordre n est un carré magique constitué des entiers de 1 à n2, et qu ' il est pandiagonal si les sommes des élé­ments de chaque ligne, de chaque colonne et de chaque diagonale, princi­pale ou brisée, sont toutes égales.

HS4413 - Déterminant d'un carré pandiagonal (2) vv Tous les carrés magiques normaux pandiagonaux d ' ordre 5 ont-ils un déterminant nul ? Si oui, le démon­trer. Si non, trouver un contre­exemple.

• Championnat des jeux mathématiques et logiques (HS4402, HS4407) • Récréations mathématiques. Édouard Lucas, réédition Blanchard,

1992 (HS4403) • D'après la revue Lady 's and Gentleman 's Diary (HS4404) • D'après la revue The Pentagon (HS4405) • D ' après la revue Math Magazine (HS4406, HS4409, HS4410) • D ' après la revue American Mathematical Monthly (HS4408) • D ' après la revue American Mathematica/ Monthly (HS4411 , HS4412,

HS4413)

152 Ta.ngente Hors-série n°44. Les matrices

Page 155: Les Matrices_ Une Representation Du Monde

par P. Boulanger et M. Criton EN BREF 1

Ci-dessous figure le plus petit des carrés magiques, le carré magique de taille 3 : la somme des trois chiffres de chaque ligne, de chaque colonne et des deux diagonales est égale à une constante, 15.

6 1

7 5

2 9

8

3

4

Imaginons que des équipes d'échecs à trois joueurs s'opposent et que l'on évalue la force des joueurs par le nombre inscrit dans une case. La première équipe est celle de la première colonne, avec des joueurs de forces respectives 6, 1, 8. La deuxième équi­pe a des joueurs de forces 7, 5 et 3, et la troisième les forces 2, 9 et 4. La « force moyenne » des trois équipes est la même : 5. Et pourtant, la première équipe est battue par la deuxième par deux matchs à 1, la deuxième par la troisième ( deux victoires à une), mais la troisième est battue par la première deux victoires à une. La non transitivité est toujours étonnante ... Il a par ailleurs été démontré que ce type de scores intransi­tifs par deux victoires à une est un maximum.

Tangente a déjà évoqué le site Internet http://www.multimagie.com/fr.htm tenu par Christian Boyer et dédié aux carrés magiques. Il propose plusieurs problèmes non réso­lus à ce jour. Chacun de ces défis est doté d'un prix (voir Tangente 134, page 9). Voici quelques-unes des énigmes proposées et toujours sans solution.

• Un carré semi-magique est un carré dans lequel il n'y a pas de condition sur les diago­nales (seules les lignes et les colonnes doivent présenter des sommes égales) . On connaît un carré semi-magique de taille 4 constitué de nombres élevés au cube (voir ci-dessous). Ce carré a été trouvé en 2006 par Lee Morgenstern.

163 203

1803 81 3

1083 1353

23 1603

183

903

1503

1443

1923

153

93

243

Construire un carré semi-magique de taille 3 consti­tué de nombres entiers positifs distincts élevés au cube, ou prouver qu'il n'en existe pas. Mise à prix : 1 ooo euros et une bouteille de champagne.

• Ce défi porte sur les carrés magiques additifs­multiplicatifs, qui présentent à la fois des sommes égales et des produits égaux (sur les lignes, les colonnes et les diagonales). Le plus petit exemple connu d'un tel carré est de taille 8. Il a été trouvé

en 1955 par Walter Homer. Le défi consiste à construire un carré magique additif-multi­plicatif de taille 5 utilisant des entiers distincts, ou à prouver que c'est impossible. Mise à prix : 1000 euros et une bouteille de champagne. Construire un carré magique additif-multiplicatif de taille 6 utilisant des entiers distincts, ou prouver que c'est impossible. Mise à prix: 500 euros et une bouteille de champagne. Construire un carré magique additif-multiplicatif de taille 7 utilisant des entiers distincts, ou prouver que c'est impossible. Mise à prix: 200 euros et une bouteille de champagne.

Hors-série n°44. Les matrices Tangente

Page 156: Les Matrices_ Une Representation Du Monde

• • • ·t· •• • • I~

• ••• 1-• • • 1· • • • • • • • ••• • •• • • • • • • • • • • • • • ·t··· . • • • ••••• •

HS4402 • Si n amis réalisent p prises de vue de trois personnes chacune, de telle façon que tout participant puisse avoir chacun de ses amis en photo mais jamais lui-même, alors chacun de ces n amis doit apparaître au moins sur deux photos, accompagné d 'amis diffé­rents, afin que ceux-ci puissent avoir sa photo sans figurer eux-mêmes sur cette même photo. Le nombre d'individus photographiés est égal à 3p (ce nombre comprenant les répétitions correspondant à un même individu photogra­phié plusieurs fois). On doit alors avoir l' in­égalité 3p ;3 2n, donc, dans le cas du problè­me, 3p ;3 18, d'oùp ;3 6. Or, on peut affirmer que p = 6 est réalisable. Il suffit en effet de ranger les neuf amis en matri­ce 3 X 3, et de prendre comme triplets les lignes et les colonnes de cette matrice. Cette solution est optimale, tout participant appa­raissant exactement deux fois , et elle est unique, à l' ordre du numérotage près. Chacun des neuf amis devra donc prendre quatre photos, qui sont celles sur lesquelles il ne figure pas. Le nombre minimum de prises de vue nécessaires est donc égal à 6.

HS4403 · Pour répondre à cette question, adop­tons le codage suivant : un carré coloré est codé par le nombre relatif - 1, et un carré blanc est codé par + 1. Les matrices obtenues sont analogues aux matrices d 'Hadamard. Nous pouvons calculer le produit des nombres conte­nus dans chaque ligne et dans chaque colonne; ce produit est égal à - 1 si la ligne ou la colon­ne contient un nombre impair de cases colo­rées, et à + 1 si elle en contient un nombre pair. Lorsque nous passons d 'une ligne (ou d'une colonne) à une autre, nous changeons exacte­ment le contenu de deux cases ce qui revient

par Michel Criton

à multiplier ce contenu deux fois par - 1. Or, multiplier deux fois par - 1 laisse le produit de tous les nombres de la ligne inchangé. Toutes les lignes doivent donc avoir le même produit, et il en est de même de toutes les colonnes (mais il est possible que les deux diffèrent, comme le montre l' uQ des carrés ci-dessous). s· toutes les !jgnes résentent le même pro­duit, comme le carré co pte un nombre pair de lignes, le produit de tous les nombres du carré est égal à+ 1, ce qui entraîne que le carré doit nécessairement contenir un nombre pair de cases colorées.

- ]

- 1

-l

- 1

HS4404 · Voici une solution du problème.

Lundi 1, 6, 11 2, 7, 12 3, 8, 13 4, 9, 14 5, 10, 15

Mardi 1, 2, 5 3, 4, 7

8, 9, 12 10, 11 , 14 13 , 15, 6

Mercredi 2, 3, 6 4,5, 8

9, 10, 13 11 , 12, 15

14, 1, 7

Jeudi 5,6,9

7, 8, 11 12, 13 , 1 14, 15, 3 2, 4, 10

Vendredi 3, 5, 11 4, 6, 12 7, 9, 15 8, 10, 1 13, 14, 2

Samedi 5, 7, 13 6, 8, 14 9, 11 , 2 LO, 12, 3

15, 1, 4

Dimanche 11 , 13 , 4 12, 14, 5 15, 2, 8 1, 3, 9

6, 7, 10

HS4405 · On a d(I) = 1 et d(2) = - 2. Pour tout n 2'.: 3, on aura d(n) = O. En effet, on vérifie que la troisième ligne de la matrice est combinaison linéai re des deux pre­mières (elle est toujours égale à deux fois la deuxième ligne moins une fois la première). On en déduit que, pour n 2'.: 3, le déterminant est nul.

~ 54 Tangente Hors-série n°44. Les matrices

Page 157: Les Matrices_ Une Representation Du Monde

HS4406 • l1:e premier terme de la matrice M(n) est égal à la somme des n - 1 premiers carrés des entiers non nuls augmentée de 1, à savoir l + 11(11 - 1 )(211 - 1) / 6. Les termes de la dia­gonale principale de M(n) forment une pro­gression arithmétique de raison 11 + 1. La somme demandée est donc : n (n + 1)(2n2

- 2n + 3) / 6.

HS4407 · Désignons les places par A, B, C, a, b, et c, deux lettres associées (majuscule et i:ninuscule) correspondant à deux places qui ne sont pas directement reliées. Dans cette matrice, aiJ = 0 s'il n'existe pas de route reliant i àj (c ' est notamment le cas si i = j), aiJ = l si la route reliant i àj est orientée dei vers j , et aiJ = - 1 si la route reliant i àj est orientée de) vers i. D'après les conditions imposées par

l'énoncé, chaque ligne et chaque colonne de cette matrice doit compter exactement deux fois le nombre l et deux fois le nombre - 1. Pour remplir cette matrice, on peut distinguer trois cas: Premier cas : ligne a = ligne A.

A B c a b c Ce cas est celui de la A o -a -~ O -'Y -li matrice correspondant B a O -a a O -a au dessin de l'énoncé.

c ~ -~ o ~ -~ O Remplissons les a o -a -~ o -y -li colonnes A et a avec

b y o -y y o -y les nombres a, p, y, ô, c li -li o li -li o puis complétons les lignes en fonction de ces nombres. L'examen des colonnes et l'antisymétrie imposent alors a = - p = y = - ô. On n'obtient donc que deux matrices de ce type, avec a = l, p = - 1, y = 1, ô = - 1, ou bien a = - l, p = 1, y = - 1, ô = 1.

Deux ièmc cas : ligne a = opposé de la ligne A. A B C a b c En respectant les

A conditions de l'énoncé 0 -a -~ 0 -y -ô

B (antisymétrie, deux a 0 - E -a 0 E

C nombres 1 et deux ~ E 0 -~ - E 0

a nombres - 1 par ligne 0 a ~ 0 y ô

b et par colonne , la y 0 E - y 0 -E

ô - E 0 - ô E 0 matrice se remplit

SOLUTIONS

comme ci-contre. Des valeurs peuvent être attribuées à a , [3, 'Y, ô, de six façons diffé­rentes, et dans chaque cas, les deux valeurs possibles pour e donnent deux matrices. On obtient ainsi 6 X 2 = 12 autres matrices. Troisième cas : les lignes a et A ne sont ni égales, ni opposées. On peut remplir la ligne a de six façons, et la ligne A de quatre façons (puisque l'on a exclu les deux cas précédents). On obtient ainsi vingt-quatre combinaisons, et chacune conduit

à une solution unique. Le nombre total de plans réalisables est donc égal à 2 + 12 + 24 = 38 plans différents.

HS4408 • On cherche un carré de la forme

tel que a, b, c, d, e,f, g, h, i, a + 2, b + 2, c + 2, d + 2, e + 2, f + 2, g + 2, h + 2 et i + 2 soient tous des nombres premiers. Ceci implique que les chiffres des unités des nombres a, b, c, d, e, f, g, h eti appartiennent à l'ensemble { 1 ; 7 ; 9}. Soit ces chiffres des unités sont tous identiques, soit ils sont dans la configuration suivante, à une rotation ou à une réflexion près :

[; ~ !] La plus petite solution est la suivante :

[

191 17 239 l [ 193 19 241 l 197 149 101 , 199 151 103 .

59 281 107 61 283 109

Hors-série n°44. Les matrices Tangente 155

Page 158: Les Matrices_ Une Representation Du Monde

SOLUTIONS par Michel Criton

HS4409 • T3"' + z + T4111 + 2 = T 5m + 3 pour tout m a b c a b c

entier naturel . T 3n + 1J4n + 1 = T 511 + 1 pour tout n D= d e f d e f entier naturel non nul.

, . ,lo .. 1 • • ·~ ... • • 1

' '\ • • 1 , ' 1{ l· ~ g h 3e 3e 3

2 2 2 L•~' ... :. .. b 3e b \. • • 4 a a e On a 3m+1 4m+1 5m+1 =m t1• lt >::f,

d '3e d xs. 1· ·t e e e 3n 4n+ 1 5n+l ·,~·~•t 3e 3e 9e

our tout m et pour tout n, strictement positifs. La conclusion en découle directement.

On a aussi

2

5

2

6 3 8

3m+2 4m+2 5m+3 =0

pour tout m supérieur ou égal à 2.

HS4410 • On suppose que les entiers sont choi­sis de façon que leurs résidus modulo 7 soient équirépartis. On remplace alors les entiers choisis par leurs résidus modulo 7. Le déterminant de la matri­ce obtenue est divisible par 7 si, et seulement si, cette matrice n'est pas inversible. Le nombre de matrices non 3 X 3 inversibles sur le corps des entiers modulo 7 est égal à (73 - 1) (73

- 7) (73 - 72) , sur un total de 79

matrices . La probabilité demandée est donc égale à:

HS4411 · Soit [

dag b: 1c1

. J un carré magique

quelconque. On a alors S = 9e et la somme magique est égale à S / 3, soit à 3e. En additionnant lignes et colonnes, on obtient:

HS4412 • Selon la notation A B c D

de Maurice Kraitchik, on E F G H peut noter un tel carré de I J K L

la façon suivante : M N 0 p

Désignons par S la somme magique. On a : ~+B+C+D=E+F+G+H=I+J+K+ L = M + N + O + P =A+E+ I + M = B + F + J +N=C+ G + K + O = D + H +L+ P = M + B + G + L = I + N +C+ H =E+ J + O + D = A + F + K + P = A + N + K + H =E+ B + 0 + L = 1 + + C + P = M + J + G + D = S. Ces égalités entraînent que l'on peut écrire ce carré sous la forme suivan e :

A B c S - A-B-C E S-A-B-E A-C+E B+ C-E

S / 2-C A+ B+C -S / 2 S/2-A S / 2-B S/2-A+C-E S/2-B-C+E S/2-E A+B+E -S / 2

En soustrayant la première colonne de la troisième et la deuxième de la quatri èQ1e, on obtient deux colonnes linéairemen dépendantes . On en déduit que le déterminant est nul.

HS4413 · Contre-exemple :

10 18 14 22

4 12 25 8 16

23 6 19 2 =-4680000.

5 13 21

24 7 20 ,~ ,;/ ·r ••

156 Tangente Hors-série n°44. Les matrices

Page 159: Les Matrices_ Une Representation Du Monde

Abonnez-vous à tan~ "Q!~ ••• Tangente le magazine des mathématiques ••• ••• Les hors séries Thématiques ••• Pour mieux comprendre le monde : Tangente Le seul magazine au monde sur les mathématiques. Tous les deux mrns depuis 20 ans

••• Les hors séries Bibliothèque Tangente ••• n Ce sont de magnifiques ouvrages d'en Maths 1,

moyenne 160 pages (prix unitaire 19,80€), richement illustré, approfon­dissant le sujet du dernier numéro des HS Thématiques de Tangente (HS "kiosque"). Disponibles - chez votre libraire - ou avec l 'abonnement SUPERPLUS

à un prix exceptionnel (33% de réduction).

••• Tangente Sup •••

4 fois par an. les hors séries Thématiques (format ''kiosque"), d'au moins 52 pages. explorent un grand

dossier de savoir ou de culture mathématiques.

Derniers parus : r.:o,""""....__ nJ Maths discrètes et combinatoire,

La Terre vue des maths, Suites et séries, Mathématiques et biologie, Les matrices

Disponibles : - chez votre marchand de journaux - ou avec l 'abonnement PLUS

••• Spécial Logique ••• Pour tous les amateurs des jeux

intelligents. Un trimestriel conte-nant près de 200 jeux : tests de

logique, grilles à remplir ...

i';: ..... ':!~ ~ ••• ~angente E' ducat·1on ••• 6 numéros par an, destinés à ceux qui veu- ,:,~~~...-~ '' lent aller plus loin. Ils traitent des dossiers du .. ~:-:,1• - ... _ Nouvelle formule trimestrielle destinée dernier Tangente à un niveau supérieur et ini- !i>!,;. -. ........ aux enseignants pour aborder des thèmes tient aux grandes orientations de la science. a"Ç -:. -..::::-~ de pédagogie variés : les manuels scolaires,

., les MPS, la formation des enseignants, MathC2+ ...

~ ------------------------------------------------------------------------------------------codif : 8 1844 Bulletin d'abonnement à retourner à:

Espace Tangente - 80, Bd Saint-Michel - 75006 PARIS Nom .......................... Prénom ........................................ .. ...... . . .

Établissement ............... . .... . ...... . ........................... . ..................... .

Adresse ...................................... . ............ .... .. . .. . . . ..... ....... . .. . . .. .

Code Postal . . . . . . . . . . . . . . . . Ville ... ...................... . ..... . .. . ... . .... . ... . .. . ..... .

Profession . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E-mail

Oui, je m 'abonne à FRANCE 1 HORS MÉTROPOLE 1 1 AN 2 ANS

TANGENTE . 35 € . 65 € • + 12 € par an

TANGENTE PLUS • 55 € • 105 € • + 20 € par an

TANGENTE SUPERPLUS • s5 € • 165 € • + 24 € par an

TANGENTE SUP • 24 € . 46 € • +6 € par an

TANGENTE ÉDUCATION • 10 € • 1s € • + 2 € par an

SPÉCIAL LOGIQUE • 19,50 € • 37 € • + 6 € par an

ABONNEMENT MATH+ * • 100 € • 190 € • + 30 € par an

ABONNEMENT MATH++ ** • 130 € • 250 € • + 30 € par an

ABONNEMENT SOUTIEN *** • 150 € . 300 € • + 30 € par an

• Tous les titres avec les HS Thématiques. •• Tous les titres avec les HS Bibliothèques. ••• Tous les titres avec les deux HS.

Total à payer ~~~~~~~~~~--'

Je joins mon paiement par (établissements scolaires, joindre bon de commande administratif):

O Chèque (uniquement payable en France)

O Carte (à partir de 30 €) numéro: 1 1 1 1

Date et Signature: crypto : ._1 -'--'-....J Expiration le: ........ ./ .........

Page 160: Les Matrices_ Une Representation Du Monde
Page 161: Les Matrices_ Une Representation Du Monde

Ta.ngente Hors-série n° 44 Les matrices

Ta.ngente Publié par les Éditions POLE

SHS au capital de 42 000 euros

Siège social 80 bd Saint-michel - 75006 Paris

Commission paritaire : 1011 K 80883 Dépôt légal à parution

Directeur de Publication et de la Rédaction Gilles COHEn

Rédacteur en chef adjoint Herué LEHnmG

Secrétaire de rédaction Édouard THOmHS

Ont collaboré à ce numéro Jacques BHIR, Philippe BOULHnGER, Élisabeth BUSSER,

michel CRITOn, Jean-Jacques DUPHS, Bertrand HHUCHECORnE, Daniel JUSTEns,

Philippe LHnGEnHKEn, François LHUHLLOU, Herué LEHnmG, Hlexandre moHTTI, Jean-Hlain RODDIER,

norbert UERDIER, Hlain ZHLmHnSKI

maquette Thibaud Dl DOmEmco, Guillaume GHIDOT,

natacha LHUGIER, Claude lUCCHlnl

Photos : droits réserués

Photo couverture : Édouard Thomas [ exposition mathématiques, un dépaysement soudain

à la fondation Cartier pour l'art contemporain)

Publicité, abonnements marie DURHnD [email protected]

01 47 07 51 15 - fax : 01 47 07 88 13

Page 162: Les Matrices_ Une Representation Du Monde

Achevé d'imprimer pour le compte des Éditions POLE

sur les presses de l'imprimerie SPEI à Pulnoy Imprimé en France

Dépôt légal - Août 2012

Ta.ngent:e Hors-série n°44. Les matrices

Page 163: Les Matrices_ Une Representation Du Monde
Page 164: Les Matrices_ Une Representation Du Monde

-r1ces ation du monde

Les matrices sont, à la base, de simples tableaux de nombres. Il y a moins de deux siècles, on a défini des opérations pour manipuler ces tableaux, ce qui a bouleversé l'approche de plusieurs objets ou notions mathématiques. Les transformations géométriques, notamment, s'étudient plus aisément avec les outils matriciels. Plus généralement, tout ce qui est de dimension finie dans le monde qui nous entoure, et tout ce qui peut être modélisé, tombe sous leur influence. Cette caractéristique a trouvé sa pleine expression avec l'avènement de l'informatique. L'économie, l'actuariat et la finance en sont friandes. L'électronique et toutes les sciences de l'ingénieur ne peuvent plus s'en passer. Même le grand public est directement concerné : derrière chaque Sudoku, chaque grille logique, chaque carré magique se cache une matrice, souvent utile dans sa résolution.

Prix: 19,80 €

!;OITIONS ~

POLE ~