20
la lettre n 0 16 / été 2005 de l’ A cadémie de s s cience s Terre La figure de la Académie n°16[1] 28/07/05 10:36 Page 1

La figure de la Terre - La Lettre n°16

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: La figure de la Terre - La Lettre n°16

la lettre n0 16 / été 2005de l ’Académie des sciences

TerreLa figure de la

Académie n°16[1] 28/07/05 10:36 Page 1

Page 2: La figure de la Terre - La Lettre n°16

EditorialScience et innovation sont étroitementliées à l’histoire des pays européens età leur rayonnement international. Desplantes médicinales de Garcia Orta à lamicrobiologie de Louis Pasteur, de lalunette de Galilée aux ondes électro-magnétiques de Maxwell, de la photo-synthèse de Priestley à la radioactivitéde Pierre et Marie Curie, de multiplesinventions pour n’en citer que quelquesunes, ont marqué et continuent de mar-quer les progrès des connaissances,conférant depuis des siècles à l’Europeune double identité : celle du savoir etcelle des découvertes.Dans le contexte de l’ère post-indus-trielle, la recherche assure la compéti-tivité économique par ses applications,et contribue au progrès social et à l’amé-lioration de la qualité de vie dans lessociétés humaines. Terrain naturel dedialogues, d’échanges et de coopération,

la Science a aussi contribué à l’intégra-tion européenne dont elle constitue l’undes socles essentiels. De grands pro-grammes scientifiques européens, com-me le CERN et EMBO, et des program-mes d’application comme Airbus etAriane n’en constituent que quelquesexemples parmi les plus notables. Lesprogrammes Euréka et Marie Curie, parle flux d’échanges qu’ils ont permis àplusieurs dizaines de milliers de cher-cheurs et d’étudiants, ont contribué demanière significative à l’unité européen-ne, et, par les dialogues des cultures, ontdéjà marqué toute une génération.

Les Académies des sciences, par la di-versité de leur expertise, leur prestigeet leur indépendance, constituent desrelais naturels de l’animation scienti-fique européenne et de la diffusion dusavoir. A ce titre, le développement d’ob-jectifs communs à plusieurs Académies,voire la création de réseaux interacadé-miques, peuvent constituer au-delàd’autres mécanismes institutionnels unciment fort d’échanges et de coopéra-tion scientifique européenne.L’organisation récente, par l’Académiedes sciences de l’Institut de France,d’une réunion conjointe avec les Acadé-mies des dix pays nouveaux membresde l’Union Européenne a permis demesurer l’importance d’une volontéd’actions communes dans de nombreuxdomaines. Ont été mis en avant par lesparticipants à cette réunion : l’innovationscientifique favorisée par les échangeséquilibrés de chercheurs post-doctorauxet l’incitation à la réalisation de thèsesen co-tutelles et la participation active

des Académies à la diffusion du savoir,et la mise en place de dispositifs euro-péens de formation scientifique de hautniveau.Les progrès de la Science suscitent à lafois fascination, espoirs et inquiétudes.Les rapports entre la Science et laSociété sont au cœur des enjeux euro-péens pour les prochaines années. Parles missions nationales qu’elles exer-cent dans la défense permanente del’éthique et la diffusion maîtrisée et perti-nente des connaissances, les Académiessont amenées à jouer un rôle croissantet essentiel dans l’interface indispen-sable entre le monde scientifique et lessociétés. Elles doivent, dans ce contexte,contribuer par les dimensions sociales,morales et politiques qui sont les leurs,au développement harmonieux de laScience européenne et à son appro-priation par l’ensemble des pays del’Union au service de leurs populations.En Mars 2000, le Conseil Européen deLisbonne a présenté une stratégie s’éta-lant sur 10 ans et visant à faire de l’UnionEuropéenne, l’économie la plus compé-titive et la plus dynamique du monde eta lancé le projet d’Espace Européen dela Recherche établissant ainsi un cadrede référence pour la recherche enEurope. Deux ans plus tard, le ConseilEuropéen de Barcelone s’est fixé pour

objectif de porter d’ici 2010, l’effort euro-péen de recherche à 3 % du PIB del’Union (2/3 viennent d’investissementsprivés, 1/3 du secteur public). Rappelonsque l’actuel effort des recherches avec2 % du PIB de l’Union se situe aujour-d’hui derrière ceux des Etats-Unis (2.8%) et du Japon (plus de 3 %). Six grandsobjectifs pour la politique de soutien àla Recherche de l’Union ont été définisen juin 2004 : (1) créer des pôles d’ex-cellence européens par la collaborationentre laboratoires ; (2) lancer des initia-tives technologiques européennes ; (3)stimuler la créativité de la recherchefondamentale par la compétition entreéquipes au niveau européen ; (4) rendrel’Europe plus attractive pour les meil-leurs chercheurs ; (5) développer desinfrastructures de recherches d’intérêteuropéen ; (6) renforcer la coordinationdes programmes nationaux de recherche.

Un débat important a lieu aujourd’hui enEurope au sujet de la recherche fonda-mentale, de ses enjeux et de la meilleuremanière de les affronter au niveau euro-péen. La création, dans ce contexte, d’unConseil Européen de la Recherche des-tiné à promouvoir, grâce à des budgetsspécifiques, la recherche fondamentaled’excellence est en cours de réalisationet fera de cette structure une pierre an-gulaire de l’Espace Européen de Recher-che. A nos yeux, l’espace Européen de laRecherche doit reposer sur une doubledynamique : celle de la volonté politiqueet de l’ambition permanente de l’excel-lence, et celle de l’émergence de toutesles potentialités et de tous les talents,particulièrement dans les nouveaux paysmembres de l’Union Européenne �

par André Capron 1 et Jules Hoffmann 2

1 Membre de l’Académie des sciences, directeur hono-raire de l’institut Pasteur de Lille.

2 Vice-Président de l’Académie des sciences, directeurde recherche au CNRS, Institut de biologie moléculaireet cellulaire, Strasbourg

SommaireÉditorialL’Europe de la ScienceAndré Capron et Jules Hoffmann

page 2

DossierHistoire de la connaissance de la Figure de la TerreJean-Paul Poirier

page 3La forme de la surface marineAnny Cazenave

page 6Le géoïde : regard profond sur l’image de la Terre Georges Balmino

page 8Les nouveaux outils du géologueEntretien avec Claude Allègre par Paul Caro

page 10

Question d’actualitéPerception et compression des images fixesYves Meyer

page 12

La vie des séancesDécouvertes récentes sur les nouvelles fonctions régulatrices de l’ARNÉric Westhof

page 19

La vie de l’académiePropriété scientifique et recherche : des pistes pour l’avenirpage 20

Le Bower Award & Prize for Achievement in Sciencepage 20Jean-François Bach, Secrétaireperpétuel de l’Académie des sciencespage 20

2

la lettre n0 16 / été 2005de l ’Académie des sciences

L’Europe de la Science

Académie n°16[1] 28/07/05 10:36 Page 2

Page 3: La figure de la Terre - La Lettre n°16

Ce n’est pas seulement au nom de laBible que Cosmas attaquait la sphéricitéde la terre, mais au nom de la “saineraison”. Il trouvait ridicule que l’on sou-tienne que la Terre puisse rouler dansl’espace sans axe ou appui quelconque.Il appelle les antipodes des contes devieille femme.Un témoin et acteur des dernières pha-ses de la grande aventure de la mesurede la Terre, l’astronome et physicienJean-Baptiste Biot, écrivait en 1818: “Ladétermination de la grandeur et de lafigure de la terre, la mesure de la pesan-teur à sa surface, la liaison de ce phéno-mène avec la constitution intérieure duglobe, avec la disposition de ses coucheset les lois de leurs densités, sont aunombre de ces questions de longuedurée, que des sociétés savantes seulespouvaient se proposer d’attaquer et derésoudre. Elles ont été depuis un siècleet demi un des objets constants destravaux de l’Académie des sciences4.”Le problème de la figure et de la mesurede la Terre fut, en effet, avec celui deslongitudes, un des grands problèmesscientifiques qui préoccupa le mondesavant aux XVIIe et XVIIIe siècles. Il fut

3

Dossier

que la configuration du ciel étoilé chan-geait avec la latitude. Plus tard, Aris-tarque de Samos (environ 310-230 av. J.-C.) croyait que la Terre était sphérique ettournait autour du Soleil.Enfin, Eratosthène (275-195 av. J.-C.)détermina la circonférence de la Terreen mesurant un arc de méridien entreAlexandrie et Syène (Assouan). D’aprèsStrabon, il mesura la différence angu-laire entre la direction du Soleil (environ7°) vue des deux endroits, le jour du sol-stice d’été. La distance était mesurée pardes bêmatistes, marcheurs qui comp-taient leurs pas étalonnés. Eratosthènetrouva, pour la circonférence de la Terreune valeur de 252000 stades, probable-ment voisine de la valeur réelle. Il exis-tait de nombreuses définitions du stadedans l’Antiquité, mais le stade de 700 audegré (correspondant à 159 m) était leplus couramment utilisé2.La majorité des Pères de l’Église se sontralliés, sans difficulté, à la sphéricité de laTerre, qui n’a pas été l’objet de controversescomme celles qu’a soulevées la théorie del’héliocentrisme. Au Moyen-Âge, Isidorede Séville et Bède le Vénérable, entreautres, croyaient à la sphéricité.

Cependant l’idée est répandue que lesAnciens, les Pères de l’Église et les philo-sophes médiévaux pensaient que laTerre était plate. Cette idée reçue a peut-être son origine dans la Topographiechrétienne de Cosmas Indicopleustes,qui n’eut aucun écho à son époque et nefut connue qu’à partir du XV e siècle.Vers 547 (sous Justinien), Cosmas Indi-copleustes, voyageur alexandrin quidevint moine, écrivit sa Topographiechrétienne. Partisan de l’école antio-chienne, qui interprétait littéralementl’Écriture (mais qui était minoritaire), ilrefusait catégoriquement la sphéricitéde la Terre:“Il y a de faux chrétiens, contempteursdes Écritures, et qui osent soutenir quela Terre est sphérique: je combats ceserreurs, venues des Grecs, par des cita-tions incontestées des Livres saints3.”Pour Cosmas, la Terre est un rectangleplat flottant sur l’Océan, borné de touscôtés par des murailles qui formentau-dessus d’elle, en se réunissant, lefirmament ou voûte céleste. Vers lepôle Nord, il y a une haute montagneautour de laquelle tournent le Soleil,la Lune et les étoiles.

Histoire de la connaissancede la Figure de la Terre

Le méridien de Paris, Observatoire de Paris

Des auteurs postérieurs rapportentque quelques pré-socratiques (1)

tels qu’Anaximène de Milet ou Anaxagorede Clazomènes, ont pensé que la Terreétait plate, mais il est clair que ce n’étaitpas l’opinion des plus grands philosophesanciens.En effet, Aristote (384-322 av. J.-C.) ensei-gnait la sphéricité de la Terre. L’élémentterre, le plus lourd, tendait vers son “lieunaturel”, au centre du monde et prenaitla forme d’une sphère. Son hypothèseétait confirmée par la circularité del’ombre de la Terre sur la Lune, lors deséclipses de notre satellite, et par le fait

par Jean-Paul Poirier 1

1 Membre de l’Académie des sciences, physicien émériteà l’institut du globe de Paris

Académie n°16[1] 28/07/05 10:36 Page 3

Page 4: La figure de la Terre - La Lettre n°16

Les résultats des deux expéditions,publiés en 1744 et 1737 respectivement,mirent qualitativement hors de doutel’aplatissement de la Terre. Cependantl’exactitude des mesures, surtout cellesde Laponie, n’était pas encore suffisantepour obtenir une valeur correcte del’aplatissement. (1/179 au lieu de 1/298).“La faute n’en était à personne; on nepouvait faire mieux alors”. écrit Biot.Quoiqu’il en soit, Cassini de Thury, quiavait poursuivi le travail de son père etde son grand-père sur la méridienne deFrance, finit par reconnaître, en 1740, que“les degrés vont en diminuant en s’ap-prochant de l’équateur, ce qui est favo-rable à l’hypothèse de l’aplatissement dela Terre vers les Pôles 6.”En 1750, l’abbé de La Caille, fut envoyéen mission au Cap de Bonne Espérance.Pendant quatre ans, il détermina la posi-tion de 10035 étoiles du ciel austral; ilmesura aussi un arc de méridien, ainsique la longueur du pendule. Il observaque le degré qu’il avait mesuré était troplong, “ce qui semblerait indiquer quel’aplatissement de la Terre n’est pasrégulier.” Cette irrégularité fut maintesfois confirmée depuis: on sait mainte-nant que la Terre n’a la forme d’un ellip-soïde qu’en première approximation et,qu’en réalité, la surface du “géoïde”présente des bosses et des creux.Les années passèrent, et l’idée d’uneunité de longueur universelle, liée à laTerre, faisait son chemin. Déjà, en 1669,dans un rapport à l’Académie dessciences, l’abbé Picard écrivait : “Maispour donner une mesure qui demeurâtà la postérité et qui ne dépendît point dela nôtre particulière, je voudrais me servirde la longueur qui est nécessaire pourun pendule à seconde de temps, déter-minant combien de fois cette longueurserait contenue dans un grand degré surla Terre, et conséquemment à la circon-férence et au diamètre. De sorte que lamesure de la grandeur de la Terre pre-mièrement trouvée par la différence deshauteurs de pôle, et par rapport au ciel,serait attachée au mouvement journa-lier comme à un original commode etexposé à toutes les nations.”Cent-vingt ans plus tard, l’établissementd’une mesure universelle était encoreà l’ordre du jour. Le 8 mai 1790, surproposition de Talleyrand, l’Assembléeconstituante décréta que le roi de Francedevait inviter le gouvernement anglais àfaire désigner par la Société royale deLondres des savants anglais qui se join-draient aux savants français choisis parl’Académie des sciences, dans le but dedéterminer en commun la longueur dupendule simple battant la seconde à lalatitude de 45 % et au niveau de la mer.La politique en décida autrement et lesFrançais travaillèrent seuls.La commission désignée par l’Académiedes sciences était composée de Laplace,Lagrange, Borda, Monge et Condorcet.Elle devait, entre autre, décider de la divi-

l’objet d’une rivalité acharnée entre laFrance et l’Angleterre. Le géophysicienTed Bullen pense que cette rivalité futsans doute à l’origine des grands progrèseffectués à l’époque dans la connais-sance de la Terre solide, de même queles explorations spatiales de la fin duXXe siècle doivent leurs succès à la con-currence entre les États-Unis et l’UnionSoviétique. Il note les brillants résultatsobtenus par les Français et relève, enparticulier, les expéditions en Laponie etau Pérou et l’établissement d’une unitéde longueur internationale basée sur lamesure de la Terre.En effet, on parle souvent de la disputesur la Figure de la Terre, aplatie auxpôles, comme le voulait Newton ou al-longée comme le croyaient JacquesCassini II et Johann-Caspar Eisensch-midt (1656-1712), correspondant à l’Aca-démie de son père Jean-DominiqueCassini, auteur d’un écrit qui eut unecertaine célébrité: Diatribe de figura tel-luris ellipticosphæroide, publié à Stras-bourg, en 1691.Mais on sait moins que le systèmemétrique, adopté par la Convention natio-nale en 1793, fut proposé par l’Académiedes sciences et fondé par elle sur lesmesures d’arcs de méridien que nombrede ses membres avaient effectuées avecpersévérance, en France et ailleurs.Avant de mentionner les contributionsde l’Académie des sciences à la connais-sance de la figure et de la mesure de laTerre, on peut brièvement rappeler ceque nous en savons maintenant.La force centrifuge, liée au mouvementde rotation de la Terre, est nulle aux pôleset maximale à l’équateur où elle se sous-trait à l’attraction gravitationnelle. LaTerre est déformable et le “bourreletéquatorial” ainsi créé lui donne, enpremière approximation, la forme d’unellipsoïde de révolution aplati selon l’axedes pôles. Il en résulte deux consé-quences, qui ont alimenté la controverseentre savants aux XVIIe et XVIIIe siècles:Un arc de méridien de 1 degré corres-pond à la distance, sur le globe, entredeux points situés sur le même méridienet tels que l’angle entre les verticales en ces deux points soit de 1 degré. Enpratique, on mesure l’angle entre les dis-tances zénithales (comptées à partir dela verticale) d’une étoile, lors de son pas-sage au méridien en ces points. Or, dufait de l’aplatissement de la Terre, leméridien n’est pas un cercle, mais uneellipse et la verticale en un point, perpen-diculaire à l’ellipse, ne passe donc paspar le centre de la Terre. La courbure del’ellipse est plus forte près des extrémitésdu grand axe (vers l’équateur) que prèsdes extrémités du petit axe (vers lespôles). Il en résulte que l’arc de méridienentre deux points pour lesquels les verti-cales font un angle de 1 degré est pluspetit près de l’équateur que du pôle. Apartir de la longueur d’un arc de méri-dien aux latitudes moyennes (H” 4 5 °),

on peut calculer directement le rayonmoyen de la Terre.La pesanteur g, égale à l’attraction gravi-tationnelle diminuée de la force centri-fuge, est plus faible vers l’équateur quevers les pôles. Or, la longueur du pendulebattant la seconde (définie comme laquatre-vingt six mille quatre centièmepartie du jour solaire moyen) est propor-tionnelle à g. Le pendule battant la sec-onde est donc plus court vers les basselatitudes que vers les hautes latitudes.Ce sont ces deux grandeurs, l’arc deméridien de 1 degré et la longueur dupendule battant la seconde, qui ont été àla base des déterminations de la figureet de la mesure de la Terre, effectuéespar les Académiciens.En 1666, Newton, qui cherchait à rendrecompte du mouvement de la Lune ens’appuyant sur les mesures de pesan-teur à la surface de la Terre, n’avait pasobtenu de résultats satisfaisants et avaitdû abandonner cette entreprise, car lavaleur du rayon de la Terre, connue alors,était trop inexacte.Mais, en 1669-1670, l’abbé Jean Picard,membre de l’Académie depuis la fonda-tion de celle-ci, mesura, par triangula-tion, un arc de méridien entre la fermede Malvoisine, à 30 km au sud de Paris,et Amiens. Il en déduisit pour le degréune valeur de 57 060 toises (1 toiseH”1, 9 5 m) et un rayon de la Terre égal,en unités modernes, à 6365,6 km. Lors-qu’en 1682, Newton eut connaissance dela mesure plus correcte de Picard, ilreprit ses calculs et il fut, paraît-il, telle-ment ému de l’accord avec les observa-tions qu’il dut demander à un ami de lesachever.En 1672, Richer, envoyé par l’Académie à Cayenne, pour y effectuer des obser-vations astronomiques et des détermi-nations de longitude, découvrit que sonhorloge à pendule, qui battait la secondeà Paris, retardait près de l’équateur. Ilécrit : “L’une des plus considérablesObservations que j’ay faites, est celle dela longueur du pendule à secondes detemps, laquelle s’est trouvée plus courteà Caïenne qu’à Paris, car la mesme me-sure qui avait esté marquée en ce lieu-làsur une verge de fer, suivant la longueurqui s’estoit trouvée nécessaire pour faireun pendule à secondes de temps, ayantété apportée en France, et comparée aveccelle de Paris, leur différence a estétrouvée d’une ligne et un quart (2. 82mm),dont celle de Caïenne est moindre quecelle de Paris, laquelle est de 3 pieds 8lignes 3/5 (116,85 cm). Cette observationa esté réitérée pendant dix mois entiers,où il ne s’est point passé de semainequ’elle n’ait esté faite plusieurs fois avecbeaucoup de soin5.” Admirons la préci-sion des mesures: la différence relativede longueur est de 2,4 pour mille!Les observations de Richer furent confir-mées par celles de Varin, des Hayes etde Glos, envoyés par l’Académie au CapVert dans le but de déterminer les longi-

tudes, mais aussi de mesurer la longueurdu pendule battant la seconde. Ils arri-vèrent à Gorée en mars 1682. Au retour,ils passèrent par la Guadeloupe et laMartinique et, en chaque point, obser-vèrent la longueur du pendule. Ils trou-vèrent que la pesanteur était plus faibleprès de l’équateur ce qui s’accordait avecla théorie de Newton, suivant laquelle laTerre avait la forme d’un ellipsoïde aplati.Ce résultat aurait pu être confirmé parla mesure du degré aux extrémités d’uneméridienne, mais l’arc mesuré par Picard,suffisant pour déterminer le rayon dela Terre, était trop court pour que l’on pûty déceler l’aplatissement.Colbert avait chargé l’Académie de dres-ser une carte générale de la France. Acette fin, il fallait commencer par me-surer l’arc de méridien qui traverse laFrance de bout en bout, entre Dunkerqueet Perpignan. Ce fut le grand œuvre desCassinis, tous trois membres de l’Aca-démie des sciences: Jean-DominiqueCassini I, son fils Jacques Cassini II et sonpetit-fils César-François Cassini de Thury(Cassini III). Mais cet arc était encore tropcourt, et les instruments employés en-core trop imparfaits pour que l’on pûtcalculer sans erreur la figure de la Terre.De fait, en 1718, Jacques Cassini trouvaun degré un peu plus long sur le segmentsud (Paris-Collioure) que sur le nord(Paris-Dunkerque). Il en déduisit unallongement de la Terre suivant l’axe despôles, contrairement à la théorie deNewton et aux observations de la lon-gueur du pendule.Les Cassini, comme d’ailleurs la commu-nauté scientifique française, étaientcartésiens de père en fils: ils ne pouvaientaccepter la force occulte de l’attractionet, opposés au vide, ils croyaient que destourbillons de matière céleste éthéréeentraînaient les étoiles et les planètes.Descartes ne s’était guère intéressé à lafigure de la Terre, qu’il voyait simplementronde, et il n’a certainement pas écritqu’elle était allongée plutôt qu’aplatie.Mais, les cartésiens se réjouissaient devoir mise en échec une conséquencesdes calculs newtoniens, jetant par là ledoute sur toute la théorie.La différence de longueur entre lesdegrés nord et sud était évidemmentdans la marge d’erreur, mais, écrit Biot:“L’ Académie ne se rebuta point : ellesentit que la question ne pouvait êtrenettement décidée qu’en mesurant deuxarcs du méridien dans les régions de laterre où l’aplatissement doit produireentre les degrés des différences plussensibles, c’est à dire près de l’équateuret près du pôle. Elle trouva parmi sesmembres des hommes assez dévouéspour entreprendre ces pénibles voyages.”En 1735 donc, Bouguer, La Condamineet Godin s’embarquèrent pour le Pérou,tandis que Maupertuis, Clairaut, LeMonnier et l’abbé Outhier se mirent enroute vers la Laponie, accompagnés parle savant suédois Celsius.

Dossier

4

Académie n°16[1] 28/07/05 10:36 Page 4

Page 5: La figure de la Terre - La Lettre n°16

5

sion du système et de l’unité fondamen-tale. La division décimale présentait detels avantages qu’elle fut adoptée trèsvite. Par contre, pour ce qui concernaitle choix de l’unité, la commission nesuivit pas la Constituante, et choisit ledix-millionième du quart du méridienterrestre. Elle pensa, en effet, que la lon-gueur du pendule battant la seconden’était pas assez universelle; en outre,le fait de lier l’unité de longueur à l’unitéde temps posait problème. Il est d’ailleursamusant de noter que depuis 1983, cetteliaison est réalisée, puisque le mètre estmaintenant défini comme la longueur dutrajet parcouru dans le vide par la lumièrependant la durée d’une fraction deseconde égale à 1/299 792 458.Dans les procès-verbaux des séances,conservés aux archives de l’Académiedes sciences, on trouve, à la date du11 juillet 1792, le rapport de la commis-sion: “M. Laplace, conjointement avecMM. Lagrange, Borda et Monge, fait lerapport sur une instruction relative aucadastre de France pour laquelle l’Aca-démie a été consultée par le ministre des

Contributions publiques. Les commis-saires, conformément au désir que l’Aca-démie a témoigné de voir les mesuresde cette grande opération rapportées àla mesure universelle, se sont occupésde fixer les dénominations de ces di-verses mesures, en réunissant dans cettenouvelle nomenclature la brièveté, lasimplicité, et la précision de l’expressionautant qu’il est possible dans une chosequi renferme toujours un peu d’arbitraire.Partant de la division décimale, etprenant la dix millionième partie du quartdu méridien pour unité de mesure, cesmessieurs lui donnent le nom de mètre.[...] “On aurait pu, à la rigueur, pour déter-miner la longueur exacte du mètre,utiliser les mesures de la méridienne deFrance, mais les instruments s’étaientperfectionnés et l’on pensa qu’il valaitmieux remesurer un arc de méridien, deDunkerque à Barcelone, avec les mé-thodes modernes. Méchain et Delambre,munis du nouveau cercle répétiteur deBorda, furent chargés de l’opération,qu’ils menèrent à bien au milieu destroubles révolutionnaires.Pour le mois d’août 1793, les procès-verbaux des séances de l’Académie reco-pient cet “Extrait du procès-verbal dela Convention nationale du 1er août 1793,l’an II de la République française “:“La Convention nationale convaincue quel’uniformité des poids et mesures est undes plus grands bienfaits qu’elle puisseoffrir à tous les citoyens français,Après avoir entendu le rapport de soncomité d’instruction publique sur les

opérations qui ont été faites par l’Aca-démie des sciences, d’après le décret du8 mai 1790, déclare qu’elle est satisfaitedu travail qui a déjà été effectué par l’Aca-démie, sur le système des poids et me-sures et qu’elle en adopte les résultatspour établir ce système dans toute laRépublique sous la nomenclature dutableau annexé à la présente loi et pourl’offrir à toutes les nations.En conséquence, la Convention nationaledécrète ce qui suit.Article 1erLe nouveau système des poids etmesures fondé sur la mesure du méri-dien de la terre et la division décimaleservira uniformément dans toute laRépublique.[...] “La satisfaction manifestée par la Conven-tion le 1er août ne l’empêcha pas de dis-soudre l’Académie des sciences unesemaine plus tard, le 8 du même mois.Mais les travaux continuèrent. L’Aca-démie renaquit de ses cendres en 1795,et devint une classe de l’Institut deFrance. La même année, le Bureau deslongitudes fut créé; parmi ses premiersmembres, on compte les pères fonda-teurs du système métrique: Laplace,Lagrange, Delambre, Méchain, Borda,Cassini IV.On avait envisagé de prolonger la méri-dienne de France jusqu’aux Baléares,Méchain se dévoua pour cette tâche,mais il y laissa la vie, victime de la fièvrejaune. Le Bureau des longitudes chargeadeux jeunes astronomes pleins d’ardeur,Arago et Biot, d’achever ce travail, ce quifut fait en 1810. En 1817, il confia à Biot

Dossier

Le pied de Cassini, Observatoire de Paris.

1 Les Présocratiques, La Pléiade, Gallimard, 19882 Gossellin, P.F.J., De l’évaluation et de l’emploi

des mesures itinéraires grecques et romaines,Imprimerie Impériale, Paris, 1813.

3 Cosmas Indicopleustes, Topographia Christiana,Migne, Patrologie grecque, vol. 88, 52.

4 Biot, J.-B., Mélanges scientifiques et littéraires,Michel Lévy, Paris, 1858.

5 Observations astronomiques et physiques faitesen l'isle de Cayenne, par M. Richer [1672Amsterdam chez Pierre Mortier, 1736.

6 Cassini de Thury, C.F., Mémoires de l'Académiedes Sciences, 1701, p. 171-184.

le soin de prolonger la méridienne, àtravers l’Angleterre et l’Ecosse, jusqu’àla plus septentrionale des îles Shetland.“Mais”, dit Biot, “pour connaître la confi-guration réelle du sphéroïde terrestre, ilfaut mesurer sa courbure non-seulementdans la direction de ses méridiens, maisaussi dans le sens des arcs parallèles àl’équateur qui croisent ces premiers àangle droit”. On pense à La Condamine,qui avait vivement regretté de n’avoir pumesurer un arc de l’équateur. A la fin de1823, on avait complètement déterminéun grand arc de parallèle, de Bordeauxà Fiume, et en 1824, le Bureau des longi-tudes chargea Biot de mesurer l’inten-sité de la pesanteur le long de cet arc. Ily trouva des irrégularités très sensibles,“dont la réalité est incontestable, puis-qu’elles excèdent de beaucoup les er-reurs que l’on pourrait attribuer auxobservations”. Ces observations, jointesaux irrégularités dans la décroissancede la longueur du degré le long de laméridienne, montraient définitivement“que la figure de la Terre est beaucoupplus compliquée qu’on ne l’avait crud’abord.” De la sphère, on était arrivé àl’ellipsoïde, puis au géoïde… et, au pas-sage, on avait fondé le système métrique.Quant à l’aplatissement, sa valeurcontinua à être affinée, quoiqu’avec desfluctuations: Bessel, en 1840, et Faye, en1880, trouvèrent respectivement 1/299et 1/292. La valeur actuelle est 1/298.3 �

Bibliographie: voir sur le site de l’Académie dessciences: www.academie-sciences.fr

Académie n°16[1] 28/07/05 10:36 Page 5

Page 6: La figure de la Terre - La Lettre n°16

par Anny Cazenave1

L'altimétrie spatiale appliquée àl'étude de la planète

L’altimétrie radar sur satellite a étédéveloppée dès le milieu des an-

nées 1970 pour étudier les océans. Pour-tant jusqu’au début des années 1990,elle a surtout permis d’étudier la « terresolide ».L'altimètre embarqué envoie à inter-valles réguliers (typiquement 1 seconde)un signal radar vers le nadir qui se réflé-chit à la surface de la mer. De la mesurede la durée du trajet aller-retour del'onde, on déduit l'altitude du satelliteau-dessus de la surface marine. Grâceaux méthodes d'orbitographie aujour-d'hui bien maîtrisées, on sait positionnerle satellite sur sa trajectoire. La connais-sance de l'orbite permet de calculer l'al-titude du satellite par rapport à unesurface de référence (qui, par conven-tion, est un ellipsoïde dont les cara-ctéristiques sont celles d'une “terremoyenne”). La différence entre lesaltitudes du satellite par rapport l'ellip-soïde et par rapport à la surface de lamer fournit la hauteur « instantanée »de la mer par rapport à l'ellipsoïde. Lessatellites altimétriques réalisent unecouverture complète de la terre au coursd'un cycle orbital (dont la durée est dequelques jours) à l'issue duquel il survoleà nouveau les mêmes régions du globe.La partie « permanente » de la hauteurde la mer (c'est à dire celle qui ne variepar dans le temps) coïncide avec lahauteur du géoïde (surface équipoten-tielle du champ de gravité de la Terre;voir article de G. Balmino). La surfaceinstantanée de la mer comporte aussiune composante variable dans le tempset dans l’espace associée aux phéno-mènes océanographiques et aux ma-rées.

6

Les courants océaniquesL’océan est le principal régulateur duclimat planétaire grâce à sa grandecapacité à emmagasiner la chaleur et àla transporter sur de grandes distancesau moyen d’une circulation océaniquecomplexe, avant de la restituer à l’at-mosphère. Grâce à l’observation spatialede l’océan on peut suivre ainsi l’évolu-tion de la position et de l’intensité desgrands courants océaniques de surfacecomme le Gulf Stream. La circulationdans l’Atlantique nord est l’objet d’uneattention toute particulière car c’est danscette région que les eaux froides etsalées plongent en hiver vers l’océanprofond, maintenant ainsi la circulationà grande échelle de l’océan (appeléecirculation thermohaline), dont le GulfStream n’est qu’une des branchessuperficielles. Ce courant contribue à ladouceur du climat européen en trans-portant la chaleur des tropiques versle nord. Mais à cause du réchauffementclimatique, la circulation actuelle n’estpas forcément stable. Elle peut êtreperturbée par l’apport d’eau douce dansl’océan arctique dû au débit accru desrivières arctiques, à la fonte de labanquise et des glaces du Groenland,avec des conséquences critiques sur leclimat européen.

Le phénomène El NiñoL’observation de l’océan nous permetaussi de décrire les grandes perturba-tions du système climatique comme lephénomène El Niño qui affecte de façonrécurrente le Pacifique tropical. La circu-lation océanique en milieu tropicals'ajuste rapidement aux fluctuations desalizés. Ces vents, qui en régime normalsoufflent d'est en ouest, entraînent lesmasses d'eau de surface vers la partieouest du Pacifique équatorial, créant uneaccumulation d'eau chaude et unbombement de la surface de la mer dansla partie ouest du bassin. Chaque année,en décembre-janvier, les alizés faiblis-sent, causant un renversement de latendance et un étalement des eauxchaudes vers le centre Pacifique tropical.

Les creux et les bosses « permanentes »de la surface marine, dont l’amplitudevarie de quelques mètres à une centainede mètres selon leur longueur d’onde,reflètent les variations géographiquesdu champ de gravité causées par lesanomalies de masses au sein du globeou à sa surface. Aux échelles spatialesles plus courtes (10-500 km), les ondu-lations permanentes de la surfacemarine sont une réplique exacte de latopographie des fonds marins. Pendantdes décennies, la bathymétrie a étémesurée par sondage acoustique àpartir de navires. Mais de vastes régionsocéaniques sont restées totalementinexplorées, en particulier dans l'hémi-sphère sud. Grâce aux mesures à hauterésolution du géoïde marin par altimé-trie spatiale, la topographie sous-marinea pu être calculée sur tout le domaineocéanique avec une résolution de quel-ques km partout. Outre les grandesstructures bien connues telles les dor-sales océaniques, les zones de frac-tures et les zones de subduction, ouencore les alignements de volcans sous-marins, la topographie globale des fondsmarins mesurée par satellite révèled’autres structures jusqu'ici insoupçon-nées ou incomplètement cartographiéesà partir des bateaux. D'innombrablesmontagnes sous-marines dont la moitiéd'entre elles n'avaient jamais été carto-graphiées, ont ainsi été identifiées. On aaussi découvert quantité de reliefsfossiles, témoins d'une activité tecto-nique aujourd'hui disparue. Outre leurintérêt majeur pour la géophysiquemarine, ces données sont aussi trèsutiles pour la navigation sous-marine,la pêche commerciale, ou l'explorationpétrolière en mer.

L’altimétrie spatiale de hauteprécision: un nouvel outil pourétudier l’océanLe lancement en 1992 du satellite alti-métrique Topex/Poseidon (développéconjointement par le CNES et la NASA)a marqué un tournant important dansl’étude des océans. La précision iné-

galée du système altimétrique Topex/Poseidon et l’amélioration spectaculairede la précision de l’orbite du satellite (l’in-certitude sur l’orbite, de plusieurs déci-mètres pour les missions antérieures,a été réduite à 1-2 cm pour Topex/Poseidon) a permis la véritable nais-sance de l’océanographie spatiale, enFrance et aux USA. Grâce à Topex/Poseidon, à son successeur Jason-1 enorbite depuis 2001 et à ENVISAT (lancéen 2002 par l’Agence Spatiale Euro-péenne), les mesures précises, globaleset quasi-continues des hauteurs de lamer nous permettent d’observer:� les courants marins et leurs déplace-

ments� les « saisons » océaniques� les tourbillons� les perturbations climatiques à grande

échelle du système couplé océan-atmosphère, tel le phénomène El Nino

� la hausse du niveau de la mer liée auréchauffement climatique

� les marées océaniques

La topographie dynamique del’océanComme les continents ou les fondsmarins, l'océan possède une topogra-phie qui lui est propre. Celle-ci estsuperposée aux creux et bosses dugéoïde marin. Cette topographie, quali-fiée de “dynamique”, dont la hauteurest seulement de 1 à 2 m, résulte descourants marins. Il existe en effet unerelation entre la hauteur de la topo-graphie dynamique et la vitesse descourants. Ces derniers qui suivent descourbes de niveau, ont une vitesseproportionnelle à la pente locale de lasurface instantanée de la mer. Cecirésulte d'un équilibre entre la force deCoriolis et la force de pression exercéesur une parcelle d’eau par l’océanenvironnant. La mesure de la hauteurinstantanée de la mer permet decalculer la vitesse et la direction descourants de surface. Il s'agit d'uneinformation fondamentale pour dé-duire la circulation profonde à l'aidede modèles.

Dossier

1 Membre de l’Académie des sciences, chercheurau CNES

Les satellites océanographiques, principalement les satellites altimétriques, mesu-rent de façon très précise la forme de la surface de la mer et ses variations spatio-temporelles. De ces mesures, on en déduit des informations précieuses sur ladynamique de l’océan, sur les marées, sur la hausse du niveau de la mer et mêmesur la topographie des fonds marins.

La forme de laAcadémie n°16[1] 28/07/05 10:36 Page 6

Page 7: La figure de la Terre - La Lettre n°16

7

l’océan collectées par des bateaux aucours des 50 dernières années etpubliées récemment, on sait à présentqu’une part importante (60 %) de lahausse du niveau de la mer des 12dernières années est causée par la dila-tation thermique de l’océan (qui seréchauffe). Ce phénomène est aussiresponsable de l’hétérogénéité régio-nale des vitesses de variation du niveaude la mer. Des observations très récentespermettent aussi d’estimer la contribu-tion à la hausse du niveau de la mer dela fonte des glaciers de montagne et descalottes polaires (environ 20-30 % pourla dernière décennie). Un autre facteur,moins connu, résulte du transfert d’eauprovenant des réservoirs continentaux.L’eau contenue dans les sols, les aqui-fères et les réservoirs de surface peutêtre transférée à l’océan via les fleuveset ainsi contribuer à l’élévation du niveaude la mer. Inversement, une accumula-tion d’eau dans les réservoirs continen-taux peut faire baisser le niveau de lamer. Nous disposons depuis 2002 denouvelles observations spatiales prove-nant du satellite gravimétrique GRACEpermettant de mesurer pour la premièrefois les variations spatio-temporelles dela gravité de la terre. Aux échelles detemps concernées (quelques mois àplusieurs années), ces variations tempo-

plus intense jamais répertorié. Son ob-servation fine par Topex/Poseidon apermis d’améliorer les modèles. L’ob-jectif aujourd’hui est de prédire l’arrivéede ce phénomène plusieurs mois àl’avance grâce à l’observation spatiale etla modélisation.

Réchauffement de la planète ethausse du niveau de la merLa hausse du niveau de la mer est uneimportante conséquence du réchauf-fement climatique observé au cours desdécennies récentes. Grâce à Topex/Poseidon et maintenant Jason-1, onmesure avec grande précision et unecouverture globale, l’évolution du niveaumoyen de la mer au cours du temps.Depuis fin 1992, le niveau moyen de lamer s’est élevé de 4 cm. La vitesse d’élé-vation moyenne (de 3 mm par an aucours de la dernière décennie) est unpeu supérieure à celle mesurée par lesmarégraphes au cours du XXe siècle(environ 2 mm par an). Un résultat inat-tendu de l’altimétrie spatiale est ladécouverte que la hausse du niveau dela mer est loin d'être uniforme (figure):dans certaines régions, la vitesse d’élé-vation du niveau de la mer a été 10 foisplus grande que la vitesse moyenne ;dans d'autres régions, la mer a baissé.Grâce à des données de température de

Dossier

Certaines années, l'affaiblissement desalizés est si fort que le courant trans-portant les eaux chaudes d'ouest en estpeut traverser tout l'océan Pacifique enquelques semaines, créant cette fois uneaccumulation d'eaux chaudes dans lapartie est du bassin, particulièrementmarquée le long des côtes de l'Amériquecentrale, de Colombie et du Pérou. C’estle phénomène « El Niño ». En 1997, unévénement El Niño particulièrementintense est apparu: dès mars 1997, lesatellite Topex-Poseidon a observé lanaissance du phénomène, jusqu'à sonparoxysme en décembre 1997, où l'ano-malie de la hauteur de la mer dans lePacifique-est tropical a atteint jusqu’à30 cm. Le phénomène El Niño provoquedes transferts d'énergie thermiqueconsidérables entre l'océan et l'atmo-sphère, causant des anomalies clima-tiques de grande envergure et de grandeintensité : sècheresse intense dans lePacifique ouest et particulièrement surl'Indonésie, la Nouvelle-Guinée, le nordde l'Australie et précipitations catastro-phiques et cyclones dévastateurs surtoute la bordure ouest du continentaméricain. Les répercussions clima-tiques de El Niño affectent la planète toutentière par le biais de « téléconnexions »atmosphériques. L'événement El Niñode 1997-1998 est considéré comme le

Carte de la distributiongéographique des vitesses de varia-tion du niveaude la mer entre 1993et 2004 mesuréespar le satellitealtimétriqueTopex/Poseidon.

relles de gravité résultent principale-ment des variations des stocks d’eau surles continents en réponse à la variabi-lité climatique ou aux activités humaines(construction de barrages, irrigation,déforestation, urbanisation). Avec lesobservations de GRACE, nous sommesà présent capables de mesurer les varia-tions des stocks d’eau sur les continents,avec d’importantes applications en pers-pective sur l’étude du niveau de la mer,l’hydrologie des grands bassins fluviauxet la surveillance des ressources en eaudouce de la planète.

La surveillance des océans depuis l’es-pace, en synergie avec la mise en placede réseaux d’observations in situ, estd’importance cruciale pour mieuxcomprendre le système climatique etaméliorer les modèles d’évolutionfuture du climat. Les satellites altimé-triques sont aussi une composanteessentielle des systèmes opérationnelsde prévision à court teme de l’état del’océan, aux domaines d’applicationnombreux comme la navigation civile,la pêche, le suivi des pollutions, lesaménagements côtiers, l’explorationpétrolière off-shore et la défense. Il estdonc indispensable d’assurer la péren-nité des systèmes altimétriques enorbite �

surface marineAcadémie n°16[1] 28/07/05 10:36 Page 7

Page 8: La figure de la Terre - La Lettre n°16

mentale parce qu’elle apporte une infor-mation directe (bien que non inversiblede manière univoque) sur le champ dedensité. De ce fait on a un miroir dudéséquilibre massique en profondeur,et en particulier des variations spatialesde structure de la lithosphère et du

En sciences de la Terre, le champde gravité joue un rôle dualD’une part, en comparant le champ réelà celui d’un corps idéal (par exemple unellipsoïde), on définit des anomalies degravité qui caractérisent des écarts à unétat d’équilibre interne, d’où une possi-

8

Dossier

1 Directeur de recherche, Groupe de recherches degéodésie spatiale, Équipe de géodésie spatiale duCNES

2 CHAllenging Mini-satellite Payload for geophy-sical research and application

3 Gravity Recovery and Climate Experiment4 Gravity field and steady state Ocean Circulation

Explorer

bilité de sondage de l’intérieur de laplanète; c’est l’un des quatre principauxmoyens de « regarder » en profondeur,les trois autres étant la sismologie, lechamp magnétique et les variations dela rotation terrestre; mais la connais-sance du champ de gravité est fonda-

Le géoïde:regard profond

sur l'imagede la Terre

(a)

par Georges Balmino 1

L a modélisation du champ de gra-vité terrestre et son étude font

partie de la géodésie. Celle-ci s’attacheà définir et étudier la forme de la Terre,ses déformations, sa pesanteur, sa rota-tion. L’utilisation des satellites artificielsa permis d’atteindre une vision globaleet continue de notre planète et lagéodésie a, ainsi que d'autres secteurs,bénéficié grandement de cette révolu-tion. Elle est devenue une disciplineincontournable au carrefour des géos-ciences.Pour de nombreuses applications, dontcertaines de la vie courante, le rôle duchamp de gravité est central. Il donne,par le géoïde (surface de référence desaltitudes), la forme globale de notreplanète; il rend possible la navigationinertielle; il est indispensable pour resti-tuer les trajectoires de satellites, quipermettent de constituer des réseauxmondiaux de stations de référence, desuivre la cinématique de la Terre et lesdéformations de sa surface, d'étudierles océans par altimétrie spatiale. Touteamélioration de notre connaissance duchamp conduit à des progrès dans lesdomaines précités.

Académie n°16[1] 28/07/05 10:36 Page 8

Page 9: La figure de la Terre - La Lettre n°16

9

Dossiertempérature et de salinité). La variabi-lité de la circulation peut être assez bienappréhendée à travers la variabilité dela surface océanique elle-même, suiviepar altimétrie satellitaire. Mais la circu-lation moyenne, qui est nécessaire pourquantifier en absolu les transports dechaleur par l’océan à long terme, enparticulier dans les couches peuprofondes (pour comprendre et modé-liser les interactions atmosphère-océandans l’étude du climat), exige deconnaître le plus exactement possiblel’écart entre la surface moyenne et legéoïde (appelé topographie de la surfacemoyenne océanique). Sur de grandeséchelles de temps, la plupart descourants océaniques sont en équilibre(dit géostrophique), ce qui permet dedéduire directement la circulation (c’est-à-dire leur vitesse). L’altimétrie par satel-lites permet d’atteindre, au cours dutemps, cette surface moyenne avec unegrande résolution et une précision del’ordre du centimètre ; mais elle nepermet pas, à elle seule, de reconstruirele géoïde. Des modèles hydrodyna-miques qui assimilent des donnéeshydrologiques et altimétriques, permet-tent d’approximer la circulation océa-nique mais pas avec la précisionsuffisante. Seule la connaissance indé-pendante du géoïde doit permettre ladétermination absolue de la circulationmoyenne au niveau requis par lesmodèles de climat.Enfin les variations temporelles, que cesoit du géoïde ou des anomalies degravité, reflètent tout un spectre dephénomènes d’échanges massiquesdans notre environnement (entre les

manteau (fig. 1). Bien sûr, la tomogra-phie sismique fournit, dans certainesrégions, d’excellentes images tri-dimen-sionnelles, mais il est ensuite difficile deremonter aux variations de densité. Lacombinaison des deux informations(gravité et vitesses sismiques), alliée auxdonnées de déformation (mesurées ensurface) et de propriétés des matériauxterrestres (étudiés en laboratoire), ouvredes perspectives nouvelles.

D’autre part, une surface particulièreliée au champ de gravité, le géoïde, sertde référence à la définition et à la mesuredes altitudes en tout point du globe. Legéoïde, partout orthogonal à la directiondu fil à plomb, est une équipotentielleparticulière du potentiel de pesanteur(somme des potentiels gravitationnel etcentrifuge), qui peut être considérée, enmilieu marin, comme coïncidant avec lasurface d’un océan théorique au repos.La rotation terrestre étant supposéeconnue par ailleurs – et ses effets étantréguliers à la surface (décroissants avecla latitude), les irrégularités du géoïde(mesurées par rapport à un ellipsoïdede référence) caractérisent les variationsspatiales du champ de gravité demanière équivalente aux anomaliesprécitées. A la surface terrestre, l’eaucoule dans le sens de la pente parrapport au géoïde. Inversement, la circu-lation océanique peut être caractériséepar les écarts entre la surface réelle desmers et le géoïde, qui résultent desdivers mouvements des eaux océa-niques, initialisés et entretenus par lesvents et les gradients de densité (dusaux variations spatio-temporelles de

composantes solides, liquides, gazeu-ses), et leur analyse peut apporter descontraintes notables aux modèles encoreincertains de ces phénomènes, parexemple en hydrologie.

La détermination d'un modèle global dechamp de gravité est justiciable de deuxapproches:

- par analyse des perturbations obser-vées de la trajectoire d'un corps (satel-lite) en orbite ; c'est un problème demécanique céleste inverse, qui peut êtretrès complexe suivant la sophisticationdésirée (et atteignable par les obser-vations) du modèle, et suivant les autresforces perturbatrices gênantes (e.g. frot-tement atmosphérique); l'imperfectiondes systèmes de mesure, la sensibilitéd'une configuration orbitale donnée (quiconditionne la stabilité de l'inversion)imposent en général d'avoir plusieurssatellites sur des trajectoires bien diffé-renciées (en altitude et en inclinaison);c'est cette approche qui fut utiliséependant quatre décennies.- par mesure directe d'une fonction dupotentiel de gravitation à bord d'un satel-lite donné.

Dans tous les cas une altitude la plusbasse possible est souhaitable (compa-tible avec la durée de vie du satellitenécessaire à l'obtention d'une couver-ture suffisante) ; en effet les effets duchamp de gravité décroissent exponen-tiellement avec l'altitude.

La communauté de géodésie spatialeest engagée dans de nouvelles missionsde cartographie à haute résolution duchamp de gravité terrestre avec troismissions d'un type nouveau: CHAMP2,lancé en juillet 2000 (durée de vie de 6 à10 ans) ; GRACE 3, lancé en mars 2002(durée de vie de 5 à 10 ans) et GOCE4dontle lancement est prévu à partir de l'au-tomne 2006.

CHAMP est dédié à la mesure globaledes champs de gravité et magnétiqueterrestres, en coopération entre l’Alle-magne, la France et les USA. Le satel-lite embarque un micro-accéléromètrequi permet la séparation entre les forcesgravitationnelles et celles de surface (parexemple le frottement). L'extraction desparamètres du potentiel gravitationnelse fait par inversion des perturbationsorbitales, déduites du suivi de l'orbitepar les satellites de la constellation GPS.

GRACE est une mission à deux satellitesqui se suivent à faible distance (150 à300 km) celle-ci étant mesurée par lienmicro-onde avec une précision micro-métrique (information qui s'ajoute ausuivi par les satellites GPS); chacun dessatellites est muni d'un micro-accélé-romètre. GRACE est particulièrementdédiée à l’étude des variations tempo-

relles du champ de gravité aux grandeset moyennes longueurs d’onde (échellede 1000 à 400 km) avec une résolutionde l’ordre du mois, voire mieux.

GOCE est une mission conduite entière-ment par l'Agence Spatiale Européenne.Elle consiste à mesurer trois compo-santes du gradient de gravité à l'aided'un instrument nouveau (un gradiomè-tre) constitué de 6 micro-accéléromètrestriaxiaux (sensibilité de ~10-12 ms-2) ;ces données, qui fournissent l'informa-tion à petite longueur d'onde du géopo-tentiel, sont complémentées par desmesures de suivi continu de la trajec-toire (avec un récepteur GPS embarqué)pour les longueurs d'onde plus grandes.La sensibilité requise nécessite de fairevoler ce satellite à une altitude excep-tionnellement basse (~250 km) - et doncmuni d'un système sophistiqué de com-pensation des forces de surface. AinsiGOCE cartographiera le champ de gravi-té terrestre globalement avec une résolu-tion de 100 km pour une précision resti-tuée au sol d’au moins 1 mgal (10-5 ms-2)ou 1 cm sur le géoïde.

Après ces trois missions qui révolution-nent notre connaissance du champ degravité terrestre, la question se pose depoursuivre ce type d'expériences pourdes objectifs clairement identifiés: suivides variations temporelles de manièreopérationnelle - pour l'hydrologie enparticulier, nouveau gain en résolutionpour toutes les disciplines utilisatrices.Le chiffre de 50 km est aujourd'huiavancé par les océanographes pour allerau-delà de la modélisation de la circu-lation moyenne que permettra GOCE;une telle résolution est aussi souhaitablepour la compréhension du comporte-ment de la lithosphère continentale auniveau des rifts, zones de subduction,bassins sédimentaires… bien que làd'autres techniques (aérogravimétriepar exemple) puissent être employées àcombler la couverture des données-solà l'échelle régionale. Dans le domainetemporel, un gain en résolution seraaussi nécessaire après GRACE, et sansdoute un gain en précision de manière àdécorréler quantitativement les diversphénomènes à la source des variationsdu champ dans le temps. Des étudesprospectives sont en cours; des progrès,à l'horizon 2010-2015, sont effectivementenvisageables.

Les besoins en précision et résolutioniront encore sans doute croissant avecnotre degré d'appréhension (mesures)et de compréhension (modèles) desphénomènes. Comme dans d'autres do-maines, c'est une quête permanente �

Fig. 1. La surface du géoïde, rapportéeà une ellipsoïde approximant la formegéométrique de la Terre, reflète les varia-tions de densité liées à la structureinterne (a). L’amplitude des creux etbosses du géoïde (b) atteint �100 m (elleest ici exagérée 6000 fois.

(b)2 CHAllenging Mini-satellite Payload for geophy-

sical research and application3 Gravity Recovery and Climate Experiment4 Gravity field and steady state Ocean Circulation

Explorer

Académie n°16[1] 28/07/05 10:36 Page 9

Page 10: La figure de la Terre - La Lettre n°16

par Paul Caro 2

Question:Qu’apporte à la géologie, et aux disci-plines annexes comme l’océanographie,la possibilité d’observer la Terre depuisl’extérieur grâce aux satellites?

L’exploration de la Terre au moyen desméthodes spatiales est une nouvellerévolution pour les sciences de la Terre.Je pense que nous n’en sommes qu’audébut, nous allons assister à une évolu-tion radicale. Pourquoi? Tout d’abord,parce que ces techniques permettentd’avoir une vision de la terre d’un coup,en une seule fois. Par exemple, lorsquel’on observe les océans, on observe l’en-semble des océans. Autrefois, si l’onconduisait une expédition océanogra-phique dans l’Atlantique nord par ex-emple, il n’y avait pas d’observationsimultanée de l’Atlantique Sud, ni duPacifique, etc. ... Donc on observait à unmoment donné l’Atlantique, et puis à unautre moment le Pacifique. Aujourd’huion peut surveiller l’ensemble de la Terreen une seule fois. Cela est valable pourtout, encore plus pour le cycle de l’eau,qui est un élément essentiel pour leclimat, cela est valable pour les séismes,pour les volcans… Le deuxième point estque ces moyens sont extrêmement puis-

sants et relativement peu chers, contrai-rement à ce que l’on pourrait penser,parce que, avec les progrès de l’électro-nique, nous allons être capables delancer avec une seule fusée Ariane dixsatellites d’une taille réduite mais tech-niquement très puissants. Ils per-mettront une grande diversité d’obser-vations. Cela reviendra beaucoup moinscher que d’envoyer des gens faire desobservations à terre sur le terrain. Nousserons en mesure de réaliser une véri-table cartographie de la Terre; naturel-lement, il faudra des stations de cali-brage au sol, mais l’observation ainsicalibrée donnera des résultats formi-dables. On fait déjà beaucoup de géologieà l’aide de photographies de satellitespar exemple, Paul Tapponnier a été leprécurseur de ces méthodes, mais onpourra faire demain de la prospectionminière ou pétrolière, on pourra mesurerle degré d’humidité du sol, on pourra voirles glissements de terrain, prévoir lescatastrophes naturelles. C’est une véri-table révolution. Elle n’était pas évidentecar lorsque l’on observe l’océan, pourquelqu’un qui n’est pas spécialiste, onvoit des vagues qui font 10 mètres dehaut, d’autres 20 mètres, mais, enpassant des milliers de fois au mêmeendroit et en faisant des moyennes, onpeut mesurer le niveau de l’océan aumillimètre près. En prenant une imagepar réflexion radar avant et après untremblement de terre, on visualise ledéplacement grâce à des interférencescalculées par l’ordinateur, comme l’amontré, le premier, Didier Massonetingénieur du CNES. Les photographiesprises à partir de satellites sont vraimentdécisives pour montrer par image radarce qui se passe lors d’un tremblementde terre. On l’a vu pour le tsunami dedécembre 2004, mais c’est encore plusspectaculaire pour les tremblements deterre dans la mesure où on voit la faillequi s’est déplacée, on voit les lobes detension; c’est extraordinaire. Je pense

que cela constitue la nouvelle révolutiondes sciences de la Terre. Cette révolu-tion aurait pu commencer plus tôt, maisles militaires américains qui possédaientces techniques de haute résolution,comme ils avaient un avantage sur toutle monde, n’avaient pas envie de les faireentrer dans le domaine public! Aujour-d’hui c’est le cas, et par conséquent l’Eu-rope en particulier fait beaucoup dechoses dans ce domaine. Il y a leproblème de l’abondance des donnéesqui peut submerger les chercheurs maisc’est une question qui se résout petit àpetit grâce à la puissance des ordina-teurs et un peu d’astuce.

Dès le début du XX ème siècle, on a estimél’âge de la Terre par l’observation desfilières radioactives. Qu’en est-il aujour-d’hui des mesures de datation isoto-piques? Qu’en est-il des rapports entrela géochronologie absolue et lagéochimie isotopique?

En fait, c’est la même chose. La géologieisotopique a pris naissance à partir dela géochronologie. Je viens de publierun livre sur ce sujet, dont le titre estGéologie isotopique (Éditions Belin), etdont toute une partie parle de géo-chronologie. La Terre s’est formée en150 millions d’années, donc il n’y a pasun âge de la Terre, mais il y a un âge de

Dossier

10

1 Membre de l’Académie des sciences, professeurà l’université Denis Diderot

2 Correspondant de l’Académie des sciences,directeur de recherche honoraire au CNRS

Lesnouveaux outils

du géologueEntretienavec Claude Allègre 1

début et un âge de fin pour le processusde son agglomération. C’est un pan derecherches qui s’est énormément déve-loppé. On mesure des âges qui vont dequelques milliers d’années (pour étudierles fluctuations climatiques) jusqu’à ceuxde la formation des éléments dans lesmécanismes cosmiques. On obtient ainsil’âge de l’uranium, l’âge de la nucléo-synthèse d’un certain nombre d’élé-ments.

Quelle est la précision des analyses?Quels progrès ont pu être apportés dansce domaine par le développement del’instrumentation?

Considérables. Pour donner un ordre degrandeur, on mesure des évènementsqui ont eu lieu au moment de la forma-tion de la Terre avec des précisions de100000 ans sur 4,5 milliards d’années.Aujourd’hui, nombre d’évènements sontdatés avec une précision extraordinaire.On sait mesurer les rapports isotopiquesavec une précision de 1/1 000000. Doncl’incertitude ne vient plus des mesures,et c’est une véritable révolution. C’estune conséquence de l’amélioration dela technologie scientifique, dont une bon-ne partie a été faite par les gens travail-lant dans ce domaine: ces avancées nesont pas venues de la physique, maisbien des sciences de la Terre. Et lesphysiciens ont récupéré les méthodesdéveloppées.

Quelles sont les principales méthodesutilisées par les géologues en rapportavec le type de matériau géologique (ba-salte, mica ou minéraux spécifiques)?

C’est extrêmement complexe. Aujour-d’hui on utilise 25 ou 30 décroissancesradioactives différentes, c’est un mondeentier: chronologies directes de longuepériode, de courte période (basées surle déséquilibre radioactif), irradiation parles rayonnements cosmiques (qui produi-

Académie n°16[1] 28/07/05 10:36 Page 10

Page 11: La figure de la Terre - La Lettre n°16

sent le carbone 14). Il y a aussi laméthode des âges d’exposition. On arriveà dire à quel moment une roche a été àla surface, à quel moment la faille s’estproduite: parce que la lèvre de la failleest irradiée… Mon livre a cinq centpages! On utilise beaucoup les terresrares3, on utilise le samarium et le néo-dyme, on utilise le lanthane et le cérium,on utilise le lutécium et l’hafnium… Celafait partie de la « panoplie ».

Comment traitez-vous les roches avantanalyse?

Différentes techniques existent. Pourl’instant, on dissout les échantillons deroches, ensuite il faut séparer chimi-quement les éléments pour éviter lessuperpositions isobariques; en effet, lerubidium 87 interfère au spectromètrede masse avec le strontium 87, donc ilfaut les séparer complètement. Il fautde même séparer le samarium et lenéodyme parce que sinon on récupèredes interférences. On exécute une sépa-ration chimique sur des résines échan-geuses d’ions, ensuite on sépare lesisotopes au spectromètre de masse.Quand les mesures ne demandent pasune très grande précision, on peut seservir de la sonde de Slodzian qui envoieun faisceau d’ions sur des points del’échantillon (par exemple une inclusion)et les éléments sont ionisés, puis on lesanalyse dans un spectromètre de masse.Il existe encore une autre méthode quiconsiste à taper sur la substance avecun faisceau laser pour obtenir un plasmaanalysé ensuite dans un spectromètrede masse. Certaines personnes pensentqu’avec cette méthode, à terme, on pour-ra contourner la chimie et arriver, avecun laser résonnant accordé sur des raiesd’absorption dans le plasma, à ioniserspécifiquement un élément (le rubidiumet pas le strontium, par exemple), onmesure un isotope pour ensuite le cana-liser directement dans le spectromètrede masse. Mais nous n’en sommes pasencore là. La chimie, pour l’instant, estune chimie très complexe, car ellemesure des nanogrammes, voire despicogrammes. Il faut éviter de polluer.Dans mon laboratoire il y a des sallesétanches. On a développé ces salles« blanches » à peu près en même tempsque les gens qui préparent des semi-conducteurs pour la physique du solide.On dispose de salles sur-pressurisées.Nous devons en outre préparer les réac-tifs chimiques nous-mêmes, car dansle commerce, aucun réactif « pur » nenous convient. Il s’agit d’une véritableusine avec des techniques de distillation,les technologies requises sont trèsspéciales. D’ailleurs parmi les gens quitravaillent avec moi se trouvent deschimistes de formation, car la chimieanalytique mise en œuvre est vraimentdifficile.

autres outils. C’est toute une discipline,et je ne peux pas l’expliquer brièvement.Ce que vous me demandez ressemble àun livre que j’ai chez moi dont le titre est:« Le chinois en douze leçons ». On déter-mine ainsi la composition de la Terre, sonhistoire, la manière dont elle s’est forméeetc. … On peut en déduire des informa-tions utiles pour comprendre La forma-tion des planètes à partir des modèlesque nous avons développé sur la forma-tion des météorites.

La précision des analyses isotopiquesest suffisante pour mettre en évidencedes différenciations dans les matériauxdu manteau. Tant que l’on mesurait lesprécisions isotopiques au pour cent, onne voyait rien. On a commencé à les voirlorsque l’on a mesuré les variationsisotopiques au dix millième, notammentsur le néodyme. L’évolution des « pointschauds » est l’un des grands moyensd’étude de l’intérieur du globe. On sait,par exemple, que la convection dans lemanteau est séparée en deux couches:l’une profonde, l’autre superficielle.

Comment l’atmosphère s’est-elle for-mée?

Elle s’est formée suite à un très fortdégazage, il y a 4,4 milliards d’années,au moment même où le noyau s’estconstitué. L’atmosphère vient de l’inté-rieur de la Terre, car toute la partiegazeuse qui était dans la nébuleuseprimitive n’a pas été retenue par notreplanète du fait de sa petite taille; l’hy-drogène et l’hélium sont partis, et onttout emmené avec eux. Ensuite l’atmo-sphère s’est formée par dégazage dumanteau. Ce qui a été dégazé était del’azote et du CO2, surtout du CO2 (75 %).Puis ce dernier a été piégé sous formede carbonates. Quant à l’oxygène, il n’acommencé à croître qu’il y a 2 milliardsd’années par suite de la photosynthèse.Ces chiffres sont parfaitement connus.

Comment ces résultats peuvent-ils êtremis en relation avec les âges estimésdes météorites (comme les chondrites),ou à ceux déduits des échantillons prove-nant de la Lune et de Mars?

La composition des chondrites est uneréférence de base. Les météorites per-mettent de « caler » l’âge de la Terre, onles date très bien. Pour Mars, c’est diffé-rent, car on ne dispose que de quelqueséchantillons. Et encore, la provenancedes météorites « martiennes » que nousavons n’est pas certaine.

Pouvez-vous dire un mot de la cosmo-chimie?

En cosmochimie, on étudie deux typesde phénomènes: premièrement la for-mation des planètes, ou comment à

partir des nébuleuses primitives lesmatériaux solides se sont condensés,agglomérés pour donner des planètes;deuxièmement la nucléosynthèse dansles étoiles, car il se trouve que les météo-rites contiennent des grains interstel-laires. On étudie leur composition, et onen déduit quantité d’informations, c’estun complément à ce que font les astro-nomes. La poussière interstellaire n’apas été détruite ultérieurement. Sonétude est un nouveau champ, qui a étérévolutionné par les sondes électro-niques, puis ioniques. On étudie aussimaintenant les molécules interstellairespar la spectroscopie, mais cela relèvede l’Astrophysique.

Quelles conséquences pratiques peut-on déduire des travaux de géochimie enmatière d’enfouissement de déchetsnucléaires?

Nos données nous permettent de direque les éléments chimiques sontmobiles, que sur des milliers d’annéesdes accidents tectoniques peuvent seproduire donc que lorsqu’on stocke desdéchets radioactifs, il y a danger depolluer les nappes phréatiques de ma-nière sévère. Il faut donc faire attention.J’ai été l’un des militants contre l’en-fouissement profond et j’ai gagné. Ilétait à mon avis criminel de les enfouirtrès profondément (le contact avecl’eau chaude est risqué). Je suis enrevanche partisan du stockage ensurface. Je pense qu’il y a un problèmepsychologique: il ne faut pas avoir peurdu danger; si nos ancêtres avaient eupeur du danger, ils n’auraient pasconstruit de locomotives ! Il faut faireface au danger, et le contrôler. Quandon stocke des déchets en surface, ilconvient de les visiter régulièrement.On regarde avec des compteurs, onvérifie si rien n’est fissuré, et on esttranquille. Si on met les déchets à 4000mètres de profondeur, et qu’on scelle,on ne sait pas ce qui peut arriver : untremblement de terre, ou une faillepeuvent se produire, et les disperserdans la nappe phréatique qui du coupest polluée pour mille ans. Je n’ai paspeur des déchets, mais il faut lessurveiller. Enfouir les déchets est anti-scientifique �

11

3 Terres rares, un groupe de 17 éléments de la clas-sification périodique qui ont des propriétés chimiquestrès voisines: scandium, yttrium, lanthane, et les 14lanthanides du cérium au lutécium

Utilisez-vous aussi la répartition deséléments trace pour caractériser uneroche?

Nous utilisons énormément ces élé-ments parce que les éléments trace neservent pas seulement à caractériserles roches mais sont surtout utiles poursavoir comment elles se sont forméeset d’où elles viennent. En effet, l’abon-dance des éléments majeurs varientrelativement peu: entre un basalte et ungranite, la teneur en silice (SiO2) varieentre 65 % et 54 %. Elle ne varie doncque de 15 % tout au plus. En revanche,les éléments trace varient d’un facteur104 entre eux. Certains, comme l’ura-nium, sont enrichis dans les granitesenviron mille fois plus que dans lesbasaltes. Donc les éléments trace sontbeaucoup plus discriminants que leséléments majeurs. Les couples d’iso-topes radiogéniques – radioactifs sonttous des éléments trace. Ce sont eux quinous occupent le plus. Les terres raresont un avantage particulier, parce que,ayant une variation régulière de pro-priétés chimiques, elles forment un« pattern » qui n’est pas uniforme. Parexemple, le fractionnement terres rareslégères / terres rares lourdes varie énor-mément d’un matériau à un autre. Lecérium, qui a des degrés d’oxydationdifférents, varie par rapport aux autresterres rares, l’europium (que l’on peuttrouver sous la forme d’europium II)également.

Que peut-on apprendre par ces tech-niques sur la dynamique terrestre?

L’analyse des basaltes montre que ceuxdu Deccan (Inde) et ceux de la Réunionsont identiques. Le Deccan était à l’em-placement de la Réunion il y a 65 millionsd’années, il a ensuite migré vers le nord.Quand l’éruption du Deccan a eu lieu,celui-ci se situait encore à la Réunion.Cela fait déjà quinze ans que les mé-thodes géochimiques sont appliquées àl’étude des mouvements de l’intérieur duglobe, de la déformation de la croûte, destrajets pression-température-temps-déformation… C’est la géodynamiquechimique: on reconstitue les mouvementsdans le manteau à l’aide des isotopes, àl’aide des éléments trace, et de nombreux

Dossier

Académie n°16[1] 28/07/05 10:36 Page 11

Page 12: La figure de la Terre - La Lettre n°16

Question d’actualité

par Yves Meyer 1

J e remercie l'Académie des sciencesde m'avoir invité à faire cet exposé.

Le texte écrit bénéficie d'un certainnombre d'améliorations que je dois àl'aimable attention de Pierre Buser.La révolution numérique envahit notrecivilisation et nous inonde d'un déluged'images digitales qui engorgent lescanaux de transmission. On ne peuttransmettre ou archiver ces images sansles comprimer et nous voilà dans le vifdu sujet, c'est-à-dire face au problèmede la compression en imagerie numé-rique. Les progrès en imagerie numé-rique sont-ils reliés à une meilleurecompréhension du fonctionnement dusystème visuel humain? C'est la ques-tion que nous traiterons aujourd'hui etqui peut paraître paradoxale, tant la révo-lution numérique semble faire partie dela technologie et n'avoir rien à faire avecla neurophysiologie. Nous débuteronspar une autre question: Quels sont lesfondements de notre perception desobjets ou des images? Nous cherche-rons ensuite à savoir s'il existe dans lesimages des formes simples et univer-selles qui soient à la base de leurcompression et de leur perception. C'esten répondant à ce dernier problème quenous analyserons les succès des algo-rithmes de compression les plus perfor-mants.

Des algorithmes de compression baséssur une analyse du contenu sémantiquede l'image seraient encore plus puis-sants, car ils permettraient de com-primer une image en utilisant desétiquettes, des « labels », pour désignerles objets. Nous n'en sommes pas là etles algorithmes de compression dontnous disposons s'apparentent encore àla partie « bas niveau » du système visuelhumain.

1. Perception et petites impres-sions

Comment définir le mot perception? Ledictionnaire Robert nous dit que la per-ception est la fonction par laquelle l'es-prit se représente les objets; cette défi-nition y est illustrée par deux citations.Jean-Jacques Rousseau écrivait: « Nossensations sont purement passives, aulieu que toutes nos perceptions ou idéesnaissent d'un principe actif qui juge ».Jean-Paul Sartre va dans la mêmedirection quand il nous dit que « Dans laperception, un savoir se forme lente-ment ». Pour chacun des problèmes qu'ilétudie, Pierre Buser nous proposeplusieurs solutions ou théories et cettelargeur de vue fait le charme et larichesse de son ouvrage, Cerveau de soi,Cerveau de l'autre, publié chez OdileJacob. En partant des découvertes de laneurophysiologie et des sciences cogni-tives, Pierre Buser analyse les liens entresensation brute et perception: « Helm-holtz fut de ceux qui plaidèrent pour unprocessus en deux étapes, la sensation,donnée brute liée à la mise en jeu de noscapteurs sensoriels, et la perception,représentation consciente de la réalitéque nous bâtissons à partir de la sensa-tion, grâce à nos inférences et éven-tuellement nos jugements… Les don-

nées récentes maintiennent-elles ladualité hiérarchique entre sensation etperception? Que la perception impliqueune interprétation de la donnée brutepar une opération “psychologique” (quis'opposerait au “physiologique” pur dela sensation) ne semble pas poserproblème, dans la mesure précisémentoù l'opposition entre les deux domaines,physiologique et mental, s'estompe auxyeux de tant d'auteurs, ne serait-cequ'avec l'abandon d'un certain dualisme.Il n'empêche que les perceptions com-plexes, au nombre desquelles sont, enbonne place, les classiques figures ambi-guës (cubes de Necker, etc.) sont là pournous rappeler que la perception d'uneforme implique sans doute davantageque la seule réception des messagesvisuels… »

Pierre Buser insiste enfin sur l'existencede différents niveaux de perception; il ya une perception implicite ou précons-ciente et il y aussi une appréhensionconsciente. Il écrit à propos de cettepremière: « Helmholtz (1866), à son tour,discuta des problèmes généraux de laperception. Il introduisit la notion d'infé-rence inconsciente (unbewussterSchluss) pour signifier que dans laperception la référence objective peuttrouver sa source dans des repères quine sont pas immédiatement accessiblesà la conscience. Ainsi, dans une percep-tion de profondeur et de distance rela-tive des objets, créée par la disparité desimages rétiniennes, nous savons main-tenant que le sujet est totalementinconscient des processus intermé-diaires… ».

La perception peut donc être basée surun savoir inconscient. En outre la percep-

tion est subjective. Les peintres modi-fient notre perception à notre insu. Enfait, les peintres nous apprennent à voir;même les peintres classiques, commeNicolas Poussin, nous éloignent du réelnaïf, du simple reflet du monde visible,pour nous introduire dans un mondenouveau qui nous paraît d'abord étrange,mais qui nous deviendra ensuite fami-lier. Entrer dans ce nouveau monde, c'estmodifier à jamais notre propre percep-tion. Mais quelles sont les conditionsrequises à l'élaboration de la perception?

2. Peintres et philosophesNicolas Poussin y répond quand il écri-vait: « Il ne se crée rien de visible sansdistance ». Le philosophe MauriceMerleau-Ponty nous parle aussi d'éloi-gnement: « Dans la vie silencieuse dela perception, nous adhérons à quelquechose, nous le faisons nôtre, et cepen-dant nous nous en retirons et le tenonsà distance, sans quoi nous n'en saurionsrien ». La distance vis à vis d'une oeuvre,d'un tableau que nous admirons, nousla créons en prenant du recul et ensentant alors ce tableau se réorganiserau cours de ce « zoom arrière ». Cetteréorganisation permet de découvrir lesrapports de structure, tels que les définitle philosophe Ernst Cassirer : il écrit :« L'imitation ne consiste jamais à redes-siner, trait pour trait, un contenu deréalité, mais… à tracer les contourscaractéristiques de sa silhouette… En cesens, reproduire un objet ne consiste passimplement à rassembler les caractèressinguliers de sa forme, mais à en saisirles rapports de structure… ».

Cassirer comparait les problèmes poséspar la perception à ceux, tout aussi re-doutables, posés par le langage. Il écrit:

12

Perceptionet compressiondes images fixes

1 Membre de l’Académie des sciences, profes-seur émérite à l’École normale supérieure deCachan

Académie n°16[1] 28/07/05 10:36 Page 12

Page 13: La figure de la Terre - La Lettre n°16

Question d’actualité

« Le chaos des impressions immédiatesne s'éclaircit et ne s'articule pour nousque parce que nous le “nommons” et lepénétrons ainsi par la fonction de lapensée linguistique et de l'expressionlinguistique… Le langage devient ainsiun des moyens fondamentaux de l'es-prit, grâce auquel s'accomplit le progrèsqui nous fait passer du monde dessimples sensations à celui de l'intuitionet de la représentation ».

Les peintres, les philosophes et PierreBuser nous tiennent, en fait, le mêmelangage. La perception d'une image nenous fournit pas son reflet, sa copieconforme, pas plus que les mots nepeuvent être identifiés aux objets qu'ilsdésignent. Au contraire, passer du« chaos des impressions immédiates »

à la perception nécessite une opérationintellectuelle complexe; Ernst Cassirerparlerait d'une « opération spirituelle ».Le but de ces opérations complexes estde dévoiler les « rapports de structure ».Les thèses de Stéphane Mallat, surlesquelles nous reviendrons, illustrentcette approche; pour Stéphane Mallat,extraire la géométrie, c'est-à-dire com-prendre la structure d'une image à partirde ses coefficients d'ondelettes, est lepremier pas conduisant à la compres-sion. En outre, ces coefficients s'appa-rentent aux réponses des neurones dela zone V1 du cortex. Cela nous amèneà aborder la compression des imagesen nous appuyant sur les données de laneurophysiologie et sur les découvertesqui ont valu le Prix Nobel à David Hubelet Torsten Wiesel.

3. Le cortex visuel primaireVoici ce que David Hubel écrit dans Eye,Brain and Vision (publié en 1988 par W.H.Freeman), sur le fonctionnement ducortex visuel primaire: « Ramon y Cajalfut le premier à comprendre que lesconnections dans le cortex sont trèscourtes… Quel que soit le traitementeffectué par le cortex, il reste certaine-ment local: l'information concernant unepetite région de l'environnement visuelatteint une petite région du cortex, oùelle est transformée, analysée, digérée(utilisez l'expression que vous préférez),puis envoyée dans une autre région corti-cale où elle subit un autre type de trai-tement, indépendant du traitementeffectué dans la région voisine. L'envi-ronnement visuel est ainsi analysé, frag-ment par fragment, dans le cortex visuel

primaire: par conséquent, celui-ci n'estpas l'endroit du cerveau où les objetsentiers (bateaux, chapeaux, visages, etc.)sont reconnus, perçus ou traités ; lecortex visuel primaire n'est pas le centrede la “perception” ».

Cette description exclut un algorithmedu type transformée de Fourier, car cettedernière est une transformation globale,opérant sur toute l'image. Bien aucontraire, David Hubel, Torsten Wieselet Margaret Livingstone ont montré quecertaines cellules du cortex visuelprimaire sont affectées à des tâchesrelativement modestes, parcellaires,répétitives, un peu comme un travail àla chaîne. Ces neurones ne procèdentpas à un découpage de l'image en blocs8 fois 8, comme le ferait l'algorithme

13

” Dans la vie silencieuse de la perception, nous adhérons à quelque chose,nous le faisons nôtre, et cependant nous nous en retirons et le tenons à distance,

sans quoi nous n'en saurions rien. “ Merleau-Ponty.

Académie n°16[1] 28/07/05 10:36 Page 13

Page 14: La figure de la Terre - La Lettre n°16

14

me de recherche avait porté sur l'étudede cette forme de cécité, il n'auraitjamais obtenu la moindre subvention.On lui aurait enjoint de travailler, commecela semblait évident, sur l'œil et celan'aurait conduit à rien puisque le pro-blème se situe au niveau du cerveau!

Tout ceci nous oriente vers une analysede l'image qui soit basée sur la notionde contour, puisque, comme nous lerappelle David Hubel, les contours sontà la base de la vision. Hubel va plus loinet interprète la détection des contourseffectuée par le cortex visuel primaireen termes de compression de l'infor-mation. Nous y reviendrons dans laconclusion. Les « modèles de contours »consistent à représenter une image parun ensemble de courbes que l'on puissedessiner. Pour le peintre, il s'agira d'uneesquisse. En traitement de l'image, lescontours sont les bords des objets; ilsles délimitent. Mais ceci n'est qu'un pointde vue naïf, car la définition des bordsdes objets inclus dans une image est unproblème mal posé. On pense au clair-obscur de Léonard de Vinci d'où lescontours sont absents. Il faut évidem-ment en dire plus sur la nature des

verte a balayé bien des préjugés sur l'ap-prentissage et la pédagogie.

D. Hubel a travaillé sur des chats et dessinges. En étudiant la période critiqued'élaboration du fonctionnement de lavision, il a découvert un moyen de gué-rison d'une forme de cécité qui s'appellel'amblyopie. Cette forme de cécité vientdu fait que, dans certaines situations,une partie du cortex visuel primaire n'estpas stimulée, car elle ne reçoit pas l'in-formation de l'œil (à cause d'un fort stra-bisme, par ailleurs temporaire, quiaffecte certains bébés). Les neuronesdégénèrent alors de manière irrécupé-rable et le bébé devient aveugle. Leproblème n'est donc pas celui d'undéfaut dans le précâblage. Les neurones,qui existent dès la naissance, ont besoind'être stimulés pour survivre.

Ce travail illustre le lien entre recherchepure et recherche appliquée: D. Hubeldit, en effet, qu'il n'a pas cherché à guérirune forme de cécité et que sa découvertesur la façon de traiter l'amblyopie est unproduit inattendu de son étude du fonc-tionnement du cerveau. Il ajoute, defaçon très ironique, que si son program-

contours utilisés et sur les algorithmesqui en assurent le tracé. Nous ne pou-vons en dire plus ici et renvoyons lelecteur aux sections 8 et 9. Une secondeinterprétation des découvertes de Hubelet Wiesel sera donnée dans la section 6.

4. Les images numériquesLe traitement de l’image est une disci-pline très jeune qui est née avec la révo-lution numérique. Seules les imagesnumériques peuvent être manipulées àl’aide d’algorithmes qui soient repro-ductibles. Avant l’invention de la photo-graphie, les peintres avaient le mono-pole de la production des images et leurperception du monde extérieur faisaitpartie de l’acte de peindre. En quelquestraits de crayon, un dessinateur habilepeut faire surgir, de façon précise etexacte, un visage familier. Le problèmede la compression des images était ainsirésolu par le dessin, mais le résultatdépendait du talent du dessinateur. Lesmanipulations sur les photographiesargentiques étaient de l’ordre du savoir-faire et n’étaient donc pas reproductibles.On pense aux retouches effectuées surles photographies officielles des digni-taires de l’ex-URSS. Aujourd’hui lescaméras numériques nous proposentdes images “objectives” du monde, vier-ges de toute perception humaine, et quel’on peut manipuler à volonté.

Revenons alors à notre problème: Lacompression des images digitales est-elle reliée à leur perception? Signalonstout de suite qu’il s’agit ici de compres-sion avec perte (dite lossy). C’est-à-direqu’après cette compression, l’imagen’est plus exactement la même; elle aété simplifiée. Pouvons-nous acceptercette simplification? Ne risque-t-on pasde caricaturer l’image de départ? On nedispose malheureusement pas à l’heureactuelle de critères objectifs permettantde décider de la qualité d’un algorithmede compression. On demande quel’image produite par l’algorithme soitperçue comme étant proche de l’imageoriginale. C’est pourquoi il convient desavoir en quoi consiste la perceptionpour pouvoir juger de la compressiondes images.

La seconde relation entre perception etcompression est plus subtile, car ellerepose sur l’étude de la cohérenceinterne des images. En effet, si la com-pression des images fixes peut se faireà des taux impressionnants, c’est quel’information fournie par une imagenaturelle est fortement redondante.Comme nous l’avons déjà indiqué, cetteredondance vient de ce qu’une imagenaturelle est structurée. La syntaxe quiest responsable des structures pré-sentes dans les images naturelles peutêtre vue comme une traduction descontraintes logiques imposées par la

JPEG, mais détectent des patterns, desstructures universelles et rudimentairesqui se retrouvent dans toutes les images.Ces patterns ne se réduisent pas à despetits morceaux de l'image, mais sontles building blocks qui constituent labase de la perception. Par exemple,certaines cellules sont responsables dela détection des contours et il est tout àfait étonnant que différentes orientationssoient prises en charge par différentescellules, chacune étant spécialisée dansune orientation particulière. EcoutonsDavid Hubel décrire son travail: « Cellsin the primary visual cortex, to which theoptic nerve projects (with one interme-diate nucleus interposed) are far moreexacting in their stimulus requirements.The commonest type of cell fires mostvigorously not to a circular spot, but to ashort line segment to a dark line, a brightline, or to an edge boundary betweendark and light. Furthermore each cell isinfluenced in its firing only by a restrictedrange of line orientations: a line morethan about 15 to 30 degrees from theoptimum generally evokes no response.Different cells prefer different orienta-tions, and no one orientation, vertical,horizontal or oblique, is representedmore than any other. These observationsmade in 1958, had not been predictedand came as a complete surprise.Evidentlty cells in this part of the cortexare determining whether there arecontours (light-dark or color) in the visualscene, and collectively registrating theirorientations ».

D'autres neurones sont affectés à la dé-tection de motifs périodiques etc. Tousces neurones font partie de la zone V1du cortex visuel primaire. Aucun nefournit la compréhension de l'ensemblede l'image, ni même la perception desobjets qui y figurent. Cette compréhen-sion fera appel à des processus cogni-tifs mettant en jeu des populations deneurones. Comme l'écrit BernardMazoyer: « Les fonctions cognitives sontbasées sur la mise en jeu d'un réseaudistribué d'aires corticales possédantune dynamique temporelle ».

D. Hubel s'est alors demandé si le cortexvisuel primaire était déjà câblé à la nais-sance ou si le câblage s'élaborait dansles premiers mois suivant la naissance,grâce aux stimuli visuels que reçoit lebébé. L'air du temps était en faveur del'apprentissage et du conditionnement.Le cerveau du bébé était vu comme unepage blanche sur laquelle s'écrivent lesexpériences vécues par le bébé. La cohé-rence que notre cerveau acquiert seconstruirait ainsi en reflétant celle dumonde qui nous entoure. Mais D. Hubela découvert que c'était parfois l'inversequi a lieu. Certaines parties du cerveausont précâblées et ce câblage peut s'ef-facer, faute de stimulations. Cette décou-

Question d’actualité

Vladimir Illitch Lénine (1870-1924) haranguant les foules, de la chaire Thomas d'Aquin (1225-1274), à Viterbe,Italie. (Montage de Nicolas Guilbert)

Académie n°16[1] 28/07/05 10:36 Page 14

Page 15: La figure de la Terre - La Lettre n°16

ce, au lieu de faire exploser des charges.L'énergie dépensée et les dégâts occa-sionnés sont alors réduits. Ce mêmeprincipe est utilisé par le sonar de lachauve-souris. La vibrosismique étaitnée. Mais les échos recueillis sont bienplus complexes à analyser que dans lecas des explosions de charges. Lesphysiciens durent céder la place à desspécialistes du traitement du signal. Cesderniers élaborèrent des logiciels infor-matiques qui, en un sens, imitent le fonc-tionnement du cerveau de la chau-ve-souris. Grâce à la vibrosismique,Elf-Aquitaine a pu mener une campagnepétrolière à Paris même. Les camions-vibrateurs ont sillonné les artères pari-siennes pendant une quinzaine de jours,au milieu de nuits d’hiver de l'année1986. L’exploitation des résultats ademandé une année entière. Cela donneune idée des difficultés rencontrées dansla vibrosismique.

Jean Morlet analysait donc les signauxprovenant de la vibrosismique. Cessignaux sont des courbes graphiquesassez irrégulières qui présentent defortes parties transitoires (c'est-à-diredes comportements brutaux et inat-tendus). Jean Morlet étudiait ces courbesà l'aide d'une technique éprouvée, l'ana-lyse de Fourier à fenêtre (en fait à l'aidedes ondelettes de Gabor qui seront défi-nies dans la section suivante). Mais unjour, Morlet, lassé des artefacts produitspar cette technique, découvrit une nou-velle façon de représenter ce type designaux. C'est ainsi que Morlet créal'analyse par ondelettes.

J'ai souvent discuté avec Jean Morlet. Ilressemble beaucoup à Benoît Mandel-brot. Tout comme Mandelbrot, Morleta une extraordinaire intuition et uneréelle vision scientifique. Il a tout de suitecompris la portée de sa découverte et aessayé d'alerter Elf-Aquitaine. Mais Elf-Aquitaine venait d'être la victime consen-tante d'une énorme escroquerie ; unescroc était arrivé à persuader les “têtespensantes” de l'entreprise que l'onpouvait “flairer le pétrole” à l'aide destrop célèbres “avions renifleurs”. Pourbluffer les “têtes pensantes” et autres“décideurs” d'ELF, l'escroc présentait,dans un certain ordre, des objets dansune pièce. Ces objets étaient “reniflés”par un miraculeux “gadget” situé dansune autre pièce. Ce gadget reconstrui-sait, en temps réel, les images des objetssur un écran d'ordinateur, lui aussi situédans l'autre pièce. Les décideurs d'ELFétaient médusés. L'escroquerie futrévélée par Jules Horowitz, membre del'Institut, qui eut l'idée d'inverser l'ordrede passage des objets présentés au“nez” du gadget. Comme tout était pré-enregistré, les images défilèrent évidem-ment dans l'ordre ancien. Mais c'étaittrop tard et l'argent d'ELF avait disparu.

Passant de l'extrême crédulité à uneextrême méfiance, Elf-Aquitaine répondità la découverte de Jean Morlet en luioctroyant une retraite anticipée. Plus dedix ans après cette mise à la retraite,Morlet obtint le prix Reginald Fessendende la Société Américaine de Géophysique.Lors de la cérémonie, Pierre Goupillaudprésenta l'œuvre de Morlet et dit : « Aproduct of the renowned Ecole Poly-technique, Morlet performed the excep-tional feat of discovering a novel mathe-matical tool which has made the Fouriertransform obsolete after 200 years ofuses and abuses, particularly in its fastversion… Until now, his only reward foryears of perseverance and creativity inproducing this extraordinary tool was anearly retirement from ELF ».

Roger Balian qui enseignait la physiqueà l'École Polytechnique orienta JeanMorlet vers Alexandre Grossmann. AlexGrossmann, directeur de recherches auCNRS, travaillait à Marseille-Luminy, aucentre de physique théorique. Alex Gross-mann fut patient, subtil et comprit ce queMorlet avait dans l'esprit. Grâce à la clair-voyance de Grossmann, les résultats deMorlet ont pu être publiés en 1984.Écouter Morlet n'était certainement pasune tâche aisée, tant ses idées étaientoriginales, allusives, approximatives etsouvent exagérément optimistes. J'enparle d'expérience. Morlet pensait, parexemple, que l'analyse par ondelettesallait révolutionner la vibrosismique etla prospection pétrolière. Quelque chosed'autre s'est produit : les ondelettesservent à comprimer et transmettre lesdonnées recueillies dans les campagnespétrolières.

Ni Grossmann, ni Morlet ne sont desnumériciens. Ils avaient bien proposé desalgorithmes de calcul pour la trans-formée en ondelettes et pour la trans-formée inverse, mais ces algorithmesétaient lourds sous leur forme exacteet imprécis sous leur forme approchée,alors que la révolution numérique reposesur l'utilisation d'algorithmes exacts etrapides. Par exemple, la transformationde Fourier peut se calculer par un algo-rithme rapide, dénommé Fast FourierTransform ou FFT. C'est un algorithmeexact. Il a été découvert, en 1965, auxÉtats-Unis, par James W. Cooley et JohnW. Tukey. Sans la FFT le calcul d'unetransformation de Fourier serait prohi-bitif. Il faudrait N2 opérations pour unsignal de longueur N. Avec la FFT ceci seréduit à 2 N log2 N. Plus concrètementcela revient à comparer un temps decalcul qui ne prend qu'une seconde à untemps de calcul qui prendrait plusieurssemaines. Sans la possibilité qu'offrela FFT de calculer une transformée deFourier en temps réel, l'imagerie médi-cale ou la biologie moléculaire n'auraientpas vu le jour.

En ce qui concerne l'analyse par onde-lettes, un long chemin restait à parcouriret il a fallu attendre les travaux d'IngridDaubechies, d'Albert Cohen et de Sté-phane Mallat pour que la Fast WaveletTransform se hisse au niveau atteint parla FFT. Le calcul de la FWT d'un signalde longueur N est exact et ne nécessiteque CN opérations (C est une constanteque nous retrouverons dans ce qui suit).

La construction de la FWT bénéficiait dedeux découvertes antérieures: les algo-rithmes pyramidaux et le codage ensous-bandes. Les algorithmes pyrami-daux furent découverts par P. Burt etE. H. Adelson en 1983, dans le cadre dutraitement de l'image. Utiliser un algo-rithme pyramidal pour analyser uneimage revient à prendre du recul enreculant pas à pas (la pyramide seconstruit pendant cette itération). Onrejoint ainsi le point de vue de Merleau-Ponty : il convient de prendre du reculpour percevoir une image ou un tableaudans un musée, car notre perception seréorganise et s'affine dans ce zoomarrière. Mallat découvrit en 1986 quel'analyse par ondelettes d'une image estun cas particulier d'algorithme pyra-midal. Mais les algorithmes pyramidauxne fournissent pas encore les basesorthonormées d'ondelettes; c'est pourrésoudre ce problème que Mallatproposa de construire la pyramide àpartir de la version orthogonale ducodage en sous-bandes ou subbandcoding. Ce codage et sa version ortho-gonale avaient été inventés en 1977 parD. Esteban et C. Galand au centre d'IBMde La Gaude. Leur motivation était letéléphone digital. Ni l'application àl'image, ni le problème de la stabilitédans le zoom arrière n'avaient pas étéabordés par D. Esteban et C. Galand. Lesalgorithmes qu'ils proposaient nepouvaient être utilisés sans précautionpar Mallat ; la pyramide construite àl'aide du codage en sous-bandes peuts'effondrer. Nous devons à Mallat et àl'auteur de cet article d'avoir posé ceproblème et à Albert Cohen et IngridDaubechies d'avoir complété l'étude dela stabilité de ces pyramides.

La construction, par Ingrid Daubechies(1987), des bases orthonormées d'on-delettes à support compact, de régula-rité r donnée, était la suite logique de ceprogramme. Cette régularité peut êtreaussi élevée que l'on veut, mais la basechoisie dépend alors de r. La longueurdu support de l'ondelette est la constanteC intervenant dans la FWT. Le seul casconnu était celui du système de Haar(1909). Les ondelettes à support compactconduisent à des algorithmes qui fonc-tionnent en temps réel, alors même quele signal défile. Le calcul de la FWT sefait sur une fenêtre mobile, ajustée àl'échelle, et ne met donc en jeu que C

rationalité des lois de la physique. Cettesyntaxe pourrait aussi être interprétéecomme une aptitude de notre cerveau àordonner et à classer. Ernst Cassirerconsidère que la perception d’une imagenaturelle est basée sur la reconnais-sance des formes ou des structuressous-jacentes qui y figurent. Il en est demême pour la compression : parexemple, on ne peut résumer un texte sice texte n’a pas de sens. En revanche, sile texte est trop dense, il est presqueimpossible de le résumer; on rejoint leproblème de la redondance. De même,on ne peut comprimer une image quin’est pas structurée. Nous arrivons aucœur de notre débat en posant ànouveau la question suivante: Existe-t-il dans les images des formes simpleset universelles qui soient à la base de lacompression et de la perception? Nousproposerons trois formes simples, lesondelettes, les curvelets et les bande-lets et décrirons les algorithmes decompression correspondants; chacund’eux est adapté à un modèle particulierde bords.

5. Les ondelettesL'analyse par ondelettes est née, à la findes années 70, d'une étonnante décou-verte faite par un ingénieur, Jean Morlet.Cette découverte fut comprise et ac-ceptée par un physicien, AlexandreGrossmann, puis par des spécialistes dutraitement du signal. Vingt ans après,l'analyse par ondelettes débouchait surle nouveau standard, nommé JPEG2000,de compression des images fixes. Ancienélève de l'École Polytechnique, Morletétait ingénieur de recherche chez Elf-Aquitaine. Quand il découvrit les onde-lettes, Morlet travaillait depuis déjà unevingtaine d'années dans le secteur de lavibrosismique. Morlet créa l'analyse parondelettes pour surmonter certainesdifficultés rencontrées dans l'analysedes signaux acquis lors des campagnespétrolières. De quoi s'agit-il?

Autrefois, pour chercher du pétrole, onfaisait exploser des charges et les échosrecueillis permettaient d'estimer la posi-tion, la profondeur et la forme de la cavitécontenant l'or noir. Les experts engagéspar les compagnies pétrolières, les sour-ciers, étaient alors des physiciens.Analyser les bruits répercutés par lesous-sol, c'était imiter le savoir-faire dumédecin qui, à l'aide du stéthoscope,ausculte le malade en écoutant sa respi-ration ou les battements de son cœur.

Pierre Goupillaud, collègue et ami deJean Morlet, était au départ un ingénieurfrançais. Il s'expatria aux USA et travaillapour la compagnie pétrolière Conoco,(aujourd'hui ConocoPhillips) dans lesecteur de la géophysique. Goupillaudsuggéra d'envoyer dans le sous-sol unevibration, courte et modulée en fréquen-

15

Question d’actualité

Académie n°16[1] 28/07/05 10:36 Page 15

Page 16: La figure de la Terre - La Lettre n°16

compte tenu des deux conditions précé-dentes. L'ondelette-mère est oscil-lante et n'a donc pas besoin d'êtremodulée. D.J. Field et B.A. Olshausendécouvrirent que les images corres-pondant à ces ondelettes sont précisé-ment les briques de base des imagesnaturelles; or ces briques de base sontdétectées de façon privilégiée par lescellules du cortex visuel primaire. Il y aici une extraordinaire convergence entrela neurophysiologie et l'analyse enaveugle, sans préjugé, des images.L'analyse en composantes indépen-dantes justifierait donc le travail effectuépar les cellules du cortex visuel pri-maire. Rappelons les titres des travauxde D.J. Field et B.A. Olshausen. Cestitres, Emergence of simple-cell recep-tive field properties by learning a sparsecode for natural images ou bien Sparsecoding : A strategy employed by V1 ?sont, en eux-mêmes, des programmesscientifiques.

7. Le standard JPEG 2000 et lacompression des images fixes

Venons-en à ce qu'on appelle la tech-nologie et, dans le cadre de la révolu-tion numérique, au problème de lacompression des images fixes. Uneimage en noir et blanc est vue commeune fonction, définie dans un rectangle,et dont les valeurs sont appelées lesniveaux de gris. Ces niveaux de gris sontconventionnellement compris entre 0et 1. Dans cette convention, 0 corres-pond au noir tandis que 1 est un blancfortement éclairé. Le rectangle estensuite remplacé par une grille fine(c'est-à-dire un réseau) dont les pointssont appelés des pixels. L'image devientalors une énorme matrice. Les valeursexactes des niveaux de gris sont finale-ment remplacées par des approxima-tions digitales, c'est-à-dire par dessuites de 0 et 1. L'image est ainsi de-venue une suite finie de 0 et 1. Bienentendu, cette première représentationde l'image est très onéreuse et l'oncherchera à la rendre plus concise.Représenter une image par une suiteconcise de 0 et de 1 pose des problèmesqui touchent à un ensemble de disci-plines incluant les mathématiques, maisaussi la physique statistique ou lessciences cognitives.

La chaîne de transmission des imagesse compose de trois tronçons. Lepremier est le codage de l'image : onvous donne une image et vous devez lareprésenter par une suite concise de 0et de 1, ce qui vous oblige à négliger unepartie importante de l'informationcontenue dans l'image en question. Vousvoulez ensuite transmettre ces 0 et 1.Apparaissent alors tous les problèmesde codage en ligne qui font appel à lathéorie des nombres, aux codes correc-teurs d'erreurs, etc. Enfin vous devez

décoder la suite de 0 ou de 1 reçue afinde reconstruire une image qui soitperçue comme la plus proche possiblede l'image de départ.

On touche, à nouveau, un point qui serelie aux neurosciences: « perçue com-me la plus proche possible » signifie quec'est l'œil qui décide si l'image reçue estde bonne qualité, si elle lui plaît ou ne luiplaît pas. On profite alors des capacitésde masquage liées à la vision humaine,c'est-à-dire du fait que l'œil est plussensible à certains défauts qu'à d'autres.Les algorithmes de compression et dedécodage doivent être conçus en tenantcompte de la sensibilité de l'œil et, dansla littérature portant sur le traitementd'images et les problèmes de compres-sion, vous avez toujours le jugement del'expert qui vous dit si l'erreur est admis-sible ou pas! Le jugement se fait doncpar un groupe d'experts: JPEG signified'ailleurs Joint Photographic ExpertGroup, groupe d'experts commun à l'ISO(organisation internationale de norma-lisation) et à la CEI (commission élec-tronique internationale) chargée d'éta-blir les normes de codage numérique decompression pour les images fixes.

L'algorithme de compression des ima-ges fixes qui était utilisé jusqu'aujour-d'hui est le célèbre JPEG. L'algorithmeJPEG consiste à découper l'image enblocs 8 fois 8 et à utiliser une analyse deFourier discrète sur chaque bloc. JPEGfournit une bonne qualité pour des tauxde compression de l'ordre de 10. L'ob-jectif de JPEG 2000 est de passer de 10à 100!

Comme nous l'avons déjà dit, l'un despoints de départ de JPEG2000 a été lecodage en sous-bandes ou subbandcoding, découvert à la fin des années 70par D. Esteban et C. Galand, au centre derecherche IBM de La Gaude (près deNice). Le codage en sous-bande varemplacer, dans JPEG 2000, la DCT(Discrete Cosine Transform) qui étaitutilisée dans JPEG. En gros, pour com-primer une image, on commence parl'analyser en utilisant « l'algorithme deMallat », c'est-à-dire l'algorithme rapidede calcul des coefficients d'ondelettes;c'est ici qu'intervient le codage en sous-bande. Ensuite on quantifie les coefficientsréels obtenus en les remplaçant par desapproximations digitales appropriées. Onhérite ainsi d'un ensemble fini de 0 et 1que l'on transmet. On reconstruit alorsl'image en utilisant le fait que les onde-lettes forment une base orthonormée.Mais, comme les coefficients ont étéquantifiés, on ne retombe pas exactementsur l'image de départ. L'erreur commises'analyse en faisant appel à une très bel-le théorie mathématique, celle des basesinconditionnelles que l'on trouvera ex-posée dans les travaux de Ron DeVore

16

Question d’actualité

échantillons du signal. Dans le cas dusystème de Haar, l'algorithme calculela demi-somme et la demi-différenceentre deux valeurs consécutives. Maisle manque de régularité du système deHaar excluait toute application à lacompression des images fixes. L'annéesuivante, Ingrid Daubechies construisit,en collaboration avec Albert Cohen etJean-Christophe Feauveau, les onde-lettes bi-orthogonales. Ce sont elles quiseront utilisées dans JPEG 2000.

6. La décomposition en compo-santes indépendantes ou ICAT

Peut-on mieux comprendre le succèsdes ondelettes en traitement de l'image?Voici une nouvelle façon d'étudier cettequestion. Les neurophysiologistes sesont intéressés aux représentations effi-caces des images et en particulier desimages de scènes naturelles. Une imagebrute provenant du monde extérieurcontient une information gigantesque etil est exclu qu'elle soit intégralementperçue par le système visuel animal ouhumain. L'hypothèse de travail decertains neurophysiologistes est lasuivante: si les cellules du cortex visuelprimaire sont affectées aux tâches spéci-fiques de reconnaissance de certainesstructures géométriques que nous avonsdécrites dans la troisième section, c'estpeut-être parce que cette solution biolo-gique au problème de la perceptiond'une image est optimale en terme ded'analyse et de compression desdonnées. On peut penser qu'à la suited'un lent processus d'évolution, la sélec-tion naturelle ait conduit à cette spécia-lisation croissante des neurones ducortex visuel primaire.

Peut-on établir scientifiquement l'as-sertion suivante : « Si l'on optimisaitl'analyse (plus précisément la détectionou la perception) des images provenantde scènes naturelles, on retrouveraitprécisément les images élémentairesqui correspondent aux diverses spécia-lisations des cellules du cortex visuelprimaire? » Cette question fondamen-tale sera étudiée en faisant appel à l'ana-lyse en composantes indépendantes.Cette technique d'analyse est basée surle concept intuitif de « contraste ». L'hy-pothèse de travail est que pour extraireune information pertinente d'un grandensemble de données complexes et quine semblent pas structurées, il faut opti-miser le contraste, c'est à dire disposerde différents points de vue à partir dedirections les plus éloignées les unesdes autres.

En suivant les travaux de D.J. Field et deB.A. Olshausen, nous chercherons àrelier l'analyse des images de scènesnaturelles qui est effectuée par le cortexvisuel primaire à l'analyse de ces mêmesscènes que fournirait l'ICA, independent

component analysis, ou analyse encomposantes indépendantes.

L'analyse en composantes indépen-dantes est née des problèmes de la sépa-ration de sources et de la « déconvolu-tion aveugle » qui se rencontrent, parexemple, dans l'utilisation des radars etque nous allons maintenant évoquer. Onpeut citer (en vrac) les noms de BernardPicinbono, Christian Jutten, Odile Macchi,Jean-François Cardoso et Jean-LouisLacoume, sans oublier David Donoho.Une première initiation à ces méthodesm'a été donnée par Jean-Louis Lacoumeet le site web de Jean-François Cardoso(http://sig.enst.fr/cardoso/stuff.html) estune référence conseillée.

Voici le point de départ : un signalobservé nous semble inintelligible, mais,en fait, cette complexité provient de ceque ce signal est un mélange, unecombinaison linéaire entre plusieurssignaux « sources ». Ce mélange a crééla complexité apparente et a brouillé lessources. Par exemple, tout le mondeparle à la fois dans une pièce et l'on necomprend plus rien. Il s'agit alors d'ex-traire les conversations particulières.L'hypothèse essentielle qui fonde l'ICAest que les sources sont statistiquementindépendantes. C'est une hypothèse trèsforte. Si elle était remplacée par ladécorrélation, on retomberait sur l'ana-lyse en composantes principales.

D.J. Field et B.A. Olshausen ont utilisél'ICA pour essayer de comprendre lafaçon dont fonctionne la vision humaine.Ces chercheurs ont appliqué un algo-rithme d'analyse en composantes indé-pendantes à une base de donnéesd'images naturelles. A la plus grandesurprise des chercheurs, les fonctionsde base (les sources) obtenues sont desondelettes! Nous ne faisons pas ici dedistinction entre ondelettes de Gabor etondelettes de Grossmann-Morlet. Dansle premier cas on part d'une gaussienned'écart type , que l'on module arbitrai-rement en fréquence par multiplicationpar exp (i x) où, au facteur 2 près, désigne la fréquence. Puis on translateen position ces gaussiennes moduléeset l'on parle alors d'atomes temps-fréquence ou d'ondelettes de Gabor.Dans le second cas, les ondelettes sontindexées par un paramètre positif etun vecteur de translation et sont défi-nies en dilatant une ondelette-mère par le facteur , puis en effectuant surl'ondelette dilatée la translation par

. On parle alors d'ondelettes temps-échelle. L'ondelette-mère doit satis-faire trois propriétés essentielles: êtrelocalisée (un support compact est idéal),être oscillante (l'intégrale de l'ondelette-mère doit être nulle, mais plusieurs au-tres moments nuls sont encore mieux)et enfin être la plus régulière possible,

Académie n°16[1] 28/07/05 10:36 Page 16

Page 17: La figure de la Terre - La Lettre n°16

17

(voir les références). Cette théorie permetde prévoir les effets du bruit de quantifi-cation. Les bases orthonormées d'onde-lettes sont des bases inconditionnellesuniverselles; c'est une nouvelle expli-cation de leur supériorité sur les sériesde Fourier qui constituent, de ce point devue, le pire choix possible. C'est unenouvelle explication de la supériorité deJPEG 2000 sur JPEG.

Je voudrais encore insister sur cetteliaison profonde, organique, entre le trai-tement d'images, vu du point de vue del'informaticien, et les problèmes quitouchent la neurophysiologie et lesneurosciences en vous citant (en traduc-tion) un texte écrit par Peter Burt et sonéquipe dans les années 1980. Peter Burty explique les performances de l'analysedes images par ondelettes et y prévoit le

rithme rapide… De telles transforma-tions sont très utiles pour de nombreuxaspects des images, car elles donnentdes informations sur les changementsd'intensité lumineuse à différenteséchelles et les endroits où ces change-ments sont en train d'apparaître. Il y aaussi de fortes présomptions pour quele système visuel opère une décompo-sition de l'image similaire à celle-ci dans

Question d’actualité

succès de JPEG 2000 : « Pour com-primer les images, on va utiliser destransformations pyramidales. On dé-compose donc l'image en un ensemblede fonctions de base qui correspondentà une orientation en fréquences spa-tiales, qui sont localisées et auto-simi-laires. Pour des raisons de facilité decalcul, on veut aussi que cet ensemblesoit orthogonal et soit fourni par un algo-

La distance vis à vis d'une œuvre, d'un tableau que nous admirons, nous la créons en prenantdu recul et en sentant alors ce tableau se réorganiser au cours de ce ” zoom arrière “.

Académie n°16[1] 28/07/05 10:36 Page 17

Page 18: La figure de la Terre - La Lettre n°16

ration. Les ridgelets et leurs “cousines”les curvelets s'orientent et s'allongenten épousant automatiquement la géo-métrie d'un bord éventuel. La construc-tion des ridgelets est un exploit scien-tifique.

Stéphane Mallat a relevé le défi lancépar Donoho et a fourni, en inventant lesbandelettes, une solution qui est concep-tuellement moins belle, mais bien plusréaliste. Les bandelettes épousent, leplus longtemps possible, le tracé desbords des images. La nouvelle techno-logie proposée par Mallat est développéepar la start-up Let It Wave et s'appelleLet It Wave Codec. Let It Wave a obtenule premier prix de l'innovation techno-logique 2002, décerné par le Ministre dela Recherche et de la Technologie.

Quelques mots sur ce dernier algo-rithme. Le point de départ théorique estla thèse d'Erwan Le Pennec. Dans cetravail, une image est modélisée commeil vient d'être indiqué, à l'aide de contoursréguliers délimitant les objets contenusdans l'image. L'éclairement à l'intérieurde chaque objet est supposé très régu-lier. A cette image brute, assez schéma-tique, est ajouté un bruit aléatoire. Leproblème posé est la description la plusconcise, la plus économique et la plusprécise de ce type d'images. Bien en-tendu, une image réelle n'est pas de cetype; elle est plus complexe. Mais lorsquel'on modélise, on est toujours amené àutiliser un algorithme qui a été optimisésur un ensemble de cas d'école où seprésentent certaines des difficultés quel'on rencontrera dans les situationsréelles. L'algorithme utilisé par LePennec est hybride, car il mêle l'utilisa-tion des level sets de Jean-Michel Morelet Stanley Osher aux ondelettes. Le pointde départ est la recherche des bords(supposés doux) des objets. En fait, oncherche seulement une informationdirectionnelle décrivant les lignes paral-lèles aux bords. C'est ici qu'apparaissentles lignes de niveau de l'éclairement. Ontire ensuite parti de la régularité localede cet éclairement pour l'analyser à l'aided'ondelettes anisotropes dont les para-mètres sont réglés à l'aide de l'informa-tion directionnelle déjà obtenue. Les ban-delets de Mallat et Le Pennec ne sont pasfixées une fois pour toutes, comme lesont les ridgelets, mais leur constructions'adapte (automatiquement) à l'imageanalysée. Le passage d'un travail derecherche à l'application industrielledéveloppée par Let It Wave n'était pasune mince affaire et le résultat finalobtenu par l'équipe de Stéphane Mallatest une prouesse; 500 octets suffisentpour comprimer les photographiesd'identité. Le lecteur dubitatif est prié dese reporter au site de Let It Wave. Cetexploit a été le point de départ d'un travailscientifique important où, en toute géné-

ralité, des méthodes innovantes d'ana-lyse sont mises en œuvre pour dévoilerles structures géométriques d'uneimage, en se basant sur l'informationdonnée par les coefficients d'ondelettesusuels.

10. ConclusionRevenons à la question posée: peut-onrelier la compression des images digi-tales à ce qui fonde la perception? Unefois de plus, écoutons David Hubel. DansEye, Brain and Vision, il écrit : « Lescontours qui séparent les régionssombres et les régions claires sont lesparamètres majeurs de notre perceptionet de notre compréhension du mondevisuel… Le cerveau a logiquement évoluéde façon à minimiser les nombre decellules nécessaires au traitement del'information visuelle. Or la seule infor-mation dont nous ayons besoin concerneles bords d'une forme; ce qui se passe àl'intérieur ne compte pas ».

David Hubel reprend donc à son comptel'hypothèse suivante: l'évolution du sys-tème visuel des mammifères aurait privi-légié la compression de l'information.Partant de cette hypothèse, on peut con-sidérer que perception et compression del'information visuelle sont liées, car ce quia été clarifié par un prétraitement et a étéainsi rendu plus simple ou plus accessiblesera mieux perçu. En outre, David Hubelet Stéphane Mallat s'accordent sur lanature de ce prétraitement, puisque, dansles deux cas, il s'agit de construire ou decalculer un “croquis” à l'aide d'un algo-rithme. Ce croquis ou sketch serait lapremière étape conduisant à la perceptionet à la compression. Mais, pour l'instant,il est difficile d'aller plus loin et de choisirl'un des modèles de contours en traite-ment de l'image en se basant seulementsur les découvertes faites par David Hubel.Doit-on privilégier les contours réguliers?Peut-on envisager de prendre en comptetous les contours de longueur finie? Il n'estpas davantage possible de décider du choixd'une base d'ondelettes à lumière de laneurophysiologie. Tout le monde s'accordeà comparer l'activité des neurones de V1à un calcul de coefficients d'ondelettes.Mais s'agit-il de vraies ondelettes, decurvelets ou de bandelets? Nous ne lesavons pas. En revanche, il n'est pas excluque le traitement de l'information visuelleeffectué dans la zone V2 du cortex corres-ponde aux nouveaux algorithmes de détec-tion de la géométrie élaborés par StéphaneMallat. Cette analogie est d'autant plusséduisante que dans un cas, il s'agit d'unpost-traitement effectué à partir desdonnées transmises par les neurones deV1, dans l'autre d'un post-traitement àpartir de la transformée en ondelette �

Références: voir sur le site de l’Académie dessciences: www.academie-sciences.fr

R (v) est la valeur quadratique moyennede v ; la constante c est réglée aprèsquelques expériences. En effet le choixde ce paramètre positif c sert à déciderà partir de quelle taille les “petits” objetsdoivent être regardés comme destextures.

Albert Cohen et ses collaborateurs ontmontré que l'algorithme JPEG 2000 decompression des images fixes est lemeilleur possible si l'on accepte lemodèle d'Osher, Rudin et Fatemi. Cetteremarque implique que l'on ne peutbattre JPEG 2000 qu'en adoptant unautre modèle, ce qui est l'objet de lasection suivante.

9. Les ondelettes ne sont pasoptimales, car 500 octets suffi-sent

Pendant les années où JPEG 2000 a étéélaboré, la “quête du graal” a continué.Il s'agissait de faire mieux que les onde-lettes dans la course à la compression.Cela n'est possible qu'en utilisant desmodèles plus précis que le modèled'Osher, Rudin et Fatemi. Plusieurschercheurs ont ainsi cherché à mieuxtirer parti des particularités géomé-triques des images. Modélisons lesimages en imitant le peintre Ingres. Dansce modèle, une image est définie par unensemble de lignes assez régulièresdélimitant des zones où l'éclairementvarie peu. Ces lignes seront appeléesdes bords. Dans le modèle d'Osher,Rudin et Fatemi, la contrainte imposéeaux lignes est d'avoir des longueursfinies (elles peuvent alors être assez irré-gulières). Ici nous insisterons, au con-traire, sur la régularité. Si l'on utilisel'analyse par ondelettes pour décrire unetelle image et si l'on désire atteindre uneprécision de l'ordre de 1/N, il faut utiliserau moins N ondelettes distinctes, ce quirevient à coder les positions d'au moinsN points (nous ne tenons pas compte deconstantes multiplicatives et N signifie,en fait, CN). Il est clair que ce codageconduit à un gaspillage et que la mêmeprécision peut être obtenue en utilisantseulement N(1/2) données. Il suffit pour levoir de fournir les positions de N(1/2) pointsdes bords et des N(1/2) tangentes à cespoints. En utilisant l'approximation desbords par les cercles osculateurs, on faitencore mieux etc. Les ondelettes, quantà elles, sont sensibles à la présence debords, mais n'arrivent pas à suivre ladirection de ce bord, car elles sont“isotropes”. Elles ne comportent pas unparamètre indiquant une direction.Seules la position et l'échelle sont prisesen compte.

La première percée dans la direction del'anisotropie a été réalisée par Emma-nuel Candès et David Donoho. Ces deuxchercheurs ont créé les ridgelets quisont des ondelettes de seconde géné-

son traitement de bas niveau, c'est à direavant que les fonctions cognitives n'en-trent en jeu ».

8. Le modèle d'Osher, Rudin etFatemi

Une image en noir et blanc y est encoreet toujours vue comme une fonctiondéfinie dans le plan et dont les valeurssont comprises entre 0 et 1. Ici 0 corres-pond au noir tandis que 1 est un blancfortement éclairé. Par ailleurs cette fonc-tion peut (et doit) présenter de fortesdiscontinuités qui correspondent auxbords des objets. Pour nous autresmathématiciens, une telle fonction estmesurable et bornée. Bien entendu laréciproque n'est pas vraie: toute fonc-tion mesurable et bornée ne correspondpas à une image naturelle. Une quantitévraiment minuscule de telles fonctionsprovient d'images naturelles et le but dela modélisation consiste à en savoir unpeu plus. Un des modèles utilise l'es-pace des fonctions à variation bornéedont la définition a été trouvée, en 1926,par le mathématicien italien LeonidaTonelli (Note aux CRAS, présentée parJacques Hadamard, le 10 mai 1926). Ils'agissait de résoudre un problème posépar Lebesgue: savoir quand la surfacedu graphe d'une fonction continue fdéfinie sur le carré unité est finie. Unproblème contigu est la définition decette surface. Mais ce dernier problèmeavait été résolu par Lebesgue. Alors legraphe a une surface finie si et seule-ment si la fonction f est à variation bor-née. Passons à la version actuelle etmoderne, de l'espace BV. On ne supposeplus que f est continue et sa norme dansl'espace BV des fonctions à variationbornée est, par définition, l'intégrale surtout le plan de la longueur du gradientde f. Ce gradient est pris au sens desdistributions (cette théorie n'existait pasencore en 1926). Si la fonction f est lafonction indicatrice d'un ensemble E,alors la norme de f dans BV est la lon-gueur du bord de E, aussi notée le péri-mètre de E. Ceci est vrai si E est régu-lier et demande à être précisé dans lecas d'un ensemble E arbitraire (le bordde E doit être remplacé par le borddistingué de E). Le modèle d'Osher,Rudin et Fatemi consiste à définir uneimage f comme une somme f = u + ventre une composante u, appartenant àBV, et qui modélisera les objets contenusdans l'image et une composante v quimodélisera la texture et le bruit. Lacomposante v sera, tout simplement, decarré intégrable, car on ne peut plustrouver de structure géométrique dansv. Bien entendu, il y a une infinité de tellesdécompositions f = u + v et l'on décidede choisir celle qui minimise une fonc-tionnelle J (u) qui est définie comme lasomme K (u) + cR (v) entre deux termesK (u) et cR (v). Le terme K (u) est simple-ment la norme de u dans BV tandis que

Question d’actualité

18

Académie n°16[1] 28/07/05 10:36 Page 18

Page 19: La figure de la Terre - La Lettre n°16

La vie des séances

Cech et Sidney Altman des propriétéscatalytiques de l’ARN avait ébranlé unevision des mécanismes cellulairescentrée sur les protéines. Les stupé-fiantes structures cristallographiquesdu ribosome, la particule qui synthétiseles protéines, ont démontré que le ribo-some est un ribozyme ou enzyme à based’ARN, confortant le rôle central de l’ARNaux origines de l’évolution biologique.

Une explosion de travaux récents sur desplantes, des champignons et desanimaux ont révélé de nouveaux méca-nismes de contrôle génétique conservésau cours de l’évolution et reliés à l’émer-gence et à l’évolution de la complexitédes cellules et des organismes euca-ryotes. Les régulateurs sont de petitsARN non codants, longs de 21 à 25nucléotides obtenus après maturationsoit d’ARN double brin exogène soitd’ARN endogène transcrit à partir derégions intergéniques ou répétitives. Lespremiers sont appelés ARN interférents,les seconds microARN. De manièregénérale, ils agissent selon desprocessus identiques par lesquels de

l’ARN double-brin, endogène ouexogène, empêche l’expression ouprovoque la dégradation d’un ARNmessager qui contient des régionshomologues à un segment du doublebrin introduit. Chez les plantes, lacomplémentarité entre l’ARN messageret l’oligonucléotide provenant du doublebrin est exacte, ce qui n’est pas le caschez les vertébrés. Cette différenceconduit à des difficultés théoriques deprédiction des cibles, mais aussi biolo-giquement à une versatilité accrue derégulation. L’interférence de l’ARNconstitue un formidable outil d’analysefonctionnelle génomique. De plus, unefois levées les difficultés de distributionintracellulaire des ARN, le potentielthérapeutique de l’interférence de l’ARNsera considérable.

Au niveau fondamental, les rôles régu-lateurs des microARN interviennentdans de nombreux aspects de la viecellulaire, de la virulence des pathogènesaux mécanismes épigénétiques deseucaryotes. Le répertoire de microARNexprimés dépend du type cellulaire, de

son origine embryonnaire, et de l’état dela cellule. On estime actuellement quele nombre de microARN conservés d’unecellule de mammifère pourrait êtreproche de 500 et qu’ils réguleraientjusqu’à 30 % des gènes bien qu’ils nereprésentent qu’1 % d’un génome demammifère. Chez l’homme, ce nombrepourrait atteindre 800 car beaucoup demicroARN non conservés seraient spéci-fiques de primates. De plus, les relationsentre les microARN et l’édition de l’ARN,particulièrement active dans le cerveau,impliquent les microARN dans l’évolu-tion des primates. Très récemment, ila été montré que l’expression desmicroARN est fortement atténuée dansles cellules cancéreuses en comparaisondes cellules saines et que leurs profilsd’expression sont caractéristiques de lalignée tumorale. L’action biologique desmicroARN s’étend donc bien au-delà dela répression ponctuelle de l’expressiongénétique. Nous découvrons un nouveaumécanisme de régulation, à l’œuvredepuis les origines des organismespluricellulaires et insoupçonné il y aseulement quelques années �

19

Découvertes récentessur les nouvelles fonctions

régulatrices de l’ARN

1 Correspondant de l’Académie des sciences,professeur à l’université Louis Pasteur, direc-teur de l’unité « Architecture et Réactivité del’ARN », IBMC, CNRS, Strasbourg

Comme l’a résumé Jacques Monod,ce qui est vrai pour la bactérie Escherichia coli l’est pour l’éléphant

par Éric Westhof 1

D epuis plus d’un demi siècle, labiologie moléculaire s’est con-

struite autour d’un concept central: latranscription de l’information génétiquecontenue dans l’ADN génomique enmolécules intermédiaires, les ARNmessagers, qui sont ensuite traduits enprotéines. Les protéines mobilisent l’en-semble des rôles structuraux, enzyma-tiques, et régulent également l’expres-sion des gènes en assemblant lesdifférents composants de la machineriecellulaire et en interagissant avec eux.C’est, en grande partie, grâce aux atoutsde la génétique bactérienne que labiologie moléculaire a progressé si rapi-dement. Certes, comme l’a résuméJacques Monod, ce qui est vrai pour labactérie Escherichia coli l’est pour l’élé-phant. Cependant, le contrôle de lacomplexité des organismes eucaryotesrequiert des mécanismes moléculairesabsents chez les bactéries. Déjà, dansles années 80, la découverte par Thomas

Académie n°16[1] 28/07/05 10:36 Page 19

Page 20: La figure de la Terre - La Lettre n°16

Propriété scientifique et recherche:des pistes pour l’avenir 1

1

La vie de l ’Académie

Publication de l’Académiedes sciences

23, quai de Conti 75006 PARISTel: 01 44 41 43 68Fax: 01 44 41 43 84http: www.academie-sciences.fr

Directeur de publication:Nicole Le Douarin

Directoire:Nicole Le DouarinJean Dercourt

Rédacteur en chef:Jean-Didier Vincent

Secrétariat général de rédaction:Marie-Christine Brissot

Conception graphiqueNicolas Guilbert

Photographies:p.p. 1, 3, 5, 13, 14, 17, 19, 20, photos N. Guilbertpp. 6, 7, 8, 9, photos (DR)La rédaction remercie le service de communication de l’Observatoire de Paris pour son accueil.

Comité de rédaction:Brigitte d’Artemare,Jean-François Bach,Roger Balian, Édouard Brézin,Pierre Buser, Paul Caro,Jules Hoffmann, Alain Pompidou,Pierre Potier, Érich Spitz, Jean-Christophe Yoccoz

Photogravure & impression:Edipro/PrintreferenceTM

01 41 40 49 00

n° de C.P. : 0108 B 06337

la lettre n0 16 / été 2005de l ’Académie des sciences

20

Distinction

L e Bower Award & Prize forAchievement in Science de

l’Institut Franklin à Philadel-phie, a été décerné en 2005 àHenri Kagan pour ses décou-vertes dans le domaine de lacatalyse. Professeur émérite del’université Paris-Sud à Orsay,membre de le section de Chimieet président du Comité Lavoi-sier de l’Académie des sciences,Henri Kagan est le premierFrançais à recevoir cettedistinction créée en 1988 dansle cadre du programme des prixde l’Institut Franklin, souventregardé comme l’équivalentaméricain des prix Nobel. Lamédaille d’or et le prix lui ontété remis lors d’une cérémonieavec les lauréats des médaillesBenjamin Franklin, récompen-sant ainsi l’ensemble de sonœuvre pionnière sur la chiralitéet la synthèse asymétrique �

plan organique, contractuel,fiscal, financier ou sur celuide la valorisation et de lamotivation des chercheurs.Par ces deux colloques2,regroupés sous le titre« Propriété scientifique etrecherche : des pistes pourl’avenir » l’Académie dessciences morales et poli-tiques et l’Académie dessciences poursuivent leurréflexion de fond pourcontribuer à construire« l’Europe de la connais-sance », souhaitée à l’ho-rizon 2010 �

Dans le domaine de larecherche fondamen-

tale, les chercheurs ne sevoient reconnaître aucundroit de propriété ou derécompense pécuniaire surles résultats ultérieurs deleurs découvertes : le Codede la propriété intellectuelle

exclut de toute brevetabilité« les découvertes, théoriesscientifiques et méthodesmathématiques ».N’est-il pas possible, aujour-d’hui, de relancer cette ques-tion, à l’heure où la compéti-tion économique mondiale sejoue sur le terrain de larecherche, d’une part, où laconnaissance des lois de lanature a débouché sur denouvelles technologies d’au-tre part? C’est l’objet dupremier colloque présenté ici:« La propriété scientifique:un droit sur les résultats de la

recherche fondamentale? »Par ailleurs, il est souventaffirmé par les experts quela France dépose de moinsen moins de brevets, preuvedu mauvais état de santé desa recherche. Le secondcolloque – « Entreprise derecherche et recherche dansl’entreprise » - avait pourobjet d’analyser et d’exper-tiser les spécificités desrégimes juridiques de l’acti-vité de recherche, pourtenter de cerner les causesde cet affaiblissement, quecelles-ci se situent sur le

J ean-François Bach a étéélu le 21 juin 2005 par ses

pairs, Secrétaire perpétuel del’Académie des sciences pourla division des sciences chi-miques, naturelles, biolo-giques et médicales et leursapplications. Il prendra

ses fonctions le 1er janvier2006, en remplacement deNicole Le Douarin.

Né le 8 juin 1940, Jean-Fran-çois Bach, Professeur d’Im-munologie à l’université RenéDescartes, dirige un labora-toire de recherche à l’hôpitalNecker. Médecin et chercheur,il a su remarquablementréussir la synthèse de cesdeux activités qui se sontmutuellement enrichies toutau long de sa carrière.Parmi ses contributionsmajeures à l’immunologie ont

notera la découverte de lathymuline, une hormone duthymus qui assure la matura-tion des lymphocytes T et lamise en évidence du rôle descellules T régulatrices dans lecontrôle de la reconnaissancedu soi. Passionné par laphysiopathologie des affec-tions auto-immunes, il a toutparticulièrement étudié lediabète insulino-dépendantavec l’ouverture d’approchesthérapeutiques innovantes.L’œuvre de Jean-FrançoisBach, marquée par unegrande originalité concep-

tuelle, fait de lui l’un desimmunologistes les plus envue dans la communautéinternationale.

Le biologiste a su garder uneouverture éclairée sur lesliens subtils et mouvants entreScience et Société. Il s’estnotamment impliqué dansl’organisation de la rechercheet de l'enseignement dessciences au collège. Signalonsenfin sa présence dans lecomité de rédaction de notre“Lettre” dont il est un des plusactifs animateurs �

1 Actes de colloque, Éditions Tec & Doc,14, rue de Provigny 94 236 CachanCEDEX, http : www.Lavoisier

2 Colloques organisés par l’Académiedes sciences et l’Académie dessciences morales et politiques les15 janvier 2002 et 14 janvier 2004 à laFondation de la Maison de la Chimie

Jean-François Bach, Secrétaire perpétuelde l’Académie des sciences

Académie n°16[1] 28/07/05 10:36 Page 20