100
ISSN 1157-4887 1000 AMS DE SCIENCES XI - XX« siècle Comment l'ordinateur T 2281-53-32,00 F-RD transforme les sciences Du monde réel au monde virtuel mm'. im m

XI — XXe si¨cle, comment l’ordinateur transforme les sciences

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ISSN 1157-4887

1000 AMS DE SCIENCES

XI - XX« siècle

Comment l'ordinateur

T2281-53-32,00 F-RD

transformeles sciences

Du monde réelau monde virtuel

mm'.

im

m

Page 2: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

CIENC

lEt

H 0 R SVS E R I E

mOS SEPTEMBRE 19^

mÊFW-

Chaque numéro deSCIENCE & VIE HORS SERIE

vous invite à entrer au cœur d'un

domaine de l'actualité scientifique avecune variété de photos et d'explications,

une diversité de schémas

et de développements.

HORS Vs É R I E

NUTRITIONLe rôle des gènes

VINLes bienfaits

d'une molécule

TENDANCEQu'est-ce qu'un

produit bio ?

M

Page 3: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

PUBLIÉ PAR EXCELSiOR PUBLICATIONS S.1, RUE DU COLONEL PIERRE AVIA, 75503 PARCÉDEX 15-Tél.; 0146484848EXCELSIOR PUBLICATIONS S.A.

CAPITAL SOCIAL : 10733500F- DURÉE 99ANSPRINCIPAUX ASSOCIÉS :YVELINE DUPUY, PAUL DUPUY.

DIRECTION ET ADMINISTRATION ;

PRÉSIDENT-DIREŒUR GÉNÉRAL :PAUL DUPUY;DIREQRICE GÉNÉRALE : YVELINE DUPUYDIREŒUR GÉNÉRAL :)EAN-PIERRE BEAUVALET;DIRECTEUR GÉNÉRAL ADjOINT : FRANÇOIS FAHYS;DIRECTEUR FINANCIER :JACQUES BÉHAR;DIRECTEUR COMMERCIAL PUBLICITÉ ;GILLESBECDELIÈVRE; DIREŒUR MARKETING ET COMMERCIAL :MARIE-HÉLÈNE ARBUS; DIRECTEURS MARKETING ETCOMMERCIAL ADJOINTS : CHANTAL CONTANT ETPATRICK-ALEXANDRE SARRADEIL;DIREŒUR DES ÉTUDES : ROGER GOLDBERGER;DIRECTEUR DE LA FABRICATION : PASCAL RÉMY.

COMITÉ DE RÉDACTION : ÉRIC BRIAN, PHILIPPECOUSIN, BRUNO LATOUR, CHRISTIAN LICOPPE,SIMON SCHAFFER, MICHEL SERRES, ISABELLE STENGERS.

CONSEILLER POUR CE NUMÉRO :NORTON WISE

RÉDACTION :JEAN-PIERRE ICIKOVICS (RÉDACTEUR•EN CHEF), ANNE LEFÈVRE, lAURE SCHALCHLI (RÉDACTRICES EN CHEF ADJOINTES), PATRICIA CHAIROPOULOS,ALICE ROLLAND, EMMANUEL MONNIER (RÉDACTEURS),NAJAT NEHME (SECRÉTAIRE DE RÉDAQION), ALINEHOUILLON (SECRÉTAIRE), SOPHIE DORMOY(ICONOGRAPHE), DENIS MALARTRE (MAQUEHISTE -CONCEPTION GRAPHIQUE), JEAN-LOUIS BOUSSANGE(MAQUETTISTE), MQNIQUE VQGT (SERVIGE LECTEURS).

SERVICES COMMERCIAUX :

RELATIQNS EXTÉRIEURES ; MICHÈLE HILLING ASSISTÉE DECHRYSTEL MORE; ABONNEMENTS : PATRICK SARRADEIL;COMMANDES D'ANCIENS NUMÉROS ET RELIURES :CHANTAL POIRIER-TEL : 0146484718; RELATIONSCLIENTÈLES ABONNÉS : PAR TÉLÉPHONE ; 0146484708OU47 n, PAR COURRIER : SERVICE DES ABONNEMENTS :1RUE DU COLONEL PIERRE AVIA, 75503 PARIS CÉDEX 15 ;CHEF DE PRODUIT MARKETING : CAPUCINE JAHANTEL. :01464847 30; VENTE AU NUMÉRO :CHANTAL CONTANT ASSISTÉE DE MARIE CRIBIER -Tél. :01464847 35; RÉASSORTS ET MODIFICATIONS :TERMINAL E91. Tél. VERT ;0800 43 42 08 (RÉSERVÉAUX DÉPOSITAIRES DE PRESSE).

PUBLICITÉ : DIRECTRICE COMMERCIALE PUBLICITÉ :ISABELLE FINKELSTEIN;DIRECTEUR DE PUBLICITÉ : DIDIER DERVILLETEL. : 01 46 24 16 66. FAX: 01 46 24 25 40.

EXCELSIOR-PUBLICITÉINTERDECO 23 RUE BAUDIN -BP 311 - 92303 LEVALLOIS CEDEX-

TÉL : 01 41.34.82.08. FAX :01.41.34.82.83.

TARIFS D'ABONNEMENTS SUR SIMPLE DEMANDE

TÉLÉPHONIQUE AU 0146484717.ÀL'ÉTRANGER :CANADA et U.S.A, PERIODiCA INC. CP444, Outremont,H2V 4R6- Québec - CANADA; SUISSE,NAVILLE CasePostale 1211,Genève1- SUISSE;EnBELGIQUE, PRESS- ABONNEMENTS Avenue desVolontaires 103 - BTE11 /121160 Bruxelles - BELGIQUE

DIRECTEUR DELA PUBLICATION : PAUL DUPUY - DÉPÔT LÉGAL :N° 84007 - PRODUIT D'ÉDITION ÀTVA RÉDUITE (5,5 %) INCLU5E DANSLE PRIX DE VENTE INDIQUÉ - PHOTOGRAVURE : FLASH IMAGE -IMPRESSION : IMPRIMERIE SEREGNI, MILAN - PRINTED IN ITALY.

.Lupr r

Éditorial

I

Que l'ordinateur ait changé notre vie quotidienne, lesmanières de gérer le travail et la société, c'est une banalité.

Chacun en a une expérience sensible.Que l'ordinateur - et ce qui l'accompagne : logiciels, traitementdes images, etc. - soit lui-même un objet de science, un objet derecherches tant théoriques que techniques, cela est déjà moinsfamilier, mais paraît normal. C'est autour d'un vaste ensemble denouvelles disciplines que s'est construite la science des ordinateurs : de l'informatique théorique à la théorie des langages, del'intelligence artificielle à la conception des systèmes experts,sans omettre des disciplines déjà existantes, remobilisées,comme la logique, la théorie du calcul ou la métamathématique.On est saisi de vertige devant les perspectives de l'ordinateurbiologique et du calcul biomoléculaire.Mais il est sans doute plus difficile d'imaginer, de l'extérieur, enquoi l'ordinateur a bouleversé le monde scientifique. Passeulement sur le mode des changements dans la vie de bureauou de la possibilité de traitement d'une très grande masse dedonnées; pas seulement comme un domaine scientifique supplémentaire. Non, plus intimement : dans les manières mêmes deconcevoir les objets des autres sciences, - les objets classiques,regardés et étudiés bien avant les ordinateurs -, dans lespratiques de la recherche scientifique, dans l'épistémoiogie et laméthodologie de la science.Deux grandes notions derrière ce bouleversement : celle demodèle et celle de simulation. La première ne date pas del'ordinateur. Mais en lui associant précisément la possibilitéd'effectuer des simulations, cet outil lui a conféré une telle

souplesse heuristique qu'il en a changé le caractère. Ainsi, enrenonçant à la vocation de représentation des phénomènes eten construisant des modèles volontairement très simplifiés, on apu explorer et comprendre les comportements chaotiques del'atmosphère. L'ordinateur a brouillé bien des catégories : théorique versus expérimental, réel versus virtuel... La simulation est-elle une expérience? Quelle fiabilité ont ses résultats? En mathématiques, un théorème est-il démontré quand la preuve a étéobtenue par ordinateur? L'ordinateur a transformé les sciencesd'observation comme l'astronomie, ou les sciences de nature

historique (géologie, théorie de l'évolution, etc.), en rendantpossible l'expérimentation. La production de scénario estrecherchée et la prédiction n'est pas hors de portée.Réalité virtuelle, vie artificielle... Nous devons identifier clairement cette mutation dans nos représentations de la nature et dela vie, pour tenter d'en mesurer les effets.

Amy Dahan Dalmedico

Page 4: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

uM

Éditorial

Uhistoire

Un demi-siècle d'ordinateursPar MichaeL S. MahoneyProfesseur d'histoire, université de Princeton, États-Unis

Princeton explore le nouveau calculPar MichaetS. Mahoney

Premières simulations :un modèle de réussitePar Peter GaLUonProfesseur de physique et d'histoire des sciences. Université Harvard, États-Unis

Chaos et complexité

1

14

22

Un monde moins stable qu'il n'y paraît 32Par Aniy Dahan DaLmedœoDirecteur de recherche au CNRS (UMR 8560), Centre Aiexandre Koyré, Paris

Théorie du chaos : l'ordinateur en prime 40Par David AubinChercheur au centre de recherche en histoire des sciences et techniques.Cité des sciences et de l'industrie (La Viiiette), Paris

En 1951, estcommercialisé

le premierordinateur à

programme

intégré,rUNIVAC 1.

Page 5: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Les cerveaux de Santa FePar Mike SiniinonjVice-président émérite des Affaires universitaires, institut de Santa Fe, États-Unis

48

Nouvelles méthodes

Les nouveaux chirurgiens 52Par T'unothy LenoirProfesseur d'histoire et de philosophie des sciences, université de Stanford, États-Unis

L'Univers en numérique 60Par Jean-Marc Bonnet-BidaLidAstrophysicien, Commissariat à l'énergie atomique (CEA), Saclay

Nouveaux champsVirtuellement Dieu 70Par Stefan HelnireichMaître assistant en sociologiedes sciences, université de New York, États-Unis

Nouveau regard sur le muscle 78Par Conatantine KreataoulajUniversité de Princeton, États-Unis

Uno LindbergProfesseur au département de zoologie, université de Stockholm, Suède

et CLarence E. SchuttProfesseur de chimie, université de Princeton, États-Unis

L'ordinateur biologique, pour demain ? 88Par Laura F. LanJveherMaître assistant au département d'écologie et de biologie de l'évolution,université de Princeton, États-Unis

et Lila KariMaître assistant au département de science Informatique, université de l'Ontario occidental,London, Canada

Des nuages ou des horloges 94Par Amy Dahan Dalniedico

nmSCtEIMCE

^ VMMCHEZ VOU

Votre bulletind'abonnement setrouve en page 4.Vous pouvez aussivous abonner sur

Internetwww.abomag.com,

par téléphoneau 01 46 48 47 17ou sur Minitel en

tapant 3615 ABON(1,29 F/min)

RECTIFICATIF

Dans notre dernier

numéro, p. 37, ce n'est pasArthur Holly Compton,mais Paul Dirac, quifigure au centre de laphotographie.

PHOTO DE COUVERTURE :

). KING-HOLMES- SPL - COSMOS ;A. PASIEKA - SPL - COSMOS ;T. DAVIS - COSMOS

Page 6: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

1000 ANS DE SCIENCES

V i XVili^^îèdeLa Granclè Encyclopédie

33 volantes pour consignertous les savoirs

r-i iail

VOTRE CADEAU

Cette superbe reliureaulogo des Cahiers de Science &Vie

vous permettra de classer vos magazines. 1

Abonnez-vous aux

CAHIERS DESCIENCE & VIE

et découvrezl'histoire des sciences

àcompléter età retourner avec votre règlement à l'ordre des CAHIERS DE SCIENCE &VIE sous enveloppe affranchie à ;Service Abonnement - 1. rue du Colonel Pierre Avia 75503 Paris cedex 15.

OUIJe m'abonne aux CAHIERS DE SCIENCE & VIEet je choisis la formule suivante :

Cochez lescasesde votre choix

• 1 AN - 6 NUMEROS pour 149 francs au lieu de 192 francs*soit 43 francs d'économie

et recevez en cadeau la reliure des Cahiers de Science & Vie**

Nom I I I I I I I I I I ^^ I I I 1 I I

Prénom I I I 1 I 1 1 1 I ^^ I I I 1 ^ I

Adresse I I I

ICode postal | [_

I ^^^ L

J ^^ L

J ^ L

J ^ L

J Ville I

_J ^ L

_L J ^^^^ I I

J ^^^^

I I ^ I ^^^ I

• Te choisis de régler par :O chèque bancaire ou postal à l'ordre desCAHIERS DE SCIENCE &VIE• carte bancaire

I I I I I I I 1 I I I

i fin I I jiDate et signature obligatoires

Offre valable jusqu'à fin 1999 pour un premier abonnement livré enFrance métropolitaineîonner par téléphoneau 01 464847 17 (') Prix de vente normal dwz votre marchand de journauxVous pouvez aussi vous abonner par téléphone é

'Prévoir un délai de réception de 4 à 6 semaines et dans la limite des stocks disponibles.

En application de l'article L27delaloi du6/01/1978, lesinformations ci-dessus sont indispensables au traitement devotre commandeet sontexclusivement communiquées au destinataire latraitant. Elles peuvent donnerlieu à l'exercice du droitd'accès et de rectification auprès d'Exceisior. Vous pouvez vous opposer àceque vos nom etadresse soient communiqués ultérieurement. CSV 53

Page 7: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

1i

a onça en tempd de guerre pour répondre amc^ bedoLn^immédiatri de Uarmée^ Le premier caLeuiateur électroniquefaitdon apparition en 1945, ÀPrinceton^ on a tôtfait dejuger dedon utilitépour la recherche dcientifique. Mieux : on doit en

luif outre un outih an véritable objet d^étude,,,

Page 8: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

il ne s'agit pas, ici, d'établir uneliste complète desévénements, ni même de

souligner quels furent les

premiers. Cette chronologie viseplutôt à présenter quelques-unesdes étapes qui ont marquél'application des concepts

informatiques et de calcul à larecherche scientifique.

Années 40Le calculateur électroniquenumérique fait son apparition en1945. Comme d'autres projetsconçus en temps de guerre, il apour objectif la production decalculs numériques ultra-rapides,tant pour répondre aux besoins •immédiats de l'armée (tables de

tir) qu'à ceux de la recherche(bombe atomique). La guerrefinie, on ne sait pasimmédiatement quelle forme ildoit prendre, ni à quel usage ilsera ou pourra être destiné. Alors

que le gouvernement se met àinstitutionnaliser de nouveaux

types de recherche, financés au

niveau fédéral, le calculateur est

bientôt intégré au programmescientifique, à la fois comme outilet comme objet d'étude. En dépitd'un travail soutenu sur les

dispositifs analogiques et àrelais, la machine électroniquenumérique et à programmemémorisé, telle qu'elle estdessinée par John von Neumann

et par les concepteurs de l'ENIAC

en 1945, devient

progressivement la norme.

Des énormes calculateurs au portable, l'ordinateurn'a cessé de perdre en volume tout en gagnant enpuissance. Entre-temps, il a conquis, l'un aprèsl'autre, les bastions de la recherche scientifique.

parMLchael S. Mahoney

Page 9: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

1943-1945 :

Développement de l'ENIAC(Electronic Numerical Integratorand Computer) au Collège Mooredu génie électrique, à l'universitéde Pennsylvanie. Il est inauguréle 14 février 1946.

1944 : Le Mark I, un

calculateur à relais conçu parHoward Aïken, est mis en service

à l'Université Harvard. Ses

versions ultérieures seront la

base du premier programme decalcul et de science informatique.

1944 : Publication de la

Théorie des jeux et

comportement économique parJohn von Neumann et Oskar

Morgenstern.1945 : Le Projet de rapport

sur TEDVAC de John von

Neumann, s'appuie sur sacollaboration avec John

Mauchly, J. Presper Eckert etHerman Goldstine.

1946 : Conférences sur le

thème « Théorie et techniquespour la conception d'ordinateursélectroniques numériques »tenues au collège Moore.

1947 : John von Neumann et

Stanislaw Ulam font part d'unenouvelle approche stochastiquepour résoudre les équations

différentielles avec le calculateur.

Elle sera, plus tard, baptisée« méthode Monte Carlo ».

1947 : Le transistor est

inventé dans les laboratoires des

téléphones Bell.1947 : Congrès d'Harvard

sur les machines de calcul

numérique à grande échelle.1947-1948 : John von

Neumann et Herman Goldstine

font le compte rendu Élaborationet codage des problèmes pour uninstrument électronique de calcul

1948 : Parution de La théorie

mathématique de la

Mark I :3 000 relaisEn 1944, le Mark I d'Aïken entre àl'Université Harvard. Le programmede ce calculateur est stocké sur une

bande de papier perforé.

I

La conquêtedu marchéLe premier UNIVAC (Universel Auto-matic Computer) est commercialisédès 1951. Pour recevoir les

instructions, les bandes magnétiquesont déjà remplacé les cartesperforées. (Photo prise vers 1960.)

communication de Claude

Shannon.

1948 : Cybernétique, deNorbert Wiener.

1949 : L'EDSAC, conçu parMaurice Wilkes, est mis en

service à l'université de

Cambridge. Suivront bientôt des

calculateurs britanniques àl'université de Manchester et au

Laboratoire national de

physique.

Années 50Au début de la décennie,

l'ordinateur sort du laboratoire

pour être commercialisé :

Remington-Rand lance l'UNIVAC,et IBM le 701. Les scientifiquesconcentrent leur attention sur les

nouvelles techniques de calculnumérique. Ils s'attachent aussi àfaciliter la programmation,

rendant l'appareil directementaccessible à ses utilisateurs. En

dépit de l'état primitif de latechnologie, les chercheurs

Page 10: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

n 4l«mi-siècle d*ordinateurs

i

Plus convivialÀ la fin des années 50, l'appareil estdéjà directement accessible à sesutilisateurs. Le transistor remplace lestubes à vide : l'ordinateur voit sa taille

diminuer considérablement alors qu'ilgagne en vitesse et en fiabilité.

commencent à s'intéresser à

l'intelligence de la machine.1950 : Alan Turing publie

Ordinateurs et intelligence, etpropose son « test de Turing »pour évaluer l'intelligence de lamachine.

1951 : La Société pour les

mathématiques industrielles etappliquées (SIAM) s'établit àPhiladelphie.

1951 : Parution de La

préparation des programmespour un ordinateur électroniquenumérique par Maurice Wilkes,David J. Wheeler et Stanley Gili.

1951 : John von Neumann

publie La théorie générale et

8

logique des automates.1951 : J.M. Bennett et J.C.

Kendrew utilisent l'EDSAC pourdéterminer la structure des

protéines (en 1956, RobertLangridge utilisera l'IBM 650pour analyser la structure del'ADN ; les ordinateurs joueront,plus tard,un rôle central dans lacristallographie aux rayons X).

1956 : John Me Carthy,Marvin Minsky, Claude Shannonet Nathaniel Rochester dirigent

un congrès d'été surl'Intelligence artificielle aucollège Dartmouth, où HerbertSimon et Allen Newell

présentent leur tout nouveauThéoricien de la logique.

IBM universitaireL'IBM 650 est le premier ordinateurcommercial en série de la marque. En1956, Robert Langridge l'utilise pouranalyser la structure de l'ADN.

Page 11: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ai

La première puceEn 1958, Jack Kilby invente le circuitintégré ; un système qui vapermettre de réunir plusieurscomposants électriques sur un petitdisque de silicium. La miniaturisationest en marche.

1957 : Une équipe d'IBM,dirigée par John Backus, crée leFORTRAN : les scientifiques etles ingénieurs peuventdésormais traduire des

7—7-r-rrn

expressions mathématiques enprogrammes informatiques.

1958 : Chez Texas

Instruments, Jack Kilby inventele circuit intégré.

1959 : John Me Carthy créele LISP, un langage deprogrammation destiné àl'intelligence artificielle, etesquisse une théorie de calculbasée sur la sémantiqueformelle.

m

1959 : Sur certaines

propriétés formelles des

grammaires, de Noam Chomsky,marque les débuts de la théoriedes automates et des langages

formels.

Les systèmes à unité centraledominent l'industrie

informatique, et IBM renforce saposition avec son système 360 demachines compatibles entreelles. Mais au cours de la

décennie, alors que les

transistors métalliques sontremplacés par des circuitsintégrés de capacité croissante,les mini-ordinateurs

commencent à apparaître : laDigital Equipment Corporationlance sa gamme PDP. D'un autrecôté, le temps partagé, proposépour la première fois en 1959,devient réalité. En 1970, des

laboratoires particuliers peuventavoir leurs propres ordinateurs,partagés par plusieurs de leursmembres : ils travaillent sur des

terminaux dotés d'une entrée

clavier et d'une sortie vidéo.

1960 : JCR Licklider,

Symbiose Homme-ordinateur.1961 : Marvin Minsky, Les

premiers pas de l'intelligenceartificielle.

Page 12: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

lin demi-siècle d*erdina

1962 : Licklider prend ladirection du tout nouvel Office

des techniques de traitement del'information (IPTO), à l'Agence

des projets de recherchesupérieure de défense (DARPA).Celle-ci finance des recherches

sur l'infographie, le tempspartagé, le réseau, et

l'intelligence artificielle, dans lebut d'améliorer la commande et

le contrôle.

1962 : Au MIT, le LINC

(ordinateur d'instrumentation de

laboratoire) inaugure letraitement des données en temps

réel dans le laboratoire.

1963 : Le projet MACdémarre au MIT, avec des

recherches centrées sur

l'infographie, la conceptionassistée par ordinateur, le tempspartagé et l'intelligenceartificielle.

La troisièmegénérationL'IBM 360, lancé en 1964, introduit leconcept de compatibilité entreordinateurs de même marque. Leslaboratoires particuliers sedotent de leurs propresordinateurs.

Monsieur « I.A. »L'ordinateur peut-il mimer le rai

sonnement humain ? L'intelli

gence artificielle, développéedans les années 60, compteparmi ses plus brillants spécialistes l'Américain Marvin

Minsky, récompensé ici par leprix du Japon (avril 1990).

1963 : Au MIT, le

système SKETCHPAD,d'Ivan Sutherland, inaugure

l'infographie interactive.1964 : John Kemeny et

Tom Kurtz développent leBASIC à Dartmouth.

Page 13: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

1965 :J.W. Cooleyet J.W.

Tukey publient leur « algorithmepour le calcul par machine des

séries complexes de Fourier » ouTransformation Rapide de

Fourier.

1965 : Le projet DENDRALdémarre. C'est l'un des premierssystèmes experts consacré àl'analyse de la structuremoléculaire; d'autres systèmessuivent, par exemple, pour lediagnostic des maladiesinfectieuses (MYCIN, 1972),

l'étude d'expériences en biologiemoléculaire (MOLGEN, 1975),

l'analyse structurale, etl'heuristique scientifique(EURISKO, 1978).

1968 : Aristide Lindenmayerapplique les langages

formels aux modèles de

croissance dans « Modèles

mathématiques des interactions

cellulaires du développement ».1969 : ARPANET, le début

d'Internet.

1969 : Dans le domaine de

l'intelligence artificielle, lePerceptrons de Marvin Minskydétourne la recherche sur les

réseaux neuronaux au profit du

raisonnement symbolique.1969 : Aux laboratoires Bell,

Ken Thompson et Dennis Ritchie

créent l'Unix.

Années 70Les mini-ordinateurs, de capacitécroissante et connectés à des

dispositifs graphiques de sortie,fournissent une informatiqueinteractive peu onéreuse auxscientifiques et ingénieurs. Grâceà l'amélioration du matériel

vidéo, la modélisation graphiquede la géométrie fractale, la

m

m

théorie du chaos, et les

automates tellulaires sont autant

de nouvelles approchesd'analyse numérique dessystèmes non linéaires. Vers lafin de la décennie, les micro

ordinateurs font leur apparition.Ils sont rapidement comparablesaux mini-ordinateurs en termes

de vitesse et de capacité.1970 : L'écran LDS-1 de

Evans et Sutherland rend

possible la modélisationinteractive en trois dimensions et

l'ingénierie sur les structures desprotéines (ce sur quoi reposera la

NouvellesturbulencesDès les années 70, l'apparition depuissantes machines permet unenouvelle approche des systèmes nonlinéaires. (Modélisation graphiqued'une géométrie fractale.)

II

Page 14: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L'imagerienumériqueLes nouvelles techniques d'imagerie,comme la tomographie assistée parordinateur et la visualisation 3D,développées dans les années 70,trouvent très vite des applicationsen médecine.

conception des médicarrientsdans les années 1980).

1970 : Le « Jeu de la vie » de

John H. Conway est vulgarisé parMartin Gardner dans le Scientific

Américain.

1970 : Essais sur les

automates cellulaires,

par Arthur Burks et al.

1971-1973 :

Développement de latomographie assistée par

ordinateur.

1975 : Les institutions

d'enseignement peuvent utilisergratuitement le système Unix,d'où son adoption rapide

dans la plupart des départements

12

de science informatique.1975 : Les objets fractals :

forme, hasard et dimension parBenoît Mandelbrot. Il sera réédité

en 1977, sous le titre Fractals :

form, chance, and dimension, et

en 1982 sous celui de The Fractal

Geometry of Nature (exceptionfaite de

quelquesarticles, c'est la

premièreapparition

publique de lagéométrie

fractale). Les

recherches

ultérieures

LesSuperEn 1976, estcommercialisé le

premier de lalignée des Cray,dévolus aux groscalculs.

révèlent le lien entre les fractales

et la théorie du chaos (« la

géométrie fractale est lagéométrie du chaos » deJurgens, Peitgen, Saupe,Scientific American

8/90, 60).

1975 : John Holland,

L'adaptation dans les systèmes

naturels et artificiels.

1975 : René Thom, Stabilité

structurelle et morphogenèse(théorie des catastrophes).

1976 : Les « Modèles

mathématiques simples dedynamique complexe » deRobert M. May, (Nature 261,459-67) introduisent le chaos dans la

biologie des populations.

1976: CRAY-1

1976: Apple II1977 : La preuve, par

ordinateur, du théorème à quatre

couleurs, par K. Appel, H. Hakenet J. Koch, ouvre le débat sur le

rôle des ordinateurs en

mathématiques.

Années 8 3Au début de la décennie,

l'intégration à grande échelle de

circuits fonctionnant en parallèleaméliore nettement l'infographieet la puissance de calcul. Le

i

Page 15: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

•' •

j,

L'ère virtuellePar ses nombreuses applications,simulation, télérobotique, téléopération..., l'image de synthèse sevoit ouvrir tous les domaines de la

recherche.

domaine de la complexité

s'ouvre ainsi à l'étude parordinateur. La modélisation des

systèmes fractals complexes deMandelbrot devient la base de la

modélisation graphique dessystèmes chaotiques.

1982 : Le Time magazine faitde l'ordinateur particulier

l'« appareil de l'année ».

1983 : L'appareil de

connexion de W. Daniel Hillis

vise un calcul en parallèleutilisant 64 000 processeurs.

1984 : Automates

cellulaires : Comptes rendus d'uncongrès international marque laréapparition des automatescellulaires comme moyens demodéliser la solution de

systèmes non linéaires. Le sujetgagne aussi un nouvel élan d'une

série d'articles fondamentaux de

Stephen Wolfram {Théorie etapplications des automatescellulaires, 1986).

1984 : L'institut de Santa Fe

est créé. Il est destiné à explorerles « sciences de la complexité »au moyen du calcul.

1986 : Un Centre national

pour les applications des

supercalculateurs (NCSA) est misen place par la Fondationnationale pour la science afind'obtenir des logiciels de calcul,

de visualisation et de bureau

ultra-performants. En sortira,entre autres, le Mosaïc,

prototype des navigateurs du

web.

1987 : Premier congrèsinternational sur la vie artificielle.

1988 : Le Mathematica de

Stephen Wolfram prolonge ledéveloppement des logiciels demathématique symbolique, quiremonte à la fin des années 50, et

au début des années 60

(FORMAC, MACSYMA).

1989 : La réalité virtuelle fait

ses débuts.

Alors que la vitesse et la capacitédes ordinateurs continuent

d'augmenter de façonexponentielle, la puissance decalcul est encore multipliée par

les réseaux à haut débit. Ceux-ci

rendent possible la distributiondes calculs sur plusieurs

machines. Chaque chercheur

peut disposer d'un portable oud'un ordinateur doté de la même

puissance que les unitéscentrales des années 70. D'abord

créés dans le but d'échanger desdonnées scientifiques, l'HTTP(Hypertext Transport Protocol) etl'URL (Uniform Resource

Locator) de Tim Berners-Lee

(CERN) aboutissent à l'explosion

du World-Wide Web. Le Web

deviendra vite le principalvéhicule de la communication

scientifique. •

13

Page 16: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Princetonexplore

le nouveau calculDans les années 1950, Princeton passe du statut

d'école d'arts libéraux à celui d'université de

recherche. La faculté de science et d'ingénierie, qui s'en était séparée durant la guerre, et disposedéjà d'importantes ressources, s'empresse alors deréintégrer Princeton afin d'y poursuivre ses recherches. Convaincu de la valeur d'une infrastructu

re scientifique, le gouvernement fédéral se montretout aussi impatient de lui octroyer de nouvelles subventions. En quinze ans, Princeton va ainsi entrerdans la Big Science. Elle sera bientôt équipée d'unaccélérateur, d'un laboratoire de propulsion parréaction, d'un réacteur à fusion et des professionnelsassurant leur fonctionnement.

Dès les années 50, l'université de

Princeton entre dans la science

informatique. D'une manière

complexe et indirecte. Deux

facteurs l'y ont conduite : son

ouverture aux nouvelles

mathématiques et la

présence, en son sein, d'un

certain von Neumann.

-f-".

par MichaeLS. Mahoney

. M

Page 17: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

reaux de recherche militaire et le Commissariat à

l'énergie atomique incluent le financement généreuxde la faculté et de ses assistants. Princeton n'est certes

pas seule à bénéficier du nouveau prestige imparti à lascience et du budget qui l'accompagne; son exemplefait des émules à travers tout le pays. Mais elle dispose d'un atout particulier. Tout comme l'Institute forAdvanced Studies (lAS), auquel elle est, en pratiqueseulement, étroitement liée, Princeton jouit en effetd'une tradition d'excellence dans les sciences mathé

matiques. En outre, elle est l'une des premières institutions à se doter d'un ordinateur. Et elle est la seule

à compter John von Neumann dans ses rangs.

4

Lieu d'excellenceL'une des premières à se doter d'unordinateur, l'université de Princeton

développe, autour de cet outil, denouveaux champs de recherche :problèmes non

linéaires, théorie

0|A des jeux

L'ordinateur de PrincetonAprès la Seconde Guerre mondiale, von Neu

mann revient à Princeton avec, en tête, un certain

nombre de nouveaux projets. Dont celui de construire un ordinateur (i'. Il convainc l'IAS de rejoindre leprojet commun du Laboratoire Sarnoff (RCA) et del'université de Princeton. L'objectif : transformer sesplans en une machine opérationnelle. Celle-ci constituerait alors la base de la recherche sur les capacitésscientifiques du calcul numérique ultra-rapide, en particulier dans le domaine de la météorologie. L'armée,la marine, puis, plus tai'd, le Commissariat à l'énergieatomique, vont, eux aussi, financer le projet

Proposé dès 1945, l'ordinateur de ITAS n'estachevé que six ans plus tard. Entre-temps cependant,

I - De sa brève collaboration avecJohn Mauchly et John Presper Eckert, créateurs de l'ENlAC à runiversité de Pennsylvanie, est né le célèbre « Projet derapport sur l'EDVAC », dans lequelvon Neumann établissaitl'architecture fon

damentale qui, depuis, porte son^ nom. VoirLes Cahiers deScience et Vie

i ^ n° 36, décembre 1996.2 - Pour en savoir plus,voir William

Aspray,John von Neumann and îheOrigins ofModem Computing,

Cambridge, MITPress, 1990.

Page 18: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Princeton explore le nouveau calcul

il aura été copié par les universités et les laboratoiresdu monde entier, y compris l'Académie des sciencesde Moscou. Bien que les premiers calculs soient effectués pour le compte des laboratoires de Los Ala-mos, von Neumann destine davantage sa machine àdes expériences de calcul pur qu'à l'informatique deproduction. Convaincu que « les problèmes hydrodynamiques constituent l'archétype de ce qui impliquedes équations différentielles partielles non linéaires »,il se concentre d'abord sur la météorologie numérique, d'un intérêt évident pour ses partenaires militaires. Mais il ne se limite pas à cette seule question.Bientôt, il fait de l'ordinateur l'outil des chercheursdans les domaines des méthodes numériques, des statistiques, de la simulation du trafic et même, de l'histoire de l'astronomie.

Eugene Wigner, son ami et collègue à Princeton- Prix Nobel en 1963 - utilise ainsi l'ordinateur de

l'IAS pour des études statistiques sur les fonctions ondulatoires des systèmes de mécanique quantique. Al'observatoire de l'université, Martin Schwarz-schild recourt, lui, à des modèles numériques pour explorer l'intérieurdes étoiles. Dans les deux cas, ils'agit de problèmes pour lesquels on ne connaît aucune solution analytique.Pour von Neumann,ces travaux ont donc

valeur de tests : ils

permettront de jugerde l'utilité de l'ordi

nateur dans la re

cherche scienti

fique. Grâce à cenouvel outil, les as-trophysiciens dePrinceton vont ain

si modéliser des

phénomènes auxquels l'expériencedirecte ne permetpas d'accéder. Entref956 et 1959, cesétudes représenterontla moitié des travaux ef

fectués sur l'ordi

nateur de

l'IAS.

En dépit de cet avantage, ni l'Institut ni l'université ne devient, en soi, centre de recherche en informatique. Dans les deux établissements, on considèrel'emploi de l'ordinateur comme un outil de la scienceet non comme un objet d'étude en lui-même.D'ailleurs, Princeton ne concevra et ne construira plusd'ordinateurs. Lorsque celui de l'IAS sera abandonnéà la fin des années 50, elle chargera IBM de lui fournirun nouveau système, destiné à soutenir le travail deses scientifiques et ingénieurs. Néanmoins, partoutailleurs, la science informatique tire ses nouvellesorientations de ses contacts avec l'université de la côte

Est. Nombre de ceux qui ont fait de l'ordinateur uninstrument et un objet d'étude scientifiques y ont étudié ou enseigné dans les années 50. Et tous se souviendront de l'inspiration et du soutien qu'ils y onttrouvés.

Parmi les nouveaux champs de recherche qu'explore von Neumann dans la décennie suivant la guerre, trois ont un intérêt particulier pour l'informatiqueet Princeton : le calcul de problèmes non linéaires, la

théorie des jeux et la théorie des automates. Le premier s'intègre, entre

autres, dans le projet de météorologie. Le deuxième remonte à un

article pionnier, publié en 1928.Mais il languira jusqu'en

1940, date à laquelle lescontacts de von Neu

mann avec Oskar Mor-

genstern, au départementd'économie de Princeton,l'inciteront à appliquer lathéorie des jeux à l'éco

nomie. De leur colla

boration, naît Théorie des Jeux et

L'apôtre del'ordinateur

Pour John von Neumann,

les premières étudesstatistiques sur des

systèmes de mécaniquequantique, réalisées à l'aide del'ordinateur par son ami EugèneWigner, ont valeur de tests : elles

permettront de juger del'utilité de l'ordinateur

pour la recherchescientifique.

-s

iiigiï'ï

Page 19: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Comportement économique (Princeton, 1944), unclassique aujourd'hui. A sa sortie, cependant, les économistes, dans leur ensemble, manifestent peu d'intérêt pour l'ouvrage. En revanche, nombre de facultéset d'étudiants diplômés des départements de mathématiques entreprennent, à la fin des années 40, d'explorer la relation de cette théorie avec les programmations linéaires et non linéaires. Ce faisant, ils vontconférer sa forme définitive à ce nouveau domaine

Nouvelles orientationsen mathématiques

Dans les années 1950, le département demathématiques de Princeton se distingue surtout parson ouverture d'esprit. Toute nouvelle direction estbonne à exploiter : le champ des mathématiques lui-même, ses applications à de nouveaux

domaines, et, bien sûr,les mathématiquesappliquées en général.Symboles de cette ouverture, les deux présidents du département durant cette

période : SolomonLefschetz et son étu

diant et successeur,Albert W. Tucker.

Topologues à leurdébut de carrière, tousdeux s'engagent désormais dans de nou

velles voies.

En 1946, Lefschetz se lance dans

un projet à long terme, financé par le Bureau de la recherche

navale (BRN), traitant des équations différentielles non linéaires - enparticulier, des oscillations non linéaires - de la théorie des opérateurs et des problèmes combinatoiresen logistique. Quelques années plus tard, Tucker entame le Projet de logistique de Princeton, placé, là encore, sous le parrainage du BRN. Celui-ci porte sur lagéométrie et les calculs de solutions de jeux à 2 ou npersonnes, la théorie des réseaux et les variations etperturbations des méthodes de « programmation linéaire ». Menés en étroite collaboration, les deux projets font émerger une variété de champs mathématiques consacrant une nouvelle manière d'aborder dessystèmes non linéaires. Si le département maintient sacompétence dans les domaines de l'analyse et de la to-pologie, il est donc, aussi, vivement encouragé à explorer ceux des systèmes dynamiques, de la programmation mathématique, de la théorie de la décision etdu calcul pur

Son ouverture aux nouvelles idées rend la com

munauté mathématique de Princeton particulière-

ment attrayante. Arrivé à Princeton en 1949 pour yétudier la théorie des jeux, Martin Shubik, l'une despremières figures de l'économie expérimentale sur ordinateur, ne trouve ainsi que peu d'intérêt au département d'économie lui-même. Celui des mathéma

tiques devient donc son domicile intellectuel.« L'attitude générale autour de Fine Hall [le département], racontera-t-il, voulait que personne ne se soucieréellement de qui vous étiez et du domaine des mathématiques sur lequel vous travailliez, à partir du moment où vous pouviez trouver un ancien membre dela faculté et lui prouver que ce que vous faisiez étaitintéressant et que vous le faisiez bien... Ce qui m'a leplus frappé, à l'époque, n'est pas que le départementdes mathématiques ait accueilli la théorie des jeux àbras ouverts, mais qu'il ait été réceptifaux nouveaux ta

lents et idées venus de

toute part, et qu'il aitsu communiquer lesens du défi et laconviction qu'il seproduisait quelquechose d'inédit, et quivalait le coup ».

Le mémoire de

Marvin Minsky, en1954, constitue sansdoute l'illustration la

plus radicale de cetteattitude. Intitulé

« Théorie des systèmes de renforce

ment neuro-analo

gique », il signe eneffet les premiers pasde Minsky dans cequi allait devenirl'intelligence artificielle. L'auteur

s'aventure là où les

mathématiciens ne sont jamais allés. « Pour ma part,se souviendra Tucker, son conseiller, yesentais qu'ilétait plus utile au monde de le voir développer cesidées, qui étaient totalement originales, que de s'atteler,par exemple, à de la topologie, ce qu 'il aurait très bienpu faire ».

Deux ans plus tard, Minsky fait équipe avec JohnMcCarthy, autre thésard de Princeton, Claude Shan-non, des Laboratoires Bell, et Nathaniel Rochester,d'IBM. Ensemble, ils proposent la tenue d'une université d'été, à Dartmouth, sur un sujet qu'il nomme« l'intelligence artificielle ». McCarthy, auteur d'unmémoire sur les équations différentielles - sous la direction de Lefschetz - et partenaire actif des théoriciens des jeux, s'intéresse ensuite au raisonnementformel sur ordinateur. Afin de rallier de nouveaux

3 - En 1994,John Nash a obtenu le prix Nobel d'économie pour les travauxeffectuésà l'époque.4 - Laplupart de ceux qui rejoindront la Rand Corporation pour y poursuivreleurs travaux, continueront de travailler en collaboration avec les groupes dePrinceton.

Objet d'espionnageProposé en 1945, l'ordinateur de l'Institute for Advanced Studies(Ici en arrière plan derrière les responsables de son développement) ne sera achevé qu'en 1951. Entre-temps, il aura été copié parles universités du monde entier, y compris de Moscou.

Pour vous abonner : 01 46 48 47 17 /7

Page 20: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Princeton explore le nouveau calcul

soutiens dans le domaine, il édite, avec Shannon,Études des automates, soutenu en partie par le Projetde logistique et publié dans les Annales des études mathématiques de Princeton. Si les contributions à l'ouvrage ne prennent pas les directions souhaitées parMcCarthy, il n'empêche qu'elles vont poser les basesde la théorie du calcul. Mais, une fois encore, le mérite en revient à von Neumann.

L'ordinateur change de statutEn concevant l'ordinateur de l'IAS, von Neu

mann part d'une vision globale, qui excède largementles possibilités techniques habituelles. De la fin desannées 1940 à sa mort en 1957, il étudie les conditions dans lesquelles les ordinateurs pourraient détecter et corriger leurs propres défauts, se reproduire, etmême évoluer vers des formes encore plus complexes.L'organisme vivant et en particulier, le cerveau humain, incarnent, bien sûr, les modèles à suivre. Selonvon Neumann, les ordinateurs se reproduisent eux-mêmes, à l'identique, en piochant dans un océand'éléments physiques.

Pour son ami Stanislaw Ulam, le modèle est plutôt celui d'un automate cellulaire, regroupant un ensemble multidimensionnel de machines finies, qui,chacune, évolue en fonction des changements d'étatde ses voisines immédiates. Si, au cours des deux décennies suivantes, l'université du Michigan devient lesiège de la recherche dans ce domaine, le débat qu'engage von Neumann sur « le développement des automates » concentre à nouveau l'attention sur les auto

mates finis. Et, là, les mathématiciens de Princetonont des choses fondamentales à dire.

Dès le départ, von Neumann se fait l'apôtre del'ordinateur. D'une part, dit-il, celui-ci répond aux besoins de la science mathématique traditionnelle enmatière de calcul, et fournit de nouveaux outils pourmanipuler des systèmes mathématiques jusqu'alorspeu maîtrisables. D'autre part, il ouvre de nouveauxchamps d'investigation, que l'on croyait inaccessiblesaux mathématiques, tels que la croissance des organismes et le fonctionnement de l'esprit humain. Fortde ces attributs, l'ordinateur pourrait donc devenir lemodèle de ces systèmes ; un modèle dont la compréhension nécessiterait d'abord une théorie appropriéede l'ordinateur lui-même. Or, il s'agit là d'un territoire totalement inexploré dans lequel von Neumann sesent lui-même perdu. « Nous sommes très loin, affir-me-t-il, de posséder une théorie des automates digne dece nom, c'est-à-dire une théorie de logique nmthéma-tique au sens propre ».

A quoi ressemblerait cette théorie ? Au premierabord, elle semble entraîner les mathématiques sur unterrain étranger et escarpé. Selon von Neumann, « ilexiste aujourd'hui un système très élaboré de logiqueformelle, et plus spécialement, de logique adaptée auxmathématiques. C'est une discipline qui présente denombreux bons côtés, mais aussi de sérieuses faiblesses.Je ne m'étendrai pas, ici, sur les bons côtés, que je n'aipas, non plus, l'intention de dénigrer. En revanche, voi

\B

ci ce que l'on peut dire des insuffisances : quiconque atravaillé en logique formelle sait qu'elle représentel'une des parties des mathématiques techniquement lesplus réfractaires. Pourquoi ? Parce qu 'elle traite desconcepts inflexibles du tout ou rien et n'a guère decontact avec le concept continu du nombre réel oucomplexe, c'est-à-dire avec l'analyse mathématique. Etpourtant, techniquement, l'analyse constitue la partie laplus florissante et la plusélaborée. Aussi, de par lanature de son approche,la logique formelle setrouve-t-elle coupée des

UnlangagefécondEn permettant de modéliserla manière dont les

molécules Interagissent pourformer de plus grandesstructures, le lambda-calcul est àl'origine des concepts, aujourd'huitrès en vogue, d'émergence, d'auto-organisationet de complexité.

parties les plus élaborées des mathématiques etcontrainte de s'enfoncer dans l'une des plus difficiles dece domaine, l'analyse combinatoire. La théorie desautomates, de type numérique, toutou rien, telle qu'ellea été abordée jusqu'ici, est une composante de la logique formelle. D'un point de vue mathématique, elledevra donc être combinatoire plutôt qu'analytique ».Mais von Neumann ne donne aucun détail sur la na

ture de cette mathématique combinatoire. Pas plusqu'il ne suggère de quel domaine de la recherche mathématique habituelle elle devrait être tirée.

Nous l'avons vu, le département des mathématiques de Princeton tente d'établir de nouvelles relations entre l'analyse et l'analyse combinatoire. Alon-zo Church fait alors de ces recherches le cheval de

bataille de la logique mathématique. Une disciplinedans laquelle vont s'illustrer deux générations d'étu-

Pour vous abonner : 01 46 48 47 17

Page 21: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

diants, appelés à bâtir la théorie mathématique à laquelle von Neumann aspire. Michael Rabin et DanaScott, étudiants et employés d'IBM durant l'été 1957,rédigeront ainsi leur premier article sur « Les automates finis et leurs problèmes de décision ».

Le moins que l'on puisse dire est que Princetonentre dans l'histoire de « la science et l'ordinateur »

d'une manière complexe et indirecte. L'épisode dulambda-calcul en est, sans doute, la meilleure illustration : Church avait mis deux ans à le créer, entre lafin de ses études et le début de sa carrière à l'univer

sité. Il l'avait alors conçu comme un moyen d'éliminerles variables libres des expressions logiques et donc,de marquer des prédicats sans faire référence à la nature de leurs variables.

Dès son retour à Princeton, Church en avait fait labase de sa logique. Le lambda-calcul était devenu, defait, l'un des principaux champs de recherche de sesétudiants des années 30. L'un d'eux, Stephen G. Klee-ne, lui avait consacré son mémoire de doctorat. Ilavait alors montré comment on pouvait, à l'intérieurde ce système, faire de l'arithmétique. Church, quipensait que le lambda-calcul pouvait éviter le para

doxe de Russell, puis le dilemme deGôdel, avait vu ses étu

diants démontrer

qu'il n'en étaitrien. En 1937,

Alan Turing,venu le rejoindreà Princeton, a enfoncé un peu plus le clou : le lambda-calcul est statistiquement équivalent à sa machine. A la fin des années 1940, Church a donc abandonné la partie. Dansson Introduction à la logique mathématique (1956), ilrelègue le lambda-calcul à une simple note de bas depage. Kleene, de son côté, ne lui consacre quequelques cas particuliers dans son Introduction auxmétamathématiques (1952).

En 1958, John McCarthy invente un nouveau langage informatique. Ses recherches portent alors surla démonstration des théorèmes mécaniques et unprogramme de raisonnement symbolique, qu'il a baptisé « preneur de conseil ». Il lui faut donc trouverune notation permettant d'appliquer une fonctionabstraite à une longue liste d'arguments. En consul

tant la liste des Annales des études mathématiques, iltombe sur le traité du lambda-calcul d'Alonzo Chur

ch. Aux propres dires de McCarthy, la théorie elle-même lui apparaît fort obscure. Il en adopte néanmoins la notation pour en faire un métalangage deson nouveau langage. Baptisé LISP, celui-ci devient

- bientôt le langage approprié de la programmation del'intelligence artificielle. Parallèlement, McCarthy définit le modèle de la programmation fonctionnelle.

Outre l'intelligence artificielle, il cherche aussi àétablir une théorie mathématique du calcul qui tiendrait compte de la sémantique des programmes, c'est-à-dire des processus ou fonctions à travers lesquels lesprogrammes transforment Vinput en output. Alorsque McCarthy peaufine son nouveau langage,d'autres, attirés par son programme de sémantiqueformelle, se concentrent sur le lambda-calcul lui-même. Selon certains commentateurs des travaux de

McCarthy, le lambda-calcul, en tant que base théorique, n'a pas de modèle mathématique. De lui-même, il ne peut donc constituer, comme l'affirmeMcCarthy, une théorie mathématique du calcul.

La solution viendra à la fin des années 60, horsg de Princeton. Dana Scott, que ses travaux en logiques et théorie des modèles ont ramené sur le terrain du

i calcul, réexamine donc le problème avec attention.I Alors qu'il tente de démontrer l'incapacité des tenta-ï tives de Christopher Strachey, à Cambridge, et de

Jaco de Bakker, à Amsterdam, à fonder une sémantique mathématique sur le lambda-calcul, il découvre,

tout simplement, le modèle mathématique qui luimanquait. La théorie de la sémantique qui en ré

sulte, basée sur des treillis continus, crée alors denouveaux liens entre la théorie du calcul et l'al

gèbre abstraite moderne, en particulier la théoriedes catégories. Il confirme également le lambda-calcul comme base des langages de programma

tion fonctionnelle.

Selon une étude récente, le lambda-calcul apparaît dans quelques-uns des thèmes originaux quiont motivé l'étude de von Neumann sur les auto

mates. Pour les biologistes théoriques Walter Fontana,Gunther Wagner et Léo Buss, le lambda-calcul est devenu un outil permettant de modéliser l'interactiondes molécules lorsqu'elles se combinent et se recombinent pour former de plus grandes structures. Sontainsi entrées en jeu les questions d'auto-organisationet l'émergence d'une complexité capable d'autorépli-cation et même d'évolution. S'exprimant dans destermes semblables à ceux des programmes de Princeton dans les années 1950, Fontana affirme : « Enétudiant les conséquences d'une installation dynamique composite d'expressions lambda, nous avonsproduit une diversité d'organisations automatiquesavec les propriétés désirées, c'est-à-dire résistance à laperturbation, extensibilité et dépendance à l'histoire ».En septembre dernier, celui-ci a rejoint le Programmede biologie théorique de l'I.A.S de Princeton, ramenant ainsi le lambda-calcul sur son lieu de naissance.

Tout un symbole. •

/9

Page 22: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Collectionnez les grandes p

N° 31Rudolf DIESEL :

Comment il oInventé le

moteur queplébiscitent

les Fronçais*

GRANDS INGÉNIEURS

TIIOIHIA»i

EDISO]\

l/aitipotilc, ic premictréseau clcctritiiic, le

phono^uphc, et tantil'auires hti-entions.

N° 32Thomas EDISON :L^ampoule, le 1 '̂réseau électrique,le phonographe,et tant d^autresinventions..•

RANDS INGENIEURS

OLF OIESEL1»58-I913

IcwHrtimrfMé

GRANDS INGENIEURS

ij<:oi\Ami

DE YIMCIET SES PRÉC IKSEEUS

N° 34Léonard DE VINCIet ses précurseurs.

ŒS fmtFmGRANDS INGENIEURS

MAICCEL

DASSAEET

I , f 1955 V96S "1^les années ^Mirage '

N° 33MarcelDASSAULT :1955-1965Les années«Mirage».

Page 23: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ES DE L HISTOIRE DES SCIENCES

seulement

•g<-

N° 36 ^Qui a inventé^ordinateur ?

Km fmiEKfSGRANDS INGÉNIEURS

Qui a inventél'ordinateur?

L'ascension

triomphale d'un

ingénieur civil

N° 35Gustave EIFFEL :L^ascensiontriomphale d'̂ uningénieur civil.

Tarif France, métropolitaine

à compléter et à retourner avec votre règlement à VPC Cahiers Science & Vie - 1, rue du Colonel Pierre Avia 7550,i Paris cedex 15 France

IJe commande les numéros suivants de la collection

•3K-

« Les grands ingénieurs » Cochez les cases de votre choix

• n° 31 • n° 32 • n° 33 • n° 34 • n° 35 • n" 36

Le montant global de ma commande est de francs

Prix unitaire pour chaque numéro, frais de port inclus : 40 francs pour laFrance métropolitaine, 45 francs pour l'étranger.

Pour toute commande d'au moins 3 numéros des Cahiers de

Science & Vie, nous vous offrons un numéro supplémentaire.Veuillez nous indiquer la parution * gratuite que vous souhaitez :fson n'' son thème:

I Elégante,cettereliure protégera6 numéros desCahiers de Science& Vie.

I Je commande la reliuredes Cahiers de Science & Vie au prix de 55 francs pour laFrance et de 65 francs pour l'étranger (frais de port inclus).

Je joins mon règlement par chèque bancaire ou postal à l'ordredes Cahiers de Science & Vie.

Nom 1 J I I I I I I I ^ I I 1 I L

Prénom 1 J I I I I 1 I \ I L J I L

Adresse 1 I I I I l I L

Code postalL

I I I L

J ^ L

J L

J Ville L

_l L_

J ^^ L

J L J ^ I L

J I L J I L

Paysi I I I I ^ I I I L J I I L

Offre valable jusqu'au 31/03/2000.Conformément à la loi Informatique et Libeités du 6/01/1978. les informations ci-dessus sont indispensables autraitement de votre commande. Vous avez un droit d'accès et de rectification auprès d'Excelsior. Vous pouvez vousopposer à la communication ultérieure de celles-ci..

(*) Dans la limite des stocks disponibles.

Page 24: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

A *iïi I

4aj -H

r

Page 25: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

1946. La bombe H est en gestation.

Attelé au traitement des réactions

nucléaires, le premier ordinateur,

l'ENIAC, montre ses limites. Un

mathématicien, amateur de

réussites, abat alors son jeu ... Une

nouvelle méthode de calcul est née.

par Peter GaLuon

m-

Page 26: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Premières simulations

Nouveau-Mexique, Seconde Guerre mondiale. Bien gardée, au secret dans le centrede Los Alamos, une élite de théoriciens est

aux prises avec un problème d'une extraordinairedifficulté : comment traquer les innombrables neutrons quand ils se dispersent et provoquent des fissions à travers ce qui allait devenir la bombe atomique. Tout doit être pris en compte, et notammentla taille du cœur de l'arme nucléaire. Si celle-ci est

sous-estimée, la charge pourrait fuser; si elle est surévaluée, la bombe pourrait exploser prématurément. Avec deux milliards de dollars investis et

l'issue de la guerre en perspective, aucun effort n'estépargné. De Hans Bethe, le doyen des physiciensqui a étudié l'origine de l'énergie solaire, aux plusjeunes, comme Richard Feynman, les meilleursthéoriciens s'attaquent au problème des neutrons,tâchant de trouver la taille et la forme adéquates ducœur de l'arme.

24

Peu de temps après la fin de la guerre, StanislawUlam, un mathématicien d'origine polonaise, propose une solution radicalement différente : un système capable de simuler ces processus difficiles àtraiter. A la base, son idée est simple - nous le verrons plus loin. Ses retombées dans toutes les sciencesn'en ont pas moins été considérables. Les simulations servent aujourd'hui à modéliser les armesnucléaires, la formation des galaxies, le commencement de l'univers, les collisions subatomiques, lesliaisons chimiques, la prolifération des populationsanimales, les caractéristiques de vol des avions etdes processus biophysiques fondamentaux. En bref,il est aujourd'hui impensable d'imaginer les sciencesphysiques - et une part croissante de l'ingénierie etdes sciences biologiques de la fin du XX® siècle -sans calculs assistés par ordinateur. Nous donneronsici un petit aperçu des circonstances - en temps deguerre puis de paix - dans lesquelles cette approcheradicalement nouvelle de la nature a vu le jour.

Les mathématiciens, les statisticiens, les physiciens, comme les ingénieurs qui, les premiers, ontaffaire aux simulations Monte Carlo (appelées ainsi

1 ¥•• PRCUECT ^ ^MAIN GATEPASSES MUST BE

PRESENTED TO

CUARDS

Le projetManhattanLe centre de Los Alamos a abrité,

pendant la Seconde Guerremondiale, une élite de physiciens.Sous la direction de l'astrophysicienHans Bethe, leur tâche était de

produire, dans ce qui allait devenir labombe atomique, des réactionsnucléaires semblables à celles quisont à l'œuvre au cœur des étoiles.

Ci-dessus, une des deux entrées biengardées de Los Alamos.

Page 27: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Calculs rapidesVoici un moyen simple d'estimer k. Prenons au hasardles impacts d'une cible, puis calculons la proportion deceux inclus dans le cercle. Plus le nombre d'impacts estgrand, et plus cette proportion est proche du rapport dela surface du cercle (rcr^) sur celle du carré (4r^), soit k/4.C'est ce type de méthode, plus tard baptisée MonteCarlo, que le mathématicien Stanislaw Ulam va utiliserpour simuler les réactions nucléaires.

en référence à la mecque monégasque des jeux dehasard), sont d'emblée frappés par leur efficacitémagique. Prenons un exemple simple. Supposonsque vous vouliez estimer, avec une précision arbitraire, n (le rapport du diamètre d'un cercle à la circonférence). înscrivez un cercle dans une boîte dontles côtés ont une longueur de 2r (voir la figure). Prenez au hasard des points générés dans ce carré. Calculez la proportion de points tombant à l'intérieurdu cercle par rapport au nombre total de ceux qui setrouvent dans le carré (incluant le cercle). En prenant en compte un grand nombre de points, cetteproportion approchera le rapport de la surface ducercle nr^ à la surface du carré dans lequel il est inscrit (4r^), ce qui donne 7i/4. Si nous lançons des fléchettes au hasard sur cette figureet comptons lesimpacts à l'intérieur du cercle et ceux compris danstout le carré, nous serons en mesure de faire uneestimation rapide et efficace de tc, et ce, sans recourir aux séries infinies ou à un raisonnement trigono-métrique. Des méthodes comparables peuvent êtreutilisées non seulement pour résoudre des systèmesmathématiques beaucoup plus compliqués, maisaussi pour imiter des processus physiques qui défientla solution analytique. Et très vite, le Monte Carlo serévèle davantage qu'un nouvel outil de calcul - sessimulations semblent produire une version différente, et peut-être meilleure, de la réalité. Elle fraieainsi une nouvelle voie à la connaissance, ni tout àfait expérimentale, ni tout à fait théorique.

Pour vous abonner : 01 46 48 47 17

Face aux succès et aux espoirs que suscite cetteméthode, A.N. Marshall ouvre la conférence MonteCarlo de 1954 par cette phrase où perce l'étonne-ment : « On a l'impression de travailler pour rien...mais à la fin, tout finit par sortir : l'efficacité desméthodes, dans certains cas particuliers, sembleincroyable. On doit vraiment voir les résultats - et lesvoir de très près - pour les croire ».

Les bombes et la réalité artificielleA la suite de la reddition japonaise, conséquente

à Hiroshima et Nagasaki, les scientifiques de LosAlamos commencent à se disperser. Mais avant dele faire, ils conviennent de rassembler et d'enregistrer leurs connaissances (au cas où de nouvellesrecherches dans l'armement nucléaire se révéleraient nécessaires). Une rencontre est ainsi prévuepour la mi-avril 1946,afin de discuter de l'éventuellearme à fusion, un dispositif que des rapports sérieuxet classés secrets regardent avec une

certaine

î "•!?.?

25

Page 28: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Premières simulations

L- _

L'homme de la situatioriPhysicien d'origine hongroise, Edward Teller a participéau projet Manhattan. (Ci-dessus, installation, le 14 juillet1945, de la bombe au plutonium dans le désertd'Alamagordo). Chaud partisan de l'armethermonucléaire, Teller retourne à Los Alamosavec, pour mission, la mise au point de la bombeà hydrogène.

crainte - même après la dévastation de Hiroshima etNagasaki : «• Les explosions thermonucléaires qu'onpeut prévoir sont moins à comparer aux effets d'unebombe à fission, qu'à ceux d'événements naturelscomme l'éruption du Krakatoa... Des valeurs tellesque 10^^ ergs pour le tremblement de terre de SanFrancisco peuvent facilement être obtenues. »

S'il est facile d'imaginer la puissance de labombe H, la mettre au point est une tout autreaffaire. Bien que les premiers constructeurs de labombe, sous la direction d'Edward Teller, aientpensé que l'hydrogène lourd pouvait assez facilement amorcer une fusion auto-entretenue, le travailaccompli durant la guerre a montré que le problèmeest bien plus compliqué. Pour prédire ce qui pourraitse passer, concluent les physiciens de Los Alamos,« le premier impératifest une connaissance profondedes propriétés générales de la matière et du rayonnement dérivant de tout l'édifice théorique de la physique moderne. »

En parlant ainsi, les auteurs pèsent leurs mots. Sila physique nucléaire des composés de l'hydrogène,la propagation du rayonnement intense ou faible etl'hydrodynamique des matériaux en explosion sontdéjà compliquées en elles-mêmes, elles doivent desurcroît être analysées simultanément, sous l'effetdu choc, et à des températures comparables à cellesdu cœur du Soleil. Comment l'énergie se perd-elle ?Quelle est la distribution spatiale de la température ? Comment s'effectuent les réactions deuté-

rium-deutérium et deutérium-tritium ? Comment

les noyaux qui en résultent libèrent-ils leur énergie ?Ces problèmes, et bien d'autres encore, sont tropdifficiles à résoudre avec l'analyse ou le calculateuranalogique. Les expériences semblent impossibles :les 100 millions de degrés Kelvin excluent l'emploidu laboratoire ; il n'y a pas d'équivalent thermonucléaire de la pile de Fermi, ni aucune approche lentede la fusion ressemblant à l'empilement de blocsd'uranium. Face aux limites de la théorie et de

l'expérimentation, on se tourne donc vers le premiercalculateur électronique entré en service à la fin dela guerre : l'ENIAC.

Ce n'est pas un hasard si le premier problèmeque traite le premier ordinateur concerne la mise aupoint de la bombe thermonucléaire. Pendant troisans, le projet Manhattan s'était développé pouratteindre des proportions gigantesques et, à la fin dela guerre, il disposait d'un éventail très étendu denouvelles technologies. Le mathématicien et physicien John von Neumann, qui avait planché sur le calcul automatique pendant la guerre, y a joué un rôlefondamental. Depuis son premier travail sur la balistique à l'Aberdeen Proving Ground (et au ScientificAdvisory Committee dès 1940), il s'était occupéd'adapter des problèmes complexes de physique àl'ordinateur - notamment l'implosion de la bombeau plutonium. Il s'agissait alors de calculs quin'avaient aucune chance d'être résolus à la main, cequi avait poussé von Neumann à aller plus loin et à

Pour vous abonner : 01 46 48 47 17

Page 29: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Tel un volcanSi on imaginait sa puissance, sa mise au point s'avéra vite compliquée. Prédirele comportement d'unebombe H requérait « uneconnaissance profonde depropriétés... dérivant detout l'édifice théorique dela physique moderne ».Qui plus est, les expériences semblaient

impossibles.

développer un langaged'équations différentielles que le calculateurpouvait comprendre.

Avec la fin de la

guerre, vient le tour de labombe H. Avant que lescalculs proprement ditsne débutent, les collaborateurs de Los Alamos

doivent cependant trouver un moyen simple derécupérer l'énergie libérée par les photons et lesnoyaux lors de la fusion,tout en tenant compte del'hydrodynamique desmatériaux en explosion.En 1946, l'ENIAC, recâblé pour gérer le problème, commence à cracher des cartes perforéesà la cadence d'une unité

par seconde. Alorsmême que tout l'équipement marche à la perfection, la simulation prendplusieurs jours pour étudier une configurationparticulière du deuté-rium et du tritium.

Chaque fois qu'une cartesort, les programmeursla réintroduisent comme entrée (input) pour l'étapesuivante.

Vient Avril 1946. Les informaticiens présententleurs résultats à la conférence de la Superbombe.Tout le groupe réuni par Edward Teller pendant laguerre est présent. On y rencontre nombre d'autrespersonnalités : le théoricien Robert Serber (qui alargement contribué à la réalisation de la bombe A),Hans Bethe (le dirigeant du groupe théorique deLos Alamos pendant la guerre), le mathématicienStanislaw Ulam, et, les Américains allaient le regretter amèrement, l'espion soviétique Klaus Fuchs.Ulam écoute les tout derniers résultats fournis parl'ENIAC. Les conclusions, qui ont nécessité plus

d'un million de cartes perforées IBM, sont pourl'instant optimistes (si l'on ose parler ainsi) : laSuperbombe, telle qu'elle a été conçue, peut exploser. Mais même avec cette assistance cybernétiquemassive, il apparaît clairement que le problèmethermonucléaire dépasse les capacités de modélisation de l'ENIAC. Ulam se met donc à chercher un

moyen plus efficace pour exploiter les possibilités dela nouvelle machine.

Pensant à son jeu de patience favori, il réalisequ'à un stade donné du jeu, il peut constituer unéchantillon des issues possibles, même si une analyse combinatoire élargie de ses chances de gagners'avère impossible. Une idée s'impose soudain à lui :

27

Page 30: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Premières simulations

cette méthode

ne pourrait-elle fournir la

clé des calculs

nucléaires ?

Imaginonsun modèle

simplifié de labombe ato

mique. Supposons qu'un neutron commence sa vie au centre ducœur du réacteur, et décolle à la vitesse v. Il s'agitalors de déterminer jusqu'où il se déplace avant deheurter un noyau. Utilisons un pion pour figurernotre neutron, que nous plaçons à la position dedépart 0 (figure ci-dessus). Puis, jetons un dé. Sinous obtenons 1, le neutron avance d'un centimètre,si le dé donne deux, il bouge de deux centimètres, etainsi de suite jusqu'à 6. En lançant une pièce demonnaie, nous déterminons la direction que doitprendre le neutron : pile, à gauche, face, à droite.

Supposons maintenant que la probabilité desévénements soit dans ces rapports : fission : 1/2 ; diffusion : 1/3 ; absorption par un noyau : 1/6. Undeuxième jet de dé nous indique, par convention, ceque nous devons faire lorsque nous arrivons à lacase indiquée par le premier coup. Si le dé indique 1,2 ou 3, alors nous pouvons déclarer qu'il y a eu fission. Et nous ajoutons un autre pion sur la case oùnotre premier neutron a atterri. Si le deuxième jetindique 4 ou 5, cela signifie que le neutron a diffusé.Il faut alors relancer le dé pour déplacer le pion. Le6, enfin, signifie que le neutron a été absorbé par lenoyau. Il faut alors retirer le pion.

Voici le destin de notre neutron. Mettons le pionà la case 0 et lançons le dé : 3. La pièce de monnaie,lancée à son tour, indique face. Le pion-neutron vadonc vers la droite, à la case + 3. Deuxième jet dedé : 4. Ce qui veut dire diffusion. Nouveau jet de dé :2, la pièce de monnaie indique, cette fois, pile. Lepion va à la case -i-1. En continuant ainsi, nous pourrons voir comment les neutrons se comportent : sedissipent-ils en dehors du cœur du réacteur au-delàde + 6, ou en deçà de -6 ? La fission se produit-ellede la même façon dans tout le cœur ? Des versionsplus compliquées de ce jeu allaient permettre ce quisemblait impossible : grâce à elles, les physiciensallaient pouvoir suivre les neutrons un par un.

C'est plongé dans ces réflexions sur les armes àfission et à fusion, les probabilités, la multiplicationdes neutrons et le jeu de cartes, qu'Ulam formule laméthode de Monte Carlo. Il la rend publique dansun court résumé, qu'il cosigne avec von Neumann etprésente à l'American Mathematical Society (septembre 1947). Parlant uniquement d'une nouvelleméthode de calcul pour l'étude d'équations différentielles, tous deux soulignent qu'elle est « analogue à une série de "réussites" et s'effectue sur unemachine à calculer. Elle nécessite... de tirer des

nombres "aléatoires" avec une distribution donnée. »

28

-6 -5 -4

PHPBÎI

2

I

-1 +1 +2 +3 +4 +5 +6

Pistons un neutronPlaçons un pion (notre neutron) à la case 0. Un jet de dé nous indique la distancequ'il parcourt (1 case = 1 cm), et celui d'une pièce de monnaie, la direction qu'il

prend : pile à gauche, face à droite. En supposant que les chiffres 1, 2 et 3 donnéspar le dé signifient fission, 4 et 5, diffusion, 6, absorption par un noyau, nouspourrons suivre le parcours d'un neutron dans le cœur du réacteur nucléaire.

Si le mot

« aléatoires »

figure entreguillemets,c'est parceque le processus générateur lui-

même peutêtre détermi

niste. On peut ainsi, prendre un nombre à sixchiffres, calculer son carré, et ne retenir que les sixchiffres du milieu. On en calculera une nouvelle fois

le carré, puis on conservera les six chiffres du milieu,etc. Et les auteurs de poursuivre .• « En faisant desjeux appropriés avec des nombres "tirés" de cettenianière, on peut obtenir diverses autresdistributions ».

Créé par un scientifique de Los Alamos,Nick Metropolis, leterme Monte Carlo est

utilisé pour la premièrefois dans une publication qu'il fait avecUlam, en septembre1949. Tous deux ydécrivent la manière

d'échantillonner des

résultats de jeux decartes à partir d'unpoint donné, et ce,quand l'analyse combi-natoire reste complètement insoluble. Ils

affirment être capablesd'échantillonner le

volume sous une inté

grale, même si l'intégrale elle-même, à 20dimensions ou plus, nepeut être résolue. Ilsdisent également pouvoir appliquer leurméthode à l'échan

tillonnage de flux complexes de rayons cosmiques, alors qu'il

Questionde câblageMis au point pendant laguerre, l'ENIAC servit àdécoder les messagescryptés ennemis. Pourqu'il effectue les calculsde la bombe H, il a fallule reprogrammer, c'est-à-dire recâbler sesdifférents éléments.

Page 31: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

n'existe pas de solution analytique à ces équationsphysiques. Les simulations permettent de faire ceque le stylo ou le crayon ne peuvent pas.

Dans chaque cas (réussite, intégrales, cascades departicules), les auteurs proposent un échantillonnagedes réalisations particulières d'un processus, parmi unnombre astronomique de possibilités. On peut alorsétudier les caractéristiques de cet échantillon d'« expériences » à partir de ses propriétés statistiques. Ense focalisant sur ces points particuliers, le Monte Carlo apparaît expérimental. Mais du fait qu'il évite lelaboratoire, il est théorique. De fait, ces subdivisionsne sont plus aussi claires, et, d'une façon quelque peuprovocante, Ulam et Metropolis déclarent : « Ces expériences seront bien entendu effectuées, non pas avecun quelconque dispositifphysique, mais de façon théorique ». Ce qui est en jeu, ce sont les limites de la

catégorie « expérience » et, comme les événementsultérieurs le montreront, l'extension de ce conceptn'allait pas sans contestation.

L'une des objections soulevées concerne lesnombres « pseudo-aléatoires », utilisés pour lancerle Monte Carlo. En janvier 1954, un symposium dela méthode de Monte Carlo donne ainsi lieu à un

long débat sur les mathématiques des différents systèmes générateurs de nombres pseudo-aléatoires,alors même que l'utilisation de « vrais » générateurs- comme la fluctuation d'un bruit thermique dansun circuit de tubes à vide ou le taux de désintégration des matériaux radioactifs - n'est mentionnée

que de manière occasionnelle. Tout en reconnaissant l'utilité économique du remplacement des vraisnombres aléatoires par leurs analogues pseudo-aléatoires, un auditeur exaspéré déclare : « Je dois

Page 32: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Premières simulations

avouer, toutefois, qu'en dépit des élégantes investigations menées sur les propriétés (des pseudo-aléatoires), ma propre attitude à l'égard de tous les processus déterministes reste, au mieux, un consentementembarrassé et forcé. Je n'ai pas l'impression défairedes nombres aléatoires ; je me demande seulement sij'applique la bonne série de tests de randomisation -si bien sûr la recherche de la "bonne série" n'est paselle-même illusoire. »

Jusqu'à quel point les nombres doivent-ils êtrealéatoires ? Assez pseudo et approximatifs pour suffire à ce jour, ripostent de manière pragmatique lesutilisateurs du Monte Carlo. A chaque problème sesexigences. Ce qui importe, c'est d'obtenir la « bonneréponse » au problème en question : cela signifie,surtout, de ne pas observer une régularité dans laséquence de nombres « aléatoires » correspondant àune quelconque caractéristique structurelle du problème lui-même. Évidemment, pour certains problèmes d'intégration, la séquence1,2,3,4,5,6,7,8,9,0,1,2,3,4,5,... suffit amplement. Enréalité, le Monte Carlo dépend d'une double simulation : l'ordinateur simulera d'abord une randomisa

tion, puis le Monte Carlo utilisera les nombres aléatoires obtenus pour effectuer la simulation de faitsphysiques. Si la première dérange déjà quelques statisticiens et physiciens, la seconde accélère la remiseen question de l'expérience et de l'expérimentateur.

Un nouvel universPour le physicien français Lew Kowarski, l'uni

vers de la console d'ordinateur est, par nature, plusproche des mineurs, océanographes et archéologuesque de la physique, telle qu'on l'entend jusque-là.

Beaucoup tenteront de juger ces nouvelles situations à l'aide de vieux critères. Qu'est-ce qu'un physicien ? Qu'est-ce qu'un expérimentateur ? La simulation est-elle une expérience ? Celui qui accumule leslistings d'équations résolues est-il un physicienmathématicien ? Et, ultime inquiétude : n'allons-nouspas utiliser les ordinateurs comme des substituts de lapensée ? ». L'inquiétude que génèrent les problèmesd'identité de la physique et du physicien est à la foisd'ordre social et cognitif. Mais il est aussi des préoccupations plus pragmatiques. Certains redoutent,par exemple, que les simulations de Monte Carlon'idéalisent de manière inappropriée les situationsphysiques, et que, malgré le sérieux qu'inspire un« rés^ultat d'ordinateur », elles ne délivrent desconclusions trompeuses.

« Garbage in, garbage out », formulent demanière expressive les programmeurs. De telles préoccupations témoignent d'un réel changement structurel dans le monde du travail scientifique et, plusgénéralement, d'une modification de la démonstration scientifique. Celle-ci ne repose plus sur l'argument analytique ou empirique. Reste que les scientifiques continuent de se demander, s'agissant d'untalentueux « postdoc » en simulation : est-il un théoricien ou un expérimentateur ? S'il n'est ni l'un ni

30

l'autre, s'il est les deux à la fois, en quoi est-il adaptéau laboratoire ou à l'Université ?

Chargé de la recherche opérationnelle, GilbertKing sera l'un des porte-parole de la méthode MonteCarlo. Vantant en 1949 sa supériorité sur la théorieclassique, il souligne que la nature est stochastique etque les Monte Carlo sont leur seul véritable modèle.Deux ans plus tard, il réitère sa position et va mêmeplus loin : il affirme que « l'ordinateur » ne doit pasêtre considéré comme une « règle à calcul », maiscomme un « organisme » qui peut traiter un problème d'une manière totalement nouvelle. Pour

King, il est clair que le caractère direct de la méthodede Monte Carlo lui donne un rôle largement plusimportant qu'à toute autre méthode numérique :« Les mathématiques classiques ne sont qu'un outilpour les ingénieurs et les physiciens et ne sont pasinhérentes aux faits réels avec lesquels elles essaient detraiter. Il est devenu coutumier d'idéaliser et de simplifier les mécanismes du monde physique sous la formed'équations différentielles ou d'autres types d'équations de mathématiques classiques, parce que les solutions ou méthodes d'approche ont été découvertesdans les tout derniers siècles avec les moyens généralement disponibles - à savoir le crayon, le papier et lestables de logarithmes. »

Pour le physicien mathématicien classique, cesméthodes grossières ne traduisent que les effortsentrepris par l'homme en l'absence de solutions abstraites appropriées. Mais la conception du monde deKing renverse la hiérarchie épistémique du physicien mathématicien. Là où un Einstein ou un Max

well tiennent les équations différentielles pourultime objectif de la physique, les partisans de Kingn'y voient que pure distraction. C'est l'ordinateur, etnon l'équation différentielle, qui peut recréer ladimension aléatoire de la nature...

L'histoire du Monte Carlo s'inscrit partiellementdans celle de l'épistémologie : il s'agit d'une nouvelle méthode d'élaboration des connaissances.

C'est une histoire liée de près à la division du travailchez les scientifiques : les vieilles catégories professionnelles de théoriciens et d'expérimentateurs sontalors remises en cause par un groupe de plus en plusimportant et influent d'ingénieurs électriciens et,plus tard, de programmeurs. Mais c'est aussi le récitd'une physique fondamentale, liée de manière inextricable au développement des armes nucléaires ;celui d'une science imbriquée dans la technologie,quand la machine à calculer passe du statut d'outil àcelui d'objet de recherche.

Quand les historiens du futur se pencheront surcette histoire, ils verront dans la montée de lasimulation un changement considérable dans lafaçon de faire la science. Un changement aussiimportant que celui qui s'est produit avec les débutsde l'expérimentation au XVIP siècle, ou avec laconstitution de la physique théorique au XIX^siècle. La simulation est là pour durer, et la sciencene sera jamais la même. •

Pour vous abonner : 01 46 48 47 17

Page 33: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

S

M

M

E nun t^iècief La plrytrique aduLji de profondcti mutations.Uirraption du cL^aoti a déLjouionné le bel édifice newtonien^bousculant l'idée d'un monde dtabie et linéairCf régi par dcd

loU ^impies... Jamais, dand l'ordinateur^ la dcience du« non-linéaire » n'aurait pu éclore de la dorte.

Page 34: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

J

4

Années 1880 : le mathématicien Henri Fninçâré jette les basés

dune nouvelle théorie géométriquerPour-lapremière fois", oh

s intéresse sérieusement aux phénomènes dits « non linéaires »''

La mécanique et la physique s'en trouveront bouleversées.

' pairAiityDahanDaLinedLco

Page 35: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Des orbiteS: ;trop lissesDelrière Leiir règulaVrtéapparente, les trajectoires çIto •.dorps célestes dissirhùlént des ;mouvements très Irréguliers.Cette complexité, mise en ' :évidence par Henri Porncaré, est.aujourd'hui visualisabre grâce àl'ordinateur. •

Page 36: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Un monde moins stable qu'il n'y parait

Linéaire/non linéaire ;si cette terminologien'apparaît officiellement qu'au cours duXIX'^ siècle, la distinction est connue depuis

bien avant. Au moins intuitivement. Quand auXVIP siècle, Galilée parle de mouvement linéaire etuniforme, le mouvement est sur une ligne (c'est l'origine sémantique du terme) et la distance parcourueest proportionnelle au temps. Plus généralement,l'idée intuitive de ce qu'on appelle aujourd'huilinéaire est associée, à l'époque, à un phénomènequi se développe régulièrement et répond à l'axiomele plus prisé d'alors : les effets sont proportionnelsaux causes qui les produisent. Une propositiond'ailleurs aussi universelle qu'obscure. Car, par exemple, quelle estla cause du mouvement ? Ou bien

encore, à quoi la force est-elleproportionnelle : à la vitesse ? Al'accélération ? Et qu'en est-ilde l'énergie cinétique ? Autantd'interrogations, qui figurent encore chezDescartes, Huygens, Varignon,avant d'être « clarifiées » dans

une discussion entre d'Alem-

bert et Euler sur le caractère

nécessaire ou contingent des fondementsde la mécanique.

A l'époque, on tente d'appliquer ce principe deproportionnalité au plus grand nombre possiblede phénomènes : allongement d'unressort, courbure d'une tigesous l'action d'une force,refroidissement d'un corps,etc. Pour tous, on cherche unepremière approximation sous la forme d'une loilinéaire, y = k x. Une approximation qui estd'ailleurs le plus souvent correcte, mais pour depetites variations de x.

Pour certains phénomènes, cependant, c'est à l'évidenceimpossible. Ils sont tropirréguliers. D'Alem-bert, par exemple, a repéré les paradoxes dumouvement dans les fluides, mais ne sait pas lesexpliquer. Mathématiquement, la démonstrationqu'il apporte au pourquoi du vol des oiseaux est parfaite. Physiquement, elle est absurde. Car il manqueà ses équations la viscosité des fluides ; en clair, justement ce qui permet aux oiseaux de voler.

Au plan mathématique, avec lesrecherches des Bernoulli

d'Euler, de d'Alembert, l'étude deséquations différentielles (ouaux dérivées

partielles) sedéveloppe lentement. C'est dans

la mécanique céleste

34

que les travaux sont les plus sophistiqués. Pas parhasard. Faute de pouvoir décrire les mouvementsdéterminés par les attractions réciproques de troiscorps ou davantage - les équations ne sont en effetpas intégrables - Laplace est obligé d'inventer desméthodes permettant d'obtenir des solutions approchées. Pour cela, il réduit l'intervalle sur lequel ilveut résoudre les équations. Cette restriction lui permet de faire des approximations. Il transforme seséquations insolubles en équations linéaires classiques dont la résolution ne pose plus de problème.Les solutions obtenues ne sont toutefois plus quedes approximations du résultat cherché, valablesdans un cadre restreint.

L'hégémonie du modèle linéaireAu XIX® siècle, l'étude d'une classe de phé

nomènes domine toute la physique : celle desoscillations linéaires » et de leur propaga

tion. On appelle oscillations les mouvements ou changements d'état qui présen

tent un certain degré de périodicité ou derépétitivité. Un cas simple est celui des petits mouvements d'un pendule ou d'un ressort. Là, la force

responsable du mouvement est proportionnelle aux déplacements du système ; les

oscillations sont linéaires et ont pourmodèle universel l'oscillateur harmo

nique. Ce modèle s'applique à tout phénomène régulier évoluant lentement dans

le temps, même si, dans la nature, les oscillations ne sont jamais parfaitement linéaires. Mathé

matiquement formalisé par Fourier,l'oscillateur harmonique sert ainsi à

l'étude de la propagation d'ondes enoptique, acoustique et électromagnétisme, et même à l'élaboration

de la mécanique quantique au débutdu XX® siècle.

Une nouvelle fois, l'hydrodynamiqueéchappe à la loi commune ; pas d'oscillateur harmo

nique qui puisse la concerner. Pour décrirel'évolution d'un fluide, Navier en 1829,

puis Stokes dans les années 1840,

Une loi presqueuniverselle...Les oscillations d'un ressort sont

proportionnelles à la forceexercée sur ce dernier. Ces

oscillations, dites linéaires,obéissent à un

modèle

mathématique,r« oscillateur

harmonique ».Celui-ci

s'applique à denombreux domaines

de la physique... Mais"pas à la dynamique des fluides.

Page 37: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

aboutissent à un système de deux équations auxdérivées partielles auquel plusieurs conditions spécifiques du mouvement considéré doivent êtreadjointes (conditions initiales et conditions auxlimites). Mais ces équations étant toutes deux fortement non linéaires, elles ne sont pas d'une grandeutilité : personne, à l'époque, ne sait les résoudre (etc'est encore vrai aujourd'hui dans un grand nombrede cas). Aux théoriciens de l'hydrodynamique(Navier, Saint-Venant en France, von Helmholtz enAllemagne, Stokes et Maxwell en Angleterre) succèdent des ingénieurs ou physiciens qui, à des finspratiques, s'intéressent spécifiquement à la turbulence et à son étude expérimentale. Parmi eux,citons Poiseuille, Reynolds, puis au début du XX®siècle Prandtl, Bénard, von Karman, Lord Rayleigh.

Les mathématiciens, quant à eux, ne disposentd'aucune méthode analytique générale pour étudierdes équations différentielles. Aussi, de Cauchy àWeierstrass, développent-ils des méthodes analytiques de calcul local, au voisinage d'un point déterminé, comparables à celles mises au point parLaplace. Ils montrent l'existence de solutions, éventuellement les construisent, par des développementsen séries entières, des méthodes d'intégrales autourde points singuliers, etc., à condition de rester auvoisinage du point considéré. Mais le recollementbout à bout de ces morceaux de solutions soulève

des difficultés considérables.

La théorie de PoincaréC'est pour pouvoir atteindre des résultats globaux,

connaître l'allure générale des courbes solutions,leur disposition relative, que Henri Poincaré jette,dans les années 18S0, les bases d'une théorie devenue cruciale dans l'étude des phénomènes nonlinéaires : la théorie des systèmes dynamiques.

L'idée centrale de Poincaré est

de ramener l'étude analytiquedes équations différentielles nonlinéaires à un travail géométrique : l'étude de l'ensemble descourbes-solutions, de leurs rapports mutuels et de leur disposition relative. Il forge ainsi, dansles années 1880, les outils de lathéorie géométrique qualitativedes équations différentielles. Ildéfinit pour cela un nouvelespace, dans lequel il tracera sesformes géométriques : l'espacede phase. Chaque corps étudiéest représenté par trois coordonnées pour sa position et trois supplémentaires pour sa vitesse. Ladimension de cet espace dépassedonc largement celle de notreunivers quotidien ; pour l'interaction de 3 corps, l'espace dephase est de dimension 18... Il

La solution par le dessinPour étudier la trajectoire d'une planète quelconque(C), Poincaré s'appuie sur une trajectoire fermée deréférence (C), qui lui est voisine. Il dresse un plan vertical, que la trajectoire C coupe au point Mg. La trajectoireC le traverse en des points successifs, Pg, P.,, P2, etc. SiP„ coïncide avec Pg, alors la trajectoire de la planète estpériodique (elle se referme au bout d'un temps T).'^'

peut toutefois se réduire par diverses considérationsde symétrie.

L'étude des propriétés des nouvelles formesgéométriques est un travail de géomètre et de topo-logue. Plus besoin de faire des calculs, seulement desdessins. Il étudie le rôle des points singuliers etmontre comment les courbes trajectoires sedisposent géométriquement autour de ces points.Centres, nœuds, point-selle et trajectoires deviennent les nouveaux outils de résolution des équationsdifférentielles. Puis il s'appuie sur la connaissancedes solutions périodiques pour étudier la dispositiondes autres.

En dimension 2, il établit un théorème (dit de Poin-caré-Bendixson) selon lequel au voisinage d'une solution périodique isolée S - dite cycle limite - les solutions, en général, s'enroulent asymptotiquement dans

le passé et le futur vers S. Toutesces méthodes et ces outils permettent de déterminer le portraitde phase du système, c'est-à-direl'ensemble des courbes solutions

tracées dans l'espace de phase,sans les calculer.

D ans les Méthodes nouvelles

de la mécanique céleste, Poincaré démontre, pour la premièrefois, qu'il est impossible d'intégrer les équations du mouvement des trois corps (Terre,Soleil, Lune par exemple). Nousne connaîtrons donc jamais parle calcul les positions simultanées de trois corps à tout instantdonné. Les méthodes de résolu

tion par approximation gardentcertes leur utilité dans l'astrono

mie pratique, mais quand le

Le géomètre del'imprévu

Pour vous abonner : 01 46 48 47 17

Dans les années 1880, Poincaré étudie le

mouvement de trois corps liés par la gravitation. Et ramène le calcul de leurs posi

tions respectives à un travail géométrique.I - D'après A. Dahan Dalmedico, J.-L Chabert,K.ChemIa, Chaos et déterminisme, Seuil, 1992.

35

Page 38: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Un monde moins stable qu*ii n*y paraît

temps croît, ces séries sont divergentes et s'éloignentde la solution.

Pour résoudre ce problème des trois corps, Poincarépart des trajectoires périodiques que décrivent approximativement les planètes, par exemple de l'ellipse autour du Soleil décrite par la Terre quand on néglige l'attraction de la Lune et des autres corpscélestes. Il étudie alors ce qui se passe au voisinagede cette trajectoire approximative. L'idée maîtresse etdéterminante de sa démonstration est de travailler sur

le plan normal à l'ellipse, qui la coupe perpendiculairement en un point. Pour étudier les trajectoiresréelles des planètes, il suffit alors d'étudier les pointsd'impacts successifs de la trajectoire et du plan. Là encore, les choses se représentent graphiquement, ce quifacilite grandement l'étude (voir la figure p. 35).

Derrière la régularité apparente de l'approximation keplérienne périodique, Poincaré met en évidence par des raisonnements topologiques et desméthodes géométriques qualitatives, des situationsd'une complexité inouïe. Les équations nonlinéaires de la dynamique newtonienne dissimulentainsi des mouvements extrêmement irréguliers. Unecomplexité qui, grâce à la simulation numérique, estaujourd'hui visualisable sur ordinateur (voir lesfigures ci-dessous).

Enfin, étudiant le Système solaire, Poincaré distingue plusieurs notions de stabilité. L'une, la plussimple, se rapporte à la stricte périodicité des trajectoires. Une autre concerne la stabilité des comportements d'un ensemble de trajectoires. Elle est mesu

rée par l'écart au cours du temps d'une trajectoirepar rapport à ses voisines. Cette notion globale destabilité, analogue à celle d'équilibre stable, serabientôt reprise par Eyapouov. Elle se révélera trèsimportante dans l'étude des systèmes physiques.Enfin Poincaré s'intéresse à la stabilité d'un

ensemble de systèmes dynamiques dépendant d'unparamètre et met en évidence la notion de bifurcation entre des séries de figures d'équilibre.

Reste qu'en dépit de l'immense prestige scientifique de Poincaré, ces travaux sur les systèmes dynamiques, touffus et difficiles, ont peu d'écho immédiat. Il leur faudra près d'un demi-siècle pour êtrerelus attentivement.

Des oscillations auto-entretenuesAu cours des années 1920 et 1930, un nouveau

contexte technique, celui de la radioélectricité et del'électronique, va donner une place déterminante àl'étude de la non-linéarité. Un phénomène en particulier mobilise de très nombreux ingénieurs en Hollande, en France, en Allemagne : les « oscillationsauto-entretenues »... Ces phénomènes de résonanceou de brusque relaxation dans un système, alimentépar une source continue d'énergie extérieure, présentent en effet des caractères quasi discontinus. Letrait commun est qu'une certaine quantité physique(intensité de courant, charge dans un circuit...) existe à deux niveaux, restant, sur chacun d'eux, un tempsrelativement long mais passant de l'un à l'autre demanière presque instantanée. L'application des mé-

-i/ []mm»

•••.•m:'., i V' W

.vy. V

.T'a/ n ^''v X ,

j. " "'' -- A M;

S m. ' V

c* •» •

L'ordinateur dissèque l'instabilitéCe « portrait de phase », exécuté selon la méthode de Poincaré, montre la situation au voisinage d'une trajectoirepériodique, qui coupe le plan au point O. Pour la trajectoire la plus proche, les points d'Impact semblent tracer unecourbe continue autour de O. A mesure que les trajectoires s'éloignent de la référence, les points d'Impact s'espacent : à la périphérie, on ne volt plus qu'un nuage de points. Dans la zone Intermédiaire, les trajectoires se décomposent en « îlots ». En fait, la netteté des courbes n'est qu'apparente. Un agrandissement (à droite) montre la zoneautour de 02 : tous les points appartiennent à une même trajectoire.

36

Page 39: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

thodes habituelles de linéarisation y est particulièrement inadéquate. Lesingénieurs étudient leurs équations différentielles, en les transformant astucieusement, puis ils utilisent la représentation géométrique du plan dephase, sans toutefois faire directement appel à la théorie de Poincaré.Au cours des années 30, l'apparition des circuits de balayage et des premières techniques de télévision renforce encore l'intérêt pour les oscillations auto-entretenues.

Mais c'est en Russie, sous l'influence de l'école de Mandelshtam, que lapensée de la physique non-linéaire va véritablement se déployer. Aprèsavoir, au début du siècle, étudié à Strasbourg dans l'école de radiophy-sique de Braun, Mandelshtam s'est orienté vers certains domaines del'optique - il a notamment découvert l'effet Raman -, vers la radiophy-sique et la théorie des vibrations. A Moscou, où il enseigne en 1925, ils'est fixé pour objectif d'unifier, dans un cadre mathématique rigoureux,tout le domaine des phénomènes non hnéaires. Un projet, qui va en faitse trouver réalisé par son élève A. A. Andronov.

Ce dernier part de l'étude, en 1926, d'un circuit comprenant des tubes àvide, où se produisent des oscillations permanentes. Il s'intéresse au mécanisme de contrôle, par rétroaction, entre les oscillations produites et lasource d'énergie, qui permet de compenser la dissipation d'énergie. Andronov est le premier à reconnaître la parenté entre un tel oscillateur dela radiophysique (comme celui de Van der Pol) et le mouvement dansl'espace de phase, du type cycle limite, introduit par Poincaré en 1880.

En mettant ainsi les travaux

mathématiques de Poincaréau service de l'ingénieur -une idée qui n'avait riend'évident - Andronov

ouvre une ère nou

velle de la mécaniqueet de la physique.Avec elle, l'auto-oscillation va, dans leregistre des paradigmes universels,^succéder à l'oscilla-s

teur harmonique. En|fait, Andronovgrecueille à la fois|deux héritages, celui tde Poincaré et celui I

u

de Lyapunov dont les -travaux lui sont précieux pour l'étude de lastabilité des systèmes.

En 1931, Andronov fonde à Gorki une école dont leprogramme général est d'élaborer une théorie mathématique complète des oscillations non linéairesdécrites en termes d'équations différentielles. Le traitement en propre des phénomènes non linéaires leconduit à rapprocher des exemples très disparates :oscillateurs à triodes, cordes vibrantes excitées par unarchet, pendule de Froude traité par Rayleigh, réactions oscillantes en chimie, exemples de dynamiquedes populations étudiés par Volterra et Lotka. Ilembrasse déjà ce qui deviendra la science du chaosdans les années 1970 et 1980. Surtout, Andronov est àla croisée de plusieurs traditions de physiciens, demathématiciens et d'ingénieurs. Ce trait spécifique dela communauté scientifique russe lui permet de

Pour vous abonner : 01 46 48 47 17

NouvellesfréquencesL'avènement de la radioélectricité, puisdes premières techniques de télévision,dans les années 20 et 30, relance l'étudede la non-linéarité. Un problème intéresse surtout les ingénieurs : les oscillations auto-entretenues, phénomènes derésonance ou de brusque relaxation quise produisent dans un système alimentépar une source d'énergie continue. Ci-dessous, une télévision et une triode desannées 30 ; en bas, un haut-parleur.

37

Page 40: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Un monde moins stable qu*ii n*y parait

constituer un champ nouveau dont les problèmes etobjectifs diffèrent de ceux de la fin du XIX® siècle.

A Gorki, Andronov et ses collaborateurs se concentrent sur la méthode des transformations ponctuellesde Poincaré. Ce moment théorique est essentiel. Lelangage des transformations ponctuelles favorise eneffet le raisonnement sur les états du système, considérés comme des points d'un espace de phase. Unnouveau cadre théorique voit donc le jour, quiconcerne aussi bien certains résultats de mécaniquecéleste que les systèmes dissipatifs de la physiqueconcrète. Cette approche s'avère également décisivedans la discrétisation de certaines méthodes, notamment dans la théorie de la régulation automatique oudans les simulations numériques.

Les travaux d'Andronov et de son école seront

étudiés, traduits et diffusés aux États-Unis essentiellement grâce à Minorsky et Lefschetz. C'est pendantla Seconde Guerre mondiale que le premier, uningénieur qui travaille sur les problèmes de stabilisation des navires, prendra conscience de l'importancescientifique et stratégique des recherches russes.Quant au second, professeur de mathématiques àPrinceton, il réorientera, à partir d'elles, l'ensemblede son séminaire. Il s'intéresse tout particulièrement à un certain type de systèmes d'équationsdifférentielles qu'Andronov et Pontgartrin avaientdéjà remarqué : ceux dans lesquels une petite

immB

Symphonies vibratoiresDans les années 30, une école russe rassemble dansun cadre mathématique tous les phénomènes nonlinéaires, comme la vibration des cordes excitéespar un archet.

38

variation dans les équations induit dans la région del'opération une « petite » transformation qui laissele portrait de phase qualitativement inchangé. Orune telle approche, Lefschetz le voit très vite, estapte à s'appliquer à toutes sortes de domaines - dessciences de l'ingénieur à l'économie - en fait,partout où l'on cherche à prédire les caractères qualitatifs d'un système dont les paramètres ne sontconnus que très grossièrement. Aujourd'hui, ceconcept, qu'on qualifie de système structurellementstable, est devenu essentiel dans le domaine de lanon-linéarité.

La météorologie : une confrontationdirecte avec la turbulence

A partir des années 1950, un autre domaine vajouer un rôle considérable dans l'essor de la physique non linéaire ; la météorologie, une sciencedirectement confrontée aux problèmes de turbulence des fluides.

Pendant la guerre, les prédictions météorologiques se sont révélées vitales pour la planificationdes opérations militaires. De surcroît, le nouvelenvironnement technique (radars, vols à très hautealtitude, utilisation croissante de machines à cartesperforées et automatisation du traitement des données météorologiques etc.) a transformé les pratiques de la prévision. En 1946, c'est presque enmême temps que von Neumann a lancé deux projetsà Princeton. L'un porte sur la construction d'unordinateur (ECP), l'autre, sur l'application de cettemachine à la météorologie (Meteorology Project).L'objectif est clair : arriver à recueillir et traiter avecune rapidité suffisante les données nécessaires à laprévision du temps 24 heures à l'avance surl'ensemble du territoire américain.

Les difficultés ne manquent pas : théoriques (choisir des approximations et des simplifications raisonnables dans les équations du flux atmosphérique),numériques, observationnelles. Sous la direction deJules Charney, le groupe adopte une méthodologieprécise. Elle consiste à partir d'un modèle de l'atmosphère certes très simplifié mais dont on peut calculer le comportement, et à comparer la « prédiction »obtenue avec ce qu'a été la réalité météorologiqueobservée. L'analyse des distorsions permet d'améliorer le modèle en y incluant des facteurs physiquesqui en avaient été d'abord exclus. Les performancesde l'ordinateur s'améliorant, l'objectif assigné parvon Neumann est atteint de manière assez acceptable en 1953, moins de cinq ans après le lancementdu projet. Toutefois, de très grandes difficultés deprédiction demeurent.

A la fin des années 1950, l'évidence s'impose auxmétéorologues que les équations dites « filtrées »,qui ont permis les prédictions numériques du tempsavec les premiers ordinateurs, sont limitées. 11 estillusoire de s'attendre à une amélioration notable de

la qualité, qu'il s'agisse de faire des prédictions àplus long terme, ou portant sur des phénomènes sin-

Pour vous abonner : 01 46 48 47 17

Page 41: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Sur les traces du chaosVers la fin des années 50, la communauté desmétéorologues, confrontée aux limites des prédictions,s'interroge sur les solutions à apporter. Un certainEdward Lorenz, faisant tourner sur son ordinateur des

modèles simplifiés du comportement de l'atmosphère,ouvrira la voie à la compréhension de la turbulence.

guliers comme des ouragans. D'où viennent ceslimites ? Sont-elles dues aux modèles et aux hypothèses physiques simplificatrices choisies ? Sont-elles liées aux ordinateurs et aux méthodes de

calcul ? Tiennent-elles à la nature intrinsèque desphénomènes que l'on cherche à prévoir, parexemple un typhon ?

Confrontée à ces questions, la communauté desmétéorologues est partagée entre plusieurs attitudes. Les uns sont partisans de complexifier lesmodèles physiques de l'atmosphère, prenant ainsi lerisque d'accumuler les difficultés de traitement (enparticulier numérique). D'autres soulèvent la question même de la prédictibilité et introduisent l'idéede « modèles de laboratoires » pour tester séparément divers facteurs physiques impliqués dans lesmouvements compliqués de l'atmosphère.

Un météorologue du MIT, Edward Lorenz,résume l'alternative : Comprendre ou prédire lescomportements de l'atmosphère. Vers 1960, il prônel'emploi de modèles extrêmement simplifiés pourcomprendre le comportement de l'atmosphère, au

'A ••«.. -

'•f-C.-îTr ^ n*«

détriment des modélisations précises pour leprédire. C'est dans ce contexte qu'il utilise un premier modèle de sept équations qui simule trèsgrossièrement certains phénomènes atmosphériques très fréquents, tels les mouvements convectifsau-dessus des terrains chauds. Puis il simplifieencore ce modèle en un simple système de troiséquations n'ayant plus qu'un seul facteur nonlinéaire (voir l'article de David Aubin dans cenuméro). En faisant tourner ce modèle, Lorenzobserve sur son écran d'ordinateur le caractère irré

gulier et chaotique de la solution. Un résultat queles travaux de Poincaré et de l'École russe lui permettent d'interpréter.

L'article paru en 1963, dans lequel il rend comptede ses recherches, est resté célèbre : « DeterministicNonperiodic Flow ». Les conclusions sont doubles.La première est que, à l'encontre du vieil adageselon lequel des causes simples déterminent deseffets simples, des systèmes très simples peuventgénérer des comportements très compliqués. Quantà la deuxième, elle porte sur l'explication de lanotion de sensibilité aux conditions initiales et ouvre

la voie à la compréhension de la turbulence,exemple paradigmatique de la physique nonlinéaire. Au niveau météorologique, si le modèle a àvoir avec l'atmosphère, alors la prédiction à longterme est condamnée, mais à cette époque on espèreencore qu'un plus grand nombre de degrés de libertéva stabiliser le système... •

39

Page 42: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

»

M

...iï .-:•

Théorie du chaosrordinateur en pr

théoricKîns français dans les années 60, rordinateur ne va

pàs Seji'Iemfegit^ôuleverser la pratique scientifique. Il va révolutionner la'0^ ^ ^ % l

plus tîieorique des scîencejss. Histoire d'iyie conquête.

par DavidAiibift.4»' ^ %

Page 43: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

- l'ï -

.1."

, 3'ff.i'

•t-V-

"V

La nature est-elle chaotique?C'est pour repondre a cettequestion que des chercheurs ontintroduit, dans leurs disciplines,tout un arsenal mathématiqueet informatique...

'^P

Page 44: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Théorie du chaos : l*ordinateur en prime

m entrons dans un laboratoire, nousconviait récemment le philosophe et

V historien des sciences Michel Serres, etobservons l'attitude des scientifiques, les objets qu'ilsmanipulent. » Il y a trente ou quarante ans, celaaurait sans doute suffi à nous faire deviner leur disci

pline : s'ils manipulaient des éprouvettes, c'était deschimistes ; s'ils avaient l'œil rivé au microscope, desbiologistes ; s'ils proclamaient n'avoir guère besoinque d'un crayon et de papier, il s'agissait de mathématiciens, voire de physiciens théoriciens...Aujourd'hui, c'est plus difficile. Tous, semble-t-il,passent la majeure partie de leurs journées à pianoter sur un clavier d'ordinateur. Si l'irruption, et surtout la diffusion progressive puis massive de cet outilparaissent maintenant devoir bouleverser lapratique scientifique, peut-on concevoir quel'ordinateur ait eu un impact significatif sur lescontenus de la science, l'organisation des disciplines,l'épistémologie ?

Sans doute l'émergence de cette vaste constellation de résultats mathématiques, de pratiques de modélisation des phénomènes du monde, de leur simulation et de leur exploration expérimentale qu'on adésignée sous le nom de chaos déterministe, fournit-elle un exemple flagrant de l'impact conceptuelqu'ont pu avoir les outils de calcul modernes sur lascience la plus théorique. Impensable sans l'ordinateur, le chaos ? Les techniques mathématiques mobilisées dans la constitution de ce champ disciplinaire,appelé à connaître une popularité spectaculaire, tantchez les spécialistes qu'au sein d'un large public, remontent souvent à près d'un siècle. Il ne semble pasimpossible, a posteriori, d'imaginer une théorie duchaos sans l'ordinateur. Mais il faut admettre que lephénomène n'aurait pas pu se produire sans la disponibilité croissante de cet outil.

Qu'est-ce, au juste, que le chaos déterministe? Onne s'aventurera pas ici à esquisser une définition tropprécise, car elle fait encore l'objet de controverses. Uncertain consensus s'est toutefois établi : on considère

généralement comme chaotique le comportementd'un système (mathématique, physique, biologique...) qui, bien qu'exactement gouverné par uneloi déterministe (c'est-à-dire qui ne laisse nulle placeau hasard dans sa formulation), reste aussi imprévisible qu'une suite de nombres tirés à la loterie. Le problème, c'est qu'on n'a presque jamais accès aux lois dela nature directement. La question de savoir si uncomportement stochastique, c'est-à-dire aléatoire,est dû au hasard ou à une équation de type chaotiquea ainsi pu sembler relever de la métaphysique. Certaines caractéristiques se sont pourtant imposées entant que diagnostiques. Il existe des cas d'équationsdéterministes, par exemple, qui donnent lieu à desévolutions à long terme divergeant du tout au tout,quand bien même on leur attribue des conditions initiales extrêmement proches. C'est cette propriété quele physicien David Ruelle, de l'Institut des hautesétudes scientifiques (IHES) de Bures-sur-Yvette, a

42

appelé la sensibilité aux conditions initiales.Avec la publication, en 1987, de son best-seller,

La Théorie du chaos, James Gleick a rendu populaire un épisode frappant de la découverte de cettepropriété : celui vécu par l'Américain EdwardLorenz. En 1961, alors qu'il tentait de répéter lasimulation numérique d'un système météorologiquetrès simplifié, et ayant introduit cette fois des valeursarrondies, il obtenait des résultats totalement différents. Il a, plus tard, traduit cette découverte par uneimage appelée à devenir célèbre : celle d'un papillonqui, battant de l'aile au Brésil, changeait les conditions atmosphériques de telle sorte qu'un mois plustard une tornade ravageait le Texas.

Richement illustré d'images de synthèse, le livrede Gleick s'enthousiasme pour la « révolution » quereprésente cette irruption de l'ordinateur dans lamodélisation mathématique. On y suit les tâtonnements du physicien américain Mitchell Feigenbaumsur sa calculette de poche. On est époustouflé par lesimages qui nous plongent dans les infimes détails del'ensemble fractal de Mandelbrot. On sympathiseavec les doctorants du Dynamical Systems Collec-

Pour vous abonner : 01 46 48 47 17

Page 45: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

tive de Santa Cruz, alors qu'ils tentent de faire valoirle bien-fondé de leurs recherches numériques etexpérimentales sur les fuites d'un robinet... Autantd'exemples dans lequel l'ordinateur émerge commeun outil légitime de la recherche scientifique. Ce quin'était pas le cas jusque-là. « Dans les annéessoixante, affirme Gl&xck, presque aucun scientifiquen'avait confiance dans les ordinateurs. » La révolution du chaos, selon cette interprétation, est laconséquence de l'irruption massive de cet instrument dans le paysage de la science.

Un accueil glacialIl y a certainement une part de vérité dans cette

présentation de l'histoire du chaos. En particulier, ilsemble clair qu'une majorité de mathématiciens neprêtait guère d'intérêt au développement de l'ordinateur à l'époque des travaux de Lorenz. Ces annéesmarquaient l'apogée d'une idéologie des mathématiques pures, à laquelle le nom le plus souvent associé est celui de Bourbaki. Sous ce pseudonyme -regroupant quelques-uns des plus grands mathématiciens français, puis américains - fut entreprise la

publication d'un ambitieux traité visant à reprendreles mathématiques à leur début, et à édifier sur desbases structurales simples l'ensemble du domaine.Mais surtout, Bourbaki défendait une image desmathématiques détachées des soucis d'applicationet des impératifs du calcul.

Cette image d'une mathématique à la recherche,sinon d'une vérité absolue, du moins d'une consistance interne sans faille, offrait peu de place à l'ordinateur et à son lot d'incertitudes. Qui plus est, lapropriété de sensibilité aux conditions initiales nesuscitait guère de surprise chez les mathématiciens.On se souvenait qu'elle avait été identifiée dès la findu XIX® siècle par les mathématiciens françaisHenri Poincaré et Jacques Hadamard, pour ne citerqu'eux. En 1908, Poincaré écrivait : « Il peut arriverque de petites différences dans les conditions initialesen engendrent de très grandes dans les phénomènesfinaux [...]. La prédiction devient impossible ». Cetteconnaissance n'était pas tombée totalement dansl'oubli : les techniques mathématiques imaginéespar Poincaré pour l'étude de la stabilité du systèmesolaire, celles développées par Hadamard pour éta-

Un desorare

inexplicableAu début des années 70, la

turbulence dans les fluides attire

des scientifiques d'horizonsdivers! Mais ils se heurtent à ses

difficultés mathématiques.

43

Page 46: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Théorie du chaos : l*ordinateur en prime

Un langage fédérateurRené Thom publie en 1972 une méthodemathématique, basée sur la topologle, pour décrire lanaissance et l'évolution des formes. Appelée théoriedes catastrophes, elle servira à modéliser les phénomènes de la nature.

blir l'existence et l'unicité des solutions des équations différentielles, furent à la base de recherches sepoursuivant tout au long du XX'= siècle. Elles préparaient l'émergence du chaos (voir l'article d'AmyDahan dans ce numéro).

Jusqu'au milieu des années 1970, il ne sauraitcependant être question de chaos. Ce n'est d'ailleursqu'après 1975 que s'impose ce terme. Il est introduitpar les chercheurs en mathématiques appliquéesJames Yorke et Tien-Yien Li (voir l'encadré ci-contre). Au moins trois axes de recherche se rejoignent alors, qui puisent leurs sources dans les décennies précédentes : l'étude mathématique (et surtouttopologique) des systèmes dynamiques, celle de laturbulence dans les fluides et celle de trajectoires

44

non périodiques à l'aide de l'ordinateur. L'étiquette« chaos » est dès lors appliquée au champ derecherche qui émerge de cette convergence.

C'est grâce au mathématicien René Thom, créateur de la célèbre théorie des catastrophes, que fut développé le premier axe de recherche. Il s'agissait d'utiliser les outils de la topologie - une branche desmathématiques née de l'étude des propriétés géométriques se conservant par déformation continue -afin de modéliser les phénomènes de la nature.

En arrivant à l'IHÉS en 1963,Thom trouve unenvironnement favorable à une réflexion indépendante, à l'échange d'idées, à la constitutiond'équipes, et à l'exploration des conséquencesconcrètes de ses théories topologiques. Au départ,son programme reste très abstrait ; il souhaite classi-fier les fonctions réelles par rapport à l'un de leurscaractères topologiques, à savoir leurs singularités Mais en 1956, déjà, dans sa présentation auséminaire Bourbaki, il insiste sur la distinction entredeux types de singularités selon qu'elles sont, ounon, stables, c'est-à-dire qu'elles subsistent ou nonlorsqu'on déforme suffisamment peu la fonction. Ilaccorde de ce fait une grande importance, d'abordd'un point de vue méthodologique, puis philosophique, au concept de stabilité structurelle Supposée générique, cette propriété va permettre laconception parallèle de programmes de classification topologique des catastrophes par Thom, et dessystèmes dynamiques par le mathématicien américain Stephen Smale.

Le modèle des catastrophesDe fait, ces recherches mathématiques ont

rapidement d'autres buts que la classificationd'objets abstraits. « A côté de l'Analyse classique,essentiellement linéaire, déclare Thom en 1966, il y ale domaine pratiquement inexploré de l'analyse nonlinéaire; là, le topologuepeut espérer encore mieuxutiliser ses méthodes, et peut-être sa qualité essentielle,à savoir la vision intrinsèque des choses. » D'ailleurs,au début des années 60, il s'engage dans desexpériences d'optique et envisage l'application de sathéorie à l'étude du développement embryologique.Dès 1965, il prépare un manuscrit qui circule sous lemanteau. Véritable manifeste de la théorie des

catastrophes, il sera publié en 1972, sous le titre deStabilité structurelle et morphogenèse.

« Le modèle des catastrophes est à la fois beaucoup moins, et beaucoup plus qu'une théorie scientifique, écrira Thom ; on doit le considérer comme unlangage, une méthode, qui permet de classifier, de systématiser les données empiriques, et qui offre à cesphénomènes un début d'explication qui les rende

1- Elle s'impose au début du siècle, notamment avec Poincaré.2 - Les singularités d'une fonction représentent les points où les dérivées decelle-ci s'annulent.

3 - Ce concept est introduit en 1937par les mathématiciens russes Andronov etPontrjagin. Lorsqu'on perturbe une fonction qui est structurellement stable,qu'on la déforme, on constate, autour des singularités, une relation inversibleentre la fonction originale et la fonction perturbée.

Pour vous abonner : 01 46 48 47 17

Page 47: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

intelligibles. » Basés sur la topologie, ses modèles nepeuvent être, selon ses dires, que qualitatifs ; ils nefournissent pas de prédictions chiffrées contrôlablesexpérimentalement.

Autour de Thom, plusieurs topologues s'intéressent alors à l'extension de leur pratique à d'autresdomaines. Ainsi Christopher Zeeman produit-il, dès1965, de nombreux modèles qui, dans la secondemoitié de la décennie suivante, propulseront la théorie des catastrophes dans les médias. D'autres topologues, tout en restant sceptiques vis-à-vis de la théorie des catastrophes, voient, dans l'approche de Thom,une façon d'utiliser leurs outils afin de modéliser lanature : Smale, par exemple, conçoit des modèlesd'économie, tandis que l'Américain Ralph Abrahamfait de l'approche thomienne la pierre angulaire d'unlivre influent de mécanique céleste {Foundations ofMechanics). Tout un ensemble de pratiques de modélisation s'attachant à l'étude des phénomènes naturels à l'aide de notions topologiques émerge alors.Et grâce à l'IHÉS, quoique la philosophie thomiennesoit largement repoussée, ces pratiques vont être reprises et transformées par des physiciens.

En 1968, David Ruelle, collègue de Thom àl'IHÉS, commence à s'y intéresser.Dans un articlequ'il cosigne avec le jeune mathématicien hollandaisFloris Takens, il propose une explication, uniquement mathématique, pour l'apparition de la turbu-

4 - Entre autres, sur ('agressivité du chien, les émeutes dans les prisons, lecomportement politiquedes sociétés, le cœur, les influx nerveux...

/ .Extinction

2

Régime chaotiqueen écologie

des populationsPour modéliser divers phénomènes, comme par

exemple l'évolution d'une population animale d'uneannée sur l'autre, on peut introduire une variable x,.représentant le nombre d'individus à l'année /. Une

équation récurrente simple, appelée équation

logistique, peut servir de modèle rudimentaire

permettant de rendre compte de l'évolution d'une

population qui croît naturellement tout en restant

soumise aux limites de son environnement :

Xj + 1 = rXj (1-Xj)

Étant donné un tel système, on cherche à déterminerautour de quel nombre la population tendra à se

stabiliser, et on s'aperçoit que le régime stable verslequel le système tend, son attracteur, change radicalement de structure selon la valeur du paramètre r.

Pour r petit, le système approche rapidement unepopulation stable quelle qu'elle soit à l'origine ; pour

des valeurs un peu plus grandes, il oscille entre

différentes quantités (au nombre de 2,4,8, etc.),tandis que pour toute une gamme de valeurs de r

encore plus grande (mais pas toute), la populationne se stabilise jamais. C'est ce régime que Li et Yorke

ont, les premiers, qualifié de « chaotique ».

Région "Wltchaotique

r

45

Page 48: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

théorie du chaos : l*ordinateur en prime

Mathématiciens purs et dursLes années 60 sont marquées par l'idéologie des

mathématiques pures,introduite avant-

guerre par legroupe Bourbaki(pseudonyme

collectif de

mathé

maticiens

français). Peude place est

alors faite à

l'ordinateur.

46

Laphysiques'en mêie

S'inspirant del'approche topo-

f logique de Thom,David Ruelle propose,

en 1968, une explicationmathématique pour

l'apparition de laturbulence. Les physiciens

se penchent de près surses travaux.

lence. Celle-ci ne serait pas due au bruit, mais à lastabilité structurelle des attracteurs étranges qui,non périodiques, devraient pouvoir s'observer expérimentalement (voir l'encadré ci-contre). Or, en cedébut des années 1970, des groupes de scientifiquesd'horizons très divers s'intéressent à la turbulence,chacun avec leurs propres théories et expériences.

Alors qu'ils accumulent des données expérimentales sur le passage contrôlé de l'état stable à turbulent de systèmes assez simples (système de Taylor-Couette, de Rayleigh-Bénard, etc.), deshydrodynamiciens se heurtent ainsi aux difficultésmathématiques de la théorie non linéaire. D'unautre côté, sous l'égide d'Ilya Prigogine, des thermo-dynamiciens rapprochent ces exemples des « structures dissipatives » qu'ils ont l'habitude d'étudier enchimie. Enfin, des physiciens spécialisés dans l'étudedes phénomènes critiques, des transitions de phase,ou des cristaux liquides, s'approprient la turbulence,champ d'étude dans lequel ils espèrent pouvoir faireusage de nouvelles techniques théoriques et expérimentales qui leur sont propres. Sous l'impulsiond'une véritable idéologie de l'interdisciplinarité, lesphysiciens se saisissent peu à peu des travaux deRuelle sur les systèmes dynamiques pour en faireleur langage de prédilection.

Vers 1975, tandis que les recherches concernantl'étude topologique des équations et celles relativesà la turbulence finissent par converger, est redécou-

Pour vous abonner : 01 46 48 47 17

Page 49: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Système de Lorenz et attracteurs étrangesÀ la recherche d'un systèmesimple qui produirait dessolutions non périodiques,

le météorologue Edward

Lorenz introduira un

système d'équations différentielles qui représente une

simplification extrême duphénomène de la convec-

tion dans les fluides. Les

variables x, y et zsont des

fonctions du temps t qui

sont liées entre elles par des

équations non linéaires.dxidt = -Wdx + lOy,

dy/dt = -xz + 28x-y,

dz/dt = xy-8/3z.

C'est en voulant visualiser la

trajectoire des solutions

dans l'espace à trois dimension (x, y, z) qu'il produira

son second « papillon » qui

deviendra également un

emblème pour les explora

teurs du chaos. Ce papillon à

la structure très compliquée

(il ne s'intersecte jamais)

représente le régime stablevers lequel tend le système.Il s'agit donc d'un attracteur

qui possède une structure

de type fractal et qu'on

qualifiera d'étrange (ce qui

d'ailleurs n'a été démontré

que très récemment).

vert le système de Lorenz. A Berkeley, le groupe deSmale tente d'appliquer ses outils topologiques àson étude. Sans doute n'est-ce pas dû au hasard :l'approche topologique repose en effet sur le besoinvaguement ressenti de faire face au défi posé parl'ordinateur. D'ailleurs, pour comprendre la portéedes travaux du météorologue, un imposant arsenalmathématique est nécessaire (voir ci-dessus). Grâceà la disponibilité croissante de puissants outils decalcul, la construction d'une solution explicite à uneéquation différentielle ne pose plus de problèmes.Mais l'interprétation du résultat n'est pas immédiate : en 1964, déjà. Ruelle se demandait lequel del'ordinateur ou du chercheur serait l'outil de l'autre.

Il en concluait que les techniques servant à l'étuderigoureuse de la physique théorique devaient êtremodifiées.

Si l'émergence du chaos déterministe apparaîtcomme la conséquence d'une convergence, les causesde celle-ci sont multiples. Alors que leur utilité sociale est remise en cause les mathématiciens cher-

5 - En 1967,on peut ainsi lire dans le Washington Star : « Que peut faire StephenSmale que ne peut faire beaucoup plusrapidement un ordinateur ?»

chent une nouvelle légitimité à leur entreprise. Parallèlement, les physiciens qui s'attaquent au problèmede la turbulence, tout comme les scientifiquesconfrontés aux résultats numériques que l'ordinateurproduit en quantité, perçoivent l'intérêt de l'approchetopologique développée par Thom et Smale commelangage fédérateur entre les disciplines. Enfin, dansles milieux intellectuels français, le début des annéessoixante-dix est marqué par le sentiment d'une crisede la science. Les vieilles certitudes sont ébranlées parle tumulte soixante-huitard.

Dans ce contexte, la théorie des catastrophesapparaît comme une planche de salut et estaccueillie avec enthousiasme par des intellectuelscomme François Lyotard, Michel Serres ou EdgarMorin. Au rejet de la vague structuraliste dans lessciences humaines, s'associe une réévaluation dumodèle bourbakiste et de l'idéologie des mathématiques pures. Mais ce qui est alors proposé vise plusà changer la science qu'à la rejeter en bloc. Offrantde nouvelles façons de penser la dialectique del'ordre et du désordre, le chaos s'inscrit donc pleinement dans cette mutation des savoirs. •

47

Page 50: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Les cerveaux de Santa FeAu début des années 1980,

un nouvel institut de

recherche s'installe dans

la petite bourgade de Santa Fe, auNouveau-Mexique. S'il se distingue des autres institutions scientifiques, il est également très différent de ce qu'avaient imaginé sesconcepteurs. Son existence est dueà la convergence de bouleversements, caractéristique de notreépoque, dans les sciences et lasociété.

Aux États-Unis, la recherchese pratique dans les universités etdans les laboratoires nationaux et

privés. Bien qu'assez souples pourautoriser n'importe quel sujet derecherche, les premières sontnéanmoins organisées en filièresdisciplinaires, et guère expertesdans la création d'équipes pluridisciplinaires. Qui plus est, ellesn'évoluent que lentement lorsquede nouveaux domaines se révè

lent : il aura fallu attendre une

génération pour que des disciplines comme la biochimie, la biophysique ou l'informatique se mettent en place. A l'opposé, leslaboratoires nationaux et privéssont parfaitement à même d'organiser des projets pluridisciplinaires. Mais ils sont tenus de le

faire dans le cadre de missions bien

précises. L'institut de Santa Fe adonc été créé pour permettre des

48

Créé officiellement en

198-4, l'institut de Santa

Fe s'est vite imposécomme un centre de

recherche hors normes.

On y reste quelques joursou quelques années. On ycôtoie des prix Nobel etdes jeunes doctorants.Autant d'atouts pours'adapter rapidement auxnouvelles disciplines.

par MLke Slmmoru

recherches à long terme sur unlarge éventail de sujets, avec unepriorité aux travaux pluridisciplinaires. Avec, en tête, l'idée d'enfaire un modèle.

Les nouvelles propriétés d'unsystème naissent de ce qui existedéjà, mais elles représentent aussiun nouveau mode d'organisationdu système, un réarrangement ouune recombinaison de parties oud'idées existantes. Elles sont diffi

ciles à prédire. Et s'agissantd'organisations humaines, ellesrésultent de l'interaction d'indivi

dus aux idées et aux buts diffé

rents, mais aussi de la confrontation des idées à la réalité. Ce sont

tous ces aspects que l'on retrouvedans la jeune histoire de l'institutde Santa Fe.

C'est en mai 1984 que l'institutest créé. Il est le fruit des discus

sions, étalées sur plusieurs années,d'un petit groupe de chercheurs etde conseillers de Los Alamos. Mais

il devra attendre 1987 pour s'installer provisoirement dans unancien couvent, situé dans lecentre historique de Santa Fe, etdémarrer un petit programmed'ateliers.

Ses concepteurs le voulaientdifférent, dans la forme commedans l'esprit. Espérant des subventions conséquentes, ils pensaient eneffet créer des postes de professeurs éminents, rassemblant autourd'eux de jeunes chercheurs et étudiants, et délivrant un doctoratpropre à Santa Fe. On n'y assurerait pas de cours officiels, étantentendu que le niveau des étu-

Leur credo : une« autre » scienceÀ l'origine de l'institut, un groupe dechercheurs et de conseillers de Los

Alamos, qui ont imaginé un lieu derecherche pluridisciplinaire. Avec, entête, l'idée d'en faire un modèle.

S

Page 51: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Un lieu à partEn 1994, l'institut prend place dansses locaux définitifs. Mais il a déjà

plusieurs années d'existence derrièrelui, et, à son actif, des programmes

de recherche touchant tout autant à

l'économie, qu'à la biologie, lessciences humaines, la physique ...

diants serait tel qu'ils maîtriseraient déjà le sujet par leurslectures et leurs études. Ils yapprendraient, par leur implicationdans les programmes de recherche,à travailler avec chacun des

professeurs.Tel était le rêve. Autre fut la

réalité. Le financement n'étant passuffisant l'institut dut revoir ses

plans. Son premier programme futainsi fondé sur des ateliers, avecdes chercheurs invités, généralement payés par leurs propres institutions. Quant au doctorat, l'idée,trop coûteuse, fut abandonnée. Onpréféra recevoir des étudiants envisite, et lancer une universitéd'été sur les systèmes complexes.En 1994, l'institut avait acquis saforme actuelle.

Par bien des aspects, il diffèredes institutions de recherche

traditionnelles. Sans employésscientifiques permanents, il se veutlieu de passage. Les chercheursparticipant à ses programmespeuvent y séjourner de quelquesjours à quelques années ; si certains y sont associés à long terme,tous ont des postes fixes dansd'autres institutions. Il participenéanmoins à la formation d'étu

diants de premier cycle, d'étudiants diplômés et des post-docto-rants. Au total, on n'y compte enpermanence pas plus d'une quarantaine de scientifiques. Ce quifacilite d'une part les contacts, etd'autre part, l'adaptation rapideaux nouvelles opportunités.

Organisé sous la forme d'unesérie d'ateliers, et conçu pour ungroupe multidisciplinaire de chercheurs, le premier programme

I - En 1987, quand démarre dans l'ancien couvent leprogramme d'ateliers et de recherche par des scientifiques « en visite », le budgetde l'institutétait légèrement supérieur à 500000 dollars. Dans les dix annéesqui allaientsuivre, il augmenterait de 20 % par an. En1994, alors que l'instituts'installe dans ses locauxdéfinitifs, il n'est encore que de 3,9 millions de dollars.

Page 52: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Les cerveaux de Santa Fe

scientifique de l'institut Santa Feavait pour titre « Matrice deconnaissances biologiques ». Ilamena des spécialistes d'informatique, des communications et dediverses branches de la biologie àtravailler ensemble à l'élaboration

de bases de données accessibles en

direct et couvrant l'ensemble du

savoir en biologie, de l'écologie àla biochimie.

A l'époque, les scientifiquesdisposaient déjà, avec leurs ordinateurs de bureau, d'une puissance de calcul bien supérieure àce qu'elle était dans les grandscentres informatiques quelquesannées plus tôt. L'ordinateurs'apparentait, en ce sens, à un laboratoire permettant d'explorer denouveaux problèmes : parexemple, les systèmes chaotiqueset autres phénomènes nonlinéaires. Un des premiers programmes de l'institut, réalisé encollaboration avec le laboratoire

national de Los Alamos, cherchaainsi à appliquer le concept de

50

Priorité àl'informatiqueNe disposant pas d'un financementsuffisant, l'Institut a dû revoir sesplans. Finis le doctorat, les chercheurs permanents : Santa Fe devientun lieu de passage où transitent et secôtoient des étudiants, diplômés ounon, et des scientifiques de renom.Tout s'organise autour d'ateliers,dans lesquels l'ordinateur est à la foisoutil et objet de recherches.

chaos déterministe à la prédictionde phénomènes touchant desdomaines aussi variés que l'économie, les finances, la dynamique desfluides et les taches solaires.

Autre domaine très vite déve

loppé à Santa Fe : la recherche surles systèmes informatisésd'apprentissage, inspirée par labiologie, et rendue possible par lescapacités croissantes de l'ordinateur. Ce sont les réseaux neuro-

naux, mais aussi les systèmes decalcul prenant pour modèle l'évolution ou l'adaptation (algorithmesgénétiques, systèmes « Echo »,programmation génétique...) etmettant en jeu des populations de

programmes informatiques quientrent en

ftara compétition, se repro-duisent, et évoluent.Dans la même logique,l'institut s'est impliquédans le développementd'un outil de simula

tion, baptisé Swarm, etpermettant de modéli-ser des systèmes adaptatifs d'écologie,d'immunologie,d'archéologie,d'économie...

La puissance decalcul disponible etl'influence de la biolo

gie ont égalementabouti à l'explorationde systèmes informatiques ayant certainescaractéristiques com

munes avec les êtres vivants : c'est

ce qu'on nomme la « vieartificielle » ouAlife. Santa Fe etLos Alamos ont sponsorisé la première conférence internationale

sur ce sujet en 1987. Depuis, l'institut a accueilli plusieurs congrès surVAlife et initié des programmes derecherche en étroite collaboration

avec l'Europe et le Japon.Toujours en collaboration avec

Los Alamos, l'institut s'est aussiinvesti dans la recherche en immu

nologie théorique, en s'appuyantsur des modèles mathématiques etinformatiques. Ses résultats ontnon seulement influencé l'immu

nologie et la recherche sur le sida,mais aussi celle sur les virus infor

matiques (ils ont notamment inspiré des logiciels anti-virus).

Avec le recul, que l'institut deSanta Fe n'ait pas obtenu les subventions qu'il espérait à ses débutsparaît une bonne chose : c'est cequi lui confère sa faculté d'adaptation aux métamorphoses de lascience. Ses premiers programmesde recherche ont fait des adeptesen dehors de ses murs. L'institut

porte désormais ses efforts vers denouveaux objectifs, notammentdans les sciences humaines. •

Pour en savoir plus : wvw.santafe.edu

Pour vous abonner : 01 46 4847 17

Page 53: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

"V

A partir de^ années 1970^ L'ordinateur pénètre divertidomaine^i de La deience et de la teel^noiogief LjouLeversant ie^

méthodes de travail. En ajtronomie^ le*iformidable*^ eapaeitéddu calcul informatique révolutionnent l'observation du

cosmos. En chirurgie^ la simulation et la réalité virtuelleouvrent la voie à des opérations d'un nouveau type...

Page 54: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

>? 4

il

Les nouveaux

Répétition généraleSous le contrôle du chirurgien, le robot

reproduit avec une grande précision lesgestes opératoires. La chirurgie télérobotisée

permet, aujourd'hui, de réaliser des opérationsimpossibles il y a dix ans, comme certaines

chirurgies fines du cerveau.

Page 55: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

^ ~- - ' 'I •; ^r, S # ^

' Depuis que l'ordinateur s'est glissédans la salle d'opération, le virtuelcôtoie le réel pour mieux le servir. Lechirurgien peut aujourd'hui simulerl'intervention, revoir sa copie avant de

passer à l'acte, opérer à distance...

par TLinotIry LenoLr

Page 56: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Les nouveaux chirurgiens

Durant la dernière décennie, les ordinateursont pénétré dans les salles d'opération, aidant les médecins à réaliser un vieux rêve,

qu'ils n'avaient cessé de poursuivre depuis ClaudeBernard : rendre la médecine à la fois expérimentaleet prédictive. En pleine émergence, la chirurgie assistée par ordinateur a provoqué des changements fantastiques. Il est loin le temps des individus héroïques,se risquant à des opérations hasardeuses. D'ici peu,les chirurgiens n'auront plus à improviser sur la basede scénarios plus ou moins flous, rectifiant le tir devant chaque cas particulier. De puissants outils de modélisation leur permettront, au contraire, de simulerles opérations et guideront leurs gestes opératoires.

Les prémices de cette évolution remontent auxannées 1970. C'est à cette époque que les appareilsendoscopiques commencent à rencontrer un succèsfranc. Les premiers d'entre eux sont les arthroscopes,utilisés en chirurgie orthopédique pour examiner lesarticulations. Vers 1975, ils deviennent disponiblesdans la plupart des grands hôpitaux. Mais leur emploi relève alors davantage du bricolage que de la procédure courante. Avec de tels appareils, peu d'interventions peuvent être réalisées en toute sécurité. Lechirurgien doit en effet opérer en tenant l'endoscopedans une main, et un seul instrument dans l'autre...

Qu'est-ce qui a changé l'image de l'endoscopie ausein de la communauté scientifique ? Comment l'ar-throscopie, la cholecystectomie (ablation de la vésicule biliaire par de petites incisions dans l'abdomen) etbien d'autres microchirurgies sont-elles devenues desinterventions ordinaires? La clé a été l'introduction

de petites caméras médicales, pouvant être fixées àl'oculaire des endoscopes. Les Français ont été lespremiers à mettre au point de telles caméras vidéohaute résolution, petites et stérilisables. Grande nouveauté, dès lors, le chirurgien n'est plus seul à scruterle scope ; tous les membres de l'équipe peuvent suivrel'intervention sur un moniteur vidéo D'autant

que l'ajout de sources halogènes de haute intensité etde connexions en fibres optiques améliore la qualitédes images. En permettant un travail en coopération,la technique ouvre la voie à des interventions chirurgicales de complexité croissante. Grâce à elle, il devient possible de réaliser, sous seule vision vidéo-en-doscopique, des points de suture et desreconstructions chirurgicales. C'est ainsi que la première ablation de la vésicule biliaire sous endoscopieest réalisée par des Français, en 1989.

En France comme aux États-Unis, on conçoitalors de nouveaux instruments pour manipuler et inciser les tissus, ou pour juguler les hémorragies sousendoscopie. Les avantages de la technique sont évidents : petites cicatrices, douleur moindre et récupération plus rapide. Au cours des années 1990, elle devient monnaie courante dans presque tous lesI -J. Perissat, D. Collet, R. Belliard, « Gallstones ; laparoscopic treatment-cholecystectomy, sholecystostomy, and lithotripsy: our own technique », Surg.Edosc, vol 4 (1990),pp. 1-5.- F. Dubois, P. Icard, G. Berthelot, H. Levard, « Coelioscopic cholecystectomy :preliminary report of 6 cases », Annals of Surgery, vol2 II (1990), pp 60-62.

54

domaines de la chirurgie. La demande des patientsjoue un rôle certain dans cette évolution rapide. Maisle souci d'économie budgétaire des institutions desanté publique, à une période où le coût des soinsgrimpe en flèche, est également déterminant. Touteméthode facilitant les suites de la chirurgie et réduisant la durée du séjour à l'hôpital ne peut, dans cecontexte, qu'intéresser les fabricants d'instrumentsmédicaux. Et le succès des dispositifs vidéo-endosco-piques leur laisse entrevoir un nouvel éventail d'outilschirurgicaux et diagnostiques.

Dès lors, la chirurgie va entrer dans une ère detechnologie intense. Elle offre d'immenses opportunités aux firmes sachant associer chirurgiens et ingénieurs pour appliquer à la chirurgie mini-invasive lesdernières évolutions en robotique, en imagerie, etdans le domaine des senseurs. Cependant, malgrédes avancées pionnières, les instruments disponiblessont encore loin d'assurer l'ensemble des fonctions

complexes exigées par les chirurgiens. Il leur faudraitune meilleure visualisation, des manipulateurs plusfins et de nouveaux types de senseurs à distance. Letout intégré au sein d'un système complet...

Objectif : la téléprésenceUn nouvel axe de recherche se dessine alors, for

tement soutenu par les fonds de l'Advanced ResearchProject Agency (ARPA), du NIH et de la Nasa.L'idée est de développer des stations de travail en« téléprésence ». Le programme se nourrit descontacts établis avec des laboratoires comme l'Institut

de recherche de Stanford (SRI), le Johns HopkinsInstitute for Information Enhanced Medicine, les universités de Caroline du Nord et de Washington, la Clinique Mayo ou le MIT. Le Dr Richard Satava, à latête de l'ARPA, en est le grand promoteur. A quoidevrait ressembler une telle station de travail ? L'idée

est de réaliser à distance, de façon télérobotisée, desinterventions chirurgicales complexes, exigeant unegrande dextérité et une fine coordination main-œil.L'objectif est triple : réaliser des interventions encoreimpossibles au début des années 1990, telles certainesinterventions du cerveau; améliorer la rapidité et lafiabilité des méthodes existantes; réduire le nombrede personnes dans l'équipe chirurgicale. La télépré-sence-télérobotique est au centre du programme. Elledoit permettre de recréer, en les amplifiant, toutesles sensations motrices, visuelles et tactiles duchirurgien, comme s'il manipulait lui-même le corpsdu patient.

C'est en 1991 que l'équipe de Philip Green, auSRI, assemble le premier modèle fonctionnel de chirurgie par téléprésence. Épaulé par un financementdu NIH, Green construit rapidement un prototypede démonstration. Le concept de station de travail, ledispositif de contrôle optique et le type de manipulation sont semblables à ceux des systèmes actuels. En1992, le SRI présente un système de seconde génération, conçu pour les chirurgies d'urgence sur le terrainlors des conflits. L'équipe a développé tous les élé-

Pour vous abonner : 01 46 48 47 17

Page 57: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ments nécessaires - servo-mécanique, retour d'effort,visualisation 3D et instruments chirurgicaux - à laconstruction d'un système qui, piloté par ordinateur,manipule les instruments en reproduisant avec fidélité les gestes du chirurgien. Le robot dispose, pour sesmouvements, de 5 degrés de liberté. Il est, en outre,doté d'une réponse tactile extrêmement sensible.

Fin 1995, la technologie est vendue à la firmecalifornienne Intuitive Surgical, Inc. Celle-ci perfectionne le contrôle des instruments chirurgicaux. Lesystème EndoWrist™, breveté par le cofondateurde la firme, Frédéric Moll, permet d'ajouter deuxdegrés de liberté aux mouvements du robot (l'uncorrespond au geste du poignet lorsqu'on frappe àune porte, le second au mouvement de côté employépour essuyer une table). Avec ce nouveau système,le robot mime mieux les gestes du chirurgien. Il peutcontourner les structures délicates du corps, passerau-dessus ou en dessous. Grâce à des brevets IBM,Intuitive Surgical améliore aussil'imagerie vidéo 3D, la navigation et le passage de l'imagevidéo à l'échelle du robot.

Le système emploie unepuissance de calcul de250 mégaflops (mil-

: lions d'instructions

ipar seconde).! Une autre amé-

Ilioration cruciale est!apportée par

A'1

A.

Kenneth Salisbury, au laboratoire d'intelligence artificielle du MIT. Le chercheur s'inspire de l'interfacequ'il a déjà mise au point, avec Thomas Massie, danssonsystème PHANToM™. Inventé en 1993, PFIAN-ToM '̂'̂ permet à un utilisateurhumainde « toucher »

La sensation en plusLe système PHANToM™ (ici, manié par son co-

inventeur, Thomas Massie) permet de toucher etde « sentir », à distance, les contours et les textures d'objets virtuels ou réels. En insérant sondoigt dans le << dé » à retour d'effort (ci-dessus),le chirurgien sent ainsi l'aiguille pénétrer dans latumeur et mime, à l'avance, la biopsie cérébrale.

Page 58: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Les nouveaux chirurgiens

à distance des environnements virtuels ou physiques.Pour se connecter au mécanisme, il suffit d'insérer sonindex dans une sorte de dé. Le PHANToM™ suitalors à la trace le mouvement de l'extrémité du doigt.En retour, il exerce sur l'index une force externe,créant ainsi l'illusion irrésistible d'une interaction

avec les objets situés à distance. On peut aussi substituer au dé un stylet; l'utilisateur sent alors l'extrémité du stylet toucher des surfaces virtuelles. L'interface,dite « haptique » (du grec haptein, toucher), va bienau-delà des instruments conçus auparavant pour lachirurgie mini-invasive. Avant, toute sensation étaitexclue pour le chirurgien. L'interface haptiquePHANToM™ donne un élémentd'immersion supplémentaire. Lorsque le bras robotisé rencontre unerésistance à l'intérieur du patient, elle est transmise enretour à la console, où le chirurgien peut la sentir. Demême, en réalité virtuelle, si le dé atteint une position correspondant à la surface d'un objet virtuel,trois moteurs produisent des forces sur le dé qui imitent la sensation de l'objet. Le PHANToM™ reproduit toutes sortes de textures, y compris des surfacesrugueuses, glissantes, spongieuses, ou même visqueuses. Il mime aussi des frictions. Et si deuxPHANToM™ sont mis ensemble, l'utilisateurpeut« saisir » un objet virtuel entre le pouce et l'index. Eeperfectionnement des retours haptiques et visuels esttel qu'il facilite grandement la dissection, l'incision,la suture, ou d'autres actes chirurgicaux. Et ce, mêmesur de très petites structures, puisqu'il donne au chirurgien toute la liberté de mouvement nécessairepour inciser quelques millimètres. En outre, il peut

56

i.

s;

Au doigt et à l'œilPremière mondiale : en juin 1998, à l'hôpital Broussais, un pontage coronarien estréalisé entièrement sous vidéo-endoscopie. .>Le Pr A. Carpentier (à droite, sur la photo), VTles yeux rivés sur un écran vidéo, dirige lesgestes du robot Intuitive Surgical (recouvert de 'plastique, à gauche). C'est par trois petitesincisions de 1 cm que les « petites mains »,munies de micro-instruments, pénètrent jusqu'au cœur.L'équipe suit l'intervention sur un moniteur vidéo.

compenser les erreurs et les tremblements naturels dela main qui, sinon, compromettraient la technique.

C'est en mai 1998 que le manipulateur IntuitiTM

ve fait ses débuts publics, dans une chirurgie réelle. Cette année-là, le professeur Alain Carpentier et leDr Didier Loulmet, de l'hôpital Broussais, à Paris,réalisent, grâce à lui, six opérations à cœur ouvert.En juin de la même année, l'équipe parisienne effec-

Pour vous abonner : 01 46 48 47 17

Page 59: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

tue, pour la première fois au monde, un pontage coronarien vidéo-endoscopique, sans ouvrir la cage tho-racique, par de petites ouvertures de 1 cm. Aujourd'hui, plus de 250 chirurgies cardiaques et 150chirurgies entièrement vidéo-endoscopiques ont déjàété réalisées avec le système. Il a reçu, en janvier 1999,l'agrément pour être commercialisé dans toute laCommunauté européenne.

Les premiers modèles prédictifsUne autre avancée majeure est l'application à la

chirurgie de la modélisation et de la simulation par ordinateur. Là encore, tout commence dans les années1970, époque qui voit le développement de diversmodes d'imagerie numérique, comme la tomographieassistée par ordinateur (Computer Tomography, trèsutile pour visualiser les os), l'imagerie par résonancemagnétique (IRM) ou la tomographie par émissionde positons (TEP). Pour la première fois, on envisagealors d'élaborer des modèles quantitatifs précis, pourplanifier de nombreux types de chirurgie. Auparavant, il faut pourtant résoudre un problème de taille :ces techniques, en particulier la CT et l'IRM, ne donnent accès qu'à des sections bidimensionnelles ducorps du patient. L'étape suivante consiste donc à empiler ces sections dans un programme informatique,pour obtenir une visualisation 3D. Le pas est fait dès1977, par Gabor Herman et ses associés. La modélisation 3D est d'abord appliquée à la chirurgie cranio-fa-ciale. C'est en effet pour les os que les techniquesd'imagerie sont à l'époque les plus évoluées. Qui plusest, au contraire de nombreux domaines chirurgicaux,où une série de coupes 2D donne au chirurgien tousles renseignements voulus- les contours d'une tu

meur par exemple -, enchirurgie cranio-faciale, illui faut envisager le crânedans sa globalité.

Jeffrey March et Mi-chael Vannier, de l'université de Washington àSaint-Louis, seront lespionniers de l'imagerie3D appliquée à la chirurgie cranio-faciale. Jusque-là, pour planifier les opérations, on utilisait destracés du contour du crâ

ne, réalisés sur le papier àpartir de radiographies2D. Le chirurgien y découpait des fragments d'os, lesmanipulait et les déplaçait,jusqu'à ce qu'il obtienneun résultat global satisfaisant. Des mesures étaient

prises et comparées à unmodèle idéal. Puis un nou

veau cycle de découpage

/essai était entrepris. La procédure d'optimisation àla main était répétée, jusqu'à l'obtention d'un plan chirurgical promettant d'offrir au patient l'apparence laplus normale possible.

De 1983 à 1986, March, Vannier et leurs collèguesinformatisent chaque étape de ce cycle d'optimisation2D. Les visualisations 3D viennent à bout de certaines

déficiences. Une des limites des systèmes 2D était, parexemple, la difficulté à prédire le résultat de rotations (les incisions planifiées sous une perspective nesont plus correctes sous une autre). Le rendu de volume dans l'ordinateur permet de surmonter le problème. Mieux, la comparaison rétrospective des visualisations 3 D pré- et postopératoires pourraitpermettre d'optimiser les chirurgies. Un problèmefréquent en chirurgie cranio-faciale est l'obligation deréaliser plusieurs interventions successives pour obtenir un résultat final optimal. C'est le cas, parexemple, lorsqu'on insère des greffes osseuses dansdes brèches du crâne, l'opération entraînant une résorption plus ou moins importante de l'os. De même,un fragment d'os peut ne plus grandir après l'opération, et les tissus mous attachés peuvent contraindreses mouvements... D'où l'intérêt d'un simulateur chi

rurgical qui assemblerait, à partir des données d'imagerie, un modèle 3D interactif du patient. Il fournit au

La troisième dimensionMise au point dès la fin des années 70, la visualisation3D sera d'abord appliquée à la chirurgie cranio-faciale.Cet outil est aujourd'hui incontournable pour envisagerle crâne dans sa globalité et planifier l'opération demanière optimale. (Vue en 3D des sinus de la face.)

57

Page 60: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

/

L

Les nouveaux chirurgiens

JWipS;Û4 '̂ >' h'.L •

Un remodelage sur mesureCette méthode zurichoise de simulation fait appel nonseulement à la géométrie des os et des tissus, maisaussi à leurs propriétés physiques. Elle utilise laméthode dite des « éléments finis ». Le visage estdécomposé en petits éléments triangulaires, contenantchacun 5 couches d'os et de tissus, de rigiditésdifférentes. Le chirurgien modèle l'ensemble de façoninteractive, guidé par le système de modélisation.

chirurgien des outils similaires à ceux utilisés, en ingénierie, dans la conception assistée par ordinateur.Le chirurgien pourrait alors manipuler et comparerdes vues « avant » et « après », pour élaborer un planchirurgical optimal. '

C'est en 1986 que March et Vannier mettent aupoint leur premier simulateur. Pour optimiser la position des os et reconstituer au mieux la forme nor

male, ils utilisent un logiciel commercial de conception assistée par ordinateur. Par la suite, desprogrammes spécifiques seront conçus pour la chirurgie cranio-faciale, permettant au chirurgien d'élaborer de multiples plans préopératoires.

Pour que ces modèles soient vraiment quantitatifset prédictifs, il leur faut refléter non seulement lagéométrie, mais aussi les propriétés physiques des oset des tissus. C'est le défi qu'ont relevé R.M. Koch,M.H. Gross et leurs collègues, de l'Institut fédéral detechnologie (ETH), à Zurich. Ils ont appliqué uneméthode venant de la physique, l'analyse par éléments finis. Leur approche va bien au-delà d'unesimple modélisation géométrique par « meilleure adéquation » entre les os faciaux. Le visage est décomposé en éléments triangulaires, formés d'une coucheosseuse et de cinq couches de tissus mous : épiderme,derme, tissu conjonctif sous-cutané, aponévrose etmuscles. Chacun de ces éléments est connecté à un

autre par des « ressorts » de rigidités différentes. Lesparamètres de rigidité des tissus sont déterminésd'après les données scanner. Dans ce modèle, chaqueélément de volume a sa propre physique. Le chirurgien repositionne les os ou les tissus mous de façon interactive, guidé par le système de modélisation, qui in-jecte la géométrie traitée dans le programmed'analyse par éléments finis. La forme obtenue correspond à celle où l'énergie globale de la surface, enprésence de forces externes, est minimale. On obtient ainsi des images 3D hautement réalistes de laforme après chirurgie. Par la suite, ce type de simula

58

tion a été étendu à l'œil, la prostate, le poumon, lefoie, les anévrismes cérébraux, et la chirurgieorthopédique.

En chirurgie cardio-vasculaire, les applicationssont tout aussi impressionnantes. Les techniques desimulation par ordinateur ne se limitent plus à lamodélisation de structure. Elles peuvent simulerune fonction, comme, par exemple, la circulation dusang chez un malade qui a besoin d'un pontagecoronarien. C'est le cas du système développé parCharles A. Taylor et ses collègues, au Centre médical de Stanford. 11 permet d'obtenir, par la méthodedes éléments finis, un modèle 3D du réseau vascu-laire et du débit sanguin du malade. Un logiciel desimulation, fondé sur les équations gouvernant lacirculation du sang dans les" artères, fournit alors unepanoplie d'outils au médecin, qui peut prédire leseffets de plans alternatifs de traitement. Avec de telssystèmes, la médecine prédictive n'est plus seulement un rêve ; elle devient réalité.

La « réalité augmentée »Ces quelques exemples le montrent : la modéli

sation par ordinateur ajoute une dimension tout àfait nouvelle à la chirurgie. Pour la première fois, lechirurgien peut planifier et simuler une opération,en s'appuyant sur un modèle mathématique quireflète l'anatomie et la physiologie réelles de chaquepatient. En outre, le modèle n'est pas obligatoirement cantonné hors de la salle d'opération. Plusieurs groupes de chercheurs ont développé des systèmes dits de « réalité augmentée » qui permettentde fusionner, en temps réel, le modèle numérique etl'image du vrai champ opératoire, filmé par unecaméra stéréo 3D. Le procédé a été appliqué avecsuccès pour opérer des tumeurs du cerveau et pourl'ablation de la prostate, dans le cadre du Programme de chirurgie assistée par réalité virtuelle(VRASP) de la Clinique Mayo, sous la direction deRichard Robb.

Un autre avantage de l'ordinateur, et non desmoindres, est qu'il permet au chirurgien des'entraîner et de répéter les interventions importantes avant d'entrer en salle d'opération. C'est vers1995 que les techniques de réalité virtuelle ont étémises en œuvre à la fois dans les simulateurs

d'entraînement et dans les chirurgies en temps réel.L'un des premiers systèmes à réunir toutes cescaractéristiques est celui de lan Hunters, un chercheur en robotique du MIT. Baptisé système robotisé microchirurgical (MRS), il a été conçu pour lachirurgie ophtalmologique. Il combine l'acquisitionde données par tomographie et IRM, l'analyse de laprocédure chirurgicale par la méthode des élémentsfinis, et une interface haptique à retour d'effort.Avec cette interface, le chirurgien perçoit les forcesmises en jeu lors de l'incision des tissus, y compriscelles qui lui seraient normalement imperceptibles sielles lui étaient transmises par ses propres mains.

Un trait distinctif du système de Hunter est son

Pour vous abonner : 01 46 48 47 17

Page 61: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

m

Au cœur des innovationsDans la chirurgie cardio-vasculaire, la simulation ne selimite plus à la modélisation de structure. On peutainsi, sur un modèle 3D du cœur du patient, simulerune fonction précise, comme la circulation du sangdans les artères ou les battements cardiaques.

environnement virtuel immersif, qui fusionne la vidéo, le toucher et le son. Le chirurgien, qui voit lesimages de la caméra stéréo 3D dans un visiocasque,peut répéter son opération sur le modèle numériquedu patient. Exactement comme s'il était dans un si

mulateur de vol... Il peut aussi partager son expérience avec des étudiants, présents à ses côtés, visionnant les mêmes images et sentant les mêmes mouvements. L'étape ultime est la téléchirurgie encollaboration, où plusieurs spécialistes prennent tourà tour le contrôle des instruments, lors des différentesphases de l'intervention. L'approche ne relève plus dela science-fiction. Le 5 mai dernier, le site de recherche Nasa-Ames a fait la démonstration pratiqued'une telle « cliniquecollaborative», avec des participants dispersés en cinq lieux différents desÉtats-Unis, •

59

Page 62: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

wWr :•'ïy.

Page 63: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

LlUnivers

Avec ses énormes capacités de calcul

et de traitement de l'image,

l'ordinateur s'est peu à peu interposé

entre l'astronome et le ciel. Au point

que la simuUition tend à supplanter

l'obsei'vation.

par Jeau-Marc Boiiiiet-Bu)aii()

L'Univers en boîteCette carte, centrée sur la terre, montre que les

galaxies ne se répartissent pas de façonuniforme, mais en énormes « superamas ». Pour

l'obtenir, il a fallu entrer dans l'ordinateur les

positions de quelque 15 000 galaxies...

Page 64: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L*Univers en numérique

Il n'est finalement pas si loin le temps où l'on parlait avec effroi de calculs « astronomiques ». Passi éloignée, l'époque héroïque où des bataillons

entiers de « calculateurs » humains œuvraient, enchaînés à leur table de travail, les yeux rivés sur lestables de logarithmes de Mrs Bouvard et Ratinet.Leur objectif? Décrocher la dernière décimale, cellequi permettrait de fixer avec exactitude la prochaineéclipse ou la position précise d'une étoile dans le ciel.Kepler, le premier, avait réalisé l'importance de cescalculs fastidieux, lui qui, à force d'obstination calcu-latoire, avait réussi à arracher aux observations deTycho Brahé le secret des lois du mouvement des planètes. Depuis lors, les astronomes étaient avant toutde prodigieux calculateurs. Rien d'étonnant donc à ceque l'astronomie ait été à la pointe constante du développement et de l'utilisation des nouveaux moyens ducalcul « électronique » et de l'informatique moderne.

Dès la fin de la Seconde Guerre mondiale, le premier grand calculateur électronique, l'ENIAC, développé à partir de 1943 auxÉtats-Unis, le sera sur lesconseils avisés d'astrophysiciens comme l'AllemandHans Bethe, directeur scientifique du groupe de LosAlamos, en charge de la fabrication de la premièrebombe atomique. De fait, seule cette nouvelle puissance de calcul automatisé permettra d'étudier, dansun temps raisonnable, les réactions nucléaires, semblables à celles qui se déroulent au cœur des étoiles.Les astronomes seront aussi parmi les premiers à êtrereliés entre eux par l'ébauche initiale du réseau mondial d'ordinateurs. C'est à Tim Berners-Lee, membredu CERN à Genève, le centre de recherche en physique des particules aux nombreuses applications as-trophysiques, que l'on doit le concept du « Web », latoile mondiale apparue en 1989 et sur laquelle estbasé le réseau actuel Internet.

Un périlleux exerciceEn quelques dizaines d'années, le paysage astro

nomique, comme celui de beaucoup d'autres sciences,s'est trouvé bouleversé par ces nouveaux moyens informatiques, qui incluent désormais non seulementla puissance du calcul, mais aussi le traitement del'image. Cependant, à la différence d'autres domaines,l'objet astrophysique, étoiles ou galaxies,n'est pas ma-nipulable : on ne peut le ramener dans l'espace closdu laboratoire. C'est donc aujourd'hui l'ordinateurseul qui peut en fournir une image, reconstruitecertes, mais condamnée aussi à être virtuelle. Ce périlleux exercice ne va donc pas sans risque, celui d'inventer une image de la réalité sans rapport avec... laréalité. Les scientifiques qui tentent de reconstruirel'image globale du cosmos sont confrontés à ce typede contradictions.

L'astronomie n'était pas, a priori, une science trèsréceptive aux techniques modernes de calcul. Il y amoins de trente ans, le décor de l'astronome était encore celui du papier millimétré et de la règle à calcul.Il a fallu la révolution des techniques spatiales pourle faire brutalement basculer de la technique de l'ar-

62

wm

«â. sr -imn

• --f• Lïf

-i:A

psneeuB

g •10 ON.AXIS0 2 6 14 22 38

LcU.., 1.,, ,

l i i l

A

A""'•| I -i"

20 10 0

0 30 20 10

GALACTiC GAMf

c^

-\; \J

Page 65: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ii

RAY EMISSION

300 270 240

ENERBY RANQE ; 70 MeV — S OaV

d

4 ] 4 4 TT^

'i \

4 4 4 4

'•i

240 210 180

Une explosion reconstituéeL'ordinateur a révolutionné les méthodes d'observation.De son bureau, l'astronome peut aujourd'hui observeret analyser des objets astrophysiques. L'image de lasupernova SN1987A, ci-contre, a été reconstruite àpartir des données transmises par le télescope Hubble.

tisan à celle du calcul industriel à la chaîne. Un des

meilleurs exemples est celui du satellite COS-B, fleuron précoce de la recherche spatiale européenne, lancé en 1975 pour établir la première carte de notreGalaxie en rayons gamma. A bord du satellite étaientenregistrées les traces de ces rayons lumineux trèsénergétiques qui, traversant une chambre à étincelles,laissent derrière eux une succession d'impulsions électriques. La reconstruction précise de la trace permettait de calculer l'angle exact d'arrivée du rayon gamma et donc son origine sur le ciel. Pour la premièrefois, les données transmises par le satellite furent analysées de façon automatique, par un des premiers« micro-ordinateurs », un PDP-11 (Program DataProcessor). Un engin qui occupait tout de même unepièce entière et dont la capacité était de loin inférieure à celle de la plus simple des machines actuelles !La technique était à ce point rudimentaire que, parallèlement à cette lecture « automatique », on avaitestimé plus sûr de faire examiner les mêmes traces pardes opératrices, des « scanneuses », qui visionnèrentdes heures durant des milliers de traces. De ce premier examen de passage, l'ordinateur sortit gagnantcar, parmi ces milliers de cas, seuls quelques-uns furent trouvés douteux. L'analyse scientifique bénéficia aussi du plus gros ordinateur de l'époque, l'IBM360, mais il m'est resté de douloureux souvenirs destrois bacs de cartes perforées qu'il était nécessaire delui faire avaler pour tenter de découvrir trous noirset pulsars de la galaxie !

Aujourd'hui beaucoup plus convivial, l'emploi desordinateurs a contribué à une véritable révolution de

l'astronomie. Le quotidien du chercheur a radicalement changé. Une des premières conséquences dustockage aisé de l'information a été l'établissement demonstrueux catalogues. Celui qui permet le pointagedu télescope spatial Hubble contient plus de 19 millions d'étoiles. Les sources de rayonnement infrarouge découvertes par le satellite IRAS sont, elles, réunies dans un catalogue aux 200 000 entrées, unchiffre qui sera sans doute multiplié par dix par sonrécent successeur ISO. De même, le satellite allemandROSAT a répertorié plus de 150 000 sources derayons X dans l'Univers. Cette liste dépassera de loinle million avec l'observatoire spatial américain Chan-

Premiers succèsC'est à partir des données transmises par le satelliteCOS-B, lancé en 1975, qu'est établie la première cartedu rayonnement gamma de notre Galaxie. L'opération avaleur de test : elle prouve l'efficacité des traitementsautomatiques de l'information, encore à leursbalbutiements dans les années 70.

63

Page 66: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L*Uiiivers en numérique

dra, qui vient d'entrer en service, et qui sera suivi,début 2000, par son homologue européen XMM. Cescatalogues, directement accessibles sur le réseau informatique, permettent désormais d'établir des cartesde l'Univers de façon presque immédiate. Fini, lelonrd et fastidieux inventaire d'interminables co

lonnes de chiffres auquel devait encore se livrer l'astronome il y a quelques années...

L'ordinateur a aussi modifié les méthodes d'ob

servation, dévoilant de nouveaux sujets d'étude. Larecherche de la fameuse matière noire, masse invisible qui pourrait constituer 90 % de notre Galaxie,est enfin devenue possible. Et ce grâce à la surveillance presque continue de centaines de milliers d'étoileset à la recherche automatisée de l'effet dit de « lentille

gravitationnelle » (amplification transitoire de la lumière d'une étoile lorsqu'nn corps obscur croise saligne de visée). De la même façon, la recherche dessupernovae, explosions d'étoiles lointaines qui se traduisent par l'apparition temporaire sur le ciel d'unfaible point lumineux, au milieu de millions d'autresétoiles, était autrefois une tâche surhumaine. Elletient désormais de la routine pour les ordinateurs quiexaminent, de façon systématique, des clichés du cielpris à intervalles réguliers. Jusqu'à peu, la seule méthode était celle du blink ou clignotement. Artisanale,la technique consistait, par nn jeu de miroirs basculants, à examiner de façon alternative et rapide deuximages de la même région du ciel, prises à des moments différents. L'œil humain pouvait ainsi percevoirfacilement l'apparition d'un nouveau point lumineux.Dans ce domaine, les progrès ont été fulgurants, puisqu'on est passé de quelques dizaines de supernovaedécouvertes par an à plusieurs centaines. I3es avancées telles qu'elles ont ouvert un champ tout nou-

Toujours plus de donnéesPar un stockage plus aisé de rinformation, l'ordinateura ouvert la voie à l'établissement de volumineux

catalogues. Comme celui des 150 000 sources de rayonsX, répertoriées par le satellite allemand Rosat, lancéen 1990 (ci-dessus, son centre de contrôle). Cette listedevrait vite dépasser le million avec l'observatoirespatial américain Chandra (ci-contre), qui vient d'entreren service. Chargé d'étudier les astres de haute énergiecomme les trous noirs, il a une résolution 50 foissupérieure à celle des télescopes courants.

64

Page 67: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

m

veau de la cosmologie. Ces nombreuses supernovae,souvent détectées jusqu'à de grandes distances dansl'Univers, permettent en effet de mesurer plus précisément l'expansion de l'Univers. Elles ont fourni undes résultats les plus spectaculaires et inattendus deces derniers mois. Par leur étude, deux équipes indépendantes sont en effet arrivées à la même conclusion : contrairement à toutes les prévisions, l'expansion de notre Univers semble subir une étrangeaccélération, dont l'origine est encore inconnue.

L'astronomie est une science d'observations, maisaussi de prédictions. Dans ce domaine également,l'ordinateur a modifié les mœurs. Sans jamais pouvoir accéder au cœur du Soleil, les astrophysicienssont néanmoins capables de prédire la températurequi y règne, fis le font à l'aide d'équations et de loisphysiques fondamentales, qui leur fournissent des estimations de grandeurs simples comme la pression, ladensité, la température. Néanmoins, lorsque les phénomènes deviennent complexes (mouvement de gaz,effondrement d'étoiles, collisions de galaxies) oulorsque le nombre de paramètres influant sur le résultat devient trop élevé, les équations ne donnentplus de résultats simples. Pour faire une prédiction, ildevient alors indispensable d'effectuer une simulationnumérique, c'est-à-dire de calculer, pas à pas, les multiples effets qui s'ajoutent les uns aux autres. Cettetechnique de simulation, qui nécessite une forte puissance de calcul, est aujourd'hui courante dans desdomaines très variés. Elle est employée par exemple

AAO/D - MALIN- CIEL& ESPACE

Supernova : avant et aprèsLa détection de ces étoiles lointaines en explosion tientaujourd'hui de la routine. Les ordinateurs ont pris lerelais de l'œii humain, examinant de façon systématique des clichés du ciel pris à intervalles réguliers. Lenombre de supernovae découvertes chaque année estpassé de quelques dizaines à plusieurs centaines.

65

Page 68: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L*Mnivers en numérique

pour calculer les efforts subis par une carrosserie ouune aile d'avion. Les résultats du calcul sur ordinateur

sont alors suivis par des essais en soufflerie, pour vérifier les prédictions de l'ordinateur.

Pour l'astrophysicien, il en va tout autrement.« L'expérience n'a lieu qu'une fois dans l'espace cosmique et dans des conditions que nous ne pouvonscontrôler. Nous ne pouvons qu'observer passivementet l'expérience directe est impossible. Nos simulationsnumériques deviennent alors les seules expérimentations virtuelles que nouspouvons réaliser », remarque Romain Teys-sier, spécialiste de la simulation numériquedans le service d'astro

physique du CE.A. Ainsi, s'il est impossible derecréer le Big Bang, onpeut calculer, sur ordinateur, l'évolution d'unUnivers empli au départd'un gaz homogène. Detels calculs sont effectués

depuis plusieurs années.Ils mènent tous à une

%

même conclusion. Au bout d'un certain temps, sousl'effet de la gravitation, le gaz homogène va se condenser et former des amas en équilibre, qui ressemblentfort aux amas de galaxies que nous observons. Dans cecas, l'expérience virtnelle a atteint son but, reproduirele réel et donc démontrer la validité des hypothèsessur l'enchaînement des phénomènes.

Il ne faut pas se fier à l'apparente simplicité de cessimulations numériques, qui ne font intervenir que lagravité. Elles sont en réalité extrêmement difficiles à

i

Galaxies enformationÀ défaut de reconstituer leBig Bang, l'ordinateurpermet de simulerl'évolution de l'Univers,empli, au départ, d'un gazhomogène. Sous l'effet dela gravitation, celui-ci secondense d'abord en

formant d'énormes

filaments (ci-contre). C'esten leur sein qu'apparaissent les jeunes amas degalaxies (en bas. Universau tiers de son âge actuel).

Page 69: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

réaliser. La gravitation est en effet uneforce particulière, qui a une portée infinie, et à laquelle rien ne peut faireécran. En toute rigueur donc, pour calculer le mouvement d'une particule,d'une étoile ou d'une galaxie, il fautprendre en compte l'action de toutesles autres particules de l'Univers ! Deplus, les calculs doivent être suffisamment précis pour pouvoir rendrecompte de l'évolution de galaxies dansun volume d'Univers dont la taille est

plus d'un million de fois plus élevée,autrement dit, une goutte de matièredans un océan de vide. L'ordinateur

doit donc effectuer ses calculs pour desmillions de cellules, et suivre leur évolution simultanément. Une telle « ré

solution », indispensable, équivaut aucalcul du devenir d'une côte maritime à partir du mouvement de chaque grain de sable !

Ces simulations, baptisées N-corps, sont parmiles plus complexes de la science moderne et dépassentencore, dans certains cas, les capacités des ordinateursactuels. Leurs plus grandes applications sont tout aussi bien le calcul d'un disque de matière autour d'untrou noir, l'évolution d'un amas d'étoiles, les conséquences d'une collision de galaxies ou la formationdes amas de galaxies après le Big Bang. A chaque fois,les limites sont fixées par le nombre de particules quepeut traiter simultanément l'ordinateur.

La méthode du mille-pattesEn dehors des applications militaires, l'astrophy

sique est donc le tout premier client des super-ordinateurs. Des monstres de calculs dont les capacités semesurent désormais en gigaflops et teraflops {Floa-ting-point opérations per second), soit respectivementun milliard et mille milliards d'opérations par seconde. Un client tellement exigeant que c'est pour des applications exclusivement astrophysiques que futconstruit, par le Département des sciences de l'information de l'université de Tokyo (Japon), la machinealors la plus rapide du monde, GRAPE-4 (GRAvityPipE-4). C'est le premier ordinateur à avoir dépasséla barrière record du teraflops, le 28 juillet 1997.

Depuis, plusieurs machines ont atteint une rapidité équivalente : le TSE de Cray, l'IBM SP2 ou le Si-licon Graphies 02000. Toutes sont basées sur lamême technique du mille-pattes, c'est-à-dire sur l'association de plus d'un millier de processeurs travaillant en parallèle. Ils permettent désormais, danscertains cas, de traiter plus d'un million de particulessimultanément.

D'après Romain Teyssier, « avec cette puissancede calcul, on peut considérer que la formation desamas de galaxies et des grandes structures de l'Universest correctement résolue par les simulations ; en revanche, tout reste à faire pour Information des galaxiesou celle des étoiles, car d'autres processus que la gra-

Pour vous abonner ; 01 46 48 47 17

Des conséquencesincalculablesCalculer le mouvement d'une particule ou d'une galaxieimplique de tenir compte de la gravitation, et donc del'interaction de toutes les particules de l'Univers...Certaines simulations, comme la collision de galaxies,dépassent les capacités des ordinateurs actuels.

vité sont à l'œuvre, qui n'ont pu encore être introduitsdans les calculs ». Pour pallier ces limites, des effortsincessants sont actuellement déployés pour améliorer les méthodes mêmes des calculs et permettre àl'ordinateur d'atteindre plus efficacement ses objectifs. Ainsi la méthode du maillage adaptatif, inventéepar Karl-Heinz Winkler, au laboratoire Los Alamos,a-t-elle révolutionné le domaine au début des années

1990. Elle consiste à faire travailler l'ordinateur de

manière « adaptée », plutôt que de lui faire réaliserdes calculs dans des millions de cellules à la fois. Les

calculs ne sont plus effectués en simultané dans tout lemaillage, mais seulement là où c'est nécessaire, parexemple là où une galaxie est en train de s'effondrer.Le calcul automatisé devient alors intelligent et beaucoup moins gourmand en puissance.

Le secteur du calcul numérique occupe chaquejour plus de place dans la recherche astrophysique.Dans les publications, la simulation tient souvent lieude démonstration. Reste alors un problème majeur :comment s'assurer, sans l'appui de l'expérience directe,que les calculs de l'ordinateur reproduisent réellementla réalité ? Selon Maurice Meneguzzi, spécialiste de laturbulence en astrophysique au CNRS, le problème estréel : « Il y a une probabilité que tous les codes soientfaux, les méthodes numériques deviennent si complexesque leur contenu est invérifiable. Dans le pire des cas,vous avez donc ce que les Américains appellent de façonimagée mais peu élégante le « garbage-in, garbage-out »,ordures à l'entrée, ordures à la sortie! »

Le problème est considéré comme suffisammentgrave pour susciter d'intéressantes confrontations.L'université de Santa Barbara, aux États-Unis, a ain-

67

Page 70: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L*llnivers en numérique

La fin époquePour nombre d'astronomes, encore attachés à l'aspect aventureuxde leur métier, la place croissante de l'informatique signifie aussi lafin d'un rêve : ces moments privilégiés passés sur les sommets, en

symbiose parfaite avec le ciel. (Observatoire de Mauna Kea, Hawaii.)

si récemment organisé un symposium baptisé « Clus-ter Comparison Project ». L'objectif était de réunirtoutes les équipes importantes ayant effectué des simulations de la formation des amas de galaxies. Ellesont été invitées à faire fonctionner leur code de calcul,chacune avec les mêmes ordinateurs et dans les

mêmes conditions, de façon à s'assurer de leur cohérence. Si une telle preuve par le plus grand nombren'est pas irréfutable, au moins ces bancs de test permettent-ils d'éliminer les erreurs les plus flagrantes.Pour l'instant, l'expérience numérique de la simulation n'est pas considérée comme une preuve définitive, mais plutôt comme un argument supplémentairedans une démonstration. Il n'est pas exclu néanmoinsque demain, les simulations ne fournissent une grande partie des images astrophysiques, reconstruites parle calcul, et autrement inaccessibles. C'est déjà le caspour les disques de matière autour des trous noirs,ou pour l'étonnante répartition « en bulles » des galaxies dans l'Univers.

Mort d'une étoileLa boule de feu, ou supernova, 4h

après l'explosion : la matière estconcentrée vers l'extérieur, avec de

fortes irrégularités (en rouge). Ladensité croissante du gaz est codéedu bleu au rouge. Les images issues

des simulations numériques sontles seules que nous puissions avoird'un phénomène qui se déclenche

en quelques millisecondes.

68

L'univers des astronomes n'a pas fini d'être bouleversé par la puissance de l'informatique. Pourtant,ces progrès ont aussi des conséquences regrettables.Devant l'amélioration considérable de la rapidité decommunication des ordinateurs par le réseau Internet, l'Observatoire européen Austral situé au Chili atenté, il y a quelques années, une première : le contrôle automatique d'un de ses tout nouveaux télescopeset l'observation astronomique à distance. De son bureau, l'astronome dirigeait un télescope situé à desmilliers de kilomètres et analysait en direct les imagesobtenues, transmises instantanément sur son ordinateur. L'expérience en est restée à ses balbutiements,car il était très difficile de fournir à l'astronome une

évaluation réaliste des conditions météorologiques.Du coup, les inévitables ennuis techniques nécessitaient un contact téléphonique quasi permanent avecla coupole. Cette astronomie à distance semble cependant, dans le futur, inévitable. C'est bien sûr déjàle cas pour toutes les observations effectuées grâce à

des satellites. Pourtant, certains astronomes au moins restaient atta

chés à l'aspect aventureux de leurmétier qui les envoyait s'isoler aux

^ sommets des montagnes, en sym-3 biose totale avec le ciel. Ce métier,5 comme celui des allumeurs de ré-É verbères, est sans doute condamné^ à disparaître. Alors, la machineI aura volé à l'homme l'un de sesI plus beaux rêves. •

Pour vous abonner : 01 46 48 47 17

Page 71: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Unne science du démordre^ ded dyt^tèmet^ complexes, et de^t^LmiiLation^ donnantjour notamment à une nouvelle théoriede la contraction musculaire... Un supercalculateur dont lesupport ne seraitplus électronique^ mais biologique... Voiciquelques-uns des nouveaux champs de recherche ouverts par

les ordinateurs.

Page 72: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Virtuellement

La vie —artificielle —est un long programme... Les chercheursqui se piquent au jeu entretiennent de singuliers rapports avec

leurs créatures numériques. Petite enquête ethnologique aupays des « Créateurs ».

Au début des aimées 1990, le biologiste Toiii Ray cou^-oit Tierra, uiimodèle d'évolution sur ordinateur. Dans ses expériences, Ray lanceun iiiiique prograinnie autoréplicatit'au sein d'une soupe primor

diale d'iiirormatioiis numériques. Qu'obtieiit-il ? Selon ses propres termes :im « écosystème » au sein duquel des « populations d'organismesnumériques » peiiveiit « évoluer ». Ray, pour qui l'évolutionse définit conmie l'histoire de la survie différentielle de

structures à inforniation réplicaute, n'éprouve aucunmal à étendre à ce « monde artitlciel » ce vocabulaire

associé à la « vie ». A ses yeux, des programmesiiiforniatiqiies capables d'aiitoréplicatioii - tels desvirus informatiques - sont comparables si desformes de vie.

A la lui des aimées 1990, cette assimilatioii du code informatique au codegénétique est devenue iiii lieu coiniiiiiii dans le champ de la vie artitî-cielle. Un domaine scientifiqueoù l'on cherche si simuler et

synthétiser sur ordinateur desdynamiques qui mimeiit lavie. Ceux qui y travaillentxiieiit leur projet commeune biologie théorique dehaut vol et comme une entre

prise beaucoup plus ambitieuse que l'iiitelli^eiice artificielle. Alors que, Isi, leschercheurs se limitent si essayerde modéliser la pensée, dans la vieartificielle, ils iioiirrisseut l'espoir de simulerles processus vitaux qui sous-teiideiit l'évolution d'ohjets comme la pensée. Kt leur siiiihi-tiou va même plus loin : ils r iseiit iioii seulement à modéliser la vie dans ses formes

par Stefan Helnweich

*Jîlt

mm

9

Page 73: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

I

r

Du code génétique aucode informatique

Dans nombre de modèles de vie

artificielle, un organisme n'est riend'autre qu'une chaîned'informations, à l'instarde l'ADN (ici, en bleu).

y

Page 74: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Virtuellement Pieu

existantes, mais aussi dans des formes hypothétiques, avec l'idée de dresser une carte de la biologiedu possible. Comment en est-on venu à voir dansdes programmes informatiques des prétendants àdes formes de vie et à imaginer le cyberespacecomme un « milieu » où des créatures pouvaient« vivre » ?

Force est d'abord de constater qu'à une époqueoù les « gènes », assimilés à des programmes, sontsensés détenir le secret de la vie, l'idée que cette dernière soit un programme est toute proche. En conséquence, qu'aux dires des chercheurs dans le domainede la vie artificielle, le darwinisme soit numérisableet la vie possible dans le silicium n'a rien pour étonner. Dans cet article, j'aborderai cette affirmation enethnologue, examinant les mythes et les métaphoresqui animent la vie artificielle. En effet, le fait quecelle-ci apparaisse comme concevable ne tient passeulement aux dernières percées intellectuelles de labiologie ou à l'emploi d'ordinateurs plus sophistiqués. La culture occidentale et le contexte métaphysique y ont aussi leur part.

Au milieu des années 90, j'ai effectué uneenquête ethnologique à l'institut de Santa Fe, dansl'État du Nouveau Mexique. Cet institut, spécialisédans l'étude de la complexité, est un haut lieu de larecherche sur la vie artificielle et un centre où l'on

cherche à modéliser sur ordinateur les dynamiquesnon linéaires de systèmes complexes, de l'immunitéaux systèmes écologiques. J'y ai interrogé des chercheurs sur le statut qu'ils donnaient à ces formes de

Objectif : se reproduireDes milliers de spermatozoïdes qui entourent cet ovule,un seul pourra franchir la porte d'entrée pour le féconder. La vie se définit par la reproduction : telle est lacertitude de nombre de chercheurs en vie artificielle.

D'où leurs efforts pour écrire des programmes capablesde se reproduire, si possible en se diversifiant.

3^%

vie artificielle et sur leurs rapports à cescréations. Les résultats complets de cette enquêteont été publiés dans un livre récent ^^1. Dans cetarticle, je me limiterai à analyser leurs idées sur lacréation et la procréation. J'évoquerai ensuite lalogique culturelle qui a conduit à faire du cyberespace un « milieu » et à transformer des simulationsen « mondes » capables d'abriter la « vie ».

La monogenèse masculinede la vie artificielle

Une idée figure au cœur des croyances sur levivant chez de nombreux chercheurs de Santa Fe : la

vie se définit par la « reproduction ». Cette certitudeexplique leurs efforts pour écrire des programmesde simulation non seulement capables de se reproduire, mais de le faire en se modifiant, de telle sortequ'ils génèrent une diversité de formes prêtes à êtretriées par un modèle informatique de sélectionnaturelle. Omission fréquente dans leurs descriptions de l'évolution résultante de ces créatures vir

tuelles : le fait qu'à l'origine, ces programmes auto-réplicatifs sont conçus et écrits par desprogrammeurs humains. Arrêtons-nous sur l'introduction de ce code dans la vie.

Commençons par l'instant de la création dans leprogramme Tierra, en nous imaginant assis devantl'écran d'une station UNIX. Les visuels qui accompagnent Tierra n'ont rien de spectaculaire. Four lancer la simulation, on tape « tierra » sur l'invite.Apparaît alors un écran semblable à celui de lafigure 1, et sur lequel va s'afficher, sous forme denombres constamment remis à jour, toute l'information sur l'histoire du monde à mesure qu'elle estproduite. Nous connaissons ainsi, à tout moment, lenombre d'instructions exécutées, le nombre decycles de générations, le nombre de créatures existant dans le système, etc.

La figure (à droite) nous montre ce que l'onpeut lire au début de l'histoire de Ter-

ria. Nous sommes à la génération zéroet il n'existe qu'un seul organis

me numérique, indiqué parNumCells = 1. C'est le pro

gramme autoréplicatifconçu par Ray : sa fonc

tion est de mettre en

route le système. Rayappelle cet individunumérique « l'ancêtre ». Il le décrit

comme un seed'selfreplicating program

j ce qui, traduit littéralement, signifie : ï

« programme autoré- jplicatif germinal ». ê

tI - Silicon Second Nature : culturing :

artificiel life in digital world, University of 'California Press, 1998. l

è

Page 75: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Un mot pour créer la vieLe programme d'évolution « TIerra » affiche l'instant dela création. Nous sommes à la génération 0. Au milieud'informations numériques a surgi r« ancêtre » ;NumCells = 1. Un organisme prêt à se répliquer et àévoluer.

Seed est un mot très courant en informatique.On l'emploie habituellement dans l'expression ran-dom number seed (en termes techniques : nombrealéatoire de référence). Ce nombre, en fait pseudoaléatoire, sert de point de départ à un ensemble deprocessus de calcul. En employant le mot seed, Rayse conforme à cette acception. Mais en anglais, seeda un autre sens, plus courant. Il signifie graine, voiredans son acception littéraire, lignée. Dans le langagede Ray, ce sens est aussi présent. De façon latente,ce nombre possède, en effet, le potentiel pour sedévelopper en une forme vivante.

Les connotations du mot seed sont toutefois plusriches que cela. D'après l'anthropologue CarolDelaney, son emploi pour désigner l'impulsion créatrice, dans les cultures influencées par les récitsjudéo-chrétiens de création et de procréation, faitressortir un imaginaire masculin. Dans la Genèse,Dieu, représenté comme masculin, fait surgir la viedans le vide informe du monde avec une sorte de

semence divine : le Verbe créateur ou logos sperma-tikos. Dans les récits judéo-chrétiens de procréation,les mâles, à l'image de Dieu, plantent leur semenceactive dans la « terre » passive, réceptive et nourricière des femelles, et de ce fait « les fertilisent ».Création et procréation sont, dans ces histoires,« monogéniques ». Elles sont générées à partir d'uneseule source, symboliquement masculine.« L'Homme et Dieu » sont à l'image l'un de l'autre.

Dans Tierra, la création mime symboliquementle récit de la Genèse. Le concepteur du programme

Pour vous abonner : 01 46 48 47 17

est apparenté au Créateur divin. Il met en route lavie avec un mot, un mot qui ensemence une matriceinformatique réceptive.

Ray n'est pas le seul à « jouer » avec des représentations de ce genre. Elles semblent en fait omniprésentes dans le domaine de la vie artificielle, oùplus de 90 % des praticiens sont des hommes. Nombreuses sont les simulations dans lesquelles les programmes de référence {seedprograms) portent lenom d'« Adam ». Les liens symboliques entre paternité, masculinité et création de vie synthétique seretrouvent dans les propos de ce chercheur m'expli-quant que, s'il créait des mondes artificiels, c'était enpartie parce qu'il se sentait frustré de ne pas êtreune femme et de ne pouvoir donner la vie « naturellement ». Lors d'une conférence, un autre chercheurs'est lancé dans un parallèle amusant entre le mâlequi crée la vie artificielle et la femme qui fait naîtrel'humain : « Remerciements tout particuliers à monépouse Lisa et à notre premier enfant Eric, né à peuprès au même moment que l'individu 15653 du runC ». D'une certaine façon, la vie artificielle apparaîtcomme le dernier avatar d'un récit scientifique etmythique qui, de Pigmalion, au Golem et à Franken-stein, raconte toujours la même chose : celle d'unegenèse masculine de la vie.

La vie artificielle, aux dires de son fondateur,Chris Langton, est « une tentative pour abstraire laforme logique du vivant des différentes formes matérielles qu'il prend ». Selon cette définition, il est doncpossible, et utile, de distinguer propriétés formelles

L'enfantement au masculinLes représentations mythiques ou scientifiques de lagenèse masculine de la vie (ci-dessus, Frankenstein) sontomniprésentes dans le domaine de la vie artificielle.Est-ce étonnant ? Plus de 90 % des concepteurs deprogrammes sont des hommes...

73

Page 76: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Virtuellement Dieu

et matérielles, l'important étant la forme. Dans laphilosophie naturelle et la science occidentales, laforme et la matière sont, comme la semence et laterre, elles aussi porteuses de valeurs de genre.Reprenons l'ouvrage d'Aristote : La génération desanimaux. On peut y lire que dans la procréation, « lemâle apporte la "forme" et le principe du mouvement, tandis que la femelle apporte le corps, autrement dit, la matière ». Cette mise en genre de laforme et de la matière coïncide avec la métaphorede la semence et de la terre nourricière. Entre

« forme » et « semence », la superposition des représentations s'opère facilement dans la vie artificielle,quand les praticiens font des analogies entre le codeinformatique - l'information - et le code génétique.Ainsi, quand Ray parle de créer à lui seul la vienumérique dans Tierra à partir d'une « graine »,quand il remarque que « cette vie existe dans un univers informationnel logique, non matériel », quand ilaffirme que « en tant que créateur de l'univers Ter-rian et des formes de vie, (il) joue essentiellement lerôle de Dieu », il est difficile de ne pas entendre leséchos d'une création monogénique masculine.

De façon plus générale, la vie artificielle est hantée par la référence à Dieu. A la question de savoirce qu'il ressentait lorsqu'il construisait ses simula-

74

Un « milieu » propiceCertains ne se contentent pas d'insuffler la vie ausilicium. Ilsvont plus loin. Étudier sur ordinateurl'histoire naturelle de mondes artificiels permet, disent-ils, de dresser une carte de la biologie du possible.

tions, un chercheur me répond : « Je me sens commeDieu. En fait je suis Dieu par rapport aux univers queje crée. Je suis en dehors de l'espace/temps où ces entités sont enfouies ». Ce Dieu-là est l'animateur impassible de la cosmologie judéo-chrétienne médiévale.Chez les chercheurs, cette représentation a pourorigine la lecture de romans fantastiques de science-fiction dans lesquels des humains revêtent le manteau de créateur de vie. Il ne fait évidemment guèrede doute que leur langage a sa part d'espièglerie etde jeu. La plupart d'entre eux sont en effet desathées convaincus, toujours prêts à se moquer de lareligion instituée. L'imagerie divine est cependantessentielle aux concepteurs de programme. Elle leurpermet de s'entretenir dans l'idée qu'ils ont, à uninstant donné, créé de la vie, une vie dont ils peuventse prendre, l'instant suivant, pour des observateursobjectifs. Pour faire naître des formes de vieartificielle, deux langages sont nécessaires : celui

Pour vous abonner : 01 46 48 47 17

Page 77: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

de la théologie et celui de la théorie de l'évolution.Les notions judéo-chrétiennes d'un Dieu mascu

lin qui crée d'abord, puis se tient à l'écart de sa création, ne participent naturellement qu'à une partie del'histoire. L'identification, dans la biologie contemporaine, des organismes à leurs gènes promeut aussil'idée que des programmes peuvent être des formesde vie. Dans Tierra, et dans de nombreuses modélisations de vie artificielle, un organisme n'est riend'autre qu'une chaîne d'informations. Ray, parexemple, écrit que « le "corps" d'un organismenumérique n 'est que l'assemblage d'information enmémoire qui constitue le langage machine ». Cesassemblages sont vus comme le « génotype » d'unorganisme numérique. Ce qui rend pensable cetteidée est que la biologie contemporaine considèredéjà le matériel génétique comme un codage d'éléments triés - une métaphore elle-même empruntéeà l'informatique. Un chercheur interrogé se montred'ailleurs si convaincu par cette métaphore qu'il luiest impossible de la percevoircomme telle. Écoutons-le : « Au bout d'un certain

temps, l'analogie entre des programmes autoréplicatifs et les organismes vivants s'avère si parfaitequ'il devient pervers de qualifiercela de simple analogie. Il est plusjuste de redéfinir le mot "organisme" pour qu'il s'applique à lafois à des créatures chimiques etinformatiques. Ce qu'elles ont encommun est beaucoup plus important que ce par quoi elles peuventdifférer. »

dynamique propre ou "lois de la physique"; ces loisune fois définies, nous lançons le système et observons son comportement. »

De telles justifications scientifiques à proposd'univers informatiques croisent d'autres récits issusde la culture plus large dans laquelle baignent leschercheurs. Ces derniers, lorsqu'ils décrivent leurssimulations d'univers alternatifs, en appellent souvent à une conception de la nature en résonanceavec les récits judéo-chrétiens de la création et de laconservation du monde. Ils donnent d'eux-mêmes

l'image de créateurs méticuleux, écrivant le livre dela nature en code binaire. Dans ce substrat

numérique, la vie, puisqu'elle est faite d'information, est chez elle.

Pour ces chercheurs, la science-fiction constitueune autre et importante source de représentations. Plusieurs m'ont déclaré avoir été inspirés pardes histoires dans lesquelles les mondes artificielsétaient crées par des entités qui se prenaient elles-mêmes pour Dieu. Le nom de l'écrivain polonais

Stanislas Lem revenait souvent,notamment une histoire extraite de

son « Cyberiad » dans laquelle unpersonnage construit un royaumeminiature à partir de mathématiques. Ce genre de récits reprendune théologie familière maisréécrite dans un jargon évolution-niste et cybernétique. Poussant unpas plus loin la logique de lascience-fiction, de nombreux chercheurs m'ont soutenu que la création sur ordinateur de mondes arti

ficiels était nécessaire pour étendrela théorie biologique dans leroyaume du possible, vu que, pourl'instant, toute tentative de faire del'histoire naturelle sur des planètesappartenant à d'autres systèmessolaires, est inconcevable.

Le discours populaire qui associe les réseaux d'ordinateurs à des

« cyberespaces » renforce l'idéeque les processus informatiquespeuvent être pensés comme s'ilsexistaient dans une sorte de terri

toire. Les nouvelles créations de la

vie artificielle se déploient dansune terre numérique « vierge ». Defait, plus d'une simulation de vieartificielle offre, dans son scénario

initial, une configuration qui porte le nom de «jardin d'Éden ».

L'idée de peupler cette nouvelle terre nousintroduit dans une autre thématique associée à la vieartificielle : celle de la colonisation. Le cyberespace,comme l'espace extérieur toujours hors de portée,prend le statut d'une nouvelle frontière, unedeuxième nature prête à être peuplée par l'imagina-

Terres inconnuesNourris de science fiction, les mondesartificiels sont associés au thème de

la colonisation ; chaque nouvellecréation revient en effet à peupler une

terre numérique « vierge ». Lesconcepteurs se placent ainsi en

position d'explorateurs intrépides denouveaux « cyberespaces ».

Le silicium,une deuxième natureVoyons maintenant comment

les simulations sont devenues des

mondes ou des univers alternatifs -

ce que j'appelle des secondesnatures de silicium - des lieux

capables d'abriter la vie. Pour denombreux chercheurs, un« monde » ou un « univers » se défi-

nissent comme un système fermé iautocohérent. Il est régi par des lois |élémentaires qui soutiennent des |phénomènes de plus haut degré de ^complexité. Ces phénomènes, s'ils §dépendent de ces lois, ne peuvent sen dériver simplement. Si l'onretient cette définition, les systèmes de calculsconstituent raisonnablement des mondes ou univers.

Telle est la conception qu'exprime le chercheur envie artificielle David Hiebeler, dans un article ; « Lesordinateurs fournissent une idée nouvelle d'universartificiels simples et fermés, dans lesquels on peutcréer des systèmes contenant un grand nombre d'éléments simples en interaction. Chaque système a sa

75

Page 78: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Virtuellement Dieu

tion du premier monde. Pour qualifier leur travailsur les univers numériques, de nombreux scientifiques évoquent fréquemment « l'exploration denouvelles terres. »

Qu'elles placent les concepteurs de programmeen position de dieux, de créateurs uniques de vie,d'observateurs objectifs et transcendants oud'explorateurs intrépides des frontières ultimes ducyberespace, toutes ces chimères ont en commun demobiliser un imaginaire masculin. Mais pasn'importe lequel : celui de l'homme blanc qui chasse,explore, s'embarquepour l'aventure de ladécouverte de terres

inconnues, et, parcequ'il nomme etoccupe, se sent sflr delui et de son pouvoir.L'imagerie masculinede l'exploration renforce également unereprésentation féminine des « terres » de

l'hyperespace, ce quis'inscrit dans la vision

occidentale tradition

nelle de la nature. La

Nature, un être vivant- tantôt nourricier,tantôt sauvage - dansla philosophie européenne du XVIL^siècle, désanimée etmécanisée aux XVIII et XIX*^ siècles, reprendaujourd'hui vie, sous la forme d'un énorme systèmede calcul.

Une fois admis que des simulations puissentconstituer des mondes, dès lors, une grande partiedu vocabulaire qui sert à décrire des objets vivantsdu monde réel peut s'appliquer à des objets quin'existent que dans l'espace artificiel du calcul. Pourles chercheurs, les simulations de vie artificielle neconstituent qu'une permutation du monde qu'ilsconnaissent, codé en binaire.

Vie et nature en cours de mutationLa vie artificielle est bien plus qu'une nouvelle

façon de penser la biologie. C'est un signe de lamutation de nos représentations de la nature et de lavie dans un monde de plus en plus informatisé. L'idée que l'organisme, et la vie elle-même,sont fondamentalement d'essence informationnelle,s'y voit illustrée et poussée à ses limites logiques.

La logique de la vie artificielle va aussi transformer la texture de notre expérience quotidienne desmachines. Dans notre vécu, les ordinateurs apparaissent déjà comme situés au-delà de notre compréhension, comme animés par des logiques qui les rendent opaques et d'une inquiétante étrangeté. Lacroissance d'Internet et du World Wide Web fait

massivement appel à des métaphores organiques. Al'âge de l'informatique personnelle et des réseaux,les ordinateurs, après avoir définitivement cesséd'être les symboles de la rationalité bureaucratique,sont devenus plus « naturels » à l'usage. Alors quede la logique organique est injectée dans le calcul, ilest possible que nous en venions à expliquer leurefficacité par le fait que leur fonctionnement reposesur des principes naturels. Dans le même fil, lemonde naturel nous apparaîtra comme incarnant ducalcul informatique. Les frontières entre processus

naturels et artificiels

s'effaçant, les cristallisations culturelles

enfouies dans de telles

représentations risquent de devenir difficilement discernables.

Dans ces conditions, ildeviendra essentiel de

scruter les idées quinichent à l'intérieur de

nos constructions de la

nature. Le but ne sera

pas de les éliminer, cequi serait impossible,mais que nous puissions voir que nosreprésentations de lanature constituent une

réalisation sociale quinous concerne tous.

Dans cet article, jeme suis limité à évoquer un étroit, mais influent, secteur de la recherche sur la vie artificielle, associé auSanta Fe Institute. Il faudrait y ajouter tous ceuxpour qui ce champ est en train de pointer lecaractère artefactuel de nos représentations de la« nature ». Un biologiste travaillant sur les organismes vivants et impliqué dans ce champ m'a ainsidéclaré : « Nous sommes partie prenante dans ce quis'appelle la nature. Les choses que nous comprenonscomme la vie relèvent en réalité de l'artificiel. Elles nesont que des artefacts de notre propre pensée. La vieartificielle va nous forcer à percevoir la sciencecomme notre construction. » Face à cette possibilité,la vie artificielle pourrait nous apparaître commeune pratique où l'idée du « naturel » est à la fois solidifiée et déconstruite.

Chris Langton soutient que la vie artificiellenous permettra de comprendre non seulement lavie-telle-que-nous-la-connaissons mais aussi la vie-telle-qu'elle-pourrait-être. Cette affirmation estcompliquée, et selon moi, pleine de promesses. Lavie artificielle offre en effet une occasion unique depenser la relation entre science et nature, représentation et réalité, ordinateurs et biologie, et ainsi lesvoies par lesquelles notre culture tissée de mythes etde métaphores façonne nos conceptions de la vieelle-même. •

La lutte pour l'existenceLa vie artificielle traduit non seulement notre nouvelle façon depenser la biologie, mais aussi celle de nous représenter lanature dans un monde de plus en plus informatisé. (Deux organismes se battent pour un cube, mimant la sélection naturelle.)

Pour vous abonner : 01 46 48 47 17

Page 79: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

M

SCIENCE & VIE

• SL

VOUS proposent

TSiTTTdTTTr'Uk3

Science &Vie et^ence &Vie Junior organisent, sous lehautpatronc^ du Mir^^re de l'Éducation Nationale et de la Recherche,le con^MJrs "OBJ^BF SCIENCE", destiné àsélectionner tes représentants la France «Concours Européen pour les Jeunes Scientifiquesqui aéra lieu en seprambre 2000 à Amsterdam,et au concoursinternational des Jeunes chercheurs en environnement organisépar lajugend Forscht

LES SELECTIONNES FRANÇAISEN 98

Hervé TRINQUET, Nicolas POUSSIELGUE etPierre MELIA, pour "les effets de la lumière

surlesplantes"Benoit PEGHAIRE et Laurent LEGROSDIDIER

pour "Inversion duchamps magnétique".

UN CONCOURS PASSIONNANT# Vous présentezune recherche

scientifique originale, théorique ouappliquée, dans le domaine

de votre choix.4 Vous pouvez concourir seul(e) ou par

équipede 3 personnes maximum.

»R

LES PRIX À GAGNER5000,3000 et 1500 euros,des stagesen

laboratoire, des séjoursen campsderechercheet la possibilité de rencon

trer des savants de renommée Interna

tionaleet des jeunes chercheurs detoute l'Europe.

MODALITÉS D'INSCRIPTION4 Clôturedes Inscriptions ;

le 1°'janvier2000.4 Date limite de remisedes projets :

le 30 mars 2000.4 Concours réservé aux 15-21 ans,

en 1°'° annéed'enseignementsupérieur maximum.

ORGANISMES PARTENAIRESL'ANSTJ, l'APBG (association desprofesseurs

de Biologie et deGéologie), l'APMEP (association desprofesseurs de Mathématiques del'enseignement public), leCNES, leCNRS,

L'IFREMER, l'INRA, l'INSERM, lesOlympiadesde physique, l'Union desPhysiciens

et sous lepatronage du MINISTERE DE L'EDUCATION NATIONALE ET DE LA RECHERCHE.

VOUS ÊTES INTÉR.ESSÉ(E) ?Demandez rapidement un dossier de candidature avec le règlement du concours

DEMANDE DU DOSSIER DE CANDIDATURE ET DU REGLEMENT

Àretourner sous enveloppeaffranchie avant le 3 / 01 / 2000 minuità OBJECTIF SCIENCE -1, rue du Colonel-Pierre-Avia 7550Î PARIS Cedex 15

Nom Prénom.

Adresse

Code Postal Ville.

i00

SiDate de naissance Niveau d'études S

SiConformément à la loi informatique et Libertés du 06/01/78,vous disposezd'un droit d'accès aux données personnellesvous concernant. Par notre intermédiaire, vous pouvezêtre amenés à recevoirdes propositionsd'autressociétés ou associations. Si vous ne le souhaitez pas, ilvous suffit de nous écrire en nous indiquant votre nom, prénom, adresse, et si possible, votre référence client.

CSV 53

Page 80: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Un tissu d'uneprodigieusefinesseDes filaments d'un *millionième de millimètre du

longueur, impeccablement malignés... Telle est l'allure, 1sous le microscopeélectronique, des muscles - ^,actionnant notre squelette^ >Un si haut degréd'organisation facilite leur*^ imodélisation sur ordinateur. 4

Xfi''

Page 81: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

i.

m

.Jf'l •

- •iïï"--

SP'

1^.'

C'est par le mouvement coordonné de

milliers de molécules que les muscles

produisent des forces. La simulation,

sur ordinateur, de ce « ballet »

moléculaire amène à formuler une

nouvelle théorie de leur contraction.

par Coiutantine KreaUoala^fUnoLindberg et ClarenceE. Schatt

Page 82: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Nouveau regard sur le muscle

Dessiècles durant, Thumanité s'est échinée àcomprendre comment les muscles utilisentl'énergie provenant de la nourriture pour

produire du travail. Nos ancêtres - aucun doute là-dessus - se sont demandés ce qu'acquiert une flèchelors du bandage d'un arc, ou ce que perd un javelot àla fin de sa course. Pour certains historiens, c'est précisément le désir de comprendre ce que des musclestendus pouvaient bien communiquer à l'arc et laflèche, au javelot ou à la fronde qui aurait conduit àla découverte de cette clé de voûte de la science

moderne qu'est la notion de force. Aristote prêtaitune caractéristique première à la matière vivante :celle de pouvoir générer son propre mouvement.Par quoi le vivant s'opposait à tous les autres objetsde la nature dont la loi commune dictait qu'ils restent au repos. Les spectaculaires exploits de nos athlètes, l'écoulement du sang sous pression dans latotalité de nos tissus, le mouvement fin de notreregard, notre capacité à parler, tout cela résulted'extensions et de contractions hautement contrô

lées de nos fibres musculaires. Mais c'est seulement

depuis peu, grâce à la souplesse de fonctionnementet à la puissance exceptionnelle des ordinateurs,qu'on a pu comprendre comment des systèmesvivants transforment de l'énergie chimique en travail mécanique.

A la suite des succès obtenus par Galilée, Kepleret Newton dans la découverte des lois du mouve

ment des planètes et d'autres corps mus par desforces externes, de nombreux physiciens mathématiciens, notamment des pionniers comme Laplace,Hamilton et Lagrange, s'étaient donné commeobjectif d'exprimer toutes les formes du mouvementà travers une formulation mathématique concise etélégante. Le mouvement animal, pourtant, a longtemps posé problème. Cela ne tenait pas seulementà la complexité du contrôle nerveux et des bouclesrétroactives dans les systèmes musculaires. Celatenait aussi à celle des molécules protéiques elles-mêmes, constitutives de la matière biologique. S'ilest vrai que toute théorie d'un processus biologique,par exemple de la contraction musculaire, doit sesoumettre aux lois de la physique, il est souventnécessaire, pour la bâtir, de puiser dans des conceptsdéjà appliqués avec succès à d'autres phénomènesbiologiques. En 1960, Monod et Changeux avait présenté l'élégante théorie de l'allostérie. Elle visait àexpliquer comment l'expression des gènes étaitrégulée par des changements de symétrie et deformes affectant les molécules. Par analogie, cettethéorie a aussi permis de décrire la façon dontl'hémoglobine fixe l'oxygène et le libère dans les tissus, ainsi que le mode de production du carburantuniversel du vivant, l'ATP.

Des moteurs à combustion InterneTout comme nos cellules musculaires, les

moteurs à combustion interne produisent du travailmécanique à partir de l'énergie contenue dans les

80

liaisons chimiques, et libérée lors de la décomposition du carburant en substances plus simples. Dansles moteurs mécaniques, les pièces qui travaillent(pistons, cylindres, bougies, arbres à cames) ont unetaille qui permet de les manipuler. On peut comparer les forces qu'elles produisent à celles que nousmettons en jeu pour déplacer et pousser les objetsqui nous entourent. Dans les moteurs biologiques,les pièces mobiles sont, elles, si petites que pourrévéler leur structure, on est obligé de faire appel àde puissantes techniques : diffraction aux rayons Xet microscopie électronique. Partant des données dediffraction, des logiciels spécialisés livrent ensuitedes images détaillées des molécules qui forment lesmuscles. Puis, grâce à ces images, nous pouvonsconstruire des théories sur la façon dont des petitschangements de structure affectant un nombreastronomique de molécules sont coordonnés pourproduire les forces qui nous permettent d'agir surnotre environnement.

Entre moteurs et muscles, la différence n'estpourtant pas seulement d'échelle. Les moteurs àcombustion interne produisent du travail parl'explosion contrôlée d'hydrocarbures, compriméset enfermés dans des chambres métalliques. La dilatation des gaz de combustion repousse lespistons. Ces derniers sont connectés au vilebrequin,lequel, via un système d'entraînement, met en mouvement les arbres à cames. Dans les moteurs méca

niques, les pièces mobiles elles-mêmes, faites enmétal, ne changent pas de forme au cours ducycle. Au contraire, étant rigides, elles agissent surune substance travaillante, vapeur ou gaz d'hydrocarbures, qui subit des changements d'état durantchaque cycle. Les fibres musculaires, elles, sontconstituées de molécules protéiques relativementsouples et déformables. En fait, sous l'effet du mouvement brownien qui les agite en permanence, chacune de ces molécules subit tellement de collisions

avec des molécules de solvants, que, pour être exact,on ne peut parler que de sa structure moyenne dansle temps. Pendant la contraction musculaire, ses parties travaillantes subissent de subtils changementsde structure à mesure que le carburant estconsommé, et découvrir comment ces mouvementsatomiques sont coordonnés n'est pas une minceaffaire.

La théorie des moteurs mécaniques a pour origine l'analyse du rendement des machines à vapeurfaite par Sadi Carnot, en 1824. Elle s'est développéeau point de ne plus présenter, aujourd'hui, aucunmystère. Notre compréhension des moteurs àessence s'appuie sur une grande invention du XIX^siècle : la théorie cinétique des gaz. Ses fondateurs,Ludwig Boltzmann et James Clerk Maxwell, avaienttrouvé des techniques de calcul leur permettant desommer les impacts d'une quantité astronomique demolécules sur les parois d'une enceinte. Grâce à cesprocédés analytiques, les variables macroscopiques(pression et température) figurant dans la loi des gaz

Pour vous abonner : 01 46 48 47 17

Page 83: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

*

Une idée de physiciensFondateurs de la théorie cinétique des gaz, LudwigBoitzmann (en haut) et James C. Maxwell ont joué unrôle décisif dans la compréhension des moteurs mécaniques. Restait à passer à leurs analogues biologiques..

parfaits, PV = nRT, pouvaient être expliquées entermes de mouvements et d'impacts d'un ensemblestatistique d'atomes. En clair, les propriétés macroscopiques d'un gaz pouvaient être décrites en totalité par les mouvements microscopiques de ses éléments. En matière de réductionnisme, on pouvaitdifficilement faire mieux. La force totale quis'exerce sur la paroi est simplement la somme desimpacts individuels des molécules.

Avec une loi des gaz, on peut expliquer de façonprécise comment travaille un moteur à combustion interne. Le moteur rotatif Wankel (voir la figure. 1) a undesign simple : un piston de forme triangulaire présente trois points de contact avec la paroi d'unechambre de combustion. A tout instant, alors que lepiston tourne, les quatre étapes du cycle de combustion (cycle d'Otto) se reproduisent dans des volumesétanches. En principe, on peut calculer le travail accompli par un moteur Wankel à partir des changements physiques qui affectent le mélange de carburant tout au long du cycle. Les pièces du moteur nechangent pas ; seules varient leurs positions relatives.

Le moteur rotatif biologique le plus proche d'unmoteur Wankel est ce qu'on appelle le « Fl-ATPase ». Il est constitué de plusieurs protéinesaccolées, liées à une molécule d'ATP. A l'inverse deson modèle mécanique, il subit de subtils changements de structure lorsque le moteur tourne sousl'effet de la décomposition de l'ATP (voir figure 1).Le couplage entre ces microchangements de structure et le rendement de travail externe n'est passimple à calculer et la modélisation sur ordinateurdes mouvements de ce moteur rotatif ne remonte

qu'aux toutes dernières années.

Une hiérarchie stricteLes fibres musculaires sont des dispositifs iso

thermes. Pour produire du travail, elles ne transforment pas des différences de température en flux dechaleur ou en dilatation. Elles capturent et canalisent des changements submicroscopiques dans lastructure des protéines et les amplifient pour enfaire des mouvements macroscopiques. Pour découvrir comment les muscles génèrent de la force, il estessentiel de comprendre la structure moléculaire deces fibres. A la différence des gaz, composés d'unnombre immense de petites molécules se déplaçantau hasard, les muscles forment des rangées complexes de très grandes molécules, organisées enpaquets réguliers de fibres parallèles. Leur organisation hiérarchique est une caractéristique de tous lessystèmes vivants (voir la figure 2). Un tel système aplusieurs atouts. Tout d'abord, construire des assemblages complexes à partir d'éléments plus simplesest un moyen efficace pour contrôler la croissanced'une structure biologique, de la même façon que leserreurs seront facilement éliminées dans une usine

moderne assemblant des automobiles ou des appareils de télévision. Le deuxième avantage est plusprofond. La hiérarchie fournit en effet la base phy-

81

Page 84: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Nouveau regard sur le muscle

sique pour contrôler la dynamique du système. Lesniveaux les plus élevés contrôlent le mouvement desniveaux inférieurs, par exemple en limitant les possibilités de vibration, ou en établissant des transitionsgraduelles jusqu'aux niveaux d'énergie inférieurs.Cette caractéristique cruciale distinguent les systèmes biologiques de systèmes simples comme lesgaz, qui sont dépourvus d'une telle organisation.

Dans les cellules musculaires, comme dans lesautres cellules de l'organisme, des atomes sont assemblés pour synthétiser, par catalyse, vingt types d'acidesaminés naturels. Ces acides aminés sont ensuite atta

chés les uns aux autres, selon un ordre dicté par lesgènes. L'ensemble forme de longs polymères qui, unefois repliés dans les trois dimensions de l'espace, portent le nom de protéines (voir la figure 3). Le repliement et la forme de chaque protéine lui sont spécifiques. Ils dépendent des acides aminés qui la

composent, selon une séquence propre à chaque protéine. Cela forme l'essence de la diversité biologiquegénétiquement déterminée. Certaines protéines ontévolué pour former entre elles des filament hélicoïdaux. La stabilisation de ces filaments fait appel àdes forces de faible intensité, intervenant à la surfacedes acides aminés. Dans le muscle, les protéines d'ac-tine et de myosine forment des filaments d'à peu près1 micron de longueur, soit un millionième de millimètre. L'unité de base de la structure musculaire est le

« sarcomère » (de sarco = muscle, mère = unité destructure). Il est composé essentiellement de filaments fins d'actine et de filaments épais de myosine,parallèles, mais orientés en sens inverse. Ces filamentsont été découverts, séparément, par Sir Andrew Huxley et Hugh Huxley, en 1954. C'est le glissement relatif des filaments d'actine et de myosine qui entraîne leraccourcissement du sarcomère, et donc la contrac-

I. Deux moteurs rotatifs

Hélice ,centrale (

Moteur Wankel

Fl-ATPase

Dans le moteur Wankel (en haut), un piston triangulaire divise la chambre de combustion en 3 compartiments. Lecycle de combustion s'y produit tour à tour, entraînant la rotation du piston. Le moteur biologique le plus proche estla protéine FI-ATPase (en bas), où la « combustion » du carburant (l'ATP) entraîne la rotation d'une hélice centrale.

82 Pour vous abonner : 01 46 48 47 17

Page 85: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

tion du muscle. On trouve, dans le règne animal, unegrande variété de muscles, qui diffèrent par leurs caractéristiques de vitesse et de force. Toutefois, ils recèlent toujours, dans leurs fibres musculaires, des sar-comères. Ainsi, ces fibres illustrent bien la hiérarchiecomplète d'une structure biologique, depuis lesatomes, les molécules, les filaments, jusqu'aux réseauxquasi cristallins dans les sarcomères mis bout à bout.

Les théoriesde la contraction

Les propriétés contractiles des fibres musculaires dépendent du nombre de sarcomères connectés en série, et de l'épaisseur des éléments connectésen parallèle. Prenons l'exemple d'une fibre musculaire longue de 10 cm, se contractant de la moitié desa longueur en moins d'une seconde. Ce mouvementest typique des muscles de nos mains. Il implique le

2. Du plus petit au plus grand

raccourcissement simultané de pas moins de 30 000sarcomères en série. En effet, à l'échelle d'un seulsarcomère, le mouvement intrinsèque des filamentsd'actine se fait véritablement au pas d'un escargot :seulement quelques microns par seconde ! Généralement, plus le faisceau de filaments est épais, plus laforce totale qui peut être transmise aux deux extrémités du muscle est grande. C'est grâce à cette organisation en sarcomères que les lents mouvementsdes filaments d'actine, déjà présents dans des formestrès primitives de vie (par exemple les amibes), sontamplifiés dans les muscles des animaux. Cette organisation approche la perfection chez les insectes,dans les muscles actionnant les ailes. Les filaments

d'actine et de myosine y forment des réseaux hautement ordonnés, presque cristallins (voir la figure4). Et c'est ce haut degré de coordination desréseaux de filaments qui permet à l'insecte de battre

des ailes à si haute fréquence.Dès lors, une question s'est posée à de

nombreux scientifiques : comment expliquer,en termes de mouvements moléculaires, lemouvement relatif des filaments d'actine et

de myosine lors de la contraction du sarcomère ? Deux grands types de mécanismes ontété proposés :

1/Le premier modèle, largement accepté,est celui des ponts de myosine. Dans cemodèle, de nombreux domaines moteursdépassent à intervalles réguliers des filamentsépais de myosine. Lors de la contraction, ilsse tendent et tirent indépendamment les filaments d'actine, considérés comme rigides.

2/De nouveaux modèles sont basés sur

l'actine. Dans ces derniers, de petites variations cycliques de longueur se propagent lelong des filaments fins d'actine, alors qu'ilsrampent activement le long des filaments demyosine, en utilisant les domaines moteurscomme points d'activation et de traction (voirles figures 4 et 5).

La différence essentielle entre ces théo

ries concerne le rôle des filaments d'actine.

Sont-ils passifs, comme des tiges relativementrigides que les moteurs de myosine viendraient mettre en mouvement ? Sont-ils actifs,consommant de l'énergie chimique en rampant le long des filaments de myosine ?

Dans de nombreuses espèces et de nombreux tissus, la contraction des fibres musculaires obéit à une loi très simple, décrite par lacourbe force-vélocité : (P -f- a) (V -f- b) = K, oùF est la tension, V la vitesse de raccourcissement, et a, b, et K des constantes empiriquesqui dépendent de la température. La formuleressemble, dans sa simplicité et son universalité, à la loi des gaz parfaits. Archibald V. Hillfut le premier à présenter cette loi, dans unarticle de 1938 devenu classique. Il avaitauparavant consacré des décennies à essayer

Myosine ^

!

Sarcomere

m

«P!

Muscle

Actine

Myofibrill

A toutes les echetles, le muscle est agence de façon repetitive ; desfaisceaux de fibres musculaires, visibles à l'œil nu, aux moléculesd'actine et de myosine, observées par cristallographie aux rayons X.

83

Page 86: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

M.muiii

de prouver que les muscles fonctionnent comme desressorts géants, développant une force maximalequant ils sont complètement étirés et produisant dutravail quand ils raccourcissent. Mais un fait l'avaitintrigué : quand un muscle se raccourcit, l'énergietotale qu'il produit (sous forme de chaleur et de travail) est cinq fois supérieure à la chaleur relâchéepar une fibre musculaire comprimée au maximum.Hill s'attendait à ce que l'énergie potentielle d'unressort étiré puisse être convertie en travail lors dela contraction du muscle. Il tira de cet ensemble

d'observations une conclusion, pour lui fort surprenante : les molécules musculaires accroissent leur

demande en carburant biochimique quand ellestirent une charge. Ou, pour employer une analogie.

3. L'assemblage des protéines

m

Acide

TT aminéM ^

Assemblage

Proteine

Comme toutes les protéines, les « moteurs » dumuscle sont constitués d'une multitude d'atomes.

Chaque protéine est obtenue par l'assemblage de« perles » élémentaires, les acides aminés, selon unordre précis. La chaîne protéique se replie alors dansl'espace, adoptant sa forme propre (en bas).

84

une armée (les filaments d'actine) consommedavantage de nourriture (énergie chimique) enmouvement (en glissant le long de la myosine) qu'enrestant au garde-à-vous.

Le carburantdes moteurs biologiques

Le carburant universel des systèmes biologiquesest l'ATP. Cette molécule peut être hydrolysée, ou,si l'on veut, cassée en morceaux, pour produire del'énergie chimique libre. L'énergie libre est unequantité physique. Elle nous indique combien detravail (électrique, mécanique, osmotique) peut êtreextrait de n'importe quel processus physique spontané. Bien plus, l'énergie libre est, pour les structures impliquées dans un processus physique quelconque, la monnaie d'échange entre chaleur etdésordre. L'hydrolyse d'une molécule d'ATP produit 10"'® joules. Cette quantité de travail est sipetite qu'elle ne permettrait pas de lancer unemasse de 1 kilo au-delà d'une distance égale au dix-millionième d'un diamètre atomique ! La conséquence est immédiate. Pour expliquer comment lesmuscles produisent les forces qui nous permettentde nous déplacer dans un monde soumis à la gravité,il faut nécessairement intégrer, d'une façon ou d'uneautre, ces minuscules changements de structureaffectant un très grand nombre d'éléments individuels. Quels mouvements animent chaque moléculede myosine ou d'actine, lorsqu'elle transforme entravail l'énergie chimique issue de l'ATP ? Il seraitvain de tenter d'envisager toutes les possibilités derotations au sein de chaque protéine, tant les degrésde liberté sont multiples. Chaque molécule protéique est formée de milliers d'atomes, et chaquefibre musculaire contient des milliers de protéines. Ilest donc, évidemment, impossible de représenter defaçon analytique l'ensemble des mouvements atomiques se produisant à l'intérieur d'un muscle.Cependant, l'organisation même du muscle rendpossible une simulation de sa contraction. Sa structure hiérarchique accorde en effet un rôle essentiel àla contraction des sarcomères, et permet de réduirele comportement complexe des protéines individuelles à un ensemble d'états bien définis. La simu

lation sur ordinateur est l'approche idéale pourvisualiser la façon dont les milliers de molécules dusarcomère se coordonnent, pour produire les mouvements harmonieux et sans heurts, caractéristiquesde la vie animale. L'idée de base est la suivante. On

considère que l'actine et la myosine ne peuvent setrouver que dans un petit nombre d'états discrets,correspondant à différentes conformations de lamolécule, selon que l'ATP et ses produits sont ounon liés. Dans un modèle de sarcomère, on peutassigner à toutes les molécules des valeurs initialescorrespondant à ces différents états. Le programmed'ordinateur peut remettre à jour ces valeurs àchaque pulsation de son horloge, soit à peu prèstoutes les millisecondes. On procède ensuite à l'inté-

Pour vous abonner : 01 46 48 47 17

Page 87: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

4. Du réseau modèle au muscle réel

Actine

MyosineMyosine r

à > i. • • •i *é- '

•< ^ 9^Ê:J A ®^ il'-

«I

La reconstruction sur ordinateur montre l'agencement des filaments d'actine (en vert et bleu au centre du triangle),auxquels s'accolent les « têtes » de la myosine (en jaune et vert foncé). En longueur, l'actlne forme des segments(violet) dont l'espacement correspond à celui des têtes. En bas, un muscle d'Insecte en microscople électronique.

gration des forces, et on mesure les tensions accumulées dans le sytème. Le changement de positiondu filament d'actine qui en résulte peut alors êtrecalculé, et affiché sur un écran.

Une question de symétrieUn des aspects les plus étonnants de la structure

des muscles est la symétrie du réseau que formentles filaments d'actine et de myosine. Vu en coupe, ildessine un nid-d'abeilles presque parfait, les filaments de myosine formant des hexagones, et les filaments d'actine se plaçant au centre de triangles prismatiques (voir la figure 4). En revanche, dans lalongueur, la répétition périodique des molécules demyosine ne correspond pas à celle des moléculesd'actine. Cela implique que les réseaux ne sont pasvéritablement cristallins. On a longtemps pensé quecette incommensurabilité, c'est-à-dire cette absencede mesure commune, dans la longueur, entre les filaments d'actine et de myosine, était indispensable aubon fonctionnement du muscle. Si tel n'était pas lecas, pensait-on, les filaments d'actine ne pourraientpas glisser le long des filaments de myosine. Les sar-comères cristalliseraient, gelant tout mouvement

musculaire. Rappelons que dans la théorie classiquede la contraction musculaire, les « ponts » de myosine constituent autant de petits moteurs. La tensionest produite lorsque ces moteurs individuels tirentsur les filaments d'actine, exactement comme lapression dans un gaz est expliquée par les moléculesheurtant indépendamment les parois d'un récipient.

Il est naturel de se demander quel rôle la symétrieelle-même peut jouer dans la régulation de la contraction du muscle. Reprenons le cas de la Fl-ATPase.Dans ce moteur rotatif biologique, la structure desprotéines change au cours du cycle de production detravail. Le moteur est constitué de plusieurs sous-unités protéiques, assemblées en anneau. Au cours ducycle, chaque sous-unité consomme, tour à tour, unemolécule d'ATE Elle ne le fait pas n'importe quand,mais sous l'impulsion du changement de conformation de la sous-unité qui lui est voisine, et qui vient,elle-même, de consommer une molécule d'ATE. Lechangement de conformation se répercute ainsi, parvoisinage, d'une sous-unité à une autre. Exactementcomme dans le moteur Wankel, toutes les étapes ducycle sont présentes à la fois, mais effectuées, à uninstant donné, par des sous-unités différentes.

85

Page 88: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Nouveau regard sur le muscle

Un tel mode de fonctionnement rappelle fort lathéorie de l'allostérie, développée à l'origine pourexpliquer la façon dont est régulée la fonction decertaines protéines. L'allostérie repose sur la notionde basculement de symétrie, dans des assemblagesde protéines ayant un petit nombre de sous-unités.Elle permet, en particulier, d'expliquer la manièredont l'hémoglobine capte l'oxygène. Chaque molécule d'hémoglobine contient quatre sous-unités,fixant chacune une molécule d'oxygène (voir lafigure 5). Or, l'ensemble fonctionne de façon coopérative : l'hémoglobine fixera d'autant mieux unedeuxième molécule d'oxygène qu'elle en a déjà capturé une première. La raison d'un tel comportementa été élucidée dans les années 1960 par Max Perutz,à Cambridge, grâce à des recherches pionnières encristallographie. En analysant la protéine à une réso

lution atomique, il a montré précisément commentde petits changements de symétrie dans l'hémoglobine expliquent le captage coopératif de l'oxygène. Lorsqu'elle fixe un oxygène, la molécule bascule légèrement sur son axe, passant d'un état« tendu » à un état « relâché », favorisant ainsi lafixation d'une autre molécule d'oxygène. De façonsimilaire, les moteurs rotatifs biologiques semblentexploiter l'allostérie pour coupler l'énergie libre del'ATP à un changement de structure de la protéine,changement lui-même générateur de force.

Qu'en est-il dans le cas du muscle ? L'analyse, audébut des années 1990, de l'actine cristallisée, aapporté des informations éclairantes. Les filamentsd'actines sont formés d'un très grand nombre desous-unités globulaires, accolées en chaîne les unesaux autres comme les perles le long d'un collier. Or,

5. Le modèle de i'^hémogiobine

Etat « relâche » Etat « tendu »

lit"''

Oxygène

Fixation d dhpremier compose

il

Changement deconformation :la fixation dudeuxième com^'posé est facilitée

Un ingénieux système aide l'hémoglobine à transporter l'oxygène. L'hémoglobine est formée de 4 sous-unités similaires (2 a et 2 [1). Dès que l'une d'elles fixe un oxygène, l'ensemble subit une rotation, passant d'un état « tendu » àun état « relâché ». Ce qui facilite la fixation d'oxygène par les autres sous-unités. C'est ce qu'on appelle r« allosté-rie » (schéma en bas à droite). Il semble qu'un système analogue intervienne dans la contraction des muscles.

86

Page 89: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

6. La contraction en direct

Actine

Myosine •=

REPOS CONTRACTION

Que se passe-t-il lors de la contraction du muscle ? Un sarcomère est ici représenté schématiquement (en haut), enmicroscopie électronique (au milieu) et par simulation sur ordinateur (en bas). On voit alors apparaître des vaguesde petits « rubans » (en violet), correspondant aux ondes de contraction qui se propagent le long des filaments.

contrairement à ce que prédisait la théorie classiquede la contraction, on observe, au long de ces filaments, des petits segments, ou « rubans », dont lapériodicité correspond à celle des filaments de myosine. Une telle « commensurabilité » signifie doncque les domaines moteurs dépassant des filamentsde myosine peuvent être au contact de l'actine d'unemanière régulière, cristalline. Cette observation adonné naissance à un autre modèle de contraction

musculaire, dans lequel les filaments d'actine sedéplacent le long des filaments de myosine en « rampant » de proche en proche. Un point nouveau etcrucial de ce modèle est que ce sont les sous-unitéscomposant l'actine - et non la myosine - qui relâchent, fixent, et consomment l'ATP, produisant de lasorte la tension lors du glissement des filaments.Selon cette façon de voir, les fibres musculaires utilisent l'allostérie pour contrôler la production deforce, de façon très similaire à un analogue linéarisédu moteur rotatif Fl-ATPase. Dans un tel modèle,quel devient alors le rôle des domaines « moteurs »de la myosine ? Leur action est double ; d'une part,amener les sous-unités d'actine à échanger les produits « brûlés » lors de l'hydrolyse du carburantcontre une molécule fraîche d'ATP ; d'autre part,fournir des points de traction. La symétrie est icicruciale. Le processus d'activation ne se produit eneffet que lorsque l'actine et la myosine s'arrangentlocalement en alignements cristallins.

La simulation sur ordinateur a joué un grandrôle dans le développement de cette nouvelle théorie de la contraction musculaire. Elle a en effet permis de visualiser les transitions coordonnées entre

les états allostériques de milliers de molécules. Unfait est que l'actine et la myosine peuvent toutesdeux fixer et hydrolyser l'ATP, chacune pouvant le

Pour vous abonner : 01 46 48 47 17

faire en réponse à des changements structuraux touchant l'autre. Dès lors, il était important de démontrer la validité du nouveau modèle par des calculs etdes visualisations sur ordinateur. Celui-ci devait

pouvoir développer une tension sans que, pourautant, le réseau musculaire ne se déchire sousl'action des forces locales produites par l'ATP. Lerendement du modèle a aussi fait l'objet d'études,qui montrent que la plus grande partie de l'énergiechimique libérée est directement convertie en travail, comme cela a été montré expérimentalementpour le muscle voilà plusieurs décennies. Plus surprenant, lorsque le programme est lancé et que lemodèle tourne sur l'ordinateur, les tensions développées dans le muscle apparaissent simplementcomme des ondes de contraction, qui se propagentdans le sarcomère (voir la figure 6). La force totaleest égale au nombre d'ondes, et plus il y a d'ondes,moins la contraction est rapide. C'est exactement ceque dit l'équation de Hill (la force est inversementproportionnelle à la vélocité), qui régit la contraction musculaire.

La modélisation de la contraction musculaire

illustre bien les défis mathématiques que posent lessystèmes physiques complexes. A l'approche du millénaire, les ordinateurs en sont venus à jouer un rôlesimilaire à celui du calcul intégral pendant l'âge d'orde la physique, permettant de décrire des phénomènes macroscopiques en termes de leurs processusfondamentaux. Laplace voyait dans l'Univers unemachine de haute précision, finement accordée. Lesordinateurs laissent entrevoir un monde laplacien,où les molécules du vivant développent des forces siinfimes que seule la coordination d'un grandnombre d'entre elles nous permet de nous déplaceret de maîtriser notre environnement. •

87

Page 90: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L'ordinateur biologique,

pour demain ?ue ce soit pour mesurer la durée des mois ou

• • des saisons, pour les besoins du commereeou de l'architecture, les peuples ont éprouvé,

deputries temps les plus reculés, le besoin de compter et de calculer. Ils ont à

cette fin utilisé tous les

moyens à leurdisposition : on est ainsipassé progressivementd'outils manuels (lesdoigts) à des outils mécaniques (l'abaque, parexemple), puis à des dispositifs électroniques.L'ordinateur marque seulement l'avancée la plusréeente dans l'histoire

des instruments de cal

cul : leur apparition n'enconstitue ni la première,ni la dernière étape. Ilsont, d'ailleurs, eux aussileurs limites : limites des

quantités de donnéesqu'ils peuvent stocker ;limites des vitesses d'exé

cution, qui sont fixées parles lois de la physique et seront proehainementatteintes. Pour forcer ces barrages, la plus récentetentative propose de remplaeer - une fois de plus -les outils de calcul : d'utiliser, en lieu et place des instruments électroniques, des instruments biologiques.

Exposés pour la première fois en 1994 par Léonard Adleman, les calculs par ADN (ou encore bio-moléeulaires, voire moléculaires) constituent unnouveau paradigme de calcul. S'appuyant sur lamanipulation de (bio) molécules pour résoudre desproblèmes mathématiques, ils considèrent les processus naturels comme des modèles. Ils ont rapidement soulevé l'enthousiasme de la communauté

scientifique. En quoi consistent-ils ?En eodant des données sur des brins d'ADN et

en utilisant les outils de la biologie moléculaire, onva pouvoir effectuer des opérations mathématiques.Cela requiert un milliard de fois moins d'énergie

* Cet article constitue une adaptation d'un texte publié par les mêmes auteursdans « BioinformaticsMethods and Protocols », Methodsin Molecular Biology, ed.Misener & Krawetz, Humana Press.

que les calculs électroniques traditionnels, tout enstockant des données sur mille milliards de fois

moins d'espace. Qui plus est, le calcul avec TADNest hautement parallèle : en théorie, des milliards de

molécules sont soumises

à des réactions chimiques- c'est-à-dire effectuent

des calculs - simultané

ment.

En dépit de sa eom-plexité, cette technologierepose sur une analogiesimple entre deux processus, l'un biologique,l'autre mathématique. Eneffet, la structure com

plexe d'un organismevivant résulte, en dernièreanalyse, de l'applicationd'une petite série d'opérations simples (copie,épissage, insertion, délé-tion, etc.) aux informations initialement enco-

dées dans une séquenced'ADN. D'un autre côté.

S'appuyant sur les concepts et

les outils de la biologie

moléculaire, le calcul par ADN

pourrait, un jour, s'imposer

comme outil mathématique de

référence...

par Lila KarietLaura Landweber "

SB

tout calcul - si complexesoit-il - provient de la combinaison d'opérationslogiques et arithmétiques très simples.

Pour Léonard Adleman, ces deux proeessus nesont pas seulement similaires : grâce aux progrès dela biologie moléculaire, la biologie peut être utiliséepour faire des mathématiques. C'est donc ce qu'il afait lui-même pour résoudre un difficile problèmede ealcul. Plus précisément, le cas à sept points duproblème du « chemin hamiltonien orienté ». Explications...

Soit un graphique G orienté, c'est-à-dire constitué d'un ensemble de points v reliés les uns auxautres par des flèches de sens déterminé. On ditd'un tel graphique qu'il a un « chemin hamiltonien »s'il existe une suite de flèches compatibles e^, e2,...,e^^ (c'est-à-dire un chemin) partant du point v-^^ etarrivant en v^^^, et passant par chacun des autrespoints une fois et une seule. Le problème « du voyageur de commerce » en constitue une version simplifiée : étant donné un ensemble arbitraire de villes

par lesquelles un vendeur doit passer (voir la

Page 91: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

I

l: /

>

Un supportde rêve

Coder des données sur un

brin d'ADN prend très peu deplace. Mieux, alors que le

codage informatique est binaire(0 ou 1), on dispose ici d'un

alphabet à 4 lettres : les 4 basesqui s'enchaînent dans l'ADN

(les bâtonnets de différentes couleurs).

Page 92: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L*ordfnateur biologique, pour demain ?

TATCTC

AIGTTAT

AGCTAT

ACACTA

figure 1), quel est le moyen le plus court de lesrelier ? Le modèle d'Adleman limite le nombre d'iti

néraires entre les villes, en spécifiant les destinationsde départ et d'arrivée du voyage. Il s'agit alors dedécouvrir, s'il existe, le chemin continu les relianttoutes ensemble.

Pour résoudre ce problème, Adleman utilisel'algorithme suivant :

Étape 1 : générer des chemins aléatoires sur legraphique ;

Étape 2 : ne retenir que ceux qui commencenten Vjj^ et finissent en v^^^j ;

Etape 3 : si n est le nombre de points du graphique, ne retenir que les chemins passant exactement par n points ;

Étape 4 : ne retenir que leschemins passant aumoins une fois par chaque point du graphique ;

Étape 5 : s'il reste au moins un chemin, dire« OUI » ; dans le cas contraire, dire « NON ».

Pour exécuter la première étape (voir la figure2), chaque point du graphique est codé par un brind'ADN constitué de vingt bases prises au hasard -un oligonucléotide. Puis, pour chaque flèche du graphique, on génère un oligonucléotide dont les dixpremières bases sont complémentaires des dix dernières de son point d'origine et les dix dernières correspondent aux dix premières du point suivant. Enutilisant ces séquences complémentaires commeattelles, les séquences d'ADN correspondant à desflèches compatibles devraient s'apparier et êtreaccolées bout à bout par l'enzyme ligase T4. Desmolécules d'ADN codant pour des chemins aléatoires sont ainsi produites.

Dans la deuxième étape, le résultat obtenu pré-

90

GATGCT

TAAAAG

Le meilleur cheminSoit 7 villes par lesquelles un voyageur de commercedoit passer, quel est l'itinéraire le plus court les relianttoutes ensemble? En mathématiques, cela correspondau cas à 7 points du problème dit du « chemin hamilto-nien orienté ». L. Adleman y répond en s'appuyant sur labiologie moléculaire (à droite, technique classique dedécryptage d'un gène). Chaque ville est codée par unbrin d'ADN de vingt bases prises au hasard. Pour chaqueflèche, on génère des brins d'ADN dont les dix premièresbases correspondent à la ville d'origine, et les dixdernières à celle d'arrivée. On en fait ensuite de nom

breuses copies par la technique de FOR (ci-dessous).

cédemment est amplifié par PCR (amplification enchaîne par réaction), en utilisant comme amorcesdes oligonucléotides codant pour Vj^^ et Ea réaction n'amplifie et ne retient ainsi que les molécules

Pour vous abonner : 01 46 48 47 17

Page 93: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

? Si_=

i!!

codant pour des chemins ayant v- pour départ etpour arrivée.

out

Lors de la troisième étape, une électrophorèsesur gel d'agarose permet de séparer et recueillirles brins d'ADN de longueur désirée. Le cheminrecherché, s'il existe, doit passer par les sept points,chacun d'eux ayant été associé à vingt paires debases. Les produits de la PCR codant ce chemindevraient donc comporter 7x20 = 140 pairesde bases.

La quatrième étape s'effectue par purificationssuccessives, pour chaque point autre que le départ etl'arrivée. Il s'agit, à chaque fois, de sélectionner desbrins d'ADN codant pour un point donné. Pour cefaire, des brins complémentaires de la séquence codant pour ce point sont fixés à des billes magnétiques.La solution hétérogène de simples brins d'ADN estalors déposée sur les billes : seuls les brins contenantla séquence recherchée sont retenus. Ainsi, les brinsqui ne possèdent pas une seule des séquences correspondant aux points sont éliminés.

Dans la cinquième étape, on cherche à vérifiers'il se trouve encore des molécules codant pour unchemin hamiltonien. On y procède par PCR. La première PCR amplifie les résultats de l'étape 4 etconfirme ou non l'existence d'une telle molécule,comme dans l'étape 2. Si cette molécule existe, uneseconde PCR confirme la présence des points

2 - L'électrophorèse consisteà soumettre des molécules à un champ électrique,dans un milieu gélifié, afin de les séparer selon leur poids.

internes du graphique (autres que le départ et l'arrivée) en utilisant comme amorces les séquencesd'oligonucléotides complémentaires de chacun deces points. Fort élégamment, on peut, du mêmecoup, cartographier les liaisons entre les points dugraphique, sans recourir à un séquençage d'ADN.

Le problème ainsi résolu par Adleman n'avaitrien de trivial. Il ne pouvait être traité que sur unordinateur non déterministe, c'est-à-dire un ordinateur capable de poursuivre un nombre illimité decalculs indépendants en parallèle. La premièreexpérience de calcul biomoléculaire a donc immédiatement suscité de nombreux espoirs. Depuis, denombreuses études tant théoriques qu'expérimentales sont venues étendre ce résultat.

Vers un ordinateur à ADNCes expériences, qui ont utilisé des algorithmes

conçus pour résoudre des problèmes mathématiques déterminés, soulèvent deux types d'interrogations. Quelles sont les classes de problèmes mathématiques qui peuvent être résolues par des calculspar ADN ? Est-il possible, au moins en principe, deconcevoir un ordinateur à ADN programmable ? Siles modèles proposés diffèrent tous les uns desautres, leurs caractéristiques communes permettentde risquer une réponse à ces questions.

En fait, toute espèce de calculateur - mécanique, électronique ou biologique - doit pouvoirfaire deux choses : stocker des données, et effectuer

91

Page 94: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

L*ordinateur biologique* pour demain ?

des opérations sur elles. Il s'agit donc de voir comment des informations peuvent être stockées sur desbrins d'ADN, et quelles techniques de biologiemoléculaire pourraient servir aux calculs. Pour distinguer clairement les opérations mathématiquesdes manipulations biomoléculaires effectuées surdes brins d'ADN, on utilisera le terme « bio-opérations » pour désigner ces dernières.

Un brin simple d'ADN peut être décrit commeune chaîne où se combinent quatre symboles différents : A, G, G, T. En termes mathématiques, celasignifie que nous disposons d'un alphabet à quatrelettres pour coder l'information. De fait, c'est plusqu'il n'est nécessaire : pour faire la même chose, unordinateur électronique n'a besoin que de deuxchiffres, 0 et 1.

Quant aux opérations effectuées sur l'ADN, lesmodèles de calcul biomoléculaire qui ont été proposés utilisent généralement diverses combinaisonsdes « bio-opérations » suivantes : synthèse d'un brind'ADN de longueur convenable ; mélange descontenus de deux éprouvettes ; dissociation d'undouble brin d'ADN en ses deux composants complémentaires, par chauffage ; annelage, c'est-à-direl'effet inverse, par refroidissement; amplification(copie de brins d'ADN par PCR) ; séparation desbrins selon la taille, par électrophorèse ou par

Etape 3 : électrophorèseL'électrophorèse sur gel d'agarose permet de séparerdes fragments d'ADN de tailles différentes. C'est l'étape3 de l'algorithme d'AdIeman. Son but : sélectionner lesbrins d'ADN longs de sept fois 20 paires de bases.

92

d'autres méthodes de fractionnement ; section desdoubles brins d'ADN en des sites spécifiques àl'aide d'enzymes de restriction ; collage bout à boutdes brins d'ADN avec l'enzyme ADN ligase ; substitution, insertion ou délétion de séquences d'ADNpar le biais de la PCR; marquage de simples brinspar hybridation ; sélection par affinité de brinscontenant une séquence donnée.

Un « bio-calcul » est une séquence de bio-opérations effectuées sur des brins d'ADN que renfermeun tube à essai. Les opérations recensées ci-dessus -et éventuellement d'autres - peuvent donc être utilisées pour écrire des « programmes ». Un « programme » reçoit un tube contenant des brins d'ADNcodant une information comme input, et renvoiecomme output soit les ordres oui ou non, soit uneautre série de tubes.

Plusieurs modèles de calcul moléculaire basés

sur ces bio-opérations ont été étudiés, tant pour leurpuissance de calcul que pour leur faisabilité. S'ils onttous leurs avantages et leurs inconvénients, leurexistence témoigne de la souplesse du calcul parADN et rend d'autant plus vraisemblable laconstruction d'un ordinateur à ADN.

Reste cependant à surmonter de nombreux défistechniques, à chaque étape ou presque. Ils viennentprincipalement de la difficulté à manipuler des systèmes biomoléculaires à grande échelle. On remarquera toutefois que dans les systèmes biologiques, lanature prend en charge des questions telles que lecontrôle et l'ajustement des concentrations de molécules, la tolérance à l'erreur... Les cellules, parexemple, doivent ajuster les concentrations dedivers composants pour déclencher les réactions quiproduiront telle molécule rare ; elles doivent aussi sedébrouiller avec les sous-produits indésirablesengendrés par leur propre activité. Puisqu'elles parviennent à gérer ces problèmes in vivo, on pourraits'en inspirer pour en faire autant in vitro.

Côté théorie, on cherche, entre autres, à obtenirun modèle formel permettant de décrire les calculspar ADN. Cette approche compare fréquemment lapuissance de calcul d'un tel modèle à celle d'unemachine de Turing, le modèle formel des ordinateurs électroniques actuels. Le système contextueld'insertion/délétion en constitue une bonne illustra

tion. Réalisable en laboratoire, il possède, en outre,toute la puissance d'une machine de Turing.

Un tel système est formé à partir d'un ensemblede lettres ou symboles, un alphabet. Pour le calculpar ADN, notre alphabet comporte quatre lettres,A, C, G, et T. Ces symboles pourront être assemblésen chaînes, de manière à former des mots. Un certain nombre de mots sont pris pour axiomes du système. On s'intéresse alors à l'ensemble des mots quipeuvent être obtenus à partir des axiomes par application répétée de règles d'insertion et de délétion.Ces dernières, spécifiées au départ, indiquent entrequelles chaînes de lettres il est possible d'insérer (oude supprimer) tel ou tel mot. Un modèle formel de

Pour vous abonner : 01 46 48 47 17

Page 95: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ce type permet de reproduire les actions den'importe quelle machine de Turing.

L'intérêt d'un tel modèle n'est pas uniquementthéorique. En effet, aux opérations formelles d'insertion et de délétion, on peut faire correspondre desmanipulations biomoléculaires : en utilisant des oligo-nucléotides de synthèse et la technique de mutationgénétique localisée par PCR, on insérera ou supprimera des séquences d'oligonucléotides dans descontextes donnés. Le processus de traduction del'ARN peut servir aux mêmes fins. Des systèmes d'in-sertion/délétion très simples pourraient suffire : l'opération est réalisable, même avec de fortes restrictionssur la longueur des contextes d'insertion et de délétion, et sur celle des mots insérés ou supprimés.

Les solutions de la natureLe calcul biomoléculaire éveille ainsi l'espoir

d'un nouveau type d'ordinateurs, radicalement différents des ordinateurs actuels. Il jette aussi unelumière neuve sur les phénomènes biologiques étudiés in vivo. Sans doute pourra-t-il nous éclairer surles capacités informationnelles de l'ADN, et surl'étendue des processus de calcul existant dans lanature. On prendra un exemple : le décryptage desgènes, étudié chez des protozoaires ciliés.

Ces derniers possèdent deux types de noyaux :un macronucleus actif, et un micronucleus fonction-nellement inerte, qui contribue seulement à la reproduction sexuelle. Le premier se développe à partir dusecond, après la reproduction. Chez certaines espèces.

2 3 4 5 6 7

FIGURES

1 ,j ri f ^

L'exempledes ciliésChez certains protozoairesciliés, des séquencescodantes du micronucleus

sont rassemblées et remises

dans l'ordre pour former ungène fonctionnel du macro-nucleus. En mathématiques,c'est un problème trèscompliqué - un véritable défipour les ordinateurs !

dans le micronucleus, les copies de certains gènes codant pour une protéine sont brouillées par l'insertionde séquences non codantes d'ADN. Qui plus est, ellesse présentent parfois dans un autre ordre que dans laréplique macronucléaire. En élucidant le puzzle, eten rassemblant les séquences fonctionnelles, ces protozoaires résolvent un difficile problème de calcul.

Ce processus de décryptage ressemble de près àl'algorithme utilisé par Adleman. Le protozoaireutilise l'information contenue dans des unités de

répétition de 2 à 14 nucléotides, pour initier unesérie de recombinaisons homologues. Ainsi, laséquence d'ADN présente à la jonction entre ungène codant n et le gène non codant qui le suit, estgénéralement la même que celle qui occupe l'espaceentre le gène codant n -r 1 et le non-codant qui précède. Ces séquences identiques permettent l'aboute-ment du gène n au gène n -f 1 : dans le graphiqued'Adleman, ce processus permet d'assembler, dansle bon ordre, les flèches allant d'un point à un autre.Et in fine, on aboutit au chemin hamiltonien recherché. Sauf que dans le cas précis, ce n'est plus un chemin à sept points, mais à environ 50. Ce qui, pourn'importe quel ordinateur, est un véritable défi !

La traduction et le décryptage des gènes constituent un ensemble unique de paradigmes pouvantêtre utilisés pour les calculs biologiques. Qui plusest, ces processus soulignent la diversité des paradigmes de calcul qui existent dans les systèmes biologiques ; il y a bel et bien pléthore de modèles dontpourraient s'inspirer les mathématiques... •

93

Page 96: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Des nuages ou desÀ l'ordre prôné par la

physique classique, s'ajoutent

désormais le chaos et

l'aléatoire... Mais les

frontières restent floues.

parAmy Dahan DaLmedico

La science classique aconçu un monde régi pardes mécanismes, à la manière d'une horlogedont l'harmonie serait toute mathématique.

Cette vision renvoie à une nature automate peupléede phénomènes répétables, identiques à eux-mêmes,et à un Dieu-architecte qui en serait l'ordonnateuruniversel. La nature est régie par des lois immuablesque la science révèle ; ces lois sont universelles, vraiesen tout point de l'espace et du temps, et nécessaires,car elles ne sont que l'écriture en langage mathématique des propriétés intrinsèques des choses. La chute des corps et les lois de Galilée, les lois de Newtonsur l'attraction universelle, l'architecture héliocen-trique du système du Monde ont alimenté la fabrication de cette image. Des études nouvelles montrentqu'elle est, certes, un peu simpliste et caricaturale : desconceptions très diverses du monde ont coexisté auXVIP siècle.

Néanmoins, si cette image mécaniste, toute réductrice qu'elle puisse paraître, a pu s'imposer dans l'historiographie traditionnelle des sciences, c'est qu'elledit quelque chose d'essentiel sur l'époque. Cetteconception prendra, au XVIIP siècle, la forme d'uneconviction en la structure causale de la nature, enl'intelligibilité des lois : rien n'arrive par hasard, toutphénomène a une cause que la science cherche à identifier et énoncer. Laplace, par exemple, croit en ladétermination mathématique des lois de la nature,dont une intelligence supérieure - toute théorique -pourrait appréhender les effets. Et comme, pour lui,tout est réductible à la mécanique, sa conviction dudéterminisme s'exprime en ces termes devenus célèbres : « Nous devons envisager l'étatprésent de l'Univers comme l'effet de son état antérieur et comme cause de celui qui va suivre. Une intelligence qui pour uninstant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la

94

Un monde bien régléTout phenomene physique a une cause..Convaincu de rintelligibilité des lois de lanature, Laplace (en bas) impose, auXVIII® siècle, sa vision déterministe

d'un monde réglé comme une horloge.

composent, si d'ailleurs elle était assez vaste pour soumettre ses données à l'analyse, embrasserait dans lamême formule les mouvements des plus grands corpsde l'Univers et ceux du plus léger atome : rien ne seraitincertain pour elle, et l'avenir comme le passé, seraitprésent à ses yeux... »

Aujourd'hui, quand les champions du chaos etdu désordre cherchent à promouvoir leurs domaines,ils ont tendance à construire une oppositionmanichéenne entre, d'une part, l'imprévu et la fantaisie de leurs théories et, d'autre part, un univers la-placien étouffant et totalitaire, où tout serait régléd'avance. En fait, Eaplace présupposait seulement lapossibilité de principe d'une prescience totale et d'uneprévisibilité complète. Il savait fort bien que leurpossibilité effective est hors de portée; c'est justementpour y remédier qu'il a jugé nécessaire de forger lesoutils de la théorie des probabilités et une description statistique de certains processus. Mais tout celaest de bonne guerre...

Est-ce à dire que rien n'a changé sous le soleil de

Page 97: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

horioges

la science ? Sûrement pas. Si la physique classiques'intéressait aux phénomènes répétables, la scienced'aujourd'hui se penche, au contraire, sur des processus dans leur singularité, sur des phénomènes qu'onne peut répliquer à l'identique. Uhistoire, en tant quenarration singulière, fait son entrée dans les sciences,notamment à travers le devenir de systèmes simplesde chimie, de dynamique des fluides, de sciences del'ingénieur, de météorologie. L'évolution de ces systèmes chaotiques est ponctuée de bifurcations, oùs'opère un choix entre différents scénarios, selon unprocessus probabiliste. Autant de choix, autantd'« histoires ». Les objets étudiés sont plus mouvants,moins saisissables.Popper a bien exprimé l'oppositionentre cette nouvelle science et la physique classique :des nuages versus des horloges...

Ce qui caractérise le domaine du chaos et du non-linéaire est le brouillage des frontières. Brouillagedes frontières entre ordre et désordre, brouillage desfrontières entre aléatoire et non-aléatoire, entre cequi est déterministe et ce qui ne l'est pas.

Les résultats de Poincaré en mécanique célesteont montré que la superbe architecture de notreSystème solaire peut dissimuler un enchevêtrementcomplexe de trajectoires, où se mêlent intimementordre macroscopique et désordre microscopique (voirl'article d'Amy Dahan p. 32). Ce qui implique uneinfinité « chaotique » de scénarios possibles... Desurcroît, les équations de la dynamique newtoniennesont bien déterministes, mais elles n'ont pas desolutions effectivement calculables. Certaines

fonctions sont censées approximer ces solutions, maisleurs développements en séries divergent quand letemps devient infini. Le modèle cosmologique, qui estle paradigme même du déterminisme, lui échappe. Il adonc fallu apprendre à dissocier le déterminisme, ausens mathématique, de la prédictibilité effective (oudéterminisme physique).

Des systèmes dont les trajectoires divergent defaçon exponentielle, pour des conditions initiales trèsproches, avaient été décrits, dans une prose compliquée, depuis l'époque de Poincaré. Mais ils paraissaient alors inutiles à la physique. Leur existence étaitconnue, soit ; autre chose a été de visualiser, sur unécran d'ordinateur, la structure fractale d'un attrac-teur, ou d'obtenir du chaos avec seulement troisvariables, comme l'a fait Lorenz ! Après lui, les rapports du simple et du compliqué ne seront plus jamaisles mêmes. La célèbre image proposée par Feynman -le monde est un immense jeu d'échecs, chaque mouvement pris isolément est simple, la complexité vient

95

Page 98: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

Des nuages ou des horloges

du très grand nombre d'éléments du jeu - est devenuecaduque. La complexité peut être intrinsèque. Ledésordre, celui qu'on appréhende par des méthodesde type statistique, n'est plus l'apanage des systèmes àtrès grand nombre d'éléments.

L'ordinateur est au cœur de cette révolution.

N'est-ce pas grâce à lui que Lorenz a mis en évidencece qu'il a appelé « l'effet papillon », (image météorologique de la sensibilité aux conditions initiales, selonlaquelle un papillon battant de l'aile au Brésil peutprovoquer une tempête au Texas) ? En effet, les approximations numériques liées au codage informatique jouent le rôle de battements d'aile de papillon etamplifient les instabilités des systèmes chaotiques.

Si ordre et désordre sont intriqués, le brouillageentre l'aléatoire et le non-aléatoire est plus frappantencore. Aujourd'hui, lorsqu'on étudie un système expérimental (en physique, en biologie, ou même enéconomie, écologie ou sciences sociales) dont on ignore les équations ou les paramètres, on peut être soitface à un système chaotique pour certaines valeursdes paramètres, soit face à une perturbation aléatoire, un bruit. Pour décrire une même réalité, on a ainsi le choix entre deux modèles, l'un déterministe,l'autre aléatoire. Or, caractériser un comportementchaotique et le distinguer d'un effet de bruit constitue un problème fondamental en ingénierie ducontrôle, en électronique non linéaire, etc. Ce sontles mesures effectuées en supposant le système a priori déterministe qui permettront, éventuellement, deconfirmer ce caractère.

Un système, même déterministe, peut nous apparaître aléatoire, si une partie de l'information leconcernant n'est pas connue. C'est le cas, parexemple, de la transformation du Boulanger (voirl'encadré). Mais n'est-ce pas le propre de toute démarche scientifique ou modélisatrice, que de découper dans l'épaisseur du réel une série isolée de phénomènes ou d'éléments dont elle risque d'offrir uneprojection aléatoire, alors que la réalité, elle, ne le serait pas ? Le problème n'est pas si nouveau : la réalitése dérobe à nous et l'homme n'a que des écrans pourla saisir, comme le mur de la caverne de Platon...

Si un système est totalement aléatoire (comme siintervenait dans son comportement, à chaque instant,un tirage au sort divin), l'unique moyen de prévoirson évolution est d'attendre et d'observer la suite de

ses états. En effet, la théorie algorithmique du hasardétablit qu'aucun programme ne pourra jamaiscomprimer l'information au sujet d'un processuspurement contingent. Comme l'écrit Marie Large, àpropos des écoulements turbulents, la science estconfrontée à un pari pascalien; elle préfère souventfaire le pari d'une dynamique purement déterministe,dont l'imprévisibilité serait due aux limitationspratiques (appareils de mesure, amplification deserreurs numériques, limitation de notre pouvoir deconnaissance...), ce qui lui permet d'espérerpoursuivre son aventure, plutôt que de se dire queDieu joue aux dés. •

96

La transformationdu boulanger

Le nom de cette transformation mathématiquevient de la pratique du boulanger qui prend sa

pâte, j'étale au rouleau dans une direction, la plie endeux et recommence dans l'autre direction, etc.

Le schéma mathématique est le suivant : on partd'un carré initial, qu'on aplatit pour doubler sa

longueur et diviser par deux sa hauteur. Puis onreconstitue le carré en coupant la moitié de droite et

en la plaçant au-dessus de l'autre moitié. On réitèrel'opération en aplatissant le second carré avant dereconstituer un nouveau carré... On peut, comme le

mathématicien Arnold, dessiner une tête de chat

sur le carré initial, et réitérer la transformation un

très grand nombre de fois (opération facile avec unordinateur). La tête du chat est hachée menu et,

après quelques dizaines ou centaines de transformations, totalement méconnaissable...

L'effet est si irrégulier et désordonné qu'il peut

paraître aléatoire. Pourtant, la transformation estparfaitement déterministe : chaque point du carré,dont les coordonnées sont connues, est transformé,

à chaque étape, en un point dont les coordonnées

peuvent être calculées avec précision. La connaissance du présent détermine celle du futur. Du moinsidéalement... En pratique, la détermination (phy

sique ou numérique) d'un point dans le carré esttoujours connue à une précision donnée. Si on itèrel'opération des milliers de fois, deux points très

voisins auront des futurs très divergents (c'est la

sensibilité aux conditions initiales ou effet papillon).

Pour vous abonner : 01 46 48 47 17

Page 99: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

ENCYCLOPÉDIE,DICTIONNAIRE RAISONNE

DES SCIENCES

DES ARTS ET DES MÉTIERSPAR UNE SOCIETE DSGENS DE LETTR

pubJiipar MTdIDEROT.cirPniiw-,«r.quaniJik Paoyek des Sckcncrs dr

XI. u

PRIVILBCE DU ROY.

f noyalr dvt Scîvficc

LESOUUERSlU!SOEVŒ&fiE

Collectionnez 1000 ansde sciencepour

célébrer Van 2000.

UNE ENCYCLOPÉDIE EN 12 NUMÉROS

Les Cahiers de Science dr Vie célèbrent Van 2000

et lancent la première vraie encyclopédie retraçant1000 ans de science. Cette collection de 12 numéros

constituera une véritable référence scientifique.

12® tableau

Du Moyen Âge àaujourd'hui :quel progrès ?

De l'origine du cosmos à notre rapport au monde sensible,de notre conception de la nature à notre parenté avec lesanimaux, sept questions fondamentales et leurs réponsesformeront la matière du prochain numéro des Cahiers.

Mais avec un plus qui vous en dira long.Pour chacune de ces questions, en effet, nous publierons

eux articles : le premier donne la réponse apportéepar les hommes du Moyen Age ; le second celle

des savants d'aujourd'hui...Une décapante façon de clore "Mille ans de Science".

EN KIOSQUE LE 16 DÉCEMBIŒ 1999

Page 100: XI — XXe si¨cle, comment l’ordinateur transforme les sciences

si;ii;îii;i: i'

EN VENTE PARTOUT