129
Alban-Brice PIMPAUD Université Paris-X-Nanterre LES APPLICATIONS DE LINFOGRAPHIE 3D A LARCHEOLOGIE Mémoire de maîtrise d’histoire de l’art et d’archéologie dirigé par Mme A.-M. GUIMIER- SORBETS Année 1998-1999

LES APPLICATIONS DE L INFOGRAPHIE 3D A L …pimpaud.free.fr/wordpress/wp-content/uploads/maitrise_pimpaud.pdf · Alban-Brice PIMPAUD Université Paris-X-Nanterre LES APPLICATIONS

  • Upload
    ledang

  • View
    214

  • Download
    2

Embed Size (px)

Citation preview

Alban-Brice PIMPAUD Université Paris-X-Nanterre

LES APPLICATIONS DE L’INFOGRAPHIE3D A L’ARCHEOLOGIE

Année 1998-1999

Mémoire de maîtrise d’histoire de l’art etd’archéologie dirigé par Mme A.-M. GUIMIER-SORBETS

2

TABLES DES MATIERES

TABLES DES MATIÈRES .................................................................................................................................. 2

INTRODUCTION................................................................................................................................................. 4

1. LES INFORMATIONS GRAPHIQUES EN ARCHÉOLOGIE ............................................................. 7

1.1. L’ARCHÉOLOGIE, UNE SCIENCE DE L’ÉRUDITION FONDÉE SUR LA CONNAISSANCE DES TÉMOINS MATÉRIELS

71.1.1. L’importance des informations ....................................................................................................... 71.1.2. La spécificité des données archéologiques ..................................................................................... 9

1.2. LE CODAGE ET LA RETRANSCRIPTION DES INFORMATIONS ....................................................................... 111.2.1. La description en langage naturel : de l’approche littéraire à l’analyse structurée .................... 111.2.2. La représentation graphique......................................................................................................... 12

1.2.2.1. La documentation photographique ........................................................................................................... 121.2.2.2. Le dessin technique en deux dimensions .................................................................................................. 161.2.2.3. La représentation tridimensionnelle.......................................................................................................... 19

2. PRÉSENTATION ET TECHNIQUES DE L’INFOGRAPHIE ............................................................ 25

2.1. DÉFINITIONS ............................................................................................................................................ 252.1.1. Le traitement d’image ................................................................................................................... 25

2.1.1.1. Les images numériques............................................................................................................................. 252.1.1.2. La numérisation ........................................................................................................................................ 26

2.1.2. La synthèse d’image...................................................................................................................... 282.1.2.1. Les images en deux dimensions ;.............................................................................................................. 282.1.2.2. Les images en trois dimensions ................................................................................................................ 29

2.2. LA MODÉLISATION ................................................................................................................................... 292.2.1. Espace tridimensionnel et interface bidimensionnelle .................................................................. 302.2.2. Les méthodes de modélisation....................................................................................................... 31

2.2.2.1. la modélisation surfacique : la conquête du volume par le dessin ............................................................ 322.2.2.1.1. Le balayage d’un dessin le long d’un chemin : l’extrusion ............................................................ 33

2.2.2.2. La modélisation volumique : la sculpture virtuelle................................................................................... 362.2.2.3. Les nouveaux outils de modélisation........................................................................................................ 38

2.3. LE RENDU ................................................................................................................................................ 402.3.1. La perspective ............................................................................................................................... 402.3.2. La lumière ..................................................................................................................................... 412.3.3. Les matières et les textures : les propriétés de surface et de volume ............................................ 42

2.3.3.1. Les textures planes.................................................................................................................................... 432.3.3.1.1. Le mapping d’image ...................................................................................................................... 432.3.3.1.2. Le bump mapping .......................................................................................................................... 452.3.3.1.3. Les autres techniques de mapping.................................................................................................. 46

2.3.3.2. Les textures tridimensionnelles................................................................................................................. 47CONCLUSION..................................................................................................................................................... 48

3. LES IMAGES DE SYNTHÈSE COMME OUTIL DE COMMUNICATION..................................... 50

3.1. DE NOUVELLES IMAGES ........................................................................................................................... 503.1.1. Des images comprises de tous....................................................................................................... 503.1.2. Des images qui posent problème : les « cartes postales » du passé.............................................. 52

3.2. UN LANGAGE DIDACTIQUE : LA MULTIPLICATION DES IMAGES ................................................................. 543.2.1. Les séries d’image......................................................................................................................... 553.2.2. L’animation, outil de narration..................................................................................................... 56

3.3. L’INTERACTIVITÉ COMME MODE D’ACCÈS À LA CONNAISSANCE. ............................................................. 603.3.1. Les visites virtuelles....................................................................................................................... 61

3.3.1.1. La navigation dans les mondes virtuels .................................................................................................... 623.3.1.1.1. Un langage de description de scènes en 3D : l’exemple du VRML ............................................... 623.3.1.1.2. La simulation de la navigation tridimensionnelle par anamorphose sphérique : le QTVR ............ 63

3.3.1.2. La 3D : une interface pour la connaissance .............................................................................................. 653.3.1.2.1. L’accès à la documentation ............................................................................................................ 653.3.1.2.2. L’approche ludique : une archéologie « vivante ».......................................................................... 66

3

3.3.1.2.3. La recontextualisation des vestiges : la découverte d’une archéologie « matérielle » .................... 673.3.2. La manipulation d’objets .............................................................................................................. 68

4. LES IMAGES DE SYNTHÈSE COMME AUXILIAIRES DE LA RECHERCHEARCHÉOLOGIQUE .......................................................................................................................................... 71

4.1. DE NOMBREUSES POSSIBILITÉS DE TRAITEMENT DE L’INFORMATION ....................................................... 714.1.1. Vers une connaissance globale en l’archéologie .......................................................................... 71

4.1.1.1. La prise en compte de l’environnement et de la topographie.................................................................... 724.1.1.1.1. la représentation tridimensionnelle de la topographie.................................................................... 734.1.1.1.2. l’observation du paysage................................................................................................................ 734.1.1.1.3. la reconstruction du paysage archéologique................................................................................... 754.1.1.1.4. la prospection virtuelle................................................................................................................... 764.1.1.1.5. L’association avec d’autres logiciels.............................................................................................. 77

4.1.1.2. Le site archéologique en 3D : le reflet virtuel d’une réalité opaque ......................................................... 804.1.1.2.1. la gestion et la représentation des données tridimensionnelles provenant des sites ....................... 81

4.1.1.2.1.1. Le fonctionnement par calque.................................................................................................... 824.1.1.2.1.2. L’association avec des bases de données ................................................................................... 85

4.1.1.2.2. Les reconstitutions ......................................................................................................................... 864.1.1.2.2.1. Quand les vestiges existent : la reconstruction assistée par ordinateur ...................................... 884.1.1.2.2.2. Quand les vestiges manquent : la reconstitution « hypothético-déductive » .............................. 89

4.1.1.2.3. L’hybridation des logiciels : simulation des propriétés physiques et visualisation de l’invisible .. 924.1.2. Une grande souplesse dans les traitements mais quelques limites dues à l’idéalisation de lareprésentation.............................................................................................................................................. 96

4.2. LES MODALITÉS D’ACQUISITION DES DONNÉES ........................................................................................ 974.2.1. Le transfert des méthodes traditionnelles de relevé tridimensionnel des spécialistes vers lesarchéologues ............................................................................................................................................... 99

4.2.1.1. Des instruments de métrologie tridimensionnelle réservés aux spécialistes ............................................. 994.2.1.1.1. Le relevé au théodolite ................................................................................................................... 994.2.1.1.2. Les relevés photogrammétriques .................................................................................................. 100

4.2.1.2. Des instruments désormais accessibles aux archéologues ...................................................................... 1034.2.2. Les nouvelles méthodes de numérisation tridimensionnelle........................................................ 107

4.2.2.1. La saisie distante..................................................................................................................................... 1094.2.2.1.1. Par l’analyse d’images ................................................................................................................. 109

4.2.2.1.1.1. Acquisition de la forme d’après un couple stéréographique (Shape from stereo) .................... 1094.2.2.1.1.2. Acquisition de la forme par lumière structurée (shape from structured light).......................... 1104.2.2.1.1.3. Acquisition de la forme par le mouvement (shape from motion)............................................. 111

4.2.2.1.2. Par balayage laser......................................................................................................................... 1124.2.2.2. La saisie directe ...................................................................................................................................... 115

CONCLUSION.................................................................................................................................................. 118

BIBLIOGRAPHIE............................................................................................................................................ 120

OUVRAGES ET ARTICLES ................................................................................................................................. 120CÉDÉROMS...................................................................................................................................................... 127ARTICLES SUR INTERNET................................................................................................................................. 128

ILLUSTRATIONS............................................................................................................................................ 129

4

INTRODUCTION

De plus en plus souvent, l’archéologie se voit associée, aux yeux du grand public, aux

nouvelles technologies. En fait, cette association, qui semble être un véritable paradoxe, n’est,

en réalité, que peu surprenante. En effet, l’archéologie est avant tout une science

d’aujourd’hui, et, à ce titre, en utilise les outils. Aussi, parmi les plus spectaculaires d’entre

eux, l’infographie et les images de synthèse qu’elle permet de réaliser figurent en bonne place.

Pour s’en convaincre, il suffit d’observer la part de plus en plus importante que prend cette

application particulière de l’informatique dans les documents à destination du grand public,

qu’il s’agisse des produits audiovisuels ou, plus récemment, des productions multimédias. En

fait, le côté magique et séduisant de ces images ne doit pas cacher ce qui fait leur succès :

porteuses ou non d’une thématique archéologique, elles plaisent de toute évidence car elles

véhiculent, du moins pour le moment, une connotation positive relative au mythe du « must »

technologique. A ce titre, et ce depuis quelques années, un véritable engouement s’est créé

autour du phénomène « 3D », si bien que, d’une manière ou d’une autre, l’archéologie ne

saurait y échapper.

C’est dans ce contexte que prend part cette recherche portant sur les applications de

l’infographie 3D à l’archéologie. En réalité, il nous a paru essentiel de voir dans quelle mesure

cette pratique et les images qu’elle permet de créer pouvaient servir l’archéologie d’un point

de vue général, et ce aussi bien au niveau de leur contribution au travail des archéologues que

sur la façon dont elles permettent à ce dernier d’être accessible à un large public. Ce dernier

point est particulièrement important et trouve pleinement sa place ici, car, ne l’oublions pas,

les connaissances produites par la pratique de l’archéologie ne sont pas destinées à rester la

propriété d’un petit nombre d’initiés mais sont bel et bien censées bénéficier à l’ensemble de

la communauté, qui, par ailleurs, justifie indirectement le travail des archéologues en suscitant

le nécessaire effort de mémoire que toute société se doit de reporter sur son passé.

Aussi, pour mener à bien cette recherche, nous avons jugé utile de nous intéresser,

dans une première partie, à la façon dont les informations prélevées sur le terrain par les

archéologues sont mises en forme et présentées au public qui est susceptible d’en avoir

l’usage. Cette partie porte essentiellement sur la représentation visuelle des connaissances

archéologiques, et ce qu’il s’agisse aussi bien de documents destinés aux spécialistes que ceux

s’adressant à un public moins averti. En développant cette partie, nous pensons montrer les

5

avantages et les limites de chacune des méthodes de représentation utilisées par les

archéologues ou par ceux qui sont chargés de produire ces documents. Se faisant, nous

insistons sur le fait que l’ensemble de ces documents, quelles que soient leurs finalités,

présentent une faiblesse que les techniques traditionnelles de représentation ne savent atténuer

qu’au prix d’un effort démesuré et souvent insuffisant : ils s’évertuent tous à reproduire dans

les deux dimensions des connaissances provenant de la réalité et observées en trois

dimensions, voire en quatre si l’on juge nécessaire la mention de l’effet du temps sur les

témoignages du passé. Cette partie nous permet d’introduire et de justifier le recours à

l’infographie tridimensionnelle pour représenter et traiter les connaissances archéologiques

dans une logique tridimensionnelle, voire quadridimensionnelle.

La deuxième partie propose une présentation de l’infographie. En effet, nous avons

estimé qu’il était important de mettre en évidence les « mécanismes » permettant la création

d’images de synthèse, afin de mieux comprendre quels en sont les enjeux ainsi que les

dangers. Par ailleurs, nous soulignons le fait que les images de synthèse ne sont en réalité

qu’un des produits possibles de l’infographie, et c’est pourquoi il nous a paru intéressant d’en

disséquer la réalisation. Par conséquent, après un exposé rapide traitant de la place de

l’infographie tridimensionnelle à l’intérieur du groupe plus large de l’informatique graphique,

nous entendons montrer de quelle manière les objets destinés à être représentés sont d’abord

créés de toutes pièces en trois dimensions dans la mémoire de l’ordinateur, et ce par

l’utilisation de plusieurs techniques que nous détaillons. Ensuite, nous exposons les méthodes

employées pour rendre ces objets, du moins dans leur aspect, davantage conformes à ceux

auxquels ils se réfèrent dans la réalité. Enfin, cette partie s’achève par la présentation du

processus final commun à toute réalisation d’image de synthèse, qui, en fait, détermine de

quelle manière la scène virtuelle en trois dimensions ainsi créée est projetée sur la surface

plane sur laquelle elle est généralement destinée à être publiée.

La précision des modalités de création des images de synthèse nous permet d’aborder

une troisième partie, où il est question d’étudier la portée pédagogique des documents à base

d’images de synthèse. En effet, l’infographie permet de produire plusieurs types de

documents, et à chacun d’entre eux correspond des possibilités propres en terme de

communication des informations. Ainsi, il nous est apparu intéressant de voir dans quelle

mesure ces différents produits destinés à différents supports pouvaient satisfaire à la

présentation et à la connaissance d’informations de nature archéologique. En fait, cette partie

6

entend présenter les alternatives aux documents traditionnels de l’archéologie en montrant les

plus values apportées par le recours à une documentation infographique.

Enfin, nous avons préféré isoler dans une dernière partie l’utilisation de l’infographie

dans le cadre de la recherche scientifique uniquement. En effet, il nous a semblé plus pertinent

de détailler ce sujet en l’excluant de toute problématique relative à la représentation

photoréaliste, ce point étant déjà traité dans les parties précédentes. Aussi, nous avons

privilégié le développement de cette partie suivant deux aspects : le premier s’attache à

présenter les nombreuses possibilités de traitement induites par la nature tridimensionnelle des

informations contenues dans les modèles numériques ; nous évaluons ainsi la propension de

l’infographie à constituer un outil de recherche pour l’archéologue, qui le seconde notamment

pour des activités de prospection, de gestion tridimensionnelle des vestiges découverts en

fouille ou bien encore de reconstruction de monuments détruits. Le deuxième point de cette

partie s’attache à rendre compte de la principale nécessité à laquelle doivent faire face les

archéologues désireux d’exploiter les possibilités de traitement évoquées plus haut : se pose

alors la nécessaire question de l’acquisition des données tridimensionnelles, qui, jusqu’à

présent, comme nous le verrons, dispose de solutions généralement réservées, en raison des

moyens financiers à mettre en œuvre, aux secteurs générant des richesses financières.

7

1. Les informations graphiques en archéologie

Dans cette partie, il s’agit d’étudier le rôle joué par les informations graphiques dans

l’élaboration d’une connaissance archéologique. Avant d’étudier précisément ce point, il nous

semble important de définir la spécificité des informations en archéologie.

1.1. L’archéologie, une science de l’érudition fondée sur laconnaissance des témoins matériels

1.1.1. L’importance des informationsDe par sa nature même, l’archéologie détruit les sources contribuant à forger sa

connaissance : aujourd’hui encore, une grande partie des documents sur lesquels elle se fonde

doivent être soustraits au contexte qui a permis de les préserver depuis leur enfouissement1,

lui-même porteur de nombreuses informations. L’étude de toutes ces données contenues dans

le sol passant nécessairement par un travail de destruction, la constitution d’un savoir, dans le

cas de cette discipline, est confrontée à un problème majeur qui tient précisément au caractère

irréversible de la fouille archéologique : seul l’archéologue en charge des opérations de

fouilles a un contact direct avec les vestiges observés sur le terrain. De ce fait, il résulte une

certaine restriction de la portée des découvertes réalisées sur chaque site, étant donné que les

seuls dépositaires de telles connaissances en sont les inventeurs respectifs. Par conséquent,

pour pallier le caractère irréversible et unique de chaque fouille, l’archéologue se doit de

conserver les données qu’il met au jour (et qu’il détruit) en les enregistrant sous d’autres

formes, de manière à pouvoir les communiquer à ses collègues et à l’ensemble de la

communauté scientifique, voire au grand public. En effet, la pratique de l’archéologie et la

teneur du discours scientifique qui en découle ne sauraient se limiter aux seules observations

faites sur chaque site isolément, mais participent, en réalité, d’un mouvement général où les

informations provenant d’un seul site peuvent bénéficier à l’ensemble des études menées sur

des sujets comparables. En outre, le résultat des campagnes de fouilles et d’études

archéologiques, dans de nombreux cas, intéresse la collectivité au sens général, puisqu’il est

du devoir de l’archéologue de justifier et de rendre compte de ses travaux en les rendant

accessibles à un public de néophytes, qu’il s’agisse des décideurs et des représentants de la

1 L’archéologie de fouille ou du bâti, bien que n’étant pas la seule approche possible dans l’étude des vestiges,continue toujours à fournir la plupart de la documentation utile aux archéologues. Néanmoins, son importancetend à être pondérée par des approches moins agressives et moins lourdes qui privilégient davantage uneconnaissance « distante » de ces documents par les méthodes issues de la prospection et de la détection.

8

collectivité ou bien plus largement du grand public, qui sont autant d’acteurs en droit

d’attendre de la part des archéologues de s’expliquer sur leur activité et de présenter les

résultats de leurs recherches, et ce dans le cadre d’une réflexion plus générale que peut porter

une société sur son passé.

Par conséquent, la diversité des publics auxquels se destinent les informations et les

observations produites par les archéologues implique de leur part une formulation spécifique

en fonction du public visé. Ainsi, une grande partie du travail de l’archéologue consiste à

établir une documentation où sont présentées les informations récoltées sur le terrain. Cette

documentation, de caractère secondaire, restera ensuite, avec la mémoire de l’archéologue, la

seule « trace » disponible renseignant et témoignant de l’intégrité du site archéologique et de

sa propension à fournir des informations non corrompues par l’agression de la fouille. En

outre, la documentation, dans bien des cas, sera le seul support de diffusion des informations :

les « vestiges des vestiges », c’est-à-dire l’ensemble du matériel archéologique exhumé,

extrait de son contexte et ayant « survécu » à la fouille, constituent, à terme, des documents

qu’il est difficile de consulter directement. En effet, les vestiges mis au jour sont uniques et

les rendre simultanément accessibles à plusieurs personnes présentes à des endroits différents

pose véritablement des problèmes : qu’ils soient mobiliers ou immobiliers, les vestiges

archéologiques « voyagent » rarement et sont plutôt destinés à alimenter les réserves des

musées et les rayons des dépôts archéologiques. Dans ce cas, la mobilité des chercheurs est

loin de présenter une solution pour la diffusion des connaissances, et ces déplacements,

motivés par la possible confrontation de leurs « vestiges », posent toujours le même

problème : celui de la conjonction dans l’espace et dans le temps de vestiges distants

géographiquement et qu’il serait impossible de déplacer. De plus, une comparaison menée

entre des objets issus de sites différents n’est réellement efficace que lorsqu’elle est réalisée

terme à terme, ce qui nécessite, au préalable, de bien cerner les critères réellement significatifs

de manière à rendre possible l’application d’une telle démarche à un corpus relativement

large2.

Aussi, l’établissement d’une documentation secondaire présente l’avantage de

rassembler certaines informations issues de la réalité en les portant sur des supports qui en

2 La quantité de pièces contenues dans une collection archéologique interdit, dans une certaine mesure, deconsacrer un temps excessif à l’étude de chacune d’entre elles. Par conséquent, le fait de déterminer les critèresréellement intéressants pour l’analyse de chaque type de vestige permet de traiter l’ensemble d’une collectionavec plus d’efficacité.

9

garantissent la diffusion et la reproduction tout en s’affranchissant des contraintes spatio-

temporelles de leur référé. En outre, les possibilités de diffusion et de reproduction des

informations secondaires permettent aux archéologues de publier les sources à partir

desquelles ils ont élaboré leur discours scientifique, fournissant ainsi l’opportunité à leurs

confrères d’en vérifier et d’en valider la pertinence.

Cependant, l’efficience d’une telle documentation est tributaire de la façon dont sont

formulées et retranscrites les informations qu’elle cherche à véhiculer. Lorsqu’elles sont

destinées à être échangées entre les spécialistes, celles-ci doivent, pour des raisons évidentes

de compréhension, faire appel à un système de codification qui permette d’en garantir la

constance et la cohérence. Ces qualités sont nécessaires pour assurer l’utilité documentaire des

informations et pour autoriser les comparaisons destinées à mettre en rapport certains faits

archéologiques observés.

Aussi, l’établissement d’une telle documentation requiert au préalable un travail de

réflexion sur la manière dont doivent être formulées les informations, et cette tâche est

d’autant plus primordiale que le volume des documents primaires utiles aux archéologues

augmente à chaque fois que la recherche archéologique s’enrichit des approches et des

méthodes d’analyse spécifiques aux disciplines « connexes » : l’importance des observations

apportées par les sciences de la Terre (géologie, géographie, topographie, pédologie) ou les

sciences de la Nature (biologie, zoologie et bien d’autres spécialités comme la carpologie ou

la palynologie) n’est plus à démontrer.

1.1.2. La spécificité des données archéologiquesAinsi, les vestiges utiles à la recherche archéologique constituent un panel

relativement riche et diversifié : ils peuvent avoir été intentionnellement créés par ceux qui

nous ont précédés, qu’il s’agisse de leurs habitations, de leurs constructions ou bien encore

des objets faisant partie de leur quotidien (comme les céramiques, complètes ou morcelées,

etc.…), ou qu’il s’agisse des déchets d’activité (éclats de silex provenant de la taille de pierre,

déchets de minerais indiquant le travail des métaux) ou de consommation (os, coquilles,

arêtes). En outre, il peut également s’agir de témoins plus ténus, comme les graines, les

pollens et les autres résidus organiques qui nous renseignent par exemple sur les conditions

climatiques et sur l’environnement dans lequel ils vivaient, ou bien encore de traces indiquant

des gestes, des actions (traces de façonnage) ou attestant la présence de matériaux périssables

aujourd’hui disparus (comme les trous de poteaux des huttes néolithiques).

10

En plus de l’étendue croissante et de la diversité de ces données, l’archéologue doit

faire face à un autre problème, et non des moindres : celui-ci se trouve confronté à leur nature

fondamentalement tridimensionnelle, puisqu’elles proviennent directement de la réalité. Dans

de nombreux cas, l’appréciation de telles données permet d’aboutir à des observations pleines

de sens pour les archéologues. Par exemple, dans le cas de l’archéologie dite « de fouille », le

caractère progressif de l’enfouissement des vestiges permet de conserver, dans un même

volume, des éléments souvent contemporains. Dès lors, on comprend mieux l’importance que

revêt la connaissance des relations tridimensionnelles qui existent entre les vestiges,

puisqu’elle permet, entre autre, de mettre en évidence des relations temporelles, et ce afin de

restituer, par exemple, la séquence chronologique d’un site.

En outre, l’ensemble des données couvertes par le champ archéologique n’offre qu’une

vision lacunaire d’une réalité révolue : il est rare que les vestiges soient conservés en élévation

et dans l’état dans lequel ils étaient du temps de leur utilisation. De plus, quand bien même ils

auraient été préservés de l’enfouissement, le maintient en élévation, du moins pour les

structures « en dur », n’en garantit pas l’intégrité et le caractère originel : à part les vestiges

préservés de toute réaffectation comme les monuments découverts à Pompéi, il arrive bien

souvent que les vestiges conservés en élévation aient subis de nombreuses transformations et

aménagements afin de satisfaire aux nécessités des populations qui se sont succédées3. Au

total, les objets de l’étude archéologique ne donnent à voir que des fragments du passé qui ne

permettent pas toujours d’apprécier concrètement la réalité d’un site archéologique à un

moment précis : les ruines, dans une certaine mesure, ne permettent pas toujours de rendre

compte de leur état à un moment de leur histoire, ou tout du moins ne facilitent pas le travail

d’imagination et de reconstruction mentale qu’elles requièrent de ceux qui les fréquentent,

qu’il s’agisse des scientifiques ou de simples visiteurs. Par conséquent, il existe réellement un

problème de représentation sélective des vestiges : comment étudier ou présenter un vestige

tel qu’il était à un moment donné en ne prenant en compte que les éléments valables à ce

3 A ce sujet, J.-P. Adam rappelle le paradoxe existant dans les opérations d’étude et de restauration desmonuments architecturaux, qui bien souvent s’attachent à ne rétablir que l’état initial du vestige en minimisantl’importance des phases successives de sa vie, qui, pourtant, participent autant à une problématiquearchéologique (cf. ADAM (J.-P.), « Les nouveaux regards de l’archéologie monumentale », Les Nouvelles del’Archéologie, n°76, 1999, p.6-9). Aujourd’hui, les choix d’étude et de restauration s’explique par l’unicité duvestige en question ; dès lors, le choix s’impose entre une présentation ne prenant en compte qu’un seul aspect del’édifice, balayant du coup, du moins dans la réalité, tous les autres aspects du monument, et entre unerestauration préservant l’intégralité de la séquence chronologique, mais qui, d’une certaine manière, risqued’occulter chacune des phases de l’évolution du bâtiment, puisqu’il n’est pas possible, dans la plupart des cas, deles dissocier physiquement.

11

moment et en excluant l’effet des modifications postérieures ? A ce problème de

représentation se rajoute celui de la manipulation et de la gestion de ces données de nature

tridimensionnelle : en fait, il convient de s’interroger sur l’efficacité des outils actuels dont

disposent les archéologues pour exprimer toutes ces informations constituées par l’imbrication

de notions spatiales et chronologiques.

Ces outils sont autant de supports sur lesquelles s’expriment ces informations, et

chacun d’autres eux emprunte un langage spécifique : il s’agit de voir dans quelle mesure ces

langages permettent de renseigner sur la tridimensionnalité et sur la temporalité des vestiges.

1.2. Le codage et la retranscription des informations

1.2.1. La description en langage naturel : de l’approche littéraire àl’analyse structurée

Historiquement, la première méthode d’enregistrement et de présentation des données

archéologiques a emprunté un raisonnement littéraire qui s’est prolongé jusqu’au début du

XXème siècle : les vestiges archéologiques faisaient souvent l’objet d’une description textuelle,

méthode qui s’est révélée être une source d’erreur fréquente, du fait de la difficulté de

retranscrire avec précision, exhaustivité et rigueur différents niveaux d’information issus de

l’observation de la réalité. En effet, les descriptions textuelles ne permettent pas de

hiérarchiser de manière claire les informations observées dans un contexte archéologique,

d’autant plus lorsqu’elles sont nombreuses. En outre, les chercheurs ayant eu à reprendre un

travail de ce type ont souvent été confrontés à un problème de terminologie : il faut, dans de

nombreux cas, émettre des hypothèses sur la signification de tel ou tel mot désignant un

vestige précis. De la même manière, il subsiste de nombreux doutes lorsque l’on cherche à

localiser un site déjà étudié, dans la mesure où nos prédécesseurs ne disposaient pas des

mêmes instruments de mesure des distances et des orientations, tant au niveau matériel que

conceptuel : à ce titre, les imprécisions induites par l’usage d’unités de mesure aujourd’hui

tombées en désuétude constituent un écueil sérieux à cette tâche de localisation, sans compter

l’effet de la fluctuation des étalons et des points de repère alors utilisés. Enfin, la faillite de

cette méthode réside aussi dans son fort niveau de subjectivité : la qualité d’une description

dépend souvent de l’aptitude du narrateur à décrire la réalité (l’appréciation des qualités

formelles des vestiges dépend du jugement du rédacteur, et se fonde rarement sur des procédés

automatiques).

12

Bien évidemment, la description textuelle n’a pas disparu de la méthode

archéologique. En fait, elle intervient davantage comme outil de synthèse des recherches que

comme outil de conservation : l’écrit reste un outil privilégié pour présenter de manière

synthétique et orientée les résultats des campagnes de recherches archéologiques, tandis que le

rôle de conservation est davantage joué par les autres types de documents que nous verrons

plus bas.

En fait, au texte littéraire s’est substituée une nouvelle utilisation de l’écrit. Désormais,

dans certains cas, la conservation des informations prélevées sur le terrain passe par une phase

de traitement hiérarchique et normalisé : plus que les textes, les mots permettent de synthétiser

des informations en les organisant de manière rationnelle dans des systèmes descriptifs et

analytiques.

Cependant, qu’elle soit analytique ou simplement littéraire, l’utilisation de l’écrit est

limitée lorsqu’il s’agit de conserver et de décrire des faits observés sur le terrain : il existe une

réelle distance entre les informations qu’ils véhiculent et celles auxquelles ils se réfèrent.

C’est pourquoi le recours aux documents graphiques est nécessaire.

1.2.2. La représentation graphique

1.2.2.1. La documentation photographiqueDès son invention, la photographie a été utilisée pour conserver l’image des vestiges

archéologiques. En France, une des premières initiatives faisant intervenir ce procédé est due à

l’administration des Beaux-Arts, qui, à partir de 1851, envoya des photographes prendre des

clichés des principaux monuments du Moyen-Orient afin de constituer un fonds

documentaire4. En réalité, la photographie n’a véritablement été associée à des opérations

archéologiques qu’à partir des fouilles menées en Assyrie sur la Porte de Khorsabad, de 1852

à 1855. Par la suite, elle est rapidement apparue dans les publications scientifiques,

remplaçant définitivement les méthodes plus traditionnelles de reproduction telles que la

lithographie. Aujourd’hui, elle occupe, à part égale avec les autres documents graphiques, une

place relativement importante dans les publications, sinon en terme de quantité, du moins au

niveau de la complémentarité qu’elle tient avec le texte. Néanmoins, avant d’être un document

4 Cf. DORRELL (P. G.), Photography in archaeology and conservation, Cambridge, Cambridge University Press,1989, p.1.

13

destiné à être publié, la photographie constitue, pour les archéologues, un véritable outil de

travail.

En effet, elle présente la particularité d’enregistrer les données de terrain sans

discrimination : elle permet de produire des documents bruts où les informations ne sont pas –

a priori – hiérarchisées. Ce genre de document, réalisé avec un minimum d’intervention de

l’opérateur dans un laps de temps infiniment court, est apparemment propice à

l’enregistrement exhaustif et rapide des données5. En outre, son mode d’accès excessivement

intuitif (exclusivement visuel) fait de lui un document accessible au plus grand nombre. Dans

certains cas, la photographie n’est plus cantonnée à un rôle d’enregistrement et de sauvegarde

des informations mais est réellement utilisée en tant qu’outil de découverte : le

développement de la photographie aérienne a incontestablement assis son statut d’outil d’aide

à la prospection6.

Néanmoins, il n’est plus à démontrer que les documents produits par la photographie

ne vont pas sans poser de problème : d’une part, l’impossibilité de distinguer les informations

pertinentes de celles qui sont inutiles conduit à une « pollution » de la valeur informative du

document, le destinataire ne saisissant pas forcément ce qui est véritablement intéressant7 ;

d’autre part, le cadrage de la photographie le conduit à focaliser son attention sur le centre de

l’image, alors qu’il arrive bien souvent que l’objet (au sens large) de la photographie dépasse

largement les limites du cadrage ou bien ne soit pas uniquement concentré dans les parties

centrales du cliché.

En outre, la photographie perd ou corrompt beaucoup d’informations : de nombreuses

nuances perceptibles sur le terrain par le fouilleur ne peuvent pas être enregistrées par la

photographie8. La qualité de l’enregistrement dépend de certains facteurs extérieurs parfois

difficilement contrôlables, comme par exemple la luminosité qui, suivant les ombres qu’elle

créée, peut rendre un cliché illisible. De plus, la réalisation d’une prise de vue doit prendre en

5 Cf. REILLY (P.), « Three-dimensional modelling and primary archaeological data » in Archaeology and theinformation age, a global perspective, London & New York, éd. Routledge, 1992, p.160-161.6 Cf. DABAS (M.), DELETANG (H.), FERDIERE (A.), JUNG (C.) ET HAIO ZIMMERMANN (W.), La Prospection,Paris, éd. Errance, 1998, coll. « Archéologiques », p.91-160.7 Généralement, ce problème est contourné en plaçant près de l’objet à identifier une marque, un tableauprécisant ses références.8 Ces nuances tiennent souvent à des différences de textures ou de consistance qui caractérisent différentescouches archéologiques. A l’inverse, certaines utilisations de la photographie permettent de mettre en évidencedes détails ou des nuances invisibles à l’œil nu ; toutefois, ces utilisations spécifiques présupposent le recours àdes méthodes ou à du matériel spéciaux (macrophotographie, utilisation de films et de filtres spéciaux), ce qui lesexclus d’une application généraliste dans l’archéologie.

14

compte certaines contraintes inhérentes au matériel utilisé : la focale employée sur le boîtier

photographique risque de produire une déformation plus ou moins importante, nuisant bien

évidemment à la qualité et à la précision des informations reproduites9. Les caractéristiques

techniques, propres à chaque type d’appareil, et l’inconstance des conditions dans lesquelles

ces prises de vue sont réalisées ne permettent pas d’offrir un moyen réellement satisfaisant

pour générer des documents destinés à mettre sur pied des comparaisons entre les vestiges : en

effet, il n’y pas véritablement d’homogénéité dans les traitements, et ce manque de cohérence

rend les tentatives de comparaison d’une photographie à l’autre relativement ardues10. Par

conséquent, la photographie semble davantage dévouée à des observations menées à titre

indicatif, permettant de conserver rapidement une image des vestiges11. Néanmoins, elle

conserve tout son intérêt dans certains cas particuliers, et principalement lorsqu’il est plus

avantageux d’y faire appel plutôt que d’avoir recours à d’autres procédés. Ainsi, la

photographie est une méthode de retranscription réellement efficace lorsqu’il s’agit de

conserver des vestiges particuliers tels que les peintures murales ou les mosaïques, ou bien

encore tout type de décor inscrit sur un support relativement bidimensionnel. Dans ce cas,

l’objectif principal est de privilégier la conservation des propriétés de surface et de forme de

manière à ne pas trahir l’expression artistique qu’elles véhiculent.

Au total, la photographie échoue lorsqu’elle cherche à retranscrire avec fidélité les

rapports de proportion et de dimension qui structurent une réalité tridimensionnelle : les

vestiges, n’étant vus que sous un seul angle, sont projetés sur une surface plane qui ne permet

pas d’en restituer le volume, étant donné qu’il n’y a pas moyen d’observer, sur un même

document, les faces cachées d’un objet. En fait, les seuls moyens existants pour saisir le

volume nécessitent soit l’utilisation d’un couple de photographie12 reproduisant la vision

humaine en stéréoscopie mais difficile à retranscrire sur un support papier, soit de réaliser une

9 Il existe néanmoins des procédés qui permettent de corriger ces déformations. Ainsi, suivant le type dephotographie réalisée, il est possible de minimiser l’importance de la distorsion en ayant recours à un matérieloptique spécifique. En outre, des logiciels ont été spécialement développés pour redresser des photographiesaériennes obliques (le logiciel « Reimagae » de L. Langouët et « Aérophoto » d’O. Buchsenschutz), et d’autresinitiatives ont été menées pour adapter ce type de logiciels à une utilisation sur le terrain. Ainsi, le système« Arkéoplan » permet, dans une certaine mesure, de corriger les déformations, mais il n’est véritablement efficaceque lorsqu’il est employé pour relever des surfaces relativement planes (paroi d’un mur, aire de fouille vue dehaut), car il ne permet pas de traiter la profondeur de champ et ne gère pas les effets de perspective (cf.BUCHSENSCHUTZ (O.) & GRUEL (K.), « De l’usage d’Arkéoplan pour l’enregistrement d’éléments en élévation :étude d’un mur du couvent du Mont Beuvray », Le Médiéviste et l’ordinateur, n°29, 1994, p.14).10 Cf. RIGOIR (Y.), Le Dessin technique en céramique, Lambesc, 1975, p. 18-19.11 Comme c’est généralement le cas lorsque les archéologues décident de conserver, au cours de la fouille, unstade provisoire du vestige avant d’en achever la destruction.12 Cf. ci-dessous 4.2.1.1.2 Les relevés photogrammétriques, p.100.

15

séquence cinématographique (ou vidéo) qui n’est en fait qu’une succession d’images

observant le même vestige sous des angles différents. Bien que ce procédé présente l’avantage

d’être très suggestif en permettant de mieux appréhender visuellement un vestige

archéologique, il n’en possède pas moins les mêmes inconvénients techniques que la

photographie, sans compter la difficulté qu’il y aurait à reproduire une telle information, qui

ne peut bien évidemment pas emprunter les médias traditionnels, les produits audiovisuels en

archéologie étant relativement marginaux et essentiellement destinés au grand public.

Toutefois, la photographie semble bénéficier depuis quelques années d’un

renouvellement de son apport en tant que document descriptif des faits archéologiques

observés. Désormais, son association avec l’informatique a permis de l’établir comme un

document intermédiaire servant à produire d’autres documents. En effet, comme nous l’avions

indiqué plus haut, certains logiciels permettent de corriger les déformations induites par la

prise de vue. Ainsi, à partir de mesures connues dans la réalité et reportées sur la

photographie, il est possible de rétablir les rapports de proportions et d’obtenir un document

orthogonal, où toutes les dimensions, mises à l’échelle, sont conformes à la réalité. Par la

suite, ce document sert de modèle à la réalisation d’un dessin, où seules les informations

jugées pertinentes sont conservées : cette phase de mise au net consiste schématiquement à

décalquer les formes observées sur l’orthophotographie13. Ainsi, cette utilisation de la

photographie permet d’alléger considérablement le temps consacré à la prise de mesure sur le

terrain, puisque seules quelques mesures de références suffisent à établir les rapports de

proportions14.

Dans ce dernier exemple, la photographie fait intégralement partie d’un processus

d’élaboration permettant de produire un autre type de document graphique, qu’il s’agit

désormais d’étudier.

13 c’est-à-dire la photographie après traitement et correction des déformations.14 Plusieurs travaux ont été menés sur l’application de l’orthophotographie à l’archéologie. La plus connue faitpartie d’un projet plus ambitieux, Arkéoplan, dirigé par O. Buchsenschutz (cf. BUCHSENSCHUTZ (O.) & GRUEL

(K.), « De l’usage d’Arkéoplan pour l’enregistrement d’éléments en élévation : étude d’un mur du couvent duMont Beuvray », Le Médiéviste et l’ordinateur, n°29, 1994, p.12-18.). Une autre initiative a permis d’établirl’efficacité d’une telle méthode en ayant recours à du matériel et des logiciels relativement communs, sansnécessiter l’utilisation de logiciels spécialement développés à cet effet (cf. ROUGER (E.), « Image numérique etarchéologie », Le Médiéviste et l’ordinateur, n°29, 1994, p.7-11.).

16

1.2.2.2. Le dessin technique en deux dimensionsA la différence de la photographie, le dessin est un procédé de représentation par

sélection des informations. En fait, la personne chargée de réaliser un dessin dispose d’un

contrôle absolu sur l’objet de la représentation ainsi que sur la manière dont il doit être figuré.

La maîtrise totale du processus de représentation offre ainsi un large éventail de possibilités

dans le traitement de l’information : en théorie, l’exercice du dessin est relativement libre et

dépend entièrement du savoir-faire de celui qui le réalise. Néanmoins, cette approche,

lorsqu’elle est appliquée dans une logique rigoureuse, n’est pas satisfaisante ; tout l’intérêt du

dessin réside en réalité dans sa propension à faire l’objet d’une codification, où chaque

élément dessiné témoigne, suivant certaines conventions, de la réalité et de ce qui est

réellement intéressant de noter. Ainsi, le recours au dessin permet d’élaborer un langage de

description compréhensible par tous.

Le dessin archéologique participe du même mouvement qui caractérise d’une manière

générale le dessin technique, qu’il s’agisse du dessin cartographique, industriel ou bien encore

d’architecture. En fait, l’objectif principal du dessin est de fournir une représentation

graphique permettant de conserver fidèlement les dimensions de l’objet, du vestige observé.

Cette forme de retranscription de la réalité subit nécessairement trois réductions, toutes les

trois déterminées par le support sur lequel elle est destinée à être publiée. La première

réduction concerne les dimensions mêmes de l’objet, qui sont réduites par un processus de

mise à l’échelle, et ce de manière à pouvoir être transposées sur un support relativement

maniable et peu encombrant15. La seconde tient à la clarté du document final : pour être

significatif, le dessin ne prend en compte que les éléments pertinents, et, de ce fait, les

informations qui y figurent sont nécessairement sélectionnées et mises en forme de manière à

ne pas polluer inutilement la lecture du document. Enfin, la troisième réduction opère sur une

des trois dimensions présentes dans la réalité, car seule l’expression de deux dimensions est

réellement adaptée au support bidimensionnel. Pour satisfaire à cette exigence, la réduction

s’effectue, suivant les principes de la géométrie descriptive, par la projection orthogonale de

l’objet sur un plan perpendiculaire par rapport au sens de projection. Ce type de projection

permet de conserver la disposition et la forme des objets suivant le plan sur lequel ils sont

destinés à être projetés. Cela explique que, dans certains cas, les dessins d’ensemble ne

permettent pas de rendre compte individuellement des dimensions de chacun des objets

15 C’est généralement le cas lorsque les dimensions du référé dépassent celles du support. Cependant, danscertain cas, il peut arriver que le dessin soit réalisé en taille réelle, lorsqu’il s’agit de représenter le mobilier.

17

représentés, du fait que chacune des dimensions choisies pour caractériser un objet ne

coïncide pas forcément avec le plan de projection. Aussi, chaque dessin témoigne de la façon

dont le dessinateur appréhende la réalité qu’il observe ; il existe cependant certaines

conventions qui régissent la manière suivant laquelle la réalité doit être décomposée et qui

définissent comment doivent être représentées les informations.

D’une manière générale, le dessin archéologique s’attache à retranscrire la réalité à

l’aide de plusieurs documents, dont la complémentarité permet d’en appréhender la

tridimensionnalité. Ainsi, les informations relatives à l’étendue des vestiges et des sites en

terme de surface sont fixées par leur projection sur un plan horizontal. Dans ce cas, seules

sont réellement exprimées les deux dimensions relatives à la longueur et à la largeur.

Néanmoins, il arrive parfois que certains artifices permettent de mentionner la dimension

absente : à ce titre, l’altitude est généralement exprimée sur les plans grâce à des courbes de

niveaux associées à des valeurs numériques. En fait, ce principe convient essentiellement aux

données topographiques : pour des raisons évidentes de clarté, à chaque point du plan ne peut

être associée qu’une seule valeur d’altitude, ce qui est généralement le cas avec le relief (sauf

lorsque, par exemple, le sommet d’une falaise est à l’aplomb de sa base). Lorsqu’il s’agit de

documenter des vestiges archéologiques, la précision de la hauteur par ce procédé montre ses

limites : en effet, la projection sur un plan ne permet pas de renseigner sur les vestiges situés

au-dessous de ceux directement visibles, et il est par conséquent impossible d’y faire figurer

des données quantitatives telles que les mesures de hauteur. La seule liberté permise par ce

type de projection consiste à différencier la hauteur des éléments mitoyens sur le plan en leur

attribuant une graisse différente en fonction de leur hauteur respective : par exemple, dans le

cas d’un mur inégalement conservé en élévation, le dessinateur peut utiliser un trait plus fort

pour marquer le contour de l’assise supérieure, prenant soin ainsi d’éviter tout risque de

confusion lié à l’absence de discontinuité lorsque le mur est vu de dessus. Cependant, cette

option de représentation tient encore de l’artifice, puisqu’elle ne permet en aucun cas de

renseigner sur le nombre d’assises et sur leur hauteur respective, car elle ne s’attache qu’aux

éléments directement visibles dans le plan de projection.

Ainsi, pour les autres données où la mention précise de la hauteur est nécessaire, il faut

envisager le recours à un autre type de document. La vue en plan peut alors être complétée par

une projection sur un plan vertical, qui permet ainsi de fournir des vues en élévation ou en

coupe. De même que pour les planimétries, ces documents ne prennent en compte que deux

18

dimensions, la troisième pouvant être évoquée à l’aide des procédés cités plus haut. Ces vues

sont également très importantes, puisqu’elles permettent de conserver des informations

primordiales en archéologie : les logiques de construction ou de sédimentation des vestiges

archéologiques sont particulièrement bien visibles sur ce type de document, étant donné

qu’elles sont généralement déterminées par une succession verticale de couches

stratigraphiques ou d’éléments superposés. Cependant, les vues en coupe et en élévation ne

renseignent que “ ponctuellement ” sur l’organisation verticale d’un site ou d’un monument :

il est rare qu’un seul document suffise à témoigner de l’ensemble de l’objet étudié. Dans le

cas d’un monument, par exemple, un relevé d’élévation ne peut donner d’indication que sur

un seul parement d’un mur. Pour connaître l’épaisseur de ce mur en regard de son élévation, il

est nécessaire de l’observer dans un autre document, et il en est de même si l’on désire étudier

l’autre parement. Dans un contexte de fouille, le dessin de coupe ou le relevé vertical ne

concerne pas l’ensemble du volume exhumé mais s’attache plutôt à quelques cas particuliers

tels que les éléments construits ou bien encore certains échantillons où la stratigraphie peut

s’avérer particulièrement intéressante, qu’il s’agisse de fosses ou des bermes laissées comme

témoins à la périphérie de l’aire de fouille. Ainsi, la connaissance et l’enregistrement précis

des zones fouillées ou étudiées n’offrent des informations tridimensionnelles que par le

croisement des différents documents et par leur extrapolation : à partir des informations tirées

de l’observation des bermes, il est possible a posteriori de restituer mentalement

l’organisation en volume de la zone fouillée, qui jusqu’alors n’était documentée que par des

plans, car le déroulement même de la fouille privilégie l’établissement de ce type de dessin.

Le dessin archéologique ne se limite pas à l’établissement d’une connaissance du site

même ou de son environnement local ou régional, mais permet également de conserver des

informations plus précises sur le mobilier. Dans ce cas, l’objet même du dessin est isolé du

contexte dans lequel il a été découvert, et un ensemble de règles et de conventions détermine

la façon dont il doit être retranscrit. Ce n’est pas l’objet ici de faire l’inventaire de chacune des

spécificités de représentation propre aux différents types de vestige, puisque, globalement, le

dessin de mobilier a recours au même système de projection sur un plan orthogonal, qu’il

s’agisse du dessin de céramique, de matériel lithique ou bien encore de mobilier

ostéologique16.

16 Pour plus de précision sur le dessin de matériel, cf. DRIESSCHE (B. VAN DEN), Le Dessin au service del’archéologie, Louvain, 1975, p.30-44 et RIGOIR (Y.), Le Dessin technique en céramique, Lambesc, 1975, p.23-26.

19

Au total, la pratique du dessin d’après relevé présente l’avantage de conserver les

propriétés formelles des vestiges observés : les dimensions appartenant au plan de référence

sont saisies avec justesse et sont mises à l’échelle sur le document de destination. Néanmoins,

du fait du caractère non automatisé de la phase d’acquisition des informations, le dessin ne

permet pas de faire figurer l’intégralité des propriétés des objets, comme leur couleur, forme

en volume, etc.…

En outre, dans le cas d’une vaste documentation archéologique, ce procédé montre ses

limites : d’une part, le croisement de deux documents 2D complémentaires ne suffit pas pour

reproduire la tridimensionnalité ; d’autre part, la quantité sans cesse grandissante des données

archéologiques rend difficile cet effort mental de recoupement de documents de plus en plus

nombreux. Enfin, ce mode d’accès à la tridimensionnalité favorise, du fait de son manque de

transparence, de nombreuses incompréhensions lors de l’échange des points de vues et des

observations émanant de plusieurs archéologues travaillant ensemble. Cette faillite, aussi

cruciale soit-elle en terme de communication entre les spécialistes, n’en est pas moins

caractéristique de la difficulté d’accès que peuvent présenter de tels documents pour un public

de non-spécialistes.

1.2.2.3. La représentation tridimensionnelleLe croisement de plusieurs documents exprimés en deux dimensions n’est pas la seule

méthode pour retranscrire les trois dimensions de la réalité. En fait, il existe d’autres procédés

qui permettent de porter dans les deux dimensions de la feuille de papier et dans un même

document des informations de nature tridimensionnelle.

Ces représentations tridimensionnelles fonctionnent sur la base d’un principe similaire

à celui que nous avons vu pour le dessin en deux dimensions : elles résultent également de la

projection de la réalité sur un plan en deux dimensions (le tableau), en l’occurrence constitué

par la feuille de papier. Les seules différences résident dans l’orientation du plan de projection

par rapport à l’objet et dans la façon dont sont traitées les informations relatives à la troisième

dimension. En effet, dans le cas du dessin en deux dimensions, le plan de projection est

rigoureusement parallèle aux plans privilégiés de l’objet, de sorte que les informations

s’établissant sur des plans perpendiculaires à ce dernier ne puissent pas venir perturber la

lecture du document. Ainsi, les rapports qui unissent les dimensions dans la réalité sont

respectés : il n’est pas possible d’exprimer la profondeur sur un support en deux dimensions,

et la solution consiste tout simplement à en annuler la mention. A l’inverse, le dessin en trois

20

dimensions contourne ce problème en offrant plusieurs solutions qui consistent à restituer

graphiquement une certaine vision de la profondeur : les perpendiculaires au tableau qui

témoignent justement de cette troisième dimension sont représentées suivant une orientation

particulière, de manière à pouvoir apparaître en plus des directions déjà établies par les deux

premières dimensions. Par conséquent, le rapport de perpendicularité qui relie l’orientation de

la troisième dimension au plan établit par le rapport des deux premières est nécessairement

aménagé suivant certaines modalités, qu’il s’agit dès à présent de présenter.

La première solution consiste à conserver sur le papier les parallélismes présents dans

la réalité, afin que les verticales restent parallèles entre elles, de même que les horizontales et

les fuyantes indiquant la profondeur. Ce type de projection, dite « affine oblique »17 permet de

conserver les mesures de dimensions sur un ou plusieurs plans. Dans le cas particulier de la

perspective cavalière, le plan principal de l’objet est parallèle au tableau, et seul le rapport

angulaire qu’entretient ce plan avec les parallèles indiquant la profondeur est modifié : cet

angle, perpendiculaire dans la réalité, est fixé par convention à 45°, et les dimensions des

fuyantes qu’il définit sont réduites de moitié. Ainsi, ces aménagements permettent de

conserver, à l’instar du dessin en deux dimensions, les proportions, les dimensions et la forme

des éléments présents sur le plan principal de l’objet et sur tous ceux qui lui sont parallèles,

tandis que les dimensions présentes sur les plans perpendiculaires subissent une déformation

qu’il est néanmoins possible de mesurer. Cependant, le fait que des échelles différentes soient

attribuées aux dimensions n’autorise pas une lecture des plus significatives : il faut envisager

un autre type de projection affine oblique répondant de manière plus convaincante aux

exigences du dessin archéologique. L’axonométrie est le seul système de projection à

conserver le parallélisme et l’échelle des différentes dimensions. Elle permet ainsi de

représenter non seulement le plan d’un édifice sans déformation, mais également de faire

figurer ces dimensions verticales, exprimées dans la même échelle que le plan. Ces

dimensions verticales sont portées sur le tableau de manière à ce qu’elles soient

rigoureusement parallèles aux verticales de ce dernier : il en résulte alors une meilleure lecture

des informations qu’elles véhiculent, la perception des différentes dimensions étant davantage

évidente. En outre, le plan voit ses rapports et ces dimensions conservés, de sorte que son

expression semble être également parallèle au plan du tableau : en fait, les angles sont

maintenus mais le système orthonormé qu’il définit est basculé de 45° de manière afin que

21

l’une de ces dimensions ne coïncide pas avec l’expression des verticales. Au total, aucune des

faces n’est privilégiée mais le recours à ce système permet de conserver avec le maximum de

fidélité l’échelle, les orientations et les dimensions de ce qui est observé dans la réalité.

Ces systèmes de représentation permettent ainsi de formuler de manière mesurable des

informations de nature tridimensionnelle sur des supports à deux dimensions. Cependant, ces

informations sont représentées suivant des conventions qui ne sont pas toujours accessibles de

prime abord : par exemple, il arrive souvent que pour améliorer la lecture d’un édifice, celui-

ci soit figurer comme s’il était vu de dessous. En fait, ce type de point de vue peu commun

permet de privilégier le plan de l’édifice en le représentant dans son intégralité et en rapport

avec son élévation, sans qu’il soit en partie caché par cette dernière. Cette convention de

représentation, bien que permettant d’exprimer de nombreuses informations, n’offre pas une

vision très naturelle de l’objet. En effet, d’une manière générale, les systèmes de projection

affine induisent une certaine mise à distance entre l’observateur et l’objet : ce qui est

représenté est conçu comme un produit abstrait, conceptuel, véhiculant des informations

quantifiables. Or, outre la reproduction des trois dimensions à des fins d’études et de mesures,

il existe un véritable intérêt à représenter ces informations sous des formes plus accessibles,

voire plus subjectives. Comme c’est souvent le cas en archéologie, les vestiges ne sont que les

témoins lacunaires d’une réalité passée, et il est parfois important de pouvoir leur redonner

leur aspect originel, du moins celui qu’on leur suppose, en les restituant. Cette tâche, ne

pouvant pas être assurée par la photographie, incombe naturellement à la représentation

graphique. A cet effet, un autre type de projection permet de reproduire avec fidélité la façon

dont l’œil humain perçoit son environnement, et offre ainsi des représentations plus

accessibles.

A la différence de la projection affine, la projection centrale – la perspective – ne

maintient que très rarement les parallélismes présents dans la réalité : en fait, chacune des

trois directions de l’espace tridimensionnel voit ses parallèles converger vers un point de fuite

lorsque celle-ci n’est pas parallèle au plan du tableau, de sorte que le dessin final peut

comporter de un à trois points de fuite. Ce principe de construction assoit une des principales

limites de la projection centrale, à qui il est pratiquement impossible de conserver les

dimensions et de les préserver de toute déformation. En fait, seuls les plans rigoureusement

17 Cf. SAINT-AUBIN (J.-P.) [dir.], L’Architecture en représentation, Malesherbes, Ministère de la Culture,Inventaire Général des Monuments Historiques, 1985, p.20-21.

22

parallèles au tableau peuvent conserver leur forme, tandis que leurs dimensions sont plus ou

moins réduites en fonction de leur éloignement par rapport au tableau. Par conséquent, il n’est

pratiquement pas possible de tirer des informations de grandeur sur ce type de document, étant

donné que ni les dimensions, ni les formes ne sont invariablement conservées. En fait, la

projection centrale permet d’effectuer une mise en scène du monument, et ce afin de porter un

certain regard sur lui : par ce biais, il est possible de personnaliser le rapport que l’on désire

établir avec le vestige restitué. Ainsi, le jeu sur les points de fuite et sur la position du tableau

par rapport à l’objet de la représentation permet de modifier l’image que l’on en a : dans

certains cas, il peut être intéressant de restituer le côté monumental et écrasant de certains

vestiges, de manière, par exemple, à éprouver les messages que l’architecte ou le maître

d’œuvre s’étaient décidés à faire passer au travers de leur réalisation, comme peut en

témoigner à cet égard l’architecture monumentale publique des Romains. Le dessin en

perspective, en raison de son analogie avec la perception humaine, favorise l’expression

immédiate de certaines impressions intranscriptibles par les autres types de dessin. Son

utilisation dans l’archéologie peut emprunter plusieurs logiques : il peut tendre à ne traiter que

le vestige même, monument ou témoin plus modeste, en ayant recours à un minimum d’effets

graphiques de manière à garantir la sobriété et la crédibilité scientifique du message qu’il

délivre18. A l’opposé, le dessin peut être rehaussé de couleurs afin de retranscrire non

seulement une réalité archéologique observée (polychromie de certaines architectures), mais

également une interprétation plus partisane de ce que pouvait être la réalité du vestige dans le

passé : à ce titre, le dessin perspectif joue davantage un rôle figuratif qu’analytique ou

conservateur. Les aquarelles de MM. J.-Cl. Golvin et J.-M. Gassend19 en sont des exemples

flagrants : dans leur cas, l’unité n’est plus le vestige même mais s’est étendue à son

environnement. En fait, le dessin en perspective créé des passerelles entre l’abstraction des

résultats des recherches archéologiques, qui n’offrent que très rarement de points de vue

18 JAMES (S.), « Drawing inferences. Visual reconstructions in theory and practice » in The Cultural life ofimages, visual representation in archaeology, éd. par Brian Leigh Molyneaux, Londres, Routledge, 1997, p.24.L’auteur de cette contribution souligne le fait qu’il existe un certain « académisme » dans les publicationsarchéologiques scientifiques, du moins en Grande-Bretagne, qui, selon lui, consiste à n’accorder de crédit auxtravaux archéologiques que lorsque les représentations graphiques auxquelles les archéologues font appel pourasseoir certains de leurs arguments ou pour tenter de les rendre plus accessibles soient réduites au minimum :pour résumer, la présence de nombreuses images dans une publication peut être synonyme de manque de sérieuxpour le travail qui a été mené.19 GASSEND (J.-M.) & GOLVIN (J.-CL.), « Les restitutions graphiques : pourquoi ? comment ? »,l’Archéologue – Archéologie Nouvelle, n°23, juillet - août 1996, p.48-50.

23

généraux sur les réalités révolues, et leur nécessaire synthèse demandée par toute entreprise de

mise en image qui acceptent difficilement les hésitations et les incertitudes20.

En fait, la réalisation de tels documents permet de mettre à plat l’état des

connaissances sur un site et d’en vérifier la cohérence : ces représentations constituent des

supports, des terrains d’entente sur lesquels les spécialistes peuvent se retrouver pour exposer

avec plus de réussite leurs hypothèses de travail. En particulier, le dessin en perspective

bénéficie également à un public plus large : les dessins, plus ou moins réalistes, sont

accessibles à tous. C’est donc par sa capacité à évoquer l’aspect d’un objet, réel ou reconstruit

mentalement, que le dessin perspectif l’emporte du moins en terme d’efficacité. Cependant,

comme tout dessin, il est limité par un mode de réalisation long et fastidieux :

• sa réalisation demande une certaine quantité de travail : lorsque le dessin doit être

relativement précis, le dessinateur doit s’aider d’autres documents décomposant l’objet en

projections orthogonales afin de mieux en contrôler la projection centrale.

• cette vue en perspective est unique : pour réaliser une autre vue du même objet, le

dessinateur doit recommencer la même procédure en choisissant un autre point de vue.

Par conséquent, dans de nombreux cas, la réalisation de tels dessins est conditionnée

par des contraintes de “ rentabilité ” : dans le cadre d’une publication archéologique, il faut

que la représentation de la tridimensionnalité soit justifiée par l’intérêt qu’elle présente à la

fois d’un point de vue général (est-ce qu’elle apporte réellement une meilleure compréhension

par rapport au texte et aux dessins déjà présents) et d’un point de vue orienté (quel point de

vue choisir au détriment de quel autre ; quelle vue sera la plus significative ?), tout en sachant

qu’une seule image de objet ne suffit pas pour rendre compte de la façon dont il s’inscrit dans

l’espace ; dans le cadre de la diffusion vers le public, le choix ne s’établit pas de la même

façon : les impératifs de précision sont moins contraignants, car ce qui compte, ce n’est pas

tant une reproduction fidèle à partir des données archéologiques mais plutôt une évocation

proche de ce qui est connu par les fouilles, généralement rehaussée de couleurs pour la rendre

plus attractive.

Nous avons vu que, dans le cas de l’archéologie, les documents graphiques sont

essentiels car ils peuvent être vecteurs de nombreuses informations. A plus forte raison, nous

20 Parfois, les dessinateurs ont néanmoins recours à des subterfuges pour cacher certains endroits de leurs dessinsqui ne sont pas connus dans la réalité par les archéologues et dont il serait délicat d’extrapoler la restitution.

24

avons montré qu’il existait un réel enjeu pour représenter les données archéologiques en trois

dimensions.

Depuis quelques années, l’introduction de l’informatique dans l’archéologie a apporté

de nouvelles méthodes de travail, notamment dans la pratique graphique : l’élaboration de

plan, de coupe et de carte sur des logiciels de D.A.O. disponibles sur des ordinateurs

accessibles aux archéologues non-spécialistes de l’informatique a permis à ces derniers de

produire une quantité infinie de documents sans pour autant augmenter en proportion leur

volume de travail.

Aujourd’hui, ce sont désormais les logiciels permettant de traiter les informations

tridimensionnelles21 et de réaliser automatiquement les dessins en projection centrale qui se

trouvent à la portée des archéologues. Il s’agit donc de voir plus en détail en quoi consiste

cette nouvelle pratique et dans quelle mesure elle peut se conformer à l’expression des

connaissances archéologiques.

21 Cela s’explique par des raisons de matériel et de logiciel : les ordinateurs accessibles au plus grand nombredeviennent de plus en plus puissants, ce qui leur permet de recevoir des logiciels, qui, il y a quelques années,étaient réservés à ceux qui disposaient des meilleures machines. Ces logiciels, de plus en plus nombreux,nécessitent moins de compétence en informatique de la part des utilisateurs.

25

2. Présentation et techniques de l’infographie

2.1. DéfinitionsLe terme infographie est un néologisme désignant la rencontre du graphisme et de

l’informatique ; il s’applique à deux types d’activités22 :

• l’analyse ou le traitement d’image à partir d’images existantes ;

• la synthèse d’image, où les images sont produites artificiellement par le calcul de

l’ordinateur.

2.1.1. Le traitement d’imageLe traitement d’image désigne l’ensemble des opérations informatiques qui permettent

d’intervenir sur ce qui constitue une image numérique. Avant toute chose, il faut donc pouvoir

disposer des outils permettant de traduire une image issue de la réalité en informations

numériques, directement compréhensibles par l’ordinateur. Cette étape, la numérisation,

implique dans un premier temps de définir la nature d’une image numérique.

2.1.1.1. Les images numériquesEn fait, une image numérique est une surface plane entièrement remplie d’éléments

graphiques, – les pixels23 –, disposés régulièrement en lignes et en colonnes de manière à

former un rectangle. Chacun de ces éléments est codé à l’aide d’informations numériques qui

indiquent à l’ordinateur ses propriétés d’affichage, telles que sa couleur et sa position relative

dans la trame rectangulaire de l’image. Ainsi, la couleur d’un pixel est définie par le mélange

de trois composantes primaires (le rouge, le vert et le bleu) suivant le principe de la synthèse

additive : la couleur finale dépend de l’intensité de chacune de ces composantes ; pour obtenir

du blanc, il suffit de pousser l’intensité des trois couleurs à leur maximum ; à l’inverse, le noir

s’obtient en réduisant leur intensité au minimum. Entre ces deux extrêmes, les nombreuses

combinaisons possibles permettent de couvrir un champ colorimétrique plus ou moins vaste

en fonction de la profondeur de codage de l’image24. Aujourd’hui, chacune des composantes

primaires peut proposer jusqu’à 256 niveaux d’intensité, ce qui fait au total plus de 16,7

22 cf. POINSAC (B.), L’infographie, Paris, Presses Universitaires de France, 1994, coll. « Que sais-je ? », p.723 de l’anglais picture element24 En fait, la profondeur de codage détermine le nombre de possibilité dont on dispose pour coder uneinformation. Par exemple, une image codée sur 8 bits pourra offrir 256 couleurs possibles pour chaque pixel : unbit (binary digit) est un élément d’information qui peut prendre deux valeurs au choix ; aussi, une chaîne de

26

millions de combinaisons, soit autant de nuances possibles25. Outre la possibilité d’afficher

une couleur précise, chaque pixel se voit attribué un emplacement unique : ils sont

uniformément distribués sur une surface rectangulaire suivant un nombre limité de colonnes et

de lignes dont la quantité détermine la finesse et le niveau de détail de l’image finale. Leur

position respective est alors connue grâce à des coordonnées exprimées par rapport à un

repère orthogonal composé d’un axe horizontal (l’abscisse) et d’un axe vertical (l’ordonnée)26.

2.1.1.2. La numérisationUne image numérique est donc composée d’une quantité limitée d’éléments : elle

possède un nombre fini de pixels qui peuvent être colorés par un nombre limité de couleurs.

Cette finitude de l’image numérique s’oppose au caractère infini des images réelles : en effet,

dans la réalité, les images ne se réduisent pas à ce qu’elles expriment, elles participent d’un

tout. Par exemple, l’effet produit par un dessin ou une peinture est non seulement dû aux

couleurs et aux formes dessinées sur la toile ou sur le papier, mais également à la matérialité

de la « matière picturale » : la toile, la peinture, l’encre participent de la réalité et sont

véritablement inscrites dans un espace tridimensionnel dont les limites sont celles de

l’infiniment petit ; il en est de même de la photographie argentique, qui fixe une expression de

la réalité sur un support dont les propriétés chimiques et physiques déterminent la qualité : à la

saisie d’une image de la réalité se superpose la matière du support recevant l’information,

rajoutant ainsi autant de bruit supplémentaire au signal original.

Par conséquent, l’image elle-même est indissociable de son support. Les signaux

visuels émis par ces « images-supports » sont continus, c’est-à-dire sans fin : leurs

rayonnements proviennent directement de la matière qui les compose, et pour arriver à leur

limite, il faudrait au moins pénétrer jusqu’au niveau de leur structure moléculaire. Aussi, pour

rendre ces images lisibles et manipulables par un ordinateur, il faut les retranscrire en un

nombre fini d’informations numériques. Ce phénomène de réduction, la discrétisation, se

produit lors de la phase de numérisation : il permet de substituer à un signal continu, dit

« analogique » un signal discontinu, dit « numérique » composé d’un nombre limité de valeur.

Par exemple, la numérisation d’un dessin procède par un échantillonnage plus ou moins précis

codage constituée de 8 bits offre 28 possibilités de codage, soit un total de 256. A l’heure actuelle, les pixelsd’une images peuvent être codés sur 24 bits, ce qui fait un total de plus de 16,7 millions de possibilités (224).25 Ce chiffre est obtenu en multipliant les niveaux d’intensité de chacune des composantes, soit 256x256x256. Ilcorrespond au nombre de nuances affichable simultanément par un écran.26 Pour un exposé plus détaillé sur la nature des « mécanismes » graphiques en informatique, cf. COUWENBERGH

(J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.26-32.

27

de l’image, c’est-à-dire en remplaçant la continuité des motifs, des traits de crayon par un

nombre limité de pixels dont la quantité est déterminée par l’utilisateur. Chaque pixel

remplace alors une petite portion de l’image de départ, la simplifiant nécessairement du fait

qu’il constitue lui-même la plus petite entité affichable d’une image numérique27. Au total,

l’image est recomposée par une mosaïque de pixels.

Au total, l’image de départ a été traduite en un langage compréhensible seulement par

l’ordinateur, qui se charge ensuite de le reconvertir en éléments graphiques que l’homme peut

voir et comprendre. En fait, le traitement d’image permet d’intervenir sur toutes les

informations déterminant la couleur et la position de chaque pixel. En effet, l’ordinateur

connaît et maîtrise l’ensemble de ces informations puisqu’il commande à l’écran de les

afficher ; aussi, les logiciels de traitement, à l’aide de quelques commandes, peuvent

demander à l’ordinateur de modifier certaines de ces informations, par exemple de rendre plus

clairs une sélection de pixels, de jouer sur l’intensité de l’une des trois couleurs fondamentales

ou bien encore de déplacer quelques pixels en modifiant leur position. Les possibilités

d’édition d’une image sont pratiquement illimitées : à ces opérations basiques se sont

substituées d’autres commandes beaucoup plus puissantes qui permettent de transformer

complètement l’image de départ tant et si bien que ces logiciels de traitement tendent à

devenir également des logiciels de synthèse d’image.

Aujourd’hui, avec la démocratisation des périphériques de numérisation (scanner à

plat, appareil photographique numérique) et de ces logiciels, le traitement d’image s’est

largement répandu. En archéologie, les utilisations sont multiples : elles interviennent par

exemple lors du processus de publication, en permettant d’améliorer la qualité d’une

photographie parfois trop sombre ; ou bien encore comme outil d’aide à la recherche, en

rendant visibles certains détails invisibles à l’œil nu en accentuant le contraste de l’image ou

l’intensité de certaines couleurs.

Ces traitements peuvent donc s’appliquer à toutes les images numériques, quelle qu’en

soit la provenance, qu’il s’agisse de documents issus de la réalité (photographies, documents

dessinés ou peints sur support plan, etc.…) ou intégralement conçus sur ordinateur.

27 Cf. JUILLIER (L.), Les Images de synthèse, Paris, éd. Nathan, 1998, p.8-10.

28

2.1.2. La synthèse d’imageLa synthèse d’image permet de créer des images directement à partir de l’ordinateur,

sans passer par la numérisation d’un document réel. Cette création ex nihilo engendre deux

types d’images :

2.1.2.1. Les images en deux dimensions ;Dans le cas des images en deux dimensions, la surface de l’écran est considérée pour

ce qu’elle est, c’est-à-dire un support plan, et sur lequel, à l’instar d’une toile, les logiciels de

synthèse d’image offrent la possibilité d’utiliser de nombreux outils rappelant parfois les

instruments de dessin et de peinture (le pinceau, la brosse, les ciseaux, le pot de peinture, la

plume, les couleurs...28). Ces outils déterminent – dans une certaine mesure – les modalités de

coloration des pixels de l’image. Par exemple, le pinceau, dans le logiciel Adobe Photoshop,

permet de déposer de la couleur sur l’image suivant un tracé régulier et doux : dans les zones

situées à la périphérie de l’empreinte de l’outil, la couleur du pinceau est mélangée avec la

couleur de fond. Dans cet exemple, chaque outil à une spécificité propre et joue sur les

propriétés des pixels composant le document.

Dans d’autres logiciels, les dessins ne sont pas définis par la coloration des pixels mais

par un ensemble de formes géométriques assises dans un repère orthogonal en deux

dimensions. Les dessins sont alors codés par des formules mathématiques qui en décrivent les

formes en déterminant l’orientation d’une courbe, la longueur d’un segment, les positions des

points principaux par lesquels passent des droites, ainsi que leurs attributs de forme et de

couleur, comme l’épaisseur du trait, la couleur du contour et de la surface de la forme

géométrique29. Par la suite, ces informations absolues sont calculées de manière à être

affichées sur l’écran, quelle que soit la résolution de ce dernier30 : la représentation graphique

n’est plus l’expression limitée d’une image composée d’un nombre fini d’éléments

graphiques, mais devient l’outil de visualisation de figures abstraites. C’est cette logique de

fonctionnement de l’écran qui prévaut également dans les images en trois dimensions.

28 A titre indicatif, cf. GRADIAS (M.), Grand Livre, Adobe Photoshop 4.0, Paris, Micro Application, 1997, p.281-296.29 Ce type de logiciel est d’ailleurs de plus en plus utilisé dans le milieu archéologique pour produire des cartesou bien encore des dessins techniques de mobilier et de structure. Les logiciels de tracés vectoriels permettent,entre autre, de réaliser des dessins agrandissables ou réductibles sans perte de qualité, ce qui est particulièrementintéressant lorsqu’il s’agit d’assembler deux cartes complémentaires d’échelle différente.30 Il s’agit ici des deux approches du dessin en deux dimensions: la première, le mode « raster » ou « bitmap »,définit des fichiers constitués par les informations colorimétriques de chaque pixel; la seconde, le mode« vectoriel », crée des fichiers simplement composés d’informations géométriques renseignant sur la position depoints, de droites, de courbes. Ce n’est pas le propos de les développer davantage ici.

29

2.1.2.2. Les images en trois dimensionsLes logiciels permettant de créer des images de synthèse en trois dimensions

n’appartiennent donc qu’à une partie de l’infographie31. En fait, l’expression images de

synthèse en trois dimensions est un raccourci pour désigner l’aboutissement visible d’une

succession d’opérations : au final, les images créées sont dites « en 3D » car elles expriment,

sur des supports bidimensionnels (papier, écran...), des projections planaires de formes

géométriques conçues dans l’absolu en trois dimensions. La projection se réalise suivant les

lois de la perspective formulées depuis la Renaissance32. Pour rendre l’effet perspectiviste

encore plus saisissant, les logiciels de 3D intègrent d’autres fonctions permettant de simuler

des phénomènes optiques naturels tel que l’incidence de la lumière sur les volumes ou bien

encore sa réfraction à travers un liquide ou un solide transparent. L’ensemble de ces artifices

contribue à créer une image « 3D », qui en fait n’a de tridimensionnel que son mode de

conception.

Afin de mieux comprendre la nature et le fonctionnement de ces images

tridimensionnelles, il s’agit d’étudier leur mode de conception et les différentes étapes du

travail qui président à leur réalisation.

2.2. La modélisationCe terme à un sens légèrement différent de celui qui lui est donné usuellement. En fait,

la modélisation, dans le cadre des mathématiques, de la physique ou bien encore de la

géographie, désigne une mise en équation d’un phénomène observable dans la réalité. Cette

mise en équation permet d’étudier un phénomène, quel qu’il soit, en maîtrisant certains des

paramètres qui le définissent. Ainsi, la modélisation est en quelque sorte une simplification de

la réalité : pour que le modèle soit efficace, il est nécessaire de retirer les détails insignifiants

qui sont autant de « bruit »33 pour l’étude pertinente du phénomène.

Dans le cas de l’infographie, cette définition de la modélisation peut convenir dans une

certaine mesure : il ne s’agit pas de simplifier la réalité par des équations, mais plutôt

d’exprimer les objets qui la composent sous forme de figures géométriques

tridimensionnelles. La simplification opère donc dans une logique géométrique, et non pas

31 Dans le souci d’une simplification du langage, nous utiliserons indifféremment les expressions infographie 3Dou infographie pour désigner le processus de fabrication des images de synthèse en trois dimensions.32 Cf. 1.2.2.3 La représentation tridimensionnelle, p.1933 Vient du terme anglais noise, qui, dans cette acception, retranscrit l’idée d’une perturbation, d’un parasitagedes informations.

30

algébrique. En outre, elle peut s’appliquer à des objets provenant aussi bien de la réalité que

de l’imagination de leur concepteur. En ce sens, la modélisation est aucunement limitée par

les contraintes réelles ; elle dépend simplement des outils logiciels, des performances du

matériel informatique et de la compétence du concepteur.

En fait, le terme « modélisation » serait une mauvaise traduction de l’anglais34, son

équivalent français « modelage »35 désignant plutôt les activités de façonnage de la matière.

La modélisation, dans cette dernière acception, correspond donc à la phase d’élaboration

tridimensionnelle des objets, et, plus généralement, à la définition du modèle dans lequel ils

s’organisent. Aussi, la modélisation fait appel à un ensemble d’outils logiciels permettant de

créer et d’intervenir sur la géométrie 3D des objets. Cependant, avant de présenter ces

différents outils, il faut néanmoins évoquer la particularité de l’infographie 3D, qui consiste, à

partir d’une interface bidimensionnelle, à intervenir sur des informations qui ne sont

tridimensionnelles que dans la mémoire de l’ordinateur.

2.2.1. Espace tridimensionnel et interface bidimensionnelleEn effet, la modélisation doit faire face à un réel paradoxe : jusqu’à présent,

l’ensemble des périphériques d’ordinateur permettant à l’homme de communiquer avec la

machine fonctionnent suivant une logique bidimensionnelle. Les périphériques d’entrée tels

que la souris36 ou le clavier37 ne gèrent pas la troisième dimension et l’écran38, qui permet à

l’utilisateur de voir et de contrôler le résultat de ses actions, ne peut, bien évidemment,

qu’afficher deux dimensions. Pour remédier à ce problème, les concepteurs des logiciels de

modélisation ont adapté les principes du dessin technique à l’outil informatique. L’objet est

alors représenté par un certain nombre de vues permettant d’en définir les formes et les

dimensions39 : ces vues en deux dimensions se complètent et permettent de rendre compte du

volume de l’objet. Ainsi, les modeleurs40 disposent généralement de « fenêtres » dans

34 Cf. HURIET (CL.), « Rapport sur les Images de synthèse et monde virtuel : techniques et enjeux de société » inOffice parlementaire d’évaluation des choix scientifiques et technologiques, n°526, Paris, éd. Société Nouvellesdes Librairies, 1997, p.22.35 « Modelage : action de modeler une substance plastique pour lui donner une forme déterminée » cf. Robert(P.), Dictionnaire alphabétique et analogique de la langue française, Paris, Le Robert, 1972, p.1097.36 Le déplacement de la souris sur le tapis se réalise exclusivement en deux dimensions.37 Le clavier ne peut envoyer que des informations alphanumériques. L’utilisation des touches comme outil demanipulation et de déplacement tridimensionnels dans les jeux vidéos a montré leur manque d’ergonomie et desouplesse (une touche pour chaque direction, soit six au minimum pour aller en bas, en haut, à droite, à gauche,en avant et en arrière).38 Périphérique de sortie.39 cf. ADRAIT (R.) & SOMMIER (D.), Guide du constructeur en bâtiment, Paris, éd. Hachette, 1987, p.10-1140 Nom générique employé pour désigner les logiciels de modélisation.

31

lesquelles figurent des vues de face, de haut, de profil, qui sont autant de projections

orthogonales de l’objet (voir fig.1, planche I). Lorsque l’objet est complexe, ces vues peuvent

être complétées par d’autres afin de donner une image plus précise de sa géométrie (vue de

dessous, de derrière). Ainsi, grâce à cette décomposition du volume en dessin, l’utilisateur

peut créer et modifier plus librement les objets : l’utilisation de la souris l’autorise à modifier

les caractéristiques bidimensionnelles de l’objet présentes dans chaque vue. De plus, à la

différence de la planche à dessin, ces vues sont solidaires entre elles : si l’utilisateur intervient

sur l’une d’elles, les autres seront automatiquement affectées par la modification. Enfin, pour

mieux contrôler le résultat de ces opérations, il a la possibilité d’afficher l’objet sous tous les

angles possibles : en projections planes, axonométriques ou perspective, le logiciel se

chargeant de calculer toutes les vues.

2.2.2. Les méthodes de modélisationA l’origine, il existait principalement deux types de modélisation, qui témoignaient

chacune de deux approches différentes dans la définition et dans l’utilisation des volumes.

L’existence de ces différentes approches tient au fait que les premières applications

informatiques permettant de représenter des données tridimensionnelles furent développées

pour des secteurs d’activité qui avaient à la fois de réels besoins et en même temps qui avaient

les moyens de les développer ou de les financer. Les premiers programmes de modélisation

3D furent donc créés pour répondre aux besoins de l’industrie et de l’armée. Certaines

activités et leur méthode de travail ont alors été transposées de la réalité vers l’écran de

l’ordinateur, c’est-ce que nous avons rapidement évoqué plus haut (cf. ci-dessus, p.30) à

propos de la planche à dessin des dessinateurs techniques de l’industrie et des cabinets

d’architecture41. Ces logiciels ont alors permis de créer des formes en trois dimensions à partir

de dessins, suivant les possibilités de la modélisation filaire et surfacique42. D’autres logiciels

ont permis d’ouvrir de nouvelles perspectives, en offrant la possibilité aux ingénieurs de tester

les propriétés physiques des objets qu’ils concevaient, élaborés non pas à partir de dessin mais

à partir de solides43 assemblés entre eux : ce type de modélisation44 a été largement employé

41 Les logiciels qui transposèrent ces méthodes de travail sur l’ordinateur sont connus sous l’acronyme génériquede C.A.O (Conception Assistée / Aidée par Ordinateur), équivalent de l’anglais C.A.D. (Computer AidedDesign).42 Pour une définition plus précise de ces notions, cf. 2.2.2.1 la modélisation surfacique : la conquête du volumepar le dessin, p.32.43 Forme géométrique en trois dimensions, définie par une équation. Par exemple, la sphère est définie par unrayon et par un centre de position connu : ainsi, elle ne s’exprime que par quatre variables (position du centre en

32

dans l’ingénierie pour évaluer le volume, la masse ou la solidité d’une pièce à l’état de

prototype et destinée à être fabriquée en série.

Prévues à l’origine pour une utilisation industrielle, ces deux méthodes de

modélisation ont été confrontées pendant de nombreuses années à partir du moment où elles

furent utilisées à d’autres fins, notamment dans des secteurs où leurs performances visuelles

ont davantage primé sur les possibilités de traitement qu’elles offraient. Leur opposition a

d’ailleurs trouvé des défenseurs et des détracteurs jusque dans la communauté

archéologique45. Par la suite, l’amélioration du matériel et des logiciels à permis de

développer de nouvelles méthodes de modélisation, que nous verrons plus bas.

2.2.2.1. la modélisation surfacique : la conquête duvolume par le dessin

La modélisation surfacique poursuit en fait la voie ouverte par la modélisation en fil de

fer : elles procèdent toutes deux de la même logique. La modélisation en fil de fer (de

l’anglais wireframe), historiquement conçue en premier, permet de créer un volume à partir

d’un dessin en deux dimensions. La différence qui la sépare de sa variante tient au fait que,

dans son cas, le volume est définit par un réseau d’arêtes et de nœuds enveloppant l’objet

(voir fig. 2 planche II), qui, dans les modèles surfaciques, détermine des surfaces

triangulaires opaques (voir fig. 3 planche II). Aussi, ce dernier type de modélisation présente

l’avantage de cacher au spectateur les faces invisibles de l’objet et en offre, de ce fait, une

meilleure lisibilité. En outre, le succès rencontré par la modélisation surfacique s’explique

également par la possibilité de recevoir des attributs de couleur : en fonction de la provenance

de la lumière, les logiciels peuvent améliorer la perception du volume en le soulignant grâce à

un procédé longuement utilisé par les peintres : le modelé. Cependant, l’inconvénient majeur

de la modélisation filaire / surfacique réside dans le fait qu’elle peut ne définir que

l’enveloppe de l’objet : au total, le modèle est composé d’un assemblage de points reliés dans

l’espace par des arêtes et par les facettes. Ainsi, le modèle surfacique doit être comparé, en

x,y,z et longueur du rayon) contre une multitude lorsqu’elle est définie par les très nombreuses facettestriangulaires propres aux objets surfaciques.44 cf. 2.2.2.2 La modélisation volumique : la sculpture virtuelle, p.36.45 A ce sujet, cf. CHAPMAN (G.) & WOOD (J.), « Three-Dimensional computer visualization of historicbuildings – with particular reference to reconstruction modelling » in Archaeology and the information age, aglobal perspective, London & New York, éd. Routledge, 1992, p.123-146, où les auteurs présentent deuxexemples de reconstitution virtuelle de monuments archéologiques en modélisation surfacique et volumique.Pour une présentation de la modélisation volumique en archéologie, cf. DANIELS (R.), « The need for the solidmodelling of structure in the archaeology of the buildings », Internet Archaeology, n°2, mis à jour le 14/03/1997,à l’URL=http://intarch.ac.uk/journal/issue2/daniels/index.html.

33

quelque sorte, à la coquille d’un œuf : il est alors impossible de connaître directement les

propriétés « physiques » du volume contenu par cette coquille. De plus, étant constituée

d’éléments surfaciques, donc en deux dimensions, la coquille a une existence

tridimensionnelle limitée dans le modèle : par exemple, les facettes qui la composent ne

peuvent être vues que d’un seul côté ; les retourner reviendrait à les rendre invisibles. Par

conséquent, la modélisation surfacique est réellement intéressante lorsqu’il s’agit de

représenter l’aspect extérieur de certains objets ; en revanche, elle n’est absolument pas

adaptée à la simulation physique des volumes (par exemple, elle ne permet pas de connaître la

masse ou le centre de gravité d’un objet auquel on aurait attribué une matière définie par un

coefficient de densité).

Voici un aperçu des possibilités qu’offre la modélisation surfacique, avec des

exemples d’utilisation par des acteurs de la recherche archéologique.

2.2.2.1.1. Le balayage d’un dessin le long d’un chemin :l’extrusion

Il existe plusieurs fonctions permettant de créer des objets en trois dimensions à partir

de dessins. Dans les principes généraux, cette méthode de création consiste à repérer, dans les

objets, des formes construites sur des répétitions régulières et des symétries. Cette méthode de

construction convient parfaitement à certains vestiges archéologiques, dont on sait qu’ils ont

été élaborés grâce à des procédés qui garantissaient la régularité des formes.

Par exemple, l’application la plus simple de ce procédé se trouve dans l’attribution

d’une épaisseur à une forme dessinée. En fait, cette technique, dite l’« extrusion simple »,

consiste à répéter un dessin le long d’une ligne droite perpendiculaire au plan sur lequel il a

été réalisé46. Ainsi, grâce à l’extrusion, il est possible de générer des objets plus ou moins

complexes simplement à partir de leur contour. A cet effet, quelques-unes des formes

régulières de l’architecture monumentale, comme les moulures taillées dans la pierre ou bien

moulées dans le stuc à l’aide d’un gabarit se prêtent particulièrement à ce genre de traitement.

L’objet tridimensionnel, au final, se définit par deux extrémités identiques entre lesquelles a

été tendue une enveloppe constituée d’un nombre fini de facettes : de leur quantité dépend la

finesse du contour le long de l’objet.

46 L’extrusion, à l’origine, est un terme technique désignant le procédé par lequel un métal est poussé à chaud parune presse dans une filière.

34

Une variante directe de cette technique consiste à balayer une figure le long d’un

chemin, c’est-à-dire le long d’un dessin réalisé sur un plan autre que celui où est placé le

« profil ». Le dessin de cheminement peut être de plusieurs natures : il peut s’agir d’une ligne

composée de plusieurs segments de droite ou de courbe, d’un polygone ouvert ou fermé…en

fait, il peut s’agir de n’importe quelle figure géométrique linéaire, qu’elle s’inscrive dans un

plan ou dans un espace. Toujours est-il que le profil est répété le long de ce chemin, en étant

toujours disposé perpendiculairement par rapport à lui. L’« extrusion sur chemin » permet

alors de créer des formes plus compliquées, qui vont de la moulure répétée le long d’un

rectangle jusqu’à des canalisations en plomb à la régularité plutôt erratique, voire jusqu’à un

motif répété en colimaçon (comme la moulure séparant les registres de la colonne trajanne).

Plus concrètement, cette technique a été utilisée par l’équipe du pôle pluridisciplinaire

« Ville – Architecture, urbanisme et image virtuelle » de l’université de Caen qui fut chargée

de réaliser la maquette virtuelle de l’amphithéâtre flavien de Rome47. A partir des nombreuses

études réalisées sur ce monument, les responsables de ce projet ont analysé les logiques de

construction de cet édifice. Il est alors apparu que, dans les grandes lignes, les architectes

romains avaient construit leur monument en suivant une logique modulaire : ils ont reproduit

80 travées le long d’un chemin en ellipse. La structure même de l’édifice, relativement

complexe, n’a pas fait appel à l’extrusion sur chemin, car elle nécessitait de reproduire sur ce

chemin elliptique une travée déjà modélisée en trois dimensions. Néanmoins, l’intérieur du

Colisée, comprenant principalement les gradins, a pu être modélisé de la sorte : il a suffit de

dessiner le profil des dénivellations et de le reproduire le long de l’ellipse, en rajoutant ensuite

les éléments qui ne pouvaient pas être formés par ce procédé, tels que les escaliers et les

vomitoires48.

A un niveau plus complexe, l’extrusion permet de créer des formes à partir de

plusieurs profils. Ceux-ci, répartis par l’utilisateur à différents emplacements du chemin,

définissent des points clés de l’objet à des endroits où sa forme est caractéristique. Le procédé

d’extrusion respecte alors le chemin et interpole la forme de l’objet entre chaque profil

documenté par un dessin. Les formes conçues à l’aide de cette fonction peuvent être

47 Cf. FRANTZ (D.), « La modélisation du Colisée : quelques aperçus de méthode générale » in Cahiers de laMaison de la Recherche en Sciences Humaines, n°14, avril 1998, p.33-36.48 Un autre exemple illustrant cette technique se trouve dans CHAPMAN (G.), « Do-it yourself reconstructingmodelling » in Computer Applications and Quantitative Methods in Archaeology 1991, Oxford, BARinternational series, 1992, p.213-218. Dans cet article, l’auteur montre comment, à partir du dessin de la couped’un monument et du schéma directeur précisant son tracé, il a pu reconstituer la forme générale d’un four àchaux construit à la fin du XIXème siècle.

35

relativement compliquées, on parle alors d’« objets extrudés », parmi lesquels on pourrait

trouver par exemple un tambour de colonne, étant donné que la face inférieure est plus

importante que la face supérieure.

La dernière variation utilisant le procédé de l’extrusion s’applique cette fois aux

formes construites « au tour ». Toujours basé sur des profils en deux dimensions, le principe

d’extrusion par « surface de révolution » permet de faire tourner le dessin autour d’un axe sur

un maximum de 360°. Cette fonction est bien entendu un outil privilégié pour reconstituer les

céramiques faites au tour de potier (voir fig. 6 à 9, planche III) : à partir d’un simple tesson

témoignant des profils interne et externe de l’objet, il est possible de recréer la forme d’un

vase. Les possibilités qu’offrait cette technique n’ont pas échappé à certains archéologues49,

qui ont vu là un moyen rapide et efficace pour élaborer des typologies de céramiques en trois

dimensions à partir des nombreux dessins techniques dont ils disposaient50 : les objets ainsi

réalisés étaient davantage significatifs que les simples documents normalisés présents dans les

publications archéologiques51. Cette technique de modélisation ne se limite pas à la vaisselle

tournée, car elle peut également être employée pour recréer des pièces plus ambitieuses. Ainsi,

rien n’empêche de reproduire le volume d’une colonne simplement à partir de son profil et de

son axe de révolution, en imitant de ce fait les gestes des tailleurs de pierre, qui, dans certains

cas, avaient recours à des tours pour donner des formes régulières à leurs ouvrages52.

Ainsi, les outils de modélisation surfacique sont réellement intéressants dans la mesure

où ils prolongent le travail d’étude et d’enregistrement graphique réalisé par les dessinateurs

en archéologie : pour s’en convaincre, il suffit d’observer la plupart des dessins de pièces

49 cf. GOTTARELLI (A.), « La modellazione tridimensionale del documento archeologico : livelli descrittivi eprocessamento digitale » in Archeologia & Calcolatori, n°6, 1995, p.90 et p.93 (fig. 8) ; cf. CATTANI (M.) &FORTE (M.), « Il Ceramigrafo : un sistema integrato per il disegno della ceramica al calcolatore » in Archeologia& Calcolatori, n°5, 1994, p.32750 Les normes en dessin technique de céramique sont les mêmes que celles employées pour tous les solides derévolution : par convention, l’axe de rotation qui prolonge l’arbre du tour est représenté par un axe vertical, sur lagauche duquel se trouve une section verticale de la pièce. Le profil et la situation de la pièce par rapport à l’axede révolution permettent d’en déterminer la forme, dont la vue extérieure est représenté symétriquement, à droitede l’axe de révolution (Cf. RIGOIR (Y.), Le Dessin technique en céramologie, Lambesc, 1975, p. 25). Parconséquent, il leur a suffit de reprendre ces documents déjà prêts en redessinant sur ordinateur les profils puis enles faisant tourner autour de l’axe de révolution.51 En effet, nous verrons plus bas que ces modèles peuvent recevoir d’autres couches d’information, quirenseignent par exemple sur la décoration (projection de la photo du décor sur l’objet 3D). En outre, lareprésentation tridimensionnelle est simplement une représentation possible de l’objet : les vues orthogonalespeuvent remplir le rôle joué par le dessin conventionnel, en en conservant les dimensions et les proportions.52 Cf, BESSAC (J.-CL), JOURNOT (F.), PRIGENT (D.), SAPIN (CH.) & SEIGNE (J.), La Construction, la pierre,Paris, éd. Errance, 1999, coll. « Archéologiques », p. 31 et 33. Pour un exemple de cette technique, cf.BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, De Boccard, 1997, p.101 (fig.99).

36

archéologiques dont l’objectif est de retranscrire, dans les deux dimensions, la forme et les

logiques de construction de certains de ces vestiges conçus avec une régularité et une

homogénéité de traitement. Vue sous cet angle, la modélisation surfacique permet de

recomposer les pièces archéologiques afin de les représenter avec plus d’efficacité que ne le

permettaient les conventions de représentation traditionnelles. A ce titre, il ne faut pas oublier

que ce type de modélisation se fonde entièrement sur la connaissance a posteriori des

vestiges, avec la part d’interprétation, de simplification et de codification qui en résultent53 :

comment un même dessin reproduit le long d’un chemin pourrait prétendre représenter le

volume d’un objet réel qui présente obligatoirement des irrégularités, sans compter les

nombreux outrages qu’il a subis avant de nous parvenir.

En fait, la modélisation surfacique, comme toutes les autres méthodes de modélisation,

opère inévitablement une théorisation des formes, qui conduit nécessairement à concevoir

l’objet sous une forme idéale : la façon dont celui-ci est modélisé témoigne du regard et de la

manière dont il est compris par les archéologues.

2.2.2.2. La modélisation volumique : la sculpturevirtuelle

La modélisation volumique participe d’une logique autre que celle employée par la

modélisation surfacique. Alors que cette dernière s’apparentait aux activités du dessinateur, la

modélisation volumique, quant à elle, se rapproche davantage du travail d’un sculpteur. En

effet, les logiciels de modélisation volumique permettent d’obtenir des formes par ajout ou

soustraction de volume en utilisant un répertoire limité de solides. Les primitives utilisées par

ces logiciels sont généralement la sphère, le cube, le cône, le cylindre et leurs variantes. Dans

la principale méthode de modélisation volumique, celles-ci sont combinées de façon à créer

des objets plus complexes, suivant des modalités définies par l’algèbre du mathématicien

Boole. Connue sous l’appellation CSG (Constructive Solid Geometry), ce type de

modélisation volumique fait donc appel aux opérateurs booléens tels que l’union, la

soustraction et l’intersection qui offrent des possibilités de composition illimitées (voir fig. 10

à 12, planche IV) et dont le principal apport est de permettre la connaissance du volume

occupé par chaque objet54. Cette connaissance est d’une grande utilité, car elle ouvre des

53 Par exemple, le dessin issu d’un relevé synthétise des données prélevées sur l’objet : ainsi, le profil de certainesmodénatures peut être obtenu par des mesures et par un relevé au conformateur ; ce type de relevé n’est valableque dans la mesure où les informations qu’il comporte suffisent à rendre compte de l’ensemble de l’objet.54 cf. COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.75-76.

37

possibilités dans la simulation des propriétés physiques des objets modélisés de la sorte : il est

ainsi possible de déterminer leur centre de gravité, leur masse en fonction de la densité connue

de chaque matériau réel, et de les combiner dans un modèle plus large qui prendrait en compte

les phénomènes de gravité, de poussée et de répartition des forces à l’intérieur de la matière.

Contrairement à la modélisation surfacique, la modélisation volumique requiert une

forte capacité d’abstraction et d’analyse des volumes : la création d’objets plus ou moins

complexes à partir des quelques primitives disponibles est loin d’être évidente et n’offre pas la

même souplesse de traitement apportée par les modeleurs surfaciques. Ainsi, à titre

comparatif, la modélisation tridimensionnelle d’un objet à l’aide des deux méthodes donne

généralement l’avantage à la modélisation surfacique, aussi bien au niveau du confort

d’utilisation que sur le plan des temps de calcul, étant donné que les opérations portant sur les

volumes nécessitent des performances qui rendent les systèmes d’exploitation

particulièrement instables. Par conséquent, à objectif égal, la plupart des acteurs de

l’infographie ont opté pour l’alternative surfacique (et ses dérivés), ce qui explique

aujourd’hui la sous-exploitation des modeleurs volumiques55. Dans le domaine de

l’archéologie « virtuelle », les exemples utilisant la modélisation volumique sont aujourd’hui

devenus relativement rares56, et témoignent généralement du peu de compréhension, ou tout

du moins de la difficulté de mettre en application une telle méthode : en fait, son intérêt ne se

situe pas tant du côté des performances visuelles que du côté des traitements qu’elle autorise,

alors que la plupart de ses détracteurs la comparaient à sa rivale sur un terrain où elle était sûre

de ne pas être « concurrentielle »57. Ainsi, l’utilisation optimale de ses spécificités est encore

55 Les créateurs d’images de synthèse privilégient bien évidemment les solutions leur apportant le maximumd’efficacité par rapport au temps de travail investi, le but étant de produire des images et non des modèles.56 En fait, les premières applications de l’infographie dans une thématique archéologique ont été réalisées à basede modélisation volumique : en Angleterre, avec la modélisation du complexe thermal de Bath (1984) et desbains de Caerleon, de l’église abbatiale de Winchester (1985) et de l’abbaye de Furness (cf. REILLY (P.),« Three-dimensional modelling and primary archaeological data » in Archaeology and the information age, aglobal perspective, London & New York, éd. Routledge, 1992, p.147-173.) et en France avec la reconstitution dugrand temple d’Amon-Rê de Karnak (cf. BOCCON-GIBOD (H.) & GOLVIN (J.-C.), « Le grand temple d’Amon-Rê à Karnak reconstruit par l’ordinateur » Les Dossier de l’archéologie, n°153, octobre 1990, p.8-17). Il est ànoter que ces deux derniers projets furent réalisés à l’aide du même logiciel, PDMS, qui est utilisé pour laconstruction d’installations électriques et pétrolières (le projet de l’abbaye de Furness était soutenu par BritishNuclear Fuels, tandis que celui de Karnak recevait l’aide d’EDF).57 Dans CHAPMAN (G.) & WOOD (J.), op. cit., les auteurs analysent les apports respectifs des deux méthodesappliquées à deux exemples de restitution archéologique, réalisées par des acteurs privés sous le contrôle dudépartement d’archéologie de l’université de Lancaster et d’autres instances scientifiques britanniques. L’objectifétant de produire des images et des animations pédagogiques pour le grand public, les auteurs ont naturellementconclu à une meilleure adéquation de la modélisation surfacique pour les raisons que nous avons évoqués plushaut. A l’opposé, le réel apport de la modélisation volumique, bien qu’évoqué (p.133 et 143), n’a pas été exploité

38

marginale, d’autant plus qu’elle nécessite parfois l’écriture de programmes spéciaux afin

d’adapter certains calculs aux paramètres que l’on cherche à prendre en compte, ce qui

demande des compétences particulières en programmation et en modélisation mathématique

des phénomènes physiques, en en limitant de ce fait la portée dans l’archéologie (et qui

souligne la nécessité de contracter des opérations de mécénat pour bénéficier d’outils dont peu

de gens ont la maîtrise).

Aujourd’hui, la constante amélioration de l’offre logicielle dans le domaine de

l’infographie et de la C.A.O. a permis de gommer les différences existant entre les modeleurs

surfaciques et volumiques. Dans certains cas, il est désormais possible de convertir un modèle

surfacique en modèle volumique, et vice versa. Aujourd’hui, nombre d’outils de modélisation

sont construits sur les spécificités apportées par ces deux approches, en combinant certaines

de leurs particularités et en leur rajoutant de nouvelles fonctionnalités.

2.2.2.3. Les nouveaux outils de modélisationAujourd’hui, les logiciels de modélisation disposent d’un éventail relativement large

d’outils et de méthodes pour créer des objets en trois dimensions. Désormais, un modeleur ne

se caractérise plus par les fonctionnalités de la méthode qu’il emploie, mais plutôt par sa

capacité à en combiner plusieurs en fonction des formes à obtenir : ainsi, les méthodes que

nous venons de voir conviennent généralement à la définition de formes relativement

géométriques et régulières, mais n’offrent pas de grande possibilité lorsqu’il s’agit de

modéliser des formes gauches, qui nécessiteraient, pour la méthode surfacique, un trop grand

nombre de facettes, et qui demanderaient trop de travail avec la modélisation volumique.

Aussi, l’ensemble des innovations touchant aux outils de modélisation va dans le sens d’une

meilleure maîtrise des paramètres définissant les objets virtuels : à l’heure actuelle, un des

meilleurs outils de modélisation combine la souplesse de traitement apportée par la

modélisation surfacique à base de formes en deux dimensions avec la puissance des modèles

volumiques dont les formes sont définies par des fonctions mathématiques. Il résulte de ces

innovations la possibilité de modéliser des formes très complexes ne présentant aucune

symétrie ni de traitement conditionnant la régularité des formes.

dans ce cas d’étude, et il est d’ailleurs très rare de trouver des exemples précis de son utilisation à des finsarchéologiques.

39

La modélisation NURBS58 bénéficie, dans ce sens, des recherches menées depuis de

nombreuses années sur la définition de courbes et de surfaces par des fonctions

mathématiques. A l’instar de la modélisation surfacique, elle permet de travailler à partir du

contour des objets et utilise des fonctions comparables à celles que nous regroupions sous le

terme d’extrusion (cf. ci-dessus p.33), à la différence que l’enveloppe tendue entre les

différentes itérations du dessin n’est pas composée d’un nombre limité de facettes

triangulaires mais est définie par des fonctions mathématiques dans l’espace. En outre, les

courbes composant les dessins de base et les surfaces qui les relient peuvent être définies par

un certain nombre de points de contrôle sur lequel on peut intervenir à tout moment pour

modifier la forme de l’objet, ce qui est d’un véritable intérêt lorsqu’il s’agit de retoucher

localement un aspect de l’objet qui n’aurait pas été conçu comme prévu. Aussi, la

modélisation à base de NURBS témoigne d’un mouvement plus général qui offre davantage de

confort et de liberté lors des opérations de modélisation, ce qui conduit à privilégier une

approche plus intuitive de cette activité. Cet assouplissement des modalités de modélisation se

ressent également pour les méthodes plus traditionnelles, qui disposent désormais de

nouvelles fonctionnalités : la plupart des modeleurs proposent aujourd’hui d’un ensemble

d’outils de déformation œuvrant, à l’aide de quelques points de contrôle, sur la topologie d’un

objet ; ainsi, il est possible de faire subir à un modèle surfacique des opérations de torsion,

d’étirement, d’effilement, d’écrasement et bien d’autres encore.

Ce n’est pas l’objet, ici, de développer l’ensemble des techniques de modélisation,

étant donné que leur application, essentiellement visuelle, vise à produire des modèles de plus

en plus réalistes : les développements futurs dans ce domaine s’engagent vers la simulation

visuelle des formes traditionnellement difficiles à reproduire, aux premiers rangs desquelles

figurent les formes organiques et tout un ensemble d’éléments encore peu maîtrisés comme

les cheveux, etc. Pour ce qui nous intéresse, ces développements n’offrent pas réellement de

grande nouveauté, tout juste si la modélisation organique peut apporter des améliorations pour

modéliser la statuaire humaine, par exemple.

La modélisation ne constitue, en fait, qu’une partie du travail de création d’images de

synthèse : elle permet de définir les formes des objets, de les inscrire dans un espace

tridimensionnel. Cependant, ces objets, dans l’absolu, ne sont pas visibles : ils ne sont

58 NURBS : Non-Uniform Rational B-Splines. Pour une définition technique de ce terme, cf. COUWENBERGH

(J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.69-70.

40

exprimés que par des relations tridimensionnelles comme l’assemblage de triangles du modèle

surfacique ou les fonctions mathématiques des objets volumiques. Pour rendre la modélisation

plus simple et efficace, les logiciels intègrent des fonctions permettant d’afficher le modèle

sous différentes formes : aujourd’hui, la puissance des ordinateurs permet de calculer et

d’afficher en temps réel des vues représentant les objets, suivant des modalités plus ou moins

compliquées. Ainsi, le type de visualisation le plus simple permet de figurer l’objet sous la

forme d’un maillage triangulaire, alors que les plus aboutis prennent en compte d’autres

paramètres, comme la couleur et son comportement face à l’incidence de la lumière en

fonction de la forme de l’objet. Ces options de visualisation permettent de donner une idée

rapide de la forme et de la disposition des objets dans la scène virtuelle.

Cependant, la réalisation d’image de synthèse doit prendre en compte d’autres

informations, telle que le placement des sources lumineuses, la définition du point de vue,

l’affichage des textures, ainsi que d’autres effets, comme la dureté des ombres, la profondeur

de champ, etc. Toutes ces informations relèvent alors d’une autre phase, pendant laquelle le

logiciel prend en compte les paramètres définis par l’utilisateur afin de générer une série de

calculs qu’il n’est pas encore possible de réaliser en temps réel. Tous ces paramètres, spécifiés

pendant la phase de modélisation, ne prennent réellement effet que lors de la phase finale de

calcul de l’image. C’est pourquoi nous avons décidé de les faire apparaître dans le

développement traitant de ce sujet.

2.3. Le renduL’objet de cette partie n’est pas de faire une présentation exhaustive des opérations et

des réglages nécessaires au calcul de l’image, mais plutôt de donner une idée de la spécificité

de cette phase de travail, qui est primordiale dans le processus de réalisation d’images

vraisemblables.

2.3.1. La perspectiveLa première opération d’importance réalisée lors du calcul de l’image correspond

précisément à déterminer la façon dont l’objet ou la scène vont être projetés sur une surface

plane, en premier lieu celle de l’écran. En effet, les objets, bien que conçus en trois

dimensions lors de la phase de modélisation, sont destinés à être diffusés sur des supports

planaires : à part la stéréovision, qui consiste à projeter deux images du même objet, il

41

n’existe pas de procédé permettant de restituer le relief à partir de données numériques59.

Aussi, l’utilisateur doit procéder à une série de réglages qui vont déterminer les modalités de

la projection ; la projection perspective, dans ce cas, n’est qu’une alternative parmi d’autres,

mais c’est la seule à permettre une vision réaliste de la scène et à laquelle nous sommes

naturellement habitués.

2.3.2. La lumièreLa lumière joue un rôle primordial dans la perception d’un environnement, qu’il soit

réel ou virtuel, car elle détermine, en premier lieu, la façon dont nous percevons la forme et la

couleur des objets qui nous entourent. Dans la réalité, la lumière est un phénomène complexe

qui fait intervenir de nombreux éléments s’influençant entre eux, de sorte que ce que nous

percevons n’est jamais dû à la seule source lumineuse mais bel et bien à toute une déclinaison

de ses effets sur l’ensemble d’un environnement. Ainsi, dans le cas d’un éclairage naturel, les

objets réels sont visibles par l’incidence de la lumière du soleil sur leur surface, qui, avant

d’arriver à eux, se trouve plus ou moins filtrée par l’atmosphère et les nuages, produisant de

ce fait une luminosité ambiante qui en modifie l’impact : ce phénomène est particulièrement

visible lorsqu’un objet, directement éclairé par le soleil, produit une ombre portée bien nette

qui a tendance à s’atténuer, voire à complètement disparaître quand une couverture nuageuse

relativement basse absorbe une partie de la lumière du soleil et la restitue par une luminosité

indirecte, plus diffuse. En outre, la lumière du soleil est également partiellement renvoyée par

chacun des objets éclairés, et ce en fonction de leur propension à l’absorber ou à la réfléchir :

les surfaces brillantes la restituent par une réflexion spéculaire qui renvoie le rayonnement

dans une direction précise, tandis que les surfaces plus mates produisent une réflexion diffuse

qui renvoie la lumière dans toutes les directions ; cette forme d’éclairage indirect contribue à

créer un autre facteur de luminosité ambiante.

Par conséquent, la complexité de ce phénomène pose quelques problèmes à sa

transposition dans la conception d’une scène virtuelle. Car, si, dans la réalité, il se trouve

toujours (à quelques exceptions près) une infime source de luminosité pour habiller et rendre

visible une partie de la surface des objets, il en est tout autre en image de synthèse : en effet, le

59 D’une part, l’holographie n’est pas encore suffisamment développée pour répondre à cette attente. D’autrepart, il existe bien des procédés permettant de produire des objets physiques à partir des modèles numériques (lastéréolithographie et ses dérivés, qui consistent à créer un objet à partir de fines gouttelettes de résine déposéespar une « imprimante 3d »), mais cette alternative n’est d’aucun intérêt dans la mesure où l’avantage del’infographie tient principalement à la création d’objets virtuels exemptes des contraintes physiques de la réalitéet pouvant être animés.

42

concepteur est en quelque sorte un « démiurge » qui doit théoriquement contrôler tous les

paramètres entrant en ligne de compte dans la définition de la scène virtuelle, ce qui revient à

dire qu’il doit penser à tous les préciser pour que sa création ait un sens. Aussi, l’omission de

la source lumineuse produit un résultat sans appel : la scène, n’étant pas éclairée, n’est pas

visible et l’image finale est désespérément vide. En infographie, le « vide » est absolu :

l’absence de lumière ne peut pas être compensée par la luminosité ambiante présente

naturellement dans la réalité. En outre, la diversité des sources à l’origine de la luminosité

naturelle oblige l’infographiste à simuler leur effet en ayant recours à plusieurs types de

lumières virtuelles qui, additionnés entre eux, permettent de recréer un éclairage réaliste.

Ainsi, afin de simuler la lumière produite par le soleil ou par la lune60, les logiciels

disposent de lumières dites « directionnelles » car elles projètent, dans une seule direction, des

rayons lumineux parallèles d’intensité constante61 produisant de plus des ombres portées. Pour

compléter l’effet produit par ce type de lumière, il est possible de placer des sources de

lumière omnidirectionnelles qui émettent de la lumière dans toutes les directions à partir d’un

point (elles sont également appelées lumières ponctuelles) : elles permettent ainsi de remplir

les zones laissées trop sombres par les sources de lumière directionnelles après la diminution

de leur intensité de manière à ce qu’elles ne prennent pas le pas sur l’éclairage principal. De

ce fait, elles reproduisent, en quelque sorte, la luminosité diffuse que nous avons vu plus haut.

En outre, grâce à la simulation du phénomène de déperdition de luminosité, il est possible de

reproduire un éclairage artificiel à partir d’une lumière omnidirectionnelle (comme une

ampoule) ou à partir d’une source lumineuse imitant l’effet d’un projecteur. Ainsi, il est

possible, dans une certaine mesure, de reproduire un éclairage réaliste. Néanmoins, il ne faut

pas oublier que l’éclairage d’une scène dépend justement d’un travail de mise en scène et de

construction délibérée des effets : à titre d’exemple, la dureté des ombres et la façon dont elles

sont calculées peuvent être définies à volonté dans le but de produire un effet précis.

2.3.3. Les matières et les textures : les propriétés de surface et devolume

L’objet tridimensionnel, après la modélisation, n’est composé que de d’entités

géométriques et mathématiques. Fondamentalement virtuelles, elles ne définissent que sa

forme et ne permettent pas de rendre compte de ses propriétés de surface. Qu’il soit défini par

60 En réalité, le soleil projète des rayons dans toutes les directions ; cependant, il est tellement éloigné de la terreque les rayons qui nous parviennent sont pratiquement parallèles.61 Cf. IMMLER (CH.), Grand Livre, 3D Studio Max 2-2.5, Paris, Micro Application, 1998, p.708.

43

un volume plein ou par une simple enveloppe, l’objet, lors de la phase de rendu, doit

apparaître en fonction d’un certain nombre de caractéristiques visuelles définies par

l’utilisateur. L’alternative la plus simple consiste à appliquer au modèle des propriétés de

surface spécifiant sa couleur. Dans la réalité, un objet constitué d’une seule couleur est perçu,

dans l’ensemble, comme étant composé de plusieurs couleurs, dues à la façon dont certaines

de ses parties reflètent la lumière : le côté exposé à la lumière sera plus clair que celui qui est

dans l’ombre, et l’endroit de l’objet où la lumière est directement renvoyée vers le spectateur

est généralement constitué d’une couleur plus claire, définie par celle de la lumière et par la

nature plus ou moins brillante de l’objet. Pour reproduire ce phénomène en image de synthèse,

l’objet virtuel doit être défini par trois propriétés de couleur : la première, la couleur diffuse,

détermine la couleur absolue de l’objet, c’est-à-dire celle de sa partie éclairée ; la seconde, la

couleur ambiante, correspond à la couleur de la partie n’étant pas sous l’éclairage direct ; la

troisième, la couleur spéculaire, définit la couleur du reflet. Ensuite, à l’aide d’autres

paramètres, l’utilisateur peut jouer sur l’incidence que ces couleurs ont sur l’aspect général de

l’objet. Par exemple, la brillance permet de déterminer la taille et l’intensité du reflet,

l’opacité permet de régler le niveau de transparence de l’objet et la radiance définit la quantité

de lumière qu’il émet, indépendamment de tout éclairage extérieur62.

Ces réglages affectant les propriétés de base ne suffisent généralement pas pour

représenter des matériaux issus de la réalité. Aussi, dans de nombreux cas, tout l’enjeu

consiste à en reproduire l’aspect grâce à quelques artifices.

2.3.3.1. Les textures planes

2.3.3.1.1. Le mapping d’image

La principale technique de simulation de matériau consiste en fait à habiller la surface

de l’objet avec une image reproduisant une texture, qu’elle provienne de la réalité ou qu’elle

ait été créée de toute pièce : la simple numérisation de la surface d’un objet suffit

généralement à produire des matériaux virtuels simulant de manière convaincante leurs

homologues réels. Ainsi, ce procédé permet de recréer dans le modèle des objets qu’il aurait

été difficile de reproduire autrement : il est particulièrement idéal pour simuler des propriétés

de surface planes dans la réalité. Par exemple, la photographie d’une peinture murale

62 Cf. COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.184-187.

44

provenant d’une villa de Pompéi peut être plaquée et reposée sur un parallélépipède rectangle

ou tout objet présentant des surfaces planes aux dimensions du mur réel.

Plus connue sous le nom de mapping, cette technique présente malgré tout quelques

inconvénients. En effet, les images sur lesquelles elle se base sont essentiellement de forme

quadrangulaire, ce qui pose parfois de réels problèmes étant donné que la plupart des objets

destinés à être « mappés » ne présentent pas que des faces planes. L’exemple le plus flagrant

de cette limite s’apparente au problème auquel étaient confrontés les cartographes lorsqu’ils

cherchaient à élaborer des planisphères, lequel était de savoir de quelle manière représenter la

surface de la Terre sur un plan, alors que cette opération provoque nécessairement des

distorsions dans les proportions et dans les mesures. Dans le domaine de l’infographie, le

plaquage d’une image rectangulaire sur une sphère pose le problème inverse : l’image

originale est obligatoirement déformée pour pouvoir envelopper intégralement la forme de

destination. Par conséquent, le plaquage de cette même image sur des formes plus complexes

à toutes les chances de générer davantage de distorsions, ce qui pose de réels problèmes

lorsqu’il s’agit de simuler des matériaux sinon réalistes, du moins cohérents : l’image de base

est étirée à chaque fois qu’elle est appliquée à une forme convexe ou concave, ce qui a pour

effet de juxtaposer des parties de l’image de bonne définition avec des parties où les pixels

sont visibles et complètement exagérés. Pour résoudre ce problème d’adéquation de l’image à

la forme, il est possible d’en spécifier le mode de projection :

• la projection planaire applique l’image sur un plan, qui, suivant sa position par rapport à

l’objet, procède de la même manière qu’un projecteur de diapositives : dans ce cas,

l’image n’est cohérente que lorsqu’elle est projetée sur une face plane de l’objet ;

• la projection cylindrique fait de même avec un cylindre enveloppant l’objet, l’image

« mappée » étant arrondie sur toute la hauteur de l’objet pour minimiser les différences

dues aux distorsions, tandis que le sommet et la base du cylindre procèdent de leurs côtés

de la même manière que la projection plane ;

• la projection sphérique enveloppe l’objet en déformant complètement l’image ;

• la projection cubique procède de la même manière que la projection planaire, à la

différence que l’image est projetée à partir de chacune des six faces du cube.

Néanmoins, ces types de projection ne sont réellement convenables que dans la mesure

où la forme générale de l’objet de destination se conforme plus ou moins à leurs propriétés.

45

L’autre majeure limite de cette technique tient au fait qu’elle ne fait appel qu’à une

image, un échantillon pour simuler un matériau qui, en théorie, est continu et unique en

chaque point de l’objet réel. Aussi, dans certains cas, l’objet à habiller est trop grand pour

pouvoir recevoir cette image et le rapport entre la taille de l’objet et celle de l’image ne joue

pas en faveur d’un résultat réaliste de l’association : les limites physiques de la texture sont

alors atteintes, et le niveau de détail de l’ensemble en pâti. Pour remédier à l’inadéquation

entre ces deux éléments, il existe deux alternatives : la première offre une solution peu réaliste

qui consiste à considérer l’image comme un motif que l’on applique à toute la surface de

l’objet ; il en résulte alors un effet peu naturel de répétition, convenant davantage aux surfaces

présentant une décoration foncièrement répétitive, comme les carrelages ou les pavages : les

bords de l’image en trahissent le format rectangulaire par l’absence de continuité entre chaque

itération de l’image. L’autre alternative offre un résultat plus réaliste mais présente

l’inconvénient de générer d’importants temps de calcul lors du rendu ; il s’agit en fait

d’appliquer à l’objet une image de très haute résolution. Ainsi, dans le cas d’une scène

composée de nombreux objets à texturer, ce choix n’est pas forcément le plus rationnel.

En outre, il existe une alternative à ce problème, qui, en revanche, ne relève pas du

plaquage d’une ou de plusieurs images sur un objet mais procède réellement d’un calcul, nous

le verrons ci-dessous63.

2.3.3.1.2. Le bump mapping

L’utilisation d’image pour reproduire visuellement l’aspect d’un matériau

s’accompagne d’autres possibilités, dont la plus intéressante est celle offerte par la technique

du bump mapping. Généralement, la création d’un faible relief sur toute ou partie de la surface

d’un objet est une tâche relativement fastidieuse, car il faut modifier « à la main » la position

de chacun des éléments composant la surface que l’on désire rendre moins lisse. Cette tâche

peut bien sûr être simplifiée grâce à l’utilisation d’une fonction permettant de perturber

automatiquement la surface d’un objet, mais dans ce cas, cette alternative n’offre que peu de

contrôle sur l’ampleur des modifications. En outre, chaque modification dans la topologie64 de

l’objet accroît le nombre de facettes que l’ordinateur doit calculer, ce qui rallonge d’autant

plus les temps de calcul. Aussi, le bump mapping – le bosselage – offre une alternative à la

modélisation en simulant des bosses et des creux à partir des niveaux de luminosité d’une

63 Cf. 2.3.3.2 Les textures tridimensionnelles, p.4764 Nous entendons par là toutes les relations qui définissent la tridimensionnalité de l’objet.

46

image mappée (voir fig. 14, planche V). En fait, chaque pixel de l’image, en fonction de sa

luminosité (donc quelle que soit sa couleur) est converti en information renseignant sur son

altitude, codée sous la forme de niveaux de gris : le blanc indique le niveau le plus haut, le

noir le niveau le plus bas, et le dégradé de gris toutes les hauteurs intermédiaires entre ces

deux extrêmes. Ensuite, chacune de ces informations est interprétée par le logiciel de rendu

pour créer l’illusion d’un relief à la surface de l’objet. En réalité, les bosses et les creux

n’affectent pas vraiment la topologie de l’objet car ils sont simplement déterminés par

l’incidence de la lumière sur la surface : afin de simuler un relief positif (en bosse), les zones

considérées comme hautes reçoivent, sur ce qui correspondrait à leur adret, davantage de

lumière, tandis que leur ubac – le côté le moins exposé à la lumière –, reste sombre ; de la

même manière, les pseudo flancs des creux reçoivent plus ou moins de lumière en fonction de

leur exposition théorique à la source lumineuse. Au total, ce procédé produit un résultat

totalement artificiel : par exemple, les modulations du relief n’apparaissent pas sur la

silhouette de l’objet, qui conserve ainsi un contour lisse, et les bosses, bien qu’ombrées, ne

projètent pas d’ombre sur la surface de l’objet, même lorsque la lumière est rasante.

Par conséquent, cette méthode est essentiellement destinée à faire illusion en simulant

des reliefs qui n’existent pas. Néanmoins, elle peut se révéler utile lorsque le but est de donner

à voir des images et non de constituer des modèles tridimensionnels dont les formes sont

conformes à la réalité. Cet artifice permet donc de réaliser des images vraisemblables à

moindre frais (en terme de temps de travail et de calcul) et peut apporter, dans une certaine

mesure, des solutions lorsqu’on désire représenter des surfaces difficilement modélisables. Par

exemple, l’image servant au bump mapping peut très bien comporter le relevé d’une

inscription épigraphique figurant en noir sur blanc, et qui, en guise de creux, sera par la suite

appliqué au modèle numérique de l’objet sur lequel elle doit figurer (voir les fig. 15 et 16 de la

planche V). Ce procédé peut, en outre, convenir lorsqu’il s’agit de représenter des éléments

sculptés en très bas-relief : les niveaux de gris permettent de rendre compte, jusqu’à un certain

point, des nuances présentes dans les modelés, offrant ainsi une alternative rapide et efficace à

une modélisation relativement délicate à accomplir.

2.3.3.1.3. Les autres techniques de mapping

Le même principe d’utilisation d’image en niveaux de gris peut être appliqué dans le

cadre d’autres techniques de définition de texture. En fait, ces images sont plus connues sous

le nom de canal alpha car elles correspondent généralement au quatrième canal présent dans

47

une image numérique, les trois premiers désignant les couches de couleurs constituant l’image

même (rouge, vert, bleu). Ce dernier canal peut être utilisé comme un pochoir qui masque

certaines parties de l’image. Ainsi, les zones blanches laissent apparaître l’image tandis que

les zones noires la cache complètement ; les niveaux de gris, quant à eux, la laissent

transparaître dans une certaine mesure en fonction de leur clarté. L’utilisateur, en jouant sur

l’emplacement des zones blanches et noires, peut ainsi régler la découpe de l’image, qui, bien

que toujours rectangulaire, peut n’apparaître que suivant les contours définis de la sorte. En

image de synthèse, l’utilisation du canal alpha permet de régler l’opacité d’une image en se

superposant à elle : dans ce cas, les zones blanches la laissent totalement opaques et les zones

noires la rendent transparente. De ce fait, il est possible de créer des objets a priori opaques

qui seront, au total, en partie transparents. Ainsi, cette technique offre également un artifice

visuel qui vise, pour les mêmes raisons que le bump mapping, à élaborer des objets complexes

sans générer trop de calculs. Elle peut alors convenir lorsqu’il s’agit de faire figurer un objet

présentant une structure fortement ajourée ou entrelacée, comme un grillage, qu’il ne serait

pas « économique » de modéliser entièrement.

En outre, le mapping d’une image comportant un canal alpha permet de spécifier la

brillance de certaines zones à la surface d’un objet. Ainsi, il est possible de vieillir ou de salir

artificiellement un objet en lui affectant une image en niveaux de gris, qui, en fonction de la

luminosité des pixels la composant, permet de rendre certaines zones de l’objet plus mattes ou

plus brillantes que le reste.

2.3.3.2. Les textures tridimensionnellesA la différence des textures planes que nous venons de voir, les textures

tridimensionnelles ne sont pas obtenues par la projection d’images sur la surface d’un objet

mais résultent véritablement d’un calcul. En fait, les textures sont générées par des procédures

mathématiques qui permettent de composer des matériaux plus ou moins complexes, élaborés

suivant un schéma de développement aléatoire qui leur garantit une certaine continuité. Cette

technique permet, à partir de quelques paramètres de base, de simuler des matières naturelles

en évitant les problèmes de répétition en « mosaïque » rencontrés lors de l’utilisation des

textures planes. Aussi, le principal avantage de ces textures dites « procédurales » tient au fait

qu’elles sont calculées comme si elles occupaient tout le volume de l’objet, en partant

généralement de son centre de gravité. Par conséquent, leur apparition à la surface de l’objet

donne l’impression que sa forme a été directement sculptée dans un bloc de matière : en effet,

48

il n’y a pas de discontinuité entre les arêtes de l’objet et le motif reste cohérent et uniforme,

sans subir de distorsion. Néanmoins, étant donnée leur nature mathématique et aléatoire, ces

textures n’offrent de réels intérêts que pour simuler des matériaux naturels tels que le bois, le

marbre, ou d’autres phénomènes tels que la fumée, les nuages ou bien encore les ondulations

de l’eau65. A titre d’exemple, le bois peut être reproduit à partir de deux couleurs que

l’utilisateur doit spécifier en plus de la taille des cernes et du coefficient de perturbation du

motif. Ainsi, en raison du faible nombre de paramètre que l’utilisateur peut spécifier, ces

textures n’autorisent pas l’élaboration de motifs aussi variés et aussi précis que ceux produits

par les textures planes, ce qui, au total, les cantonne à quelques applications. En outre, bien

que simulant, d’une certaine manière, le processus de formation des matériaux naturels, les

algorithmes présidant à l’élaboration de ces textures ne permettent pas (encore) de modéliser

mathématiquement et avec rigueur l’aspect des différentes variétés d’un matériau66. Par

conséquent, il est encore préférable, lorsque le besoin s’en fait sentir, d’avoir recours à des

textures « mappés » pour simuler des matériaux précis tels que le marbre du Pentélique ou

celui de l’Hymette, avec tous les problèmes qui en découlent comme nous l’avons vu plus

haut.

ConclusionNous avons vu, au long de cette partie, que les images de synthèse résultaient en fait de

deux opérations faisant appel à des techniques différentes : dans un premier temps, la

modélisation permet de créer la structure géométrique des objets et de les mettre en scène,

puis, dans un deuxième temps, le rendu procède au calcul de l’image en compilant toutes les

informations renseignant sur la géométrie, les matériaux et les conditions d’éclairage présents

dans le modèle numérique. La finalité de l’infographie, à savoir produire des images

« photoréalistes », justifie, dans l’industrie de l’image de synthèse, le recours à des artifices

visuels pour contourner certaines difficultés techniques qu’il ne serait pas raisonnable, en

terme de temps de travail homme / machine, de vouloir à tout prix défier. Ainsi, l’évocation

d’un faible relief à la surface d’un objet se fait par une illusion d’optique plutôt que par une

modélisation. Par conséquent, la réalisation d’images de synthèse reproduisant avec

vraisemblance une certaine réalité, voire une certaine tridimensionnalité, ne doit pas faire

65 cf. IMMLER (CH.), Grand Livre, 3D Studio Max 2-2.5, Paris, Micro Application, 1998, p.883-900.66 Cette possibilité permettrait, par exemple, de reproduire l’aspect des différents types de marbre, en tenantcompte de leurs couleurs, de la forme de leurs veines et des propriétés de surface telles que le grain ou labrillance après un polissage.

49

oublier que le modèle numérique qui a servi à la produire peut être constituer d’un certain

nombre d’artifices visuels qui ne sont en aucun cas garant de la réelle tridimensionnalité de

certaines parties du modèle. Ce choix, guidé par des contraintes de temps de calcul et de

travail, peut influer sur les utilisations ultérieures du modèle n’ayant pas été prévues en amont.

Au total, il importe de connaître les utilisations possibles afin d’éviter d’avoir à recommencer

deux travaux similaires : les techniques de modélisation que nous avons abordées semblent

être plutôt destinées à produire les documents que nous verrons dans la partie suivante, tandis

qu’il faudra envisager un autre type d’élaboration de modèle numérique pour obtenir des

formes, des dimensions davantage conformes à celles présentent dans la réalité lorsqu’il

faudra les mettre en accord avec les besoins scientifiques, ce que nous verrons dans la dernière

partie.

50

3. Les images de synthèse comme outil de communication

3.1. De nouvelles images

3.1.1. Des images comprises de tousGrâce à l’ensemble des techniques que nous venons de voir, l’infographie permet de

créer des images vraisemblables, donnant à voir des scènes, des objets presque totalement

élaborés par l’ordinateur. En terme de lecture, ces images empruntent la même sémantique

visuelle que les procédés de représentation « réalistes » plus traditionnels (analogiques)

comme la photographie ou la vidéo.

En cela, l’image de synthèse s’inspire de ces techniques par le vocabulaire et les

possibilités d’expression : l’image finale dépend d’un cadrage (rectangulaire) et les réglages

qui déterminent sa définition sont volontairement calqués sur les caractéristiques du matériel

photographique ou cinématographique. Ainsi, l’image calculée est davantage vue à partir

d’une caméra qu’à partir d’un œil : la plupart des logiciels disposent de caméras virtuelles

dont l’objectif ou la focale peuvent être réglés et permettent également de simuler une

profondeur de champ (pour rendre plus flous certains éléments en avant ou en retrait par

rapport à l’objet sur lequel est réalisée la mise au point).

Cependant, la principale différence réside dans le fait que les procédés analogiques

sont automatiques : ils fixent une part de la réalité en enregistrant la lumière réfléchie par les

objets à l’aide, dans le cas de la photographie, de procédés chimiques, et dans le cas de la

vidéo, de la conversion du signal lumineux en signal électrique. A l’inverse, l’image créée par

l’ordinateur ne provient pas d’une capture ponctuelle de la réalité mais bel et bien d’une

élaboration raisonnée : des instructions sont programmées pour réaliser la projection des

objets sur un plan rectangulaire (celui de l’écran ou du fichier informatique contenant l’image)

suivant les lois de la perspective centrale67. Ce procédé de représentation des volumes par

projection sur un plan est connu, sous d’autres formes, depuis l’Antiquité : en fait, les règles

de la perspective centrale n’ont réellement été formulées qu’à partir de la Renaissance, mais

les Anciens avaient déjà la notion d’un système perspectif qui voyait converger les parallèles

perpendiculaires au plan de projection non pas en un point de fuite unique, mais sur une ligne

verticale, qui les recevait donc deux à deux, en arêtes de poisson. La perspective ne permet de

67 Cf. 1.2.2.3 La représentation tridimensionnelle, p.19.

51

définir que les lignes de construction d’un espace et des objets qui le composent ; aussi, pour

les rendre plus réalistes, les Anciens accentuaient le sentiment de profondeur et de

tridimensionnalité par une représentation des objets en trompe l’œil basée sur des jeux

d’ombre et de lumière et sur le modelé des objets par la couleur afin de leur donner plus de

relief et de volume68.

Ces effets de perspective et de trompe l’œil , utilisés dans la peinture grecque puis

romaine, ont été théorisés à la Renaissance par les artistes italiens L. B. Alberti et F.

Brunelleschi et sont devenus des critères d’évaluation et de jugements jusque dans la peinture

du XIXème siècle69. Aujourd’hui, ces techniques font plus que jamais partie de notre quotidien

et sont les fondements même d’une représentation illusionniste de la nature.

Le réalisme de ces représentations, qu’elles soient totalement construites ou qu’elles

proviennent d’une capture automatique de la réalité, constitue une grande partie du langage

visuel des sociétés occidentales : la plupart des icônes qui nous sont données à voir sont

réalisées par ces procédés ; pour s’en convaincre, il suffit de considérer la place que prennent

les médias visuels dans notre environnement (affichage public, cinéma, télévision, jeux

informatiques...) ainsi que les publics auxquels ils se destinent : aujourd’hui, toutes les classes

d’âge sont touchées par ce mode de représentation, que ce soit les plus jeunes, initiés de plus

en plus tôt par une offre entreprenante (par exemple, le développement des jeux vidéos depuis

une vingtaine d’années ; les programmes audiovisuels pour la jeunesse) ou les seniors, qui ont

vu naître les médias de masse et sont, par conséquent, familiarisés avec cette culture de

l’image.

La large diffusion des images « réalistes » et leur facilité d’accès en terme de lecture

ont ainsi ouvert la voie aux images de synthèse, qui en empruntent les mêmes registres : à ce

sujet, il arrive parfois que ces images se substituent aux images « réelles » avec beaucoup

d’efficacité70. Dans certain cas, les effets spéciaux en 3D insérés dans des séquences filmées

font illusion et sont pris, par le spectateur, pour argent comptant.

68 Cf. ROUVERET (A.), Histoire et Imaginaire de la peinture ancienne (Ve siècle av. J.-C. – Ier siècle ap. J.-C.),Rome, BEFAR 274, 1989, p. 65-127. La tradition littéraire nous fournit une série de textes qui attestent deréférences théoriques à la représentation perspective (la scaenographia) et d’une connaissance des effets detrompe l’œil (la skiagraphia, σκιαγραϕια ), chez Vitruve notamment ( De Architectura, I, 2, 2).69 Cf. DALAI EMILIANI (M.), « Perspective » in Encyclopaedia Universalis, t. 17, p.929-936.70 Pour cela, il suffit d’observer la part grandissante des images de synthèse dans la productioncinématographique.

52

L’effet de mode qu’il existe autour des images de synthèse, aux possibilités presque

infinies, leur confère un statut particulier : synonyme de rêve réalisable, elles offrent

l’avantage de donner à voir avec beaucoup de vraisemblance aussi bien des choses qui

existent que des choses qui n’existent pas, ou qui n’existent plus. L’archéologie et les vestiges

qu’elle met au jour n’échappent pas à cette règle : d’emblée, la 3D semble réussir là où les

moyens traditionnels de représentation échouaient. En effet, l’engouement que l’archéologie

suscite depuis de nombreuses années atteint une nouvelle dimension avec l’introduction des

images 3D dans des thématiques culturelles et patrimoniales : ces images se donnent au

spectateur sans attendre de sa part les fortes capacités d’abstraction et de synthèse qui

accompagnaient généralement l’observation des données archéologiques qui, jusqu’alors, lui

étaient inculquées par les procédés peu attractifs ni très significatifs pour le néophyte71.

Par conséquent, les images en 3D semblent être des outils idéaux pour la

représentation et la mise en scène des connaissances archéologiques.

3.1.2. Des images qui posent problème : les « cartes postales » dupassé

Une des premières utilisations évidentes des images de synthèse semble être leur

emploi dans des illustrations de sites archéologiques qui exploitent à plein régime leur

potentiel figuratif. Dans cette optique, l’image créée joue le rôle de « carte postale »

représentant avec beaucoup de vraisemblance le site concerné. Reçues comme de simples

vues d’illustration, ces images n’en renferment pas moins la synthèse de nombreuses

informations, quel que soit le sérieux archéologique qui les accompagne.

Car, nous l’avons vu, la réalisation d’une image satisfaisante, en terme d’attractivité,

nécessite l’emploi de nombreux artifices et le croisement de nombreux documents pour

recréer les objets et l’environnement dans lequel ils se trouvent. Bien qu’il soit relativement

facile de réaliser une image séduisante, une image destinée à faire illusion requiert, de la part

de son créateur, d’apporter un soin particulier aux détails qui ne se perçoivent pas de prime

abord, mais qui risquent de dénoter fortement dans l’impression que l’image laissera au

spectateur si ces détails sont négligés.

Ainsi, la réalisation d’une telle image nécessite de prendre en compte un grand nombre

de paramètres : l’image donne à voir non seulement le monument ou le site - qui fera l’objet

71 Cf. ci-dessus, 1.2.2 La représentation graphique, p.12

53

d’une grande attention - mais également son environnement. Il en est ainsi de certaines

réalisations qui, telle la restitution du sanctuaire d’Athéna à Marmaria72, proposent des vues

très réalistes de sites en 3D réinsérés dans leur paysage.

Le soin particulier apporté à cette dernière réalisation ne va pas sans poser de

questions. Ainsi, qu’en est-il d’une telle image qui nous présente une vue délibérément

réaliste simulant une réalité passée en réintégrant l’ensemble monumental dans une

perspective résolument illusionniste : le paysage, réalisé à partir de photographies récentes, a

été débarrassé de tout témoignage postérieur à la séquence chronologique du site reconstitué73.

Le but d’une telle initiative était donc de produire une vue du site et de son

environnement tel qu’il pouvait être lors de sa période d’activité. Or, le problème, c’est qu’en

insérant la reconstitution dans un environnement réaliste (sinon réel), l’ensemble du document

bénéficie de cette caution et devient lui-même une image réaliste, achevée. L’aspect

provisoire, voire lacunaire de certaines restitutions à l’intérieur de ce même site est gommé

par le caractère définitif de l’image. Ainsi, l’ensemble des informations contenues dans ce

document, formes et dimensions des bâtiments, couleurs, disposition, place dans

l’environnement se trouve validé, alors qu’il n’en est rien : par exemple, les trésors doriques et

éolique possèdent une décoration polychrome, documentée par les observations des

archéologues, tandis que les édifices voisins (le temple en tuf et le temple en calcaire), moins

bien connus, sont habillés de blanc, non pas parce qu’ils devaient être comme cela, mais parce

que les traces de polychromie n’ont pas été retrouvées74. Il n’en demeure pas moins que, dans

le document final, ces deux édifices sont juxtaposés sans qu’il y ait moyen de différencier la

restitution validée de la restitution provisoire.

Ainsi, cet exemple permet de mettre en exergue certains dangers des images de

synthèse : celles-ci ne sont pas neutres, elles témoignent d’un parti pris de la part de ceux qui

président à leur réalisation et véhiculent une quantité d’informations diversement reçues

suivant le degré d’attention du spectateur.

En effet, ces images, lorsqu’elles sont statiques, ne permettent pas de hiérarchisation

raisonnée des informations : comment différencier le degré de certitude des différentes

restitutions alors que le but même de l’image est de faire illusion en simulant la réalité d’un

72 Cf. BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, De Boccard, 1997, 144 p.73 Cf. idem, p.12874 Cf. idem, p.43

54

édifice par les artifices que nous avons détaillés plus haut ? Dans cet exemple, tous les

édifices reçoivent le même traitement (reconstruction des volumes par la perspective, effets

d’ombres et de lumières) qui conduit à leur donner le même statut d’authenticité. Aussi

convient-il de s’interroger sur d’autres solutions d’expression et de différenciation des

informations. A ce sujet, les techniques de l’infographie offrent des alternatives au résultat

« skiagrapique » que nous avons observé sur la reconstitution du site de Marmaria. Les auteurs

de ces images ont d’ailleurs proposé un autre type de traitement qui vise à ne conserver que

les informations de volume et non plus de surface en recourant à une représentation filaire des

reconstructions ; tout l’intérêt de ce procédé réside en fait dans la possibilité de superposer le

modèle en fil de fer sur des vues réelles du site apparaissant entre ses mailles : le spectateur

peut alors faire directement la jonction entre l’état actuel du site et son état restitué75. Une

autre possibilité consiste à exploiter les opportunités offertes dans le traitement des surfaces :

certaines parties de la reconstitution peuvent apparaître de manière plus ou moins

fantomatique en jouant sur leur degré de transparence. En fait, toute une gamme d’effet est

disponible pour différencier les niveaux de certitude attribués à tel ou tel aspect de la

reconstitution : en eux-mêmes, les modèles sont éditables à volonté, il est donc possible de

leur attribuer n’importe quel type de surface, quelle qu’en soit la couleur. Ces nombreuses

possibilités de traitement ouvrent une nouvelle approche dans la pratique des illustrations

archéologiques : chaque variation de traitement peut faire l’objet d’une individualisation,

c’est-à-dire qu’il est possible de produire, à partir de la même reconstitution, une multitude de

documents témoignant de tel ou tel parti pris.

3.2. Un langage didactique : la multiplication des imagesPour remédier au danger engendré par la confusion des informations présentes dans

une seule image, l’infographie possède l’avantage de pouvoir en multiplier la production sans

pour autant générer de surplus de travail. Cette productivité accrue en terme de quantité

d’image exploite également les autres ressources de l’infographie : à partir d’un même modèle

numérique, il y a possibilité d’effectuer de multiples traitements pour mettre en scène

l’information. La multiplication des images emprunte plusieurs types de supports ; elle n’est

pourtant véritablement effective que lorsqu’elle est déclinée sur les supports permettant la

diffusion de nombreuses images (multimédia, audiovisuel).

75 Cf. idem, p.124 , fig. 113. En réalité, ce procédé a été utilisé pour caler les reconstructions sur les vestigesvisibles avant le calcul définitif des images photoréalistes.

55

3.2.1. Les séries d’imageLa première approche consiste à créer une succession d’images du même objet, où

chaque image détaille un élément ou un ensemble précis d’information. Les images

fonctionnent ainsi comme des diapositives projetées les unes à la suite des autres, offrant au

spectateur une analyse progressive de l’objet, où les informations sont distillées au fur et à

mesure et mises en valeur suivant la thématique du « diaporama ».

Le palais hellénistique d’Hyrcan à Iraq-al-Amir en Jordanie76 a fait l’objet d’une

restitution commandée par l’archéologue architecte F. Larché, de l’Institut Français

d’Archéologie du Proche-Orient. Cette restitution, réalisée par Claude Soirot (architecte

urbaniste) a donné lieu, notamment, à une présentation en diaporama77 : au fil des

« diapositives », le monument est reconstruit étage par étage, montrant, pour chaque image, la

structure interne de l’édifice. Ces images, partant du rez-de-chaussée jusqu’au bâtiment entier,

permettent de recréer un discours impossible à exprimer par une seule image. Le déroulement

linéaire de la présentation privilégie un exposé argumenté et raisonné des différentes

informations. Ainsi, le spectateur observe non pas un objet différent sur chaque image, mais

un objet dynamique, qui évolue au gré des diapositives : le regard n’est plus attiré par la

beauté d’une image mais est plutôt stimulé par les différences existant entre chaque séquence.

Ce mode de lecture ne nécessite plus d’insérer la restitution dans un environnement

illusionniste : un fond neutre sans effet de perspective suffit amplement, puisque l’intérêt

même de ces images réside dans la représentation progressive de la structure du bâtiment (voir

fig. 16, planche VI).

Ce procédé fonctionne encore plus lorsqu’une couche supplémentaire d’information

vient se superposer aux images. Le cédérom multimédia Viaggo virtuale nell’antico Egitto78

propose, sur le même principe, quatre vues de la pyramide de Kheops. La première correspond

à une vue de la pyramide en 3D dans son entier, les trois suivantes présentent la même

pyramide dépourvue de ses enveloppes successives. A chaque image correspondent des

légendes fléchées qui indiquent la nature des différentes parties de la pyramide (voir fig. 17 à

20 planche VII).

76 Trouver quelques références bibliographiques à ce sujet.77 Ce diaporama, diffusé lors du festival Archéo Virtua, sert de support aux exposés de M. Claude Soirot, etn’emprunte pas, par conséquent, les circuits de diffusion commerciaux. Cf. SOIROT (C.), « Archéologie etmodélisation », Archéologia, n°337, septembre 1997, p.8.78 Viaggo virtuale nell’antico Egitto, sulle orme della spedizione napoleonica, Altair 4 Multimedia, MondadoriNew Media, 1997, Italie.

56

Ce type de présentation n’est pas réellement nouveau, il ne fait qu’adapter un principe

déjà communément utilisé dans des communications à destination du grand public.

Néanmoins, l’utilisation d’une telle technique témoigne de l’efficacité et de la souplesse des

images de synthèse. D’abord, pour créer ces variantes autour du même thème, il n’est pas

nécessaire d’investir énormément de temps sur chaque image : elles sont toutes issues du

même modèle numérique, et il a suffit d’employer les possibilités de l’infographie à bon

escient pour réaliser les différents éclatés architecturaux. Ensuite, du point de vue du

destinataire de ces images, les vues proposées sont tout de suite significatives : il n’est pas

besoin de s’étendre davantage sur l’efficience de telles images, qui, en place et lieu des

conventions et des symboles graphiques pour représenter un volume79, font appel à l’acuité

visuelle du spectateur.

Cependant, leur mode de réalisation ne permet pas de donner des informations d’ordre

quantitatif : nous avons vu que la perspective ne conserve pas les proportions, aussi il est

évident que ces images, d’un point de vue uniquement visuel, ne peuvent donner des

renseignements précis quant aux dimensions du monument représenté. Seule la présence d’un

référent, telle une silhouette humaine, peut donner une idée des dimensions et des échelles.

C’est pourquoi ces images, en tant que produit fini, ne peuvent être employées qu’à titre

indicatif : elles sont idéales pour donner à voir ou à comprendre, mais ne sont pas utiles pour

exprimer les données quantitatives.

3.2.2. L’animation, outil de narrationLa production d’images en quantité permet également de réaliser des séquences

animées. Ces animations en 3D sont construites de la même manière que les séquences

cinématographiques ou vidéographiques : l’illusion du mouvement est créée en tirant profit de

la limitation de la perception humaine. En effet, l’œil humain possède un pouvoir de

séparation relativement restreint, de sorte qu’une perception sensorielle persiste quand bien

même son origine aurait disparu. Ce phénomène de persistance rétinienne, de l’ordre d’un

tiers de seconde, permet de créer une impression de continuité grâce à une succession rapide

d’images sensiblement différentes les unes des autres. L’illusion du mouvement peut être ainsi

générée à partir de 16 images par seconde, mais les fréquences de défilement ne deviennent

réellement confortables qu’à partir de 24 images par seconde80. La reproduction du

79 Cf. ci-dessus, 1.2.2.2 Le dessin technique en deux dimensions, p.1680 Brard (P.), « La persistance rétinienne et son utilisation » in Encyclopaedia Universalis, t. 5, p.839.

57

mouvement par une succession d’images dépend en fait du support sur lequel l’animation est

destinée à être diffusée. Ainsi, sur support vidéo, un minimum de 25 images par seconde est

requis tandis qu’une diffusion sur l’écran d’un ordinateur peut demander davantage.

Bien évidemment, l’avantage considérable des animations 3D sur les animations

traditionnelles réside dans leur absence de contrainte physique : l’ensemble des éléments

d’une scène n’est pas régi par les lois de la physique, ce qui laisse une plus grande liberté dans

les possibilités de mise en scène ; en outre, la création d’une animation ne dépend pas d’un

référent réel car il ne s’agit pas d’un enregistrement du réel mais bel et bien une création ex

nihilo. Ces avantages de l’infographie 3D prennent ici une plus grande dimension : la création

du mouvement, confère à ces images une plus grande efficacité, les rend davantage

vraisemblables, ce qui a pour effet d’améliorer grandement la compréhension que peut en

avoir un spectateur.

L’introduction du facteur « temps » dans les images de synthèse permet une meilleure

appréhension des volumes et de la tridimensionnalité : le mouvement exprimé par une

animation peut être une solution au problème de la planéité du support de la représentation.

Par exemple, on peut très bien imaginer que la caméra virtuelle – l’œil du spectateur – fait le

tour d’un édifice en le dévoilant au fur et à mesure, privilégiant ainsi une approche des

volumes par la mémorisation des formes, la vision humaine recomposant automatiquement la

spatialité. Cette possibilité supplante de loin, dans le cas d’une présentation générale de

vestige, les précédentes que nous avons envisagées plus haut. La caméra peut emprunter un

chemin plus compliqué que celui lui faisant faire le tour du monument en suivant un parcours

à l’intérieur du monument en en montrant successivement les volumes intérieurs.

Ainsi, les possibilités de narration sont illimitées : suivant les mouvements de caméra,

les types de cadrage, le réalisateur d’une séquence animée peut exprimer un discours raisonné

et hiérarchisé. La présentation d’un monument peut être construite sur un développement

utilisant l’ensemble des procédés cinématographiques pour mettre en scène l’information. Par

exemple, la présentation peut commencer par un plan général du site, puis détailler les

différents monuments du site ; des zooms peuvent être utilisés, de même que les travelling,

convenant parfaitement au déroulé d’une frise...

Cependant, l’intérêt de l’animation par ordinateur réside également dans la possibilité

d’intervenir sur les objets, les éléments constituant une scène. Il s’ensuit alors tout un

58

ensemble de possibilités permettant de présenter de manière didactique, voire intuitive, les

informations.

Ces animations d’objets constituent un véritable support à la démonstration et à

l’explication de principes difficilement exprimable autrement.

Ainsi, le cédérom Architectus81 contient une animation expliquant le principe

d’assemblage et de fonctionnement de la louve, instrument de préhension utilisé par les

Romains dans la construction en pierre82. D’une durée de 20 secondes, l’animation débute par

le plan serré d’un bloc de pierre percé, sur sa partie supérieure, d’une ouverture (voir la fig.

21, planche VIII). Ce plan, fixe, voit l’apparition des différentes pièces composant l’outil et

leur déplacement du haut de l’écran vers l’ouverture ménagée dans la pierre. Les pièces

viennent s’y loger progressivement : d’abord les latérales, ensuite la centrale. Puis suivent, sur

le même principe, les accessoires de fixation : le spectateur a le loisir de suivre leur

déplacement et leur insertion dans les orifices ménagés à cette intention. Enfin, l’animation

s’achève par un plan plus large représentant le bloc de pierre et le système de levage,

comprenant la louve et le gréement (poulies, cordes). L’animation a donc expliqué, en un

minimum de temps, le principe de fonctionnement de la louve avec beaucoup d’efficacité : la

forme générale de l’instrument – en queue d’aronde – et le problème de son introduction dans

une ouverture de la même forme sont immédiatement appréhendés par le spectateur grâce à

l’assemblage progressif des différentes pièces, le mouvement permettant de structurer, à la

manière d’un discours, les informations. Le spectateur peut alors apprécier la simplicité et

l’ingéniosité de ce système sans avoir à subir un exposé rébarbatif.

L’animation est également très utile pour rendre compte des différentes phases

d’évolution d’un site, pour représenter le caractère diachronique des sujets de la recherche

archéologique. L’expression des phases de construction d’un édifice n’est pas toujours très

claire : généralement, la retranscription d’une évolution doit prendre en compte de nombreux

paramètres, de nombreux composants ; dans ces conditions, il n’est pas aisé de formuler,

graphiquement ou par écrit, l’ordre des constructions, des destructions, etc. Pour résoudre ce

problème, rien n’empêche de présenter une animation évolutive du site. Le château de Ferrare

a fait l’objet d’une reconstitution en 3D dans un produit multimédia83, où il est notamment

81 Architectus, Eurêcad, 1997, Suisse.82 cf. BESSAC (J.-CL), JOURNOT (F.), PRIGENT (D.), SAPIN (CH.) & SEIGNE (J.), La Construction, la pierre,Paris, éd. Errance, 1999, coll. « Archéologiques », p. 78 et 83, fig. 23.83 The Castle of Ferrara, Archè, Soprintendenza ai Beni Storici e Artistici di Ferrara-Bologna, 1997, Italie

59

possible d’observer une telle animation : les différents états de l’édifice se succèdent pendant

que la camera opère un mouvement circulaire autour de la construction ; les phases de

construction s’enchaînent les unes après les autres, donnant ainsi un aperçu général et

dynamique du château italien.

Ainsi, la possibilité de réaliser des représentations dynamiques des objets d’étude

archéologique ouvre la porte à de nombreuses mises en scène des vestiges archéologiques : il

est désormais facile de représenter dans un même document les vestiges découverts par les

archéologues et leur restitution. Le spectateur prend alors davantage conscience du travail des

archéologues et de l’importance de leur choix de restitution.

Par exemple, dans Viaggo virtuale nella antica Roma84, l’utilisateur peut lancer des

animations de différents types : certaines mettent en avant la relation existant entre les

vestiges réels et leur restitution, dans ce cas, l’animation commence par une photographie

réelle des vestiges, qui, par un effet de « fondu », découvrent à leur place, une image de

synthèse calculée avec un cadrage et un point de vue identique à celui de la photo (voir les fig.

22 à 26 de la planche IX) ; la transition, douce, permet d’illustrer avec beaucoup de force le

pouvoir des images de synthèse et leur nécessaire confrontation à la réalité. D’autres donnent

à voir une mise en volume des documents traditionnels des archéologues ; en effet, le cédérom

permet d’accéder à de nombreux plans quelques peu théoriques des principaux types de

bâtiments (temples prostyle, in antis..., villa à péristyle, etc) : le plan, en 2D, livre

progressivement une restitution idéale du bâtiment. Cette mise en scène reflète bien l’intérêt et

l’utilité des images de synthèse pour le grand public : les restitutions proposées sont idéales,

ne font pas référence à un édifice précis, mais proposent des documents significatifs qui

expliquent, dans les principes généraux, ce qu’il faut savoir d’un type d’édifice, en fournissant

quelques informations telles que le nom des différentes pièces d’une villa, suivi

immédiatement de son aspect global. L’apport pédagogique d’un tel procédé est encore plus

évident lorsque l’animation permet de dévoiler la structure interne d’un édifice : par exemple,

l’animation débute sur une représentation 3D d’un arc de triomphe pour finir sur la même

image, à la différence qu’une des parois a été retirée pour laisser apparaître la structure interne

de l’édifice, ce qui permet au spectateur de voir qu’un escalier était aménagé dans l’édifice.

En contrôlant la vitesse, le sens (vers l’avant ou vers l’arrière) de l’animation, le spectateur

84 Viaggo virtuale nella antica Roma, Altair 4 Multimedia, Mondadori New Media, 1998, Italie

60

peut terme à terme, comparer les deux images pour apprendre d’avantage ce qu’une forme

dessinée (plan) ou lacunaire (photo) peut produire après la restitution.

3.3. L’interactivité comme mode d’accès à la connaissance.La recherche de l’interactivité avec les images de synthèse correspond en fait à une

problématique plus large portant sur la Réalité Virtuelle. Les images de synthèse, nous l’avons

vu, sont la représentation, la projection bidimensionnelle d’un système tridimensionnel

synthétique (le modèle numérique et tous les paramètres qui concourent à la réalisation des

images). Grâce aux animations, nous avons vu qu’il était possible de se déplacer dans

l’univers virtuel du modèle numérique suivant un cheminement prédéterminé calculé en

images 3D : en fait, les déplacements ne se faisaient pas dans les images, mais dans le modèle

numérique même, dans lequel était défini le parcours de la caméra virtuelle. Cependant, les

séquences animées sont des documents fondamentalement linéaires, avec un début, une fin, et

entre ces deux extrémités, un déroulement invariable et rigide : la principale raison de cette

rigidité tient au fait que l’illusion du mouvement est donnée par une grande quantité d’images

qu’il a fallu calculer au préalable. C’est justement ce temps de calcul nécessaire pour créer

toutes les images qui constitue l’une des principales restrictions à l’interactivité des images de

synthèse.

En effet, pour permettre l’interactivité, il est indispensable que les images soient

« rafraîchies » en temps réel : la caméra virtuelle dirigée par les mouvements de l’utilisateur

doit produire, en réaction, des images calquées simultanément sur le mouvement. Autrement

dit, l’ordinateur doit calculer et afficher le plus rapidement possible toutes les images

nécessaires à la reproduction du mouvement. Cette contrainte avait cantonné les recherches

sur la réalité virtuelle aux quelques centres et instituts de recherche qui disposaient de

suffisamment de moyens financiers et matériels pour mener à bien ces investigations. Bien

entendu, ces recherches ne portaient pas simplement sur l’affichage en temps réel des images

mais s’étendaient à l’ensemble de l’interface matérielle et logicielle nécessaire pour réaliser

les immersions dans la réalité virtuelle85. Toujours est-il que l’immersion dans les « mondes

85 Outre des logiciels de rendu suffisamment puissants pour afficher en temps réel, l’immersion demande, àdifférents niveaux, toute une interface homme-machine / machine-homme pour améliorer la navigation dans lesmondes virtuels. Ainsi, l’écran, qui n’est en fait qu’une simple fenêtre sur la virtualité, est remplacé par d’autrespériphériques tels que le visiocasque, qui constitue une véritable « prolongation » de l’œil humain, en recréant,par la stéréovision, notre mode naturel de vision en relief, et, par l’analyse des mouvements de la tête, notrefaculté d’appréhender notre environnement par balayage de notre champs de vision. A l’inverse, lespériphériques d’entrée tels que la souris ou le clavier sont remplacés par des instruments davantage calqués sur

61

virtuels » se joue à différents niveaux : dans le cas de l’archéologie, peu d’expériences ont été

tentées, en raison des coûts que nécessitent de telles technologies, et les applications directes

en terme de visualisation se limitent à des manifestations ponctuelles supportées par les

acteurs de la haute technologie.

Pour exemple, une expérience de réalité virtuelle a été tentée en 1993 à l’occasion du

festival Imagina, où il était question d’une visite virtuelle de l’abbaye de Cluny, projet qui

avait en partie bénéficié du savoir-faire d’IBM France86. Dans le milieu universitaire, ce genre

de projet n’échappe pas à la nécessité de collaborer avec des organismes spécialisés, déjà

détenteurs de cette technologie : le chercheur italien Maurizio Forte, dans ses investigations

portant sur l’exploration virtuelle des paysages archéologiques, s’est associé avec le CINECA

(Centre interuniversitaire de calcul scientifique, à Bologne)87 dans le cadre d’un projet de

recherche sur la visualisation scientifique en archéologie88. Par conséquent, les expériences

réalisées en immersion sont, pour l’heure, très marginales et réservées à des circonstances

exceptionnelles.

Il existe néanmoins un ensemble d’applications qui participe de cette approche de

l’interactivité et qui, pour autant, commence à être accessible à partir d’un ordinateur

standard89. A ce titre, l’offre en produit multimédia propose de nombreuses réalisations où il

est question de visite virtuelle de sites archéologiques reconstitués.

3.3.1. Les visites virtuellesDans bon nombre de cédéroms culturels à destination du grand public, les visites

interactives en 3D constituent à elles seules un argument d’achat du logiciel90. L’engouement

existant autour de la 3D et des visites virtuelles est parfois exploité à l’excès par les

développeurs de multimédia, tant et si bien que le produit, en lui-même, ne présente pas

toujours de réel intérêt, du moins en ce qui concerne la qualité des informations

notre mode d’accès à la réalité, en permettant, par exemple, des déplacements plus intuitifs dans les troisdimensions. Pour plus de détail sur ce sujet, cf. CADOZ (C.), Les Réalités Virtuelles, Paris, Flammarion, 1994,coll. « Dominos », 128 p.86 Cf. CAMPAGNOLLE (L.), « Du vestige au virtuel : Cluny », Pixel, n°18, p.55.87 Cf. FORTE (M.), « Un esperimento di visualizzazione scientifica per l’archeologia del paesaggio : lanavigazione nel paesaggio virtuale » in Archeologia & Calcolatore, n°4, 1993, p.137-152.88 Cf. idem, p.150. Archeologia, Eidologia informatica e Visualizzazione Scientifica est un projet de recherchemené en collaboration avec le laboratoire de Visualisation Scientifique du CINECA.89 Par standard, nous entendons tout ordinateur disponible sur le marché des particuliers en 1998-99, à savoir,pour le parc PC, les ordinateurs équipés de Pentium II ou équivalent, et disposant en moyenne de 32 Mo demémoire vive (Random Access Memory), et tout ordinateur équivalent de type Macintosh.

62

archéologiques qu’il propose. Il en résulte que les visites virtuelles, lorsqu’elles ne sont pas

accompagnées d’une réelle volonté de présenter et de rendre compte d’un discours de

vulgarisation scientifique rigoureux, ne sont généralement que des prétextes pour inscrire un

produit dans une logique commerciale. Néanmoins, il s’agit d’étudier de quelle manière ces

voyages virtuels peuvent être des portes d’entrée dans l’archéologie.

3.3.1.1. La navigation dans les mondes virtuelsJusqu’à aujourd’hui, la principale utilisation de l’interactivité dans un environnement

tridimensionnel se cantonne à la navigation à l’intérieur du site virtuel, sans réelle possibilité

d’agir sur l’environnement. En fait de navigation tridimensionnelle, les ordinateurs actuels,

pour des raisons techniques, commencent à peine à proposer des déplacements dans des

univers réellement tridimensionnels : la difficulté de faire calculer, en temps réel, des scènes

en 3D, limite les applications à quelques expériences, qu’il ne nous a pas été possible

d’étudier en tant que produit fini. C’est pourquoi d’autres solutions ont été adoptées pour

contourner le problème et pour rendre viables les visites virtuelles sur les ordinateurs

communs. Il existe par conséquent deux types de produits : ceux qui proposent de véritables

déplacements dans les univers 3D, encore à l’état d’ébauche, du moins pour les produits

concernant l’archéologie, et ceux qui les simulent et qui sont couramment utilisés dans la

production de cédéroms culturels et d’œuvres interactives.

3.3.1.1.1. Un langage de description de scènes en 3D :l’exemple du VRML

Le VRML (Virtual Reality Modeling – ou Markup – Language) est un langage91

spécialement créé pour définir des univers virtuels en 3D sur le World Wide Web. Il s’agit en

fait d’un langage de description de scène en 3D qui permet d’afficher, en temps réel, la

projection bidimensionnelle d’un modèle tridimensionnel dans lequel on peut se déplacer et

activer des liens menant vers d’autres documents (vers des textes, des images, des sites web

90 Pour s’en convaincre, il suffit d’observer le « packaging » de ces cédéroms : bon nombre d’entre eux possèdentdes vignettes, des labels pour signaler la présence de visites virtuelles en 3D à l’intérieur du produit.91 Ce langage, présenté officiellement à la première conférence internationale sur le World Wide Web en 1994, aété conçu par des passionnés d’informatique pour répondre au manque de « palpabilité » de l’interface del’Internet de la fin des années 1990. Le VRML était donc, à la base, un langage de description d’interface en 3Dpour les réseaux. Depuis, il a été adopté comme standard dans la description de scène 3D pour le web, et laplupart des acteurs dans le domaine de la 3D s’y intéressent et apportent leur contribution. A titre indicatif, lesfichiers VRML sont de simples fichiers de texte Ascii comportant l’extension *.wrl (Pour les lire en tant quescènes en 3D, il faut bien évidemment disposer du lecteur (player) approprié). Pour plus de précisions sur leVRML, cf. GILLINGS (M.) & GOODRICK (G. T.), « Sensuous and reflexive GIS : exploring visualisation and

63

ou toute autre scène 3D). Pour garantir une certaine fluidité dans les déplacements, les effets

« skiagraphiques » sont limités au minimum : les objets composant la scène sont exprimés par

une méthode de rendu relativement économique en temps de calcul, qui peut aller de la

représentation filaire à la représentation texturée et ombrée, mais qui ne rendra pas un haut

niveau de détail92.

Néanmoins, les possibilités d’un tel langage sont édifiantes : la liberté de navigation

dans la scène est totale, puisqu’il est donc possible d’observer le monument sous tous les

angles et d’en visiter tous les recoins (voir les fig. 27 et 29 de la planche X). Le site web de la

société Learning Sites93 propose de se rendre dans la salle du trône du palais d’Ashur-nasi-Pal

II (Assyrie) et d’en observer les fameux bas-reliefs et les taureaux ailés, regroupés « in situ »

pour l’occasion. Le même site web propose également la visite de la maison hellénistique de

Vari (Attique), montrant d’abord une scène virtuelle décrivant le site tel que découvert, puis

sa restitution. Certains hyperliens sont disséminés dans la scène et mènent à des

développements thématiques qui sont affichés dans une autre fenêtre. Ainsi, la visite est un

support pour accéder à des informations de natures différentes : les développements

contiennent du texte présentant un historique du site, des dessins, avec les plans simplifiés des

vestiges, et des commentaires sur les actions de l’utilisateur. Un clic de la souris sur un objet

sensible, comme une ruche ou une céramique, active une autre fenêtre où il est possible de le

manipuler et de l’observer sous tous les angles94.

3.3.1.1.2. La simulation de la navigation tridimensionnellepar anamorphose sphérique : le QTVR

Le QTVR (Quick Time Virtual Reality) est un format de fichier dérivant d’un format

standard dans l’animation, le Quick Time, développé par Apple et fonctionnant sur les

ordinateurs Macintosh et PC. Ce standard, également prévu pour fonctionner sur les sites web,

permet à l’utilisateur de déplacer son champ de vision sur les trois axes et sur 360°. En fait, la

VRML », Internet Archaeology, n°1, 1996, à l’URL=http://intarch.ac.uk/journal/issue1/gillings/index.html(consulté le 17/05/99) ou COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.423-446.92 Il est à noter que la technologie logicielle dédiée aux sites web évolue très rapidement : de nouveaux formatsde description tridimensionnelle apparaissent et tentent de s’imposer face au VRML, qui est lui même destiné àévoluer. Ainsi, la qualité et les performances de ces formats tendent à s’améliorer, mais le standard actuel estparticulièrement significatif de ce que les moteurs de description tridimensionnelle à venir sont susceptiblesd’apporter.93 Learning Sites Inc est une société spécialisée dans les reconstitutions archéologiques en 3D. Son site web estconsultable à l’URL=http://www.learningsites.com/. Il est à noter que ce site a été récemment mis à jour, etcertaines des applications décrites plus haut n’ont pas été conservées dans cette nouvelle version site (le site a étévisité le 4/10/99 et dispose d’une mise à jour depuis Mars 1999).94 Voir ci dessous 3.3.2 La manipulation d’objets, p.68

64

visite virtuelle ne se fait pas à l’intérieur d’un monde en 3D mais plutôt à l’intérieur d’une

image dépassant largement du champ de vision délimité par l’écran. Cette image est un

panoramique d’une scène en 3D : l’effet simule la rotation du spectateur sur lui-même, qui

voit défiler l’image en 3D en même temps que son mouvement.

Pour permettre un panoramique vertical, c’est-à-dire de bas en haut, l’image de

synthèse a été calculée de manière à pouvoir être plaquée à l’intérieur d’une sphère (voir les

fig. 30 à 32, planche XI), c’est le principe d’anamorphose sphérique95. L’ensemble du site

virtuel dispose de plusieurs panoramiques de ce type : la navigation se fait en activant les liens

présents dans chacun d’entre eux, l’utilisateur peut ainsi progresser à sa guise et visiter le site

comme bon lui semble.

Ainsi, le site web le Plan de Rome96 propose notamment une visite du forum boarium,

dans lequel l’utilisateur peut évoluer selon les points de vue prédéfinis. En fait, les différents

panoramiques ont été judicieusement placés suivant ce que les concepteurs cherchaient à

montrer : un premier point de vue, placé au centre du forum, dispose de plusieurs zones

sensibles97 dans toutes les directions. Au choix, l’utilisateur peut se diriger vers le temple de

Portunus, puis rentrer dans la cella, se rendre dans le quartier des entrepôts ou bien encore

visiter le temple d’Hercule.

La principale limite de ce type de navigation tient au fait que les liens vers les autres

points de vue sont déjà définis par le concepteur : il n’est pas possible d’emprunter un chemin

inédit, la liberté de mouvement étant par conséquent fortement limitée et dépend entièrement

du nombre de panoramiques et de liens prévus par le concepteur. Par exemple, il n’est pas

possible de pénétrer à l’intérieur des entrepôts : l’utilisateur peut simplement déambuler entre

les différents bâtiments. En outre, une autre limite de ce type de navigation réside dans

l’impossibilité de tourner autour d’un objet, d’étudier un édifice sous tous ces angles : le

spectateur est en quelque sorte le centre de chaque panoramique, et il lui est impossible de se

déplacer autrement qu’en passant de panoramique en panoramique ; il en résulte que le

95 Le fichier graphique résultant du calcul de l’image est obligatoirement de forme rectangulaire. Pour pouvoirêtre plaqué sur toute la surface interne de la sphère, et pour éviter les effets de distorsion, l’image a été calculéeen coordonnées rectangulaires de manière à ce qu’elle forme une images lisible en coordonnées polaires (c’est-à-dire, une fois plaquée sur la sphère).96 Le site web Plan de Rome fait partie du domaine de l’université de Caen. Il se trouve àl’URL=http://www.unicaen.fr/rome/index.html et a été consulté le 26/03/1999. Il a été réalisé par le Pôlepluridisciplinaire « Ville – Architecture, Urbanisme et Image Virtuelle » de la Maison de la Recherche enSciences Humaines de Caen.

65

spectateur est tributaire du nombre et de l’emplacement des panoramiques : parfois, un édifice

n’est visible que d’un seul panoramique, le reste de la construction étant perdu.

Néanmoins, l’avantage principal de la navigation de type QTVR tient à la qualité des

images, qui, alliées à la fluidité de défilement des panoramiques, confère à la visite virtuelle

beaucoup de vraisemblance : cet aspect n’est pas à négliger lorsqu’il s’agit de proposer au

grand public des visites de sites archéologiques « comme si on y était », accessibles à tous via

Internet ou les cédéroms. Ainsi, par le biais de cette « simili » réalité virtuelle, le public

désirant avoir une idée de l’aspect des sites archéologiques a désormais l’opportunité de

partager et de bénéficier des connaissances des spécialistes (archéologues, architectes...) grâce

à une interface plus intuitive qui se calque, d’une certaine façon, sur notre expérience directe

du réel : le champ de vision, mobile sur les trois axes et sur 360°, permet de simuler notre

mode d’accès à la réalité par la vision, à la fois par la limitation de notre champ visuel (large

d’environ 40°) et par notre perception dynamique de l’environnement (la relative étroitesse de

notre champ visuel ne nous permet pas d’embrasser du regard l’ensemble de l’environnement

qui se présente à nous. Aussi, notre perception de la réalité ne s’établit pas instantanément à la

manière d’un appareil photographique mais se fonde sur un « balayage » dynamique de

l’environnement que notre cerveau reconstruit par la suite98.

3.3.1.2. La 3D : une interface pour la connaissance

3.3.1.2.1. L’accès à la documentation

Les images de synthèse sont d’autant plus utiles lorsqu’elles sont accompagnées

d’informations complémentaires, cela vaut aussi bien pour les images fixes que pour les

voyages interactifs. En fait, la navigation à l’intérieur d’un site, du moins dans le cas des

produits multimédias, sert d’interface pour accéder à tout un appareil documentaire portant sur

le sujet même de la restitution, voire sur des développements thématiques autour des

civilisations qui occupèrent le site. Ainsi, l’utilisation d’hyperliens dans les environnements

virtuels permet de chaîner des informations de nature différentes : un clic de souris sur un

objet du site virtuel peut activer une fenêtre contenant des informations relatives à cet objet ; il

peut très bien s’agir d’une photographie, d’une séquence vidéo ou d’un commentaire, écrit ou

parlé. Cette fonction se retrouve généralement dans les produits « institutionnels » à grande

97 Zones sensibles (hot spot en anglais) : parties de l’image indiquant, par le changement du curseur de la souris,qu’il est possible d’activer une fonction (déplacement vers un autre point de vue, interrogation d’un objet...).98 Cf. CADOZ (C.), Les Réalités Virtuelles, Paris, Flammarion, 1994, coll. « Dominos », p. 22.

66

diffusion, tels ceux développés par la Réunion des Musées Nationaux99 ou bien encore ceux

créés en collaboration avec des personnalités du monde scientifique.

A ce titre, le cédérom Ramsès II100 comporte des séquences pendant lesquelles

l’utilisateur peut visiter les tombes de la vallée des Rois, reconstituées pour l’occasion en

images 3D. Les peintures pariétales, plaquées sur le modèle numérique de ces tombes, ne

présentent pas toujours un fort niveau de détail en raison des contraintes techniques inhérentes

au mode de consultation, mais renferment néanmoins des liens vers des photos réelles prises

dans les meilleures conditions. L’affichage de ces photographies, instantané, est d’un véritable

intérêt : l’évolution dans le monde reconstitué permet une découverte des lieux plus intuitive,

augmentée, lorsque c’est nécessaire, d’un ensemble documentaire complétant les lacunes de la

représentation tridimensionnelle. La « surcouche » d’informations contenue dans la fenêtre de

la photographie peut également délivrer du texte, des commentaires renseignant sur

l’iconographie, sur la chronologie ou sur toute autre remarque concernant le vestige. Le

visiteur possède ainsi beaucoup plus d’informations que s’il se contentait d’une expérience

réelle du site, qui impliquerait, s’il désire accéder à un même niveau d’information, un plus

important investissement en terme de temps pour récolter et synthétiser toutes ces

informations101.

3.3.1.2.2. L’approche ludique : une archéologie « vivante »

L’interactivité suit un développement parallèle à celui des jeux sur ordinateurs. C’est

d’ailleurs cette spécificité de l’informatique qui à fait le succès de ces derniers. En effet, le jeu

touche un public de plus en plus large, séduisant plusieurs générations de jeunes depuis

l’invention de Pong au début des années 1970, et n’est pas un simple phénomène de classe

d’âge puisque nombre d’adultes qui ont vu naître la première génération de jeux vidéos sont

encore des joueurs actifs.

L’intérêt des jeux et leur succès auprès d’une grande partie de la population n’ont pas

échappé aux éditeurs multimédias, qui en ont fait un prétexte particulièrement intéressant pour

développer des produits culturels à caractère ludique : les « ludo-culturels ».

99 Egypte, 1156 av. J.-C., l’énigme de la tombe royale, Réunion des Musées Nationaux, Canal + Multimédia,Cryo Interactive Entertainment, 1997, France100 Ramsès II, Syrinx, 1998, France.101 Ce qui reviendrait à faire un travail déjà réalisé par les spécialistes.

67

En fait, comme nous l’avons vu plus haut, l’interactivité permet à l’utilisateur de

s’approprier, de son propre chef, les connaissances qu’il désire, en visitant les sites suivant la

liberté qui lui a été impartie par les concepteurs du produit. L’introduction d’une logique

ludique lui enjoint d’utiliser à bon escient les connaissances acquises : dans le jeu « l’Enigme

de la tombe royale »102, le joueur, pour progresser, doit résoudre de nombreuses énigmes en

s’aidant de l’ensemble des connaissances disponibles dans le produit. Le contrôle des

connaissances s’effectue alors dans l’univers virtuel en 3D, en répondant, par exemple, aux

questions posées par un personnage du jeu. Les personnages, recrées en 3D103 ou joués par des

acteurs104 et construits à partir des connaissances acquises par les scientifiques, sont une des

particularités de ce type de produits : à travers leurs comportements et leurs actes, le joueur

accède à l’environnement et aux us et coutumes des anciennes civilisations (par exemple, les

rites funéraires de l’Egypte du XIIème siècle av. J.-C. pour la coproduction de la RMN, ou

bien encore les activités artisanales des Vikings pour le cédérom d’Index+105).

Par conséquent, l’interactivité ludique de ce type de production permet de toucher et de

sensibiliser un large public, souvent jeune, à l’héritage culturel construit chaque jour par les

chercheurs : nous sommes ici face à un exemple réussi de transfert des connaissances

archéologiques vers le public, par l’utilisation combinée de l’interactivité et des images de

synthèse.

3.3.1.2.3. La recontextualisation des vestiges : ladécouverte d’une archéologie « matérielle »

Plus spécifiquement, l’interface « 3D » peut servir à présenter, dans un même

document, l’ensemble des données recueillies par les archéologues à propos d’un site. En

effet, le grand public est souvent confronté à une dispersion des vestiges appartenant à un

même site : la pratique muséale a sorti de leur contexte les vestiges mobiliers (objets) en les

conservant dans des dépôts ou derrière les vitrines des musées, rompant de fait la relation

existant entre le site archéologique même et le mobilier qu’il contenait. Cette séparation opère

aussi bien à un niveau local (en France, le mobilier archéologique est souvent exposé dans le

102 Cf. note 99.103 Les personnages de ce cédérom parlent avec le joueur grâce à une technologie spécialement développée parl’équipe technique (l’entreprise Cryo, co-productrice du projet) pour simuler le mouvement des lèvres (Omnisync).104 Comme c’est le cas dans le cédérom Vikings (Vikings, Index +, France Télécom Multimédia, 1998, France)où les acteurs jouant les personnages sont filmés sur fond bleu ou verts et réincrustés dans des décors en imagesde synthèse.105 Vikings, Index +, France Télécom Multimédia, 1998, France.

68

musée le plus proche du site) qu’à un niveau international : l’exemple des vestiges égyptiens

conservés dans les plus prestigieux musées du monde (British Museum, Le Louvre, New

York) l’atteste sans conteste.

Par conséquent, le regroupement des différents vestiges archéologiques dans un même

lieu virtuel constitue une alternative à leur dispersion géographique. Cette possibilité a été très

vite perçue par les archéologues sensibles à la diffusion de leurs connaissances. A ce titre, le

web constitue le vecteur idéal pour rendre possible la visite de sites archéologiques par le

grand public. Le site Ceren Web Ressource106 en est un exemple : les habitations ont été

reconstituées avec l’ensemble du mobilier découvert en fouille. En se déplaçant suivant les

principes du QTVR, l’internaute peut cliquer sur les différents objets pour accéder aux

informations précisant leur nature, leurs dimensions, leur code d’inventaire, parfois

accompagnés d’une photographie (voir fig. 33, planche XII). Ces principes de consultation

permettent de familiariser le grand public à une démarche archéologique plus moderne, à

savoir l’étude des populations passées par leurs vestiges matériels, quelle que soit leur nature,

et non plus seulement par la visite de leurs lieux exceptionnels, qui ne restituent qu’une partie

des connaissances disponibles sur elles.

3.3.2. La manipulation d’objetsCette réorientation de l’attention, qui passe des sites même vers les vestiges mobiliers,

exploite une autre application de la réalité virtuelle : cette fois, il ne s’agit plus de s’immerger

dans un site en 3D, mais plutôt de le manipuler comme s’il s’agissait d’un objet. Car, nous

l’avons vu, les modèles numériques, qu’ils représentent un objet ou un site entier, n’ont pas de

masse physique. Il est par conséquent facile de se saisir d’un objet virtuel, quelque il soit, et

de lui faire subir tous les mouvements que l’on fait généralement subir aux objets dont on peut

se saisir dans la réalité, que ce soit au niveau de leur forme, de leurs couleurs, de leurs détails

etc.…

Pour ce genre d’opération, il existe deux types de procédés que nous avons déjà

évoqués : le VRML et le QTVR. Le premier offre un fonctionnement similaire à celui que

106 Le site Ceren Web Resource fait partie du domaine de l’université du Colorado et se trouve àl’URL=http://ucsub.colorado.edu/~lewin/Home.htmlLe site archéologique de Ceren, découvert en 1976 au Salvador, est un village mésoaméricainexceptionnellement conservé par un enfouissement sous des couches de cendres suite à une éruption volcanique(le site est d’ailleurs surnommé « la Pompéi du Nouveau Monde). Il a donné lieu à la création d’un site web parla collaboration du département d’anthropologie et du « College of Architecture and Planning » de l’Universitédu Colorado.

69

nous avions décrit pour la navigation à l’intérieur des sites. Cette fois, la liberté est limitée à

un seul objet, qui devient en quelque sorte de centre du monde virtuel : le site web Learning

Sites107 utilise le langage VRML pour présenter deux exemples de vestiges archéologiques

manipulables on-line. Il s’agit de deux céramiques trouvées sur le site de Nemrud Dagi

(Turquie), qui ont d’abord été modélisées puis texturées à partir de nombreuses

photographies. Retranscrites ensuite en langage VRML, il est désormais possible de les faire

tourner sur elles-mêmes, ce qui est d’un grand intérêt pour rendre compte de l’intégralité de

l’objet sans passer par la consultation de multiples photographies ne présentant pas de

solution de continuité entre elles. Ici, le vase virtuel est observable sous tous les angles, par

des rotations horizontales, verticales : s’il le désire, l’utilisateur peut pénétrer à l’intérieur du

vase pour en étudier les détails et les agrandissements sont également possibles (voir fig. 34 à

38, planche XIII). La principale contrainte induite par cette description d’objet en 3D

concerne le nombre considérable de calcul que l’ordinateur doit réaliser pour gérer et afficher

les informations tridimensionnelles. Il en résulte que, pour alléger les temps de calcul, il est

parfois nécessaire de réduire la qualité graphique des images, tant au niveau de la finesse du

modèle qu’au niveau de la résolution des textures, ce qui affecte beaucoup les possibilités de

lecture des informations portées sur le modèle 3D (les détails s’en ressentent).

Ainsi, il existe une alternative à ces inconvénients en utilisant une autre possibilité du

QTVR. Outre les panoramas, le QTVR peut gérer la manipulation d’objets sous forme

d’images de synthèse précalculées : en fait, la manipulation ne porte pas sur l’objet

directement, mais sur un certain nombre d’images prises sous des angles différents. Suivant la

position du curseur de la souris, et suite à un clic, le logiciel réagit en affichant l’image

correspondant au point de vue. Par exemple, il est possible de tourner ou de faire tourner sur

elle-même une frise pour en suivre le motif sur tout le périmètre (voir fig. 39, planche XIV).

Bien entendu, la vraisemblance de la rotation autour de l’objet dépend du nombre d’images

inclues dans le document : tout dépend du concepteur de la séquence interactive.

L’infographie dispose ainsi d’un ensemble de solutions pour donner forme aux

informations archéologiques afin de les rendre davantage accessibles au plus grand nombre.

Outre les images fixes qui ne renouvèlent pas de manière radicale l’apport des documents

visuels en archéologie, l’introduction des animations et des séquences interactives permet

d’offrir de nouvelles possibilité d’accès à la connaissance archéologique : nous avons vu que

107 Cf. note 93.

70

les animations pouvaient, d’une certaine manière, dispenser avec efficacité un discours

résumant l’état des connaissances sur un sujet archéologique, avec cependant tous les risques

que ce genre de raccourcis comporte. Parallèlement, le développement de l’interactivité offre

désormais de nouveaux usages dans l’accès à la connaissance, puisque c’est dorénavant le

destinataire de l’information qui fait lui-même l’expérience des données archéologiques : en

effet, nous avons vu qu’il lui est possible, à partir d’un site archéologique reconstitué en 3D,

d’accéder à une partie de la documentation et de s’initier à une pratique de l’archéologie

scientifique. Cependant, l’ensemble de ces documents, bien qu’ayant été produit par ou en

collaboration avec des archéologues, est incontestablement tourné vers le public et ne doit pas

faire oublier que parallèlement, il existe un ensemble de traitements rendus possibles par

l’archéologie et qui sont plus particulièrement destiné aux archéologues.

71

4. Les images de synthèse comme auxiliaires de la recherchearchéologique

4.1. De nombreuses possibilités de traitement de l’information

4.1.1. Vers une connaissance globale en l’archéologieLes modèles numériques sont des fichiers informatiques pouvant contenir une quantité

considérable d’informations. Ces informations, en premier lieu, décrivent la géométrie des

objets contenus dans une scène, en définissant les formes à partir de leurs propriétés formelles

qui sont exprimées par des coordonnées tridimensionnelles. Ces coordonnées

tridimensionnelles permettent donc de renseigner sur la forme et l’emplacement de chaque

objet dans l’univers tridimensionnel du modèle numérique. Dans les parties précédentes, nous

avons vu que les objets virtuels peuvent être exprimés par un ensemble de relations existant

entre des points (x, y, z) rejoint entre eux par des lignes et formant des surfaces, qui

assemblées entre elles, constituent la forme d’un objet. Chaque objet est ainsi défini par ces

relations ou par des propriétés intrinsèques108. L’ensemble de ces objets constitue le modèle

numérique. La précision et la finesse du modèle numérique dépendent intégralement de la

quantité d’informations tridimensionnelles présentes dans le fichier informatique. Par

conséquent, la seule limite des modèles numériques réside dans la possibilité de stocker et de

gérer des quantités plus ou moins grandes d’informations, et cette limite est intimement liée

aux performances des ordinateurs actuels. Il s’ensuit que la précision du modèle numérique est

conditionnée par le projet qui sous tend sa création : tout dépend de ce que recherchent les

concepteurs en fonction des moyens matériels et logiciels dont ils disposent.

Si on excepte ces limites technologiques, les modèles numériques sont potentiellement

capables de synthétiser une grande partie de notre réalité tridimensionnelle, ou du moins d’en

fournir une synthèse plus ou moins fine. Bien évidemment, il ne sera jamais possible de

reproduire l’intégralité de la réalité, car cette synthèse du réel repose toujours sur un nombre

fini d’informations, alors que notre réalité est fondamentalement infinie109. Néanmoins, la

possibilité de réduire un certain nombre d’informations tridimensionnelles sur les supports

108 Cf. 2.2.2.2 La modélisation volumique : la sculpture virtuelle, p.36.109 Il s’agit ici du phénomène de discrétisation : pour pouvoir conserver ou reproduire n’importe quel signalvenant de la réalité (un son, un environnement visuel), l’ordinateur doit réduire une infinité de valeursconsécutives (le signal continu) en un nombre fini d’informations. Par conséquent, quel que soit le degré definesse de l’enregistrement, le signal conservé et reproduit par l’ordinateur ne sera jamais exactement conforme

72

informatiques présente un réel intérêt dans l’archéologie : cette synthèse de la réalité n’est pas

limitée par la dimension des objets à reproduire, car, comme nous l’avons vu dans la partie

précédente, l’infographie permet de recréer n’importe quel type de vestige, qu’il s’agisse d’un

ensemble monumental ou d’un tesson de céramique. Cette absence de limite favorise de

nouvelles approches dans la recherche archéologique : bien plus qu’un ensemble monumental,

les modèles numériques permettent d’étendre le champ de la recherche archéologique où sont

prises en compte des études aussi bien d’envergures régionales que d’extensions locales.

4.1.1.1. La prise en compte de l’environnement et de latopographie

L’archéologie, depuis quelques années, commence à bénéficier des méthodes de

recherche élaborées par les sciences de la Terre (géologie, pédologie, tectonique,

vulcanologie) et par les sciences géographiques (océanographie, météorologie, topographie,

géographie physique). Ces disciplines, notamment les sciences géographiques, ont un usage

courant des nouvelles technologies comme outil de recherche. Cela s’explique par les

répercussions immédiates de ces recherches dans notre quotidien110, dont les résultats

justifient de tels moyens : en effet, elles ont recours aux images satellitales, aux couvertures

photographiques aériennes, aux opérations de télédétection et de photo-interprétation, à la

cartographie par stéréophotogrammétrie, le tout nécessitant un usage omniprésent de

l’informatique. Tous ces outils ont bien évidemment un coût et requièrent des compétences

particulières, ce qui constitue un facteur expliquant la rareté de leur utilisation en

archéologie111. Néanmoins, l’usage de tels outils a ouvert de nouvelles perspectives en

archéologie : jusqu’alors limitée à l’étude ponctuelle de sites signalés par des vestiges (des

constructions ou du mobilier), l’archéologie, grâce à la multiplication des prospections

aériennes et à la mise à disposition des archéologues d’outils permettant d’avoir des

connaissances sur l’ensemble d’un territoire, s’est intéressée davantage aux relations existant

entre les sites et au rôle joué par l’environnement dans leur implantation.

au signal original. Pour plus de précision sur la discrétisation cf. CADOZ (C.), Les Réalités Virtuelles, Paris,Flammarion, 1994, coll. « Dominos », 128 p.110 Rappelons que de telles études ont des applications directes et concrètes pour la collectivité, que cela soit pourl’aménagement du territoire, la prévision des risques naturels directs ou indirects (inondations, feux de forêt,éruptions volcaniques, séismes…), ou bien encore l’étude du climat. Pour un exposé plus détaillé de cesapplications, cf. les articles publiés dans Observation de la Terre & Environnement, N°5, février 1999, 31 p., àl’occasion du premier forum sur la gestion des risques (GERI 1999) qui a eu lieu le 3 février 1999 à Sophia-Antipolis.111 Pour une étude de ces outils appliqués à l’archéologie, cf. Les Nouvelles de l’archéologie, n°74, hiver 98,éditions Errance, pp.5-52

73

Cette prise en compte de l’environnement s’accompagne de la nécessité, pour les

archéologues, d’appréhender avec plus d’efficacité et de simplicité leur rapport au paysage

dans lequel sont inscrits les sites. Dans cette optique, une utilisation relativement ancienne des

modèles numériques s’avère véritablement intéressante : il s’agit des modèles numériques de

terrain.

4.1.1.1.1. la représentation tridimensionnelle de latopographie

Les MNT (Modèles Numériques de Terrain) sont apparus à partir de la fin des années

1950112, sous les acronymes DTM (Digital Terrain Model) ou DEM (Digital Elevation

Model). A l’origine, ils permettaient de recréer des reliefs en trois dimensions à partir d’une

quantité finie de points exprimés par le triplet de coordonnées (x, y, z). Pour récréer des reliefs

d’après la réalité, il suffisait donc d’entrer dans le fichier numérique les coordonnées des

points saisis sur le terrain soit à partir d’instruments de mesure tridimensionnelle comme les

théodolites, soit à partir des restitutions photogrammétriques issues des photographies

aériennes du terrain à numériser113. La finesse et le degré de conformité du MNT par rapport

au relief réel dépend bien évidemment de la quantité de points saisis ; néanmoins, pour donner

au MNT l’aspect général du relief sans pour autant nécessiter la mesure d’un trop grand

nombre de points, des algorithmes permettent de combler les vides laissés entre chaque

mesure en interpolant la forme du relief à partir des données avoisinantes et réellement

mesurées. Il résulte de ce genre de procédé une image plus ou moins fidèle de l’original,

présentée sous la forme d’un réseau de facettes triangulaires assis sur les véritables

coordonnées du terrain.

4.1.1.1.2. l’observation du paysage

L’intérêt direct des MNT dans l’archéologie réside dans une appropriation plus

intuitive de la topographie d’une région : les reliefs peuvent être représentés comme des

maquettes qu’il est possible de faire tourner, de manipuler. En choisissant n’importe quel

point de vue extérieur à la maquette, l’archéologue peut, par exemple, mieux apprécier

l’installation d’un site par rapport au relief. Au début de l’application des MNT à

l’archéologie, les sites archéologiques pouvaient être signalés à l’intérieur du modèle

112 cf. HARRIS (T.), « Digital terrain modelling and three-dimensional surface graphics for landscape and siteanalysis in archaeology and regional planning » in Computer and quantitative methods in archaeology 1987, éd.par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.161-170.113 Nous détaillerons les modalités d’acquisition des données tridimensionnelles dans une autre partie. Cf. renvoi.

74

numérique par la coloration des facettes composant la surface du terrain numérique, car

chacune d’entre elles, représentant une surface dans la réalité, peut contenir un ou plusieurs

sites. Ainsi, Trevor Harris, dans son article (cf. note 112, p. 73) traitant des apports de ces

modèles numériques à l’archéologie, se fait l’écho d’une expérience menée dans le cadre du

projet de système d’information archéologique de Brighton (Grande Bretagne)114, où toutes

les facettes contenant des sites archéologiques se sont vues attribuées des couleurs différentes

suivant la période d’activité des sites. Sur une superficie relativement étendue (l’auteur ne

précise pas la superficie de l’échantillon étudié, mais le relief et le nombre de sites inclus dans

l’étude attestent d’une extension relativement importante), il est possible de faire apparaître

les sites contemporains et de voir de quelle façon ils se sont répartis et comment ils se

situaient les uns par rapport aux autres115, ou bien encore de comprendre leur implantation en

fonction du couvert végétal, de la nature des sols ou de l’exposition au soleil (ces informations

pouvant également être codées en couleur).

Aujourd’hui, grâce aux progrès réalisés dans la gestion et l’affichage des données, il

est possible de superposer une quantité considérable d’informations sur un MNT, qui devient

en quelque sorte la structure sur laquelle viennent se déposer les couches d’informations. Le

chercheur italien Maurizio Forte utilise couramment les MNT dans ses recherches sur la

navigation virtuelle à l’intérieur des paysages archéologiques : un échantillon de 13 km²

entourant la ville étrusque de Marzabotto, dans la vallée du Reno (Italie)116 a fait l’objet d’une

modélisation réalisée à partir des courbes de niveaux, sur laquelle sont venues se plaquer des

photographies aériennes et des images satellitales dont le but était de reproduire l’aspect du

paysage. Enfin, par-dessus la texture ont été déposées des données géographiques gérées par

un Système d’Information Géographique. Au total, l’ensemble du modèle a été calculé en 3D

sur des machines puissantes117 de manière à permettre une visite interactive du paysage, ce qui

aurait permis, aux dires de M. Forte, de préciser la dynamique du paysage, en soulignant, par

exemple, le rôle du Reno comme agent d’érosion de plusieurs hectares de terrain sur lesquels

devaient se trouver plus de la moitié de la cité étrusque118.

114 L’auteur ne donne pas davantage de précisions sur la nature de ce projet.115 Notamment en vérifiant l’existence de relation d’intervisibilité entre ces sites, ce qui fut effectué enpositionnant, dans le MNT, la caméra virtuelle sur un site précis et en la faisant pointer en direction d’un autre.116 Cf. FORTE (M.), « Un esperimento di visualizzazione scientifica per l’archeologia del paesaggio : lanavigazione nel paesaggio virtuale » in Archeologia & Calcolatore, n°4, 1993, p.141-150.117 Le CINECA (cf. note , p. ) a mis à la disposition de M. Forte un supercalculateur CRAY ainsi que des stationsgraphiques Silicon Graphics pour réaliser les calculs les plus complexes cf. idem, pp.140-141.118 Cf. idem, p.149-150.

75

4.1.1.1.3. la reconstruction du paysage archéologique

Ce dernier exemple préfigure d’autres applications utiles à l’archéologue. Grâce aux

connaissances acquises par les sciences de la Terre lors de l’observation du paysage actuel, il

est possible, dans une certaine mesure, de restaurer le paysage archéologique dans un MNT.

La première utilisation, du moins la plus simple à mettre en œuvre, permet de simuler le

niveau de la mer à différentes époques : il suffit simplement de créer un plan horizontal et de

le disposer à la hauteur voulue. Cette première application a des répercussions directes dans

une recherche archéologique : elle permet en effet de mettre en évidence l’ensemble des terres

émergées à un certain moment, ce qui présente un réel intérêt lorsqu’il s’agit de déterminer les

choix et les possibilités d’implantation qu’avaient les populations à différentes époques ainsi

que l’extension de leur réseau de communications et de leur rapport aux autres sites suivant

les possibilités de déplacement à l’intérieur d’un environnement119.

Parfois, d’autres données sur le paysage antique sont disponibles et peuvent être

reconstruites à partir du paysage actuel. Ainsi, une équipe de chercheurs de l’Université de

Pennsylvanie120 a pu, sous l’autorité de l’Ecole américaine d’études classiques d’Athènes121,

créer un MNT de la Corinthe romaine et de ses environs à partir du paysage actuel (environ 35

km² recréés à partir de cartes topographiques fournies par le « Greek Geodetic Survey », de

photographies aériennes et spatiales et de saisies sur le terrain122). Cependant, la principale

limite de ce premier MNT tient au fait qu’il reproduit, à proximité du site de la colonie

romaine, un tertre artificiel de plus de 200 m de long et de 15 m de hauteur, créé par les

remblais dus aux activités de fouilles123 (les dimensions de ce tertre s’expliquent par le fait

que l’Ecole américaine d’Athènes bénéficie depuis 1896 d’une concession de fouille à

Corinthe124). Grâce à la nature informatique des informations contenues dans le MNT, il a été

très facile de remédier à ce problème en faisant disparaître le tertre : pour chaque point connu,

119 Ainsi, une montée ou une baisse du niveau de la mer peut conditionner le rapprochement ou l’éloignement dedeux populations géographiquement proches l’une de l’autre. Un autre exemple prouvant l’importance du niveaude la mer dans l’étude des populations passées se trouve dans l’explication des déplacements humains lors despériodes de glaciation, et sur lequel se fonde une des théories de la « colonisation » du continent américain par ledétroit de Behring, alors émergé.120 Cf. ROMANO (D. G.) & TOLBA (O.), « Remote sensing, GIS and electronic surveying : reconstructing the cityplan and landscape of Roman Corinth » in Computer applications and quantitative methods in archaeology1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, Tempus Reparatum, 1995, p.163-174.121 American School of Classical Studies at Athens122 Cf. idem, p.172. En vérité, plusieurs MNT ont été générés pour gérer au mieux le rapport superficiecouverte / précision demandée. Ainsi, le MNT général couvre 35 km² mais est réalisé avec une précision faible(la grille est composée de carreaux de 20 m²), tandis que les MNT couvrant une superficie moins importante sontconçus avec une grille dont les carreaux font 5 m².123 Cf. idem, p.172

76

il a suffit de réduire l’altitude d’autant de mètre que nécessaire. Le MNT obtenu permet ainsi,

dans une certaine mesure, de rendre compte de l’environnement de la cité tel qu’il pouvait être

en fonction des connaissances disponibles à l’heure actuelle.

4.1.1.1.4. la prospection virtuelle

Le développement de la prospection aérienne a permis de mettre en évidence le rôle

conservateur du relief : dans une certaine mesure, celui-ci garde en lui les traces des activités

humaines. Aussi, il est fréquent que des vestiges, invisibles du sol, se révèlent au regard

lorsqu’ils sont observés sous d’autres points de vue. Généralement, la découverte de vestiges

trahis par des empreintes en relief est tributaire des conditions climatiques qui ne sont

absolument pas contrôlables : par exemple, à certains moment de l’année et de la journée, les

lumières rasantes permettent de souligner des reliefs très estompés. Par conséquent, les

prospecteurs, dépendants de ces conditions, bénéficient rarement de la conjoncture propice à

la découverte de nouveaux sites. La modélisation numérique du relief peut présenter une

alternative à ce manque de liberté. Que cela soit à une échelle prenant en compte un site et son

environnement ou simplement une zone à l’intérieur d’un site, il est possible d’utiliser les

MNT dans une perspective prospective. Les campagnes d’étude réalisées sur le site de Sutton

Hoo (Grande-Bretagne) en sont un exemple125.

Il s’agit en fait d’un cimetière composé de nombreux tertres, dont l’un d’entre eux a

révélé, en 1939, un mobilier relativement riche. Fouillé depuis cette date, le site a connu de

nombreuses campagnes de fouille, qui ont mis au jour quantité de vestiges, appartenant à

différentes périodes : un site préhistorique a été découvert autour du cimetière, un autre

cimetière, d’époque anglo-saxonne, se trouvait à proximité du champ de tertre. Ce contexte

relativement confus à donné lieu à une campagne d’étude menée en collaboration avec IBM

UK126, où ont été investies de nouvelles méthodes de recherches, faisant notamment appel à la

modélisation numérique de terrain127. Cette campagne avait pour objectif d’étudier les

bénéfices apportés par la saisie et la visualisation tridimensionnelle des données,

particulièrement en matière de découverte. En effet, les dernières campagnes de fouille

124 Cf. idem, p.168125 cf. REILLY (P.) & RICHARDS (J.), « New perspectives on Sutton Hoo : the potential of 3-D graphics », inComputer and quantitative methods in archaeology 1987, éd. par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.173-185.126 Rappelons qu’un des auteurs de l’article, Paul REILLY, travaille au centre scientifique d’IBM UK àWinchester.127 Rappelons également que l’article a été publié en 1987.

77

avaient permis d’attester l’existence de quelques tertres qui n’avaient été visibles que sous des

conditions exceptionnelles d’éclairage, et qu’il s’agissait de localiser. Ainsi, le relief du site a

été numérisé par la saisie de nombreux points dont les coordonnées (x, y, z) ont été relevées

par un théodolite et enregistrées directement sur ordinateur128. L’ensemble des points a permis

de générer un MNT qui a ensuite été exploité pour détecter les tertres :

• la première solution a consisté à découper le modèle en tranches horizontales, les zones de

points devaient indiquer l’emplacement du sommet des tertres (pour les tranches

supérieures du modèle) par rapport au vide qui les entourait ; cette solution a permis de

découvrir rapidement les principaux tertres.

• la deuxième solution a nécessité d’exagérer l’altitude de chacun des points (la coordonnée

z), les deux autres coordonnées conservant leur propriété. Cela a eu pour résultat de mettre

en évidence de « petites îles » de points révélant la présence de tertres.

• Enfin, le mouvement en temps réel autour du modèle a permis de souligner certaines

discontinuités dans le relief, qui trahissaient autant de tertres possibles.129

Au total, il apparaît que ces techniques, une fois le modèle crée, ont été très faciles à

mettre en œuvre et ont pu être combinées afin de souligner la présence de quelques vestiges.

La vérification visuelle des reliefs mis en évidence a également permis de les interpréter : l’un

d’entre eux présentait un relief trop escarpé, et a par conséquent été retiré de la sélection ;

d’autres, aux dires des auteurs, peuvent également n’être que des déblais créés lors des

précédentes campagnes130. Par conséquent, la méthode de détection par MNT, bien qu’offrant

des possibilités puissantes131, ne dispense pas de la vérification sur le terrain car elle peut

fournir des résultats erronés.

4.1.1.1.5. L’association avec d’autres logiciels

Les modèles numériques de terrain, par la nature informatique de leurs données,

peuvent être associés à d’autres logiciels pour devenir des outils d’aide à l’interprétation

archéologique. En fait, ils deviennent en quelque sorte un support sur lequel peuvent se greffer

de nombreuses informations. Bien souvent, leur utilisation est optimale lorsqu’ils sont

128 Cf. idem, p.176.129 Cf. idem, pp.177-180.130 Cf. idem, p.180 : « Certainly, other experiments with interpolated terrain model indicate other small featuresin the area which are also possible candidates. However, some of these features may be the remains of spoil-heaps from earlier excavations. »

78

associés à des logiciels de gestion de base de données. L’intérêt principal de cette association

réside dans la possibilité de visualiser certaines données en les replaçant dans un système

tridimensionnel. Il s’ensuit que certaines relations de cause à effet peuvent être mises en

évidence.

En Grande Bretagne, la nécessité d’étudier rapidement de larges portions de territoire

dans le cadre d’une évaluation des ressources archéologiques et de l’impact de l’utilisation des

sols sur elles a permis de tester l’association modèles numériques de terrain / système de

gestion de base de données. Dans ce projet, initié par le Hampshire County Council’s

Planning Department132 et réalisé en collaboration avec IBM UK, il était question de mettre

en relation des cartes de répartitions de sites archéologiques avec la topographie, afin de voir

dans quelle mesure les labours, les activités agricoles et certains travaux d’aménagement du

territoire pouvaient influer sur l’intégrité et la conservation des sites. Les systèmes de gestion

de bases de données ont permis de créer des cartes thématiques de répartition de ce qu’il était

intéressant de montrer, en codant, dans l’exemple donné dans l’article, les concentrations de

céramiques modernes à l’aide de différentes couleurs. La carte de répartition est ensuite

plaquée sur le modèle numérique du terrain correspondant à l’échantillon, donnant ainsi une

image directe de la répartition de céramique en fonction du relief. Afin de mieux percevoir les

pentes, les données d’altitude ont été exagérées. L’analyse qui s’ensuit souligne la présence

d’une forte concentration de matériel sur le sommet d’une pente, tandis que le bas hérite d’une

concentration moindre. A priori, sans prendre en compte le micro-relief, ces deux

concentrations peuvent être interprétées comme étant deux gisements différents. En fait, la

représentation du relief permet de formuler une autre hypothèse : il est possible que les deux

concentrations proviennent du même gisement, et dans ce cas, il resterait à préciser la raison

du déplacement de certains tessons, dû aux labours successifs ou à des glissements de terrain.

Cet exemple montre bien l’intérêt de telles associations : d’une part, la combinaison de

différents documents génère davantage d’interprétations qui peuvent désormais être

confirmées par la prise en compte de nombreux paramètres ingérables autrement que par

ordinateur ; d’autre part, le résultat visuel peut être contrôlé et discuté plus facilement par

d’autres archéologues.

131 En outre, l’utilisation d’un MNT permet la manipulation d’autres paramètres : à titre d’exemple, les sourceslumineuses peuvent être disposées de manière à reproduire les conditions d’éclairage par lumière rasante, ce quipeut être d’un grand intérêt pour faire ressortir les micro-reliefs.

79

Un autre type d’association utilise le MNT comme un support à la simulation. Dans

certains cas, les archéologues sont confrontés à un état dit « post-depositional » des vestiges,

du moins du mobilier à étudier. En fait, il s’agit ni plus ni moins de caractériser un état non

primaire d’enfouissement ou de déposition des vestiges ; autrement dit, les vestiges ne sont

plus en place et le site a été perturbé après abandon d’activité. Dans ces conditions, il est

parfois extrêmement difficile de déterminer les raisons de la perturbation du site et d’en

quantifier les effets. Afin d’obtenir davantage d’éléments d’explication pour asseoir leur

théorie, certains archéologues s’en remettent à la simulation des phénomènes à l’origine des

perturbations et des modalités de déplacement des artefacts.

Le site de Mohenjo-Daro, étudié depuis 1983 par une équipe italo-germanique, est

riche en mobilier attestant la présence de nombreuses industries : plus de 7300 objets dans un

rectangle de 60 x 45 m (atelier et four de potier, artisanat de coquillage, travail de la pierre)133.

Cependant, la lecture d’un tel site est très difficile en raison de son mauvais état de

conservation : les pluies torrentielles de la mousson l’ont complètement raviné tant et si bien

qu’elles ont créé de profondes rigoles, charriant lors de leur passage de nombreux artefacts. La

configuration du site ainsi perturbée laisse peu de place à des interprétations solides : le peu

de connaissance a été fourni par des sondages menés en surface, qui ont renseigné sur la

chronologie relative de l’artisanat134 et sur la géomorphologie du site. A partir de ces indices,

les archéologues ont mené une expérience visant à modéliser – au sens premier du terme – les

modalités de déplacement des artefacts en fonction de la topographie (pente, petits ravins) du

site et des propriétés dynamiques des sols et du mobilier, et ceci afin de déterminer la position

primaire du mobilier. Pour réaliser cette simulation, il a été nécessaire de produire un MNT

avec un échantillonnement de 50 cm (une saisie tous les 50 cm) et d’enregistrer également la

position de tous les artefacts, classés par nature. Chaque artefact s’est vu attribuer des

propriétés dynamiques en fonction de sa nature et a ensuite été intégré dans le MNT grâce à

un programme de simulation de particule (Sisyphus135).

132 Cf. BOISMIER (W. A.) & REILLY (P.), « Expanding the role of computer graphics in the analysis of surveydata », in Computer and quantitative methods in archaeology 1987, éd. par Ruggles et Rahtz, Oxford, B.A.R.,1988, p.221-225.133 Cf. BONDIOLI (L.), PACELLI (A.) & VIDALE (M.), « The labours of Sisyphus : computer simulation ofdownslope movement of artefacts » in Aplicaciones Informaticas en Arqueologia : teorias y sistemas, Tome 1,Bilbao, 1995, p. 77-90.134 Cf. idem, p.79.135 Cf. idem, p.80 : Sisyphus : SImulation SYstem for PHenomena of Uncertain Scattering.

80

Plusieurs essais ont alors été tentés : les archéologues ont d’abord vérifié le

fonctionnement du modèle en lui demandant de placer aléatoirement 500 éléments en position

primaire, puis de leur appliquer des instructions de dispersion aléatoire. Il résulte de cette

première expérience que les artefacts se sont concentrés dans les ravins pour ensuite se

disperser dans un environnement plat. Les expériences qui ont suivi se sont par la suite basées

sur l’enregistrement des coordonnées de chaque vestige, en respectant leur nature et leurs

propriétés dynamiques : cette phase a permis d’affirmer que certaines concentrations d’objets

étaient bien en position primaire, après en avoir observé la constance en tant que source

« approvisionnant » d’autres concentrations situées en aval dans le modèle. Au total,

l’ensemble des expériences a fourni certaines explications et a indiqué dans certains cas l’état

secondaire ou primaire des dépôts archéologiques. Toutefois, les auteurs soulignent les limites

d’un tel modèle, qui n’a pris en considération que la topographie actuelle du site, sans prendre

en compte la dynamique du paysage qui se modifie d’année en année depuis l’abandon du site,

et qui, bien entendu, a joué un grand rôle dans le phénomène de dispersion des vestiges. Ainsi,

la modélisation n’a pas permis de reproduire une grosse concentration de vestiges découverte

dans la réalité, ce qui, du moins, a attesté l’existence soit d’un relief complètement érodé à

l’heure actuelle (par conséquent, les vestiges ont été pris au piège lors de leur déplacement),

soit d’une fosse (les vestiges sont dans ce cas en position primaire).

Ce type d’approche laisse présager de nouvelles interprétations aussi bien sur les sites

difficiles « à lire » que sur les sites très bien conservés : bien que ne prenant pas en compte

tous les paramètres de la réalité, la simulation arrive à des résultats intéressants et permet de

déterminer des processus dynamiques. Dans une perspective plus large, on peut très bien

imaginer que la simulation fournit des explications sur la modification du relief à partir des

observations faites par les spécialistes (géologues, géomorphologues, hydrologues) en

fonction de l’érosion et de certains phénomènes naturels.

4.1.1.2. Le site archéologique en 3D : le reflet virtueld’une réalité opaque

Les sites archéologiques, qu’il s’agisse de monuments plus ou moins délabrés ou de

vestiges enfouis, présentent la particularité d’être relativement difficiles à appréhender dans

leur ensemble. Lors des fouilles, l’archéologue est confronté à une quantité considérable de

données qu’il découvre au fur et à mesure et qu’il lui est par conséquent difficile de mettre en

81

relation les unes avec les autres, étant donné la nature destructrice de l’archéologie136. Dans le

cas de l’archéologie du bâti, la permanence de l’utilisation par des populations successives

d’un édifice encore en élévation génère beaucoup de confusion dans le travail de

l’archéologue, qui s’efforce d’en déterminer les différentes phases de construction en ayant

sous les yeux un édifice présentant la synthèse des nombreux remaniements dont il a fait

l’objet137. A l’extrême, c’est la presque totalité de l’édifice qui se trouve au sol et dont de

nombreuses pièces manquent : l’archéologue fait alors face à un vaste puzzle en trois

dimensions, qu’il a pour charge d’étudier, voire de remonter.

Par conséquent, la pertinence du discours archéologique est limitée par des difficultés

d’appréhension d’une réalité complexe et parfois éphémère, à la fois présentes chez

l’archéologue en charge de l’étude ne disposant que de sa compétence, de sa mémoire et de la

qualité des documents qu’il aura produit sur le terrain, mais aussi chez ses collègues, qui ne

pourront pas bénéficier des mêmes éléments, n’ayant pas eu une expérience directe de la

fouille138.

Aussi il s’agit de voir l’apport des modèles numériques dans ces pratiques

archéologiques.

4.1.1.2.1. la gestion et la représentation des donnéestridimensionnelles provenant des sites

Grâce aux logiciels de CAO, les archéologues disposent désormais d’un outil pour

conserver les vestiges archéologiques dans une logique tridimensionnelle. Ces vestiges

peuvent être de n’importe quelle nature (qu’il s’agisse de tessons de céramique, d’éléments

d’architecture ou bien encore de couches archéologiques) et contribuent à créer une réplique

virtuelle du site, fidèle à l’original jusque dans les proportions et les dimensions : les

coordonnées des points prélevés sur le terrain et indiquant la localisation et la forme des objets

136 Les vestiges enfouis appartiennent à une réalité tridimensionnelle plus que primordiale pour l’archéologue : denombreuses interprétations peuvent être émises à partir de l’observation de la position et des relationsqu’entretiennent certains objets dans leur milieu d’enfouissement. En outre, la réalité mise au jour est discontinuedans l’esprit d’un archéologue : pour connaître l’intégralité d’un site, il faut l’étudier couche par couche enpartant de la surface ; or, pour atteindre les couches inférieures, il faut retirer celles qui se trouvent au-dessus, etpar conséquent détruire les informations qu’elles recèlent, et notamment les relations existant entre des objetscontenus dans des couches différentes.137 C’est souvent le cas dans les édifices religieux construits pendant le Haut Moyen Age et modifiés ensuite parles architectes romans puis gothiques, ou bien encore dans les centres historiques de certaines villes, où il arriveque l’on découvre des maisons médiévales contenues à l’intérieur de maisons plus récentes. (cf. WATON (M.-D.)& WERLE (M.), « Une maison de musique à Strasbourg », Archéologia, n°327, octobre 1996, p.20-25).

82

peuvent être exprimées dans des unités de mesure universelles comme le mètre et ses sous-

multiples. Bien entendu, les dimensions de ces objets sont rigoureusement conformes à

l’original suivant le soin apporté à la saisie des coordonnées tridimensionnelles. Le site récréé

virtuellement bénéficie alors de nombreux avantages : la nature numérique des données le

composant permet des mises à jour illimitées en fonction de l’état d’avancement des fouilles,

ce qui est d’un véritable intérêt pour l’archéologue, qui n’a plus besoin de créer des dessins

successifs pour rendre compte des nombreuses informations prélevées chaque jour sur le

terrain. La logique tridimensionnelle du fichier permet aussi de produire une grande quantité

d’image, le logiciel calculant à chaque fois la vue correspondant au type de représentation

choisit par l’utilisateur : ainsi, il est possible d’obtenir très rapidement des dessins en deux

dimensions, créés par la projection du modèle sur un plan accompagné de l’annulation de la

dimension perpendiculaire au tableau de projection ou bien encore des vues en perspective

centrale.

4.1.1.2.1.1. Le fonctionnement par calque

Cependant, la véritable plus value inhérente au modèle numérique tient à la possibilité

de structurer et d’organiser les nombreuses informations contenues dans le fichier. En fait,

cette possibilité doit beaucoup à l’origine de la plupart des logiciels de CAO et de DAO, qui,

venant du monde des dessinateurs techniques et des architectes, ont transposé la pratique du

dessin sur plusieurs calques de la table à dessin vers l’informatique139. L’usage de calques

permettait alors de superposer plusieurs dessins du même objet de manière à créer

artificiellement un seul dessin composé de tous les calques. Cette pratique autorise alors à

placer sur chacun des calques des informations différentes, qu’il aurait été difficile de faire

coïncider sur une seule et même feuille. L’exemple reprit par Harrison Eiteljorg (cf. note 139)

est particulièrement significatif de l’avantage à tirer de cette pratique : l’architecte, lorsqu’il

doit dessiner le plan d’une maison moderne, peut disposer le plan du rez-de-chaussée sur le

dessin de base, et ensuite lui superposer d’autres calques comportant le réseau électrique, le

circuit de plomberie, le plan du premier étage, puis d’autres calques reproduisant les

installations électrique et sanitaire, le tout sans avoir à redessiner les éléments communs. En

138 A ce sujet, il existe également des problèmes de communication lorsque plusieurs archéologues participent àla même fouille, car il est parfois très difficile de faire partager à une autre personne sa propre façon de voircertaines relations n’étant présentes que dans notre esprit.139 Voir à ce sujet l’article du directeur du Centre pour l’étude de l’architecture (Center for the Study ofArchitecture, dont le but est de promouvoir l’utilisation des programmes de CAD dans l’architecture

83

fin de compte, l’utilisation de ces calques a permis de créer un plan complexe à partir d’un

même dessin, et les risques de confusion dus à la quantité d’informations peuvent être

contrôlés en retirant les calques dont l’architecte n’a pas l’usage. Ensuite, rien n’empêche de

replacer le calque voulu dans la pile et d’en retirer un autre, de façon à ne voir que ce qui est

intéressant. Par ce biais, l’architecte a une plus grande maîtrise des documents qu’il produit,

aussi complexes soient-ils ; néanmoins, il ne peut pas superposer une trop grande quantité de

calques, au risque de voir la transparence de l’ensemble s’amenuiser à chaque addition de

calque.

La transposition de cet usage dans les logiciels de CAO s’est accompagnée d’une

extension de ses possibilités : les calques, n’étant plus des supports physiques qui possèdent

un degré de transparence propre, peuvent désormais être superposés en quantité sans générer

de perte de qualité, ce qui a pour conséquence d’autoriser l’utilisation de nombreux calques.

Ensuite, leur manipulation est devenue beaucoup plus facile : il suffit de commander au

logiciel l’affichage ou le masquage d’un ou plusieurs calques pour instantanément en voir le

résultat. Mais la réelle nouveauté due à cette transposition concerne véritablement la logique

de fonctionnement des calques, qui s’apparente davantage à une commande de regroupement

d’objets : le calque informatique peut être défini par n’importe quelle association d’objets

appartenant au modèle numérique, quelles que soient leurs positions respectives. Il en découle

que le calque n’est pas contraint par des relations d’ordre hiérarchique : la logique

tridimensionnelle du modèle s’affranchit du fonctionnement des calques traditionnels qui

obligeait à indiquer, sur un même calque, des informations de même valeur, afin que

l’ensemble du document soit cohérent. En effet, la disposition, sur un même calque, du réseau

électrique avec le plan de l’étage inférieur, outre de ne présenter aucun intérêt, aurait pour

effet de masquer certaines informations situées sur des calques inférieurs, comme par exemple

le plan de l’étage où se trouve l’installation électrique. Dans un programme de CAO, la

possibilité d’associer des éléments distants dans l’espace, lorsqu’elle présente un intérêt, ne

génère pas de gêne ni de problème de visualisation, étant donné que les points de vue sont

modifiables à tout moment.

Aussi, l’usage de calques peut être d’une grande utilité pour les archéologues. H.

Eiteljorg, dans son article, évoque l’exemple de la porte de l’acropole d’Athènes140, dont les

monumentale, par les universitaires et les étudiants) de Bryn Maur : EITELJORG (H.), « Computer-AssistedDrafting and Design programs for use in archaeology and architectural history », BRISES, n°15, 1989, p.125-131.140 Cf. idem, p.126-127.

84

éléments d’architecture peuvent être disposés sur différents calques suivant leur nature (les

fondations, les murs, les remparts) ou leur matériau (marbre, poros, calcaire), ce principe

s’appliquant également aux différentes catégories de mobilier (céramiques, monnaies, outils,

armes). De la même manière, il est possible de disposer, dans le même fichier, des phases

successives du bâtiment placées sur différents calques, que l’archéologue peut faire apparaître

à sa guise, en même temps que le mobilier correspondant. Un autre usage de ce procédé

permet de faire figurer simultanément ou alternativement les vestiges et leur reconstitution

hypothétique, différenciée, au besoin, par une autre couleur.

Dans le cas des fouilles, les objets peuvent être placés sur différents calques

définissant leur appartenance à des groupes précis. Ainsi, le mobilier découvert dans une unité

stratigraphique est regroupé dans un même calque. Parallèlement, le mobilier céramique

contenu dans cette unité stratigraphique peut être disposé dans un autre calque regroupant tout

le matériel céramique de l’ensemble du site : l’archéologue peut alors l’afficher

indépendamment des unités stratigraphiques. Grâce aux calques, l’archéologue gère

l’intégralité de son site en classant le matériel suivant de nombreux critères : on peut très bien

imaginer qu’il affine la classification du mobilier céramique en le décomposant en plusieurs

calques suivant les datations. Les calques sont donc un moyen rapide d’interrogation et de

découverte du site : l’affichage ou le masquage (voir les fig. 40 et 41, planche XV) des

combinaisons de calques sont rapides, ce qui permet de multiplier sans surcoût (en terme de

temps de travail) les hypothèses de travail. En outre, la souplesse de traitement induite par ce

mode d’accès à l’information présente un réel intérêt pour les autres archéologues n’ayant pas

fouillé le site : la manipulation des calques et leur affichage instantané leur offrent des vues

synthétiques et thématiques du site, sans avoir à passer par la consultation d’une

documentation fastidieuse141.

Cependant, la quantité de calques nécessaire pour rendre compte du site et pour

permettre une telle utilisation ne va pas sans poser de problème : les calques sont seulement

identifiables par leur nom, qui correspond en fait à un champ alphanumérique de quelques

caractères. Par conséquent, les possibilités de gestion des données contenues dans les calques

141 Dans une même logique, l’utilisation de calque permet de structurer l’information en fonction du destinataire :la campagne d’étude menée sur l’église Saint-François de Lausanne a mobilisé le travail de différents spécialistesn’ayant pas les mêmes besoins d’information pour mener à bien leur tâche (archéologue, historien del’architecture, architecte, topographe, infographiste) ; aussi, l’utilisation du même fichier par l’ensemble del’équipe a permis une meilleure communication des apports de chacune des disciplines, dont les différents

85

sont limitées par la significativité de leur nom : il semble d’ailleurs très difficile de mémoriser

plusieurs centaines de noms de calque, même lorsqu’ils sont représentatifs de ce qu’ils

contiennent. Pour remédier à ce problème, H. Eiteljorg propose sa propre nomenclature de

calque qui consiste à remplir le champ alphanumérique par des lettres, chacune codant, en

fonction de sa position dans le nom, une caractéristique du calque142. Par exemple, la première

lettre indique la nature de l’information (objet 3D, dessin, légende), la seconde, l’état des

vestiges (en position primaire, secondaire...), la troisième, la nature de l’espace auxquels ils

font partis (cimetière, monument de spectacle, de culte, privé...) et ainsi de suite. Enfin, les

derniers caractères du champ sont des valeurs numériques indiquant la fourchette de datation

des vestiges143. La recherche des calques s’effectue alors grâce à des caractères « joker » à

placer dans le champ numérique : le « ? » s’insère dans la chaîne de caractère et indique à

l’ordinateur de rechercher toutes les occurrences reproduisant la même chaîne et comportant

une lettre à la place du caractère « joker ».

La limite de cette méthode tient au fait qu’elle exploite un outil très utile dans une

certaine mesure, mais dont la vocation première n’est pas de gérer de façon optimale une

grande quantité de données : les possibilités de recherche et d’interrogation du modèle

numérique sont véritablement limitées par la quasi-absence d’outil adéquat, qui ne peuvent

porter que sur les quelques caractères codés dans le nom du calque. Cependant, la nature

numérique des informations contenues dans le modèle permet de remédier à ce problème en

offrant la possibilité de gérer ces données à partir d’un logiciel extérieur au programme de

CAO, mettant ainsi à disposition toutes les fonctionnalités des Systèmes de Gestion de Base

de Données.

4.1.1.2.1.2. L’association avec des bases de données

Certains logiciels de CAO, comme Autocad, prévoient des possibilités d’ouverture

vers d’autres utilisations. Ainsi, en utilisant un langage de programmation, l’utilisateur peut

travaux ont été consignés sur des calques différents. Cf. DOEPPER (U.), FEIHL (O.) & HUGUENIN (C.),« L’église Saint-François de Lausanne » in Cahiers d’Archéologie Romande, n°73, 1998, p. 15-17.142 cf. EITELJORG (H.), « The CSA layer Naming Convention », texte disponible sur le site web du Center forthe Study of Architecture à l’URL=http://csaws.brynmaur.edu sous le nom de fichier csalnc.html, mis à jour enFévrier 1996 et consulté en Août 1999.143 Voici un exemple utilisant la convention d’H. Eiteljorg, repris dans DANIELS (R.), « The need for solidmodelling of structure in the archaeology of buildings », in Internet Archaeology, n°2, texte disponible sur le webà l’URL=http://intarch.ac.uk/journal/issue2/daniels/index.html, mis à jour le 01/05/1997 et consulté en mai 1999.

Ainsi, le calque PTPCWFXA-0489-0478 de l’entrée de l’Acropole d’Athènes code les informationssuivantes : P= structure dessinée en 2D ; T= roche taillée ; P= présente dans un lieu public ; C= plus précisément

86

définir de nouvelles fonctionnalités et ouvrir son logiciel à d’autres programmes : par

exemple, des informations provenant d’une base de données peuvent être reliées aux

différents éléments du modèle numérique. Par cette manipulation, l’étude du modèle

numérique bénéficie des propriétés et des fonctions plus précises fournies par les SGBD144.

Ce type d’association a été utilisé par une équipe de recherche travaillant sur le site

préhistorique de Runnymede, dans le Berkshire, en Grande Bretagne145.

Le site, particulièrement bien préservé, a fourni principalement du mobilier céramique,

des fragments d’os d’animaux et des témoins de structure en négatif (trous de poteaux,

fosses). L’intérêt de la recherche réside dans l’analyse spatiale des vestiges, dans le but de

préciser l’organisation du site : l’emplacement des habitations et les modalités de déposition

du mobilier146. Par conséquent, la prise en compte de l’ensemble des données a nécessité le

recours à une base de données reliée à un logiciel de représentation spatiale. Le mobilier est

entré dans le logiciel de CAO sous forme symbolique d’après ses coordonnées

tridimensionnelles. Ensuite, il est relié à la base de donnée renseignant sur sa nature et sur sa

position dans le site : coordonnées x, y, z et contexte stratigraphique. Un simple clic de souris

sur l’objet du modèle numérique renvoie à une boîte de dialogue où sont portés tous ses

renseignements : il est ainsi possible de consulter toutes les informations disponibles sur le

vestige en connaissant, de manière plus intuitive, sa position dans l’espace de la fouille.

Les possibilités données par l’association de ces deux types de logiciels ne s’arrêtent

pas là. Le contexte stratigraphique est également entré dans les deux systèmes, ce qui rend

envisageable des recherches multicritères plus fines que celles permises par l’usage de

calques :

4.1.1.2.2. Les reconstitutions

Les reconstitutions de sites en trois dimensions sont une des principales applications

de l’image de synthèse à l’archéologie, nous l’avons vu plus haut : elles permettent de donner

à voir à un large public l’état initial des sites archéologiques dont les vestiges ne sont pas

particulièrement éloquents. En réalité, les reconstitutions de sites n’ont pas simplement valeur

dans une cour ; W= utilisée dans un mur ; F= et plus précisément, en fondation ; X= en roche ; A= plusprécisément, en calcaire de l’Acropole; -0489= érigée en 489 av. J.C., -0478= retirée en 478 av. J.C.144 Systèmes de gestion de bases de données.145 cf. MAIN (P.L.), SPENCE (A.J.) & HIGGINS (T.), « Computer-aided design techniques for the graphicalmodelling of data from the prehistoric site of Runnymede, Berkshire », in in Computer applications andquantitative methods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, Tempus Reparatum,1995, p.235-243.

87

d’outil de communication et de diffusion de la connaissance, mais peuvent jouer également un

grand rôle dans le cadre du travail des archéologues.

En effet, jusqu’à présent, les dessins de restitutions, long et fastidieux à réaliser,

occupaient une place relativement marginale dans les publications archéologiques : leur

caractère hypothétique en faisait des documents de présentation dont l’aspect subjectif ne

permettait pas de les associer pleinement au processus de la recherche. En fait, les restitutions

archéologiques permettent de présenter à la fois une synthèse des informations recueillies par

les archéologues et en même temps une thèse témoignant de leur regard sur le site et de leur

interprétation des vestiges. Ce type de document arrive donc généralement en fin

d’argumentation, après l’analyse des documents davantage ancrés dans la réalité

archéologique ; parfois, lorsque la reconstitution proposée dispose d’un fort degré de fiabilité,

elle peut servir de base à la reconstruction réelle de l’édifice, ou, dans une plus faible mesure,

à sa restauration. L’utilisation de l’infographie a considérablement renouvelé l’apport des

essais de reconstitution dans une logique scientifique. En fait, les principales limites du dessin

de restitution tenaient au temps de travail nécessaire à sa réalisation et à son caractère

définitif : une fois réalisé, il n’est plus possible de modifier la structure du dessin, qu’il

s’agisse du point de vue choisit ou des éléments reconstitués. Cet aspect rigide peut expliquer

d’une certaine manière la rareté de tels documents dans les publications scientifiques, qui

généralement développent différentes hypothèses de restitutions, multipliant d’autant plus le

temps de travail nécessaire à la réalisation d’équivalents graphiques à leurs théories..

Aussi, l’utilisation des modèles numériques pour reconstituer les sites archéologiques

permet d’ouvrir de nouvelles perspectives éprouvant l’apport des restitutions non plus comme

outil de communication ou de présentation finale des vestiges, mais surtout comme outil de

recherche et auxiliaire de la démarche archéologique.

A travers la reconstitution des vestiges archéologiques, il existe différentes approches

qui mettent en équation le degré de conservation des vestiges et la finesse du résultat à

laquelle tend l’opération de restitution. En clair, l’outil informatique, suivant ce qui est

recherché, peut permettre, d’une part, de restituer au plus près des données lorsque celles-ci

existent encore, qu’il s’agisse de créer un double virtuel d’un site conservé intégralement mais

inaccessible ou bien encore qu’il s’agisse de reconstruire, tel un puzzle, un édifice

pratiquement conservé mais fortement démantelé, et, dans ces deux cas, les formes sont

146 Cf. idem, pp.237-238.

88

modélisées d’après le réel147. D’autre part, lorsque la connaissance directe du site fait défaut

(par exemple, lacune de blocs architecturaux pour un monument), le recours au modèle

numérique permet de recréer le vestige, ou, du moins, son idée, d’après l’ensemble de la

documentation disponible sur d’autres vestiges comparables. Dans le cas de l’architecture

monumentale, il résulte de cette dernière approche la création d’un vocabulaire de formes

architecturales articulées suivant un langage de construction menant à la représentation plus

ou moins précise du monument148. En fait, loin de s’opposer, ces deux alternatives sont très

souvent associées lors des opérations de reconstitution : il existe très peu de sites

intégralement conservés et les éléments survivants servent souvent de base à l’élaboration du

vocabulaire évoqué plus haut.

4.1.1.2.2.1. Quand les vestiges existent : la reconstructionassistée par ordinateur

Il arrive donc, que, dans certaines circonstances, les archéologues soient confrontés à

des monuments détruits mais dont les nombreux éléments de constructions sont encore

présents sur le site même ou en remploi dans d’autres monuments149. Le cas du mausolée

antique de Rouen est particulièrement caractéristique de ce genre de probabilité150 : plus de

deux cents blocs de construction ont été retrouvés en remploi dans la fondation d’une portion

du rempart du Rouen antique, lors de fouilles préventives menées au début des années 1990.

L’étude de ces blocs, dont certains pèsent plus d’une tonne, a révélé qu’ils appartenaient au

même monument (par des caractéristiques communes : méthode de taille et importance des

cavités de levage) et a permis, dans une certaine mesure, de retrouver la façon dont ils

s’organisaient. Au total, l’étude préliminaire a fourni la restitution d’un édifice de trente

mètres de hauteur, daté du IIIème s. ap. J.-C. L’importance du monument et la masse des blocs

qui le composent ont alors conduit les instances en charge du dossier151 à faire réaliser une

147 cf. 4.2 Les modalités d’acquisition des données p.97.148 L’architecture monumentale convient particulièrement à cette logique de construction par la sémantique desformes, car, qu’elle soit égyptienne, grecque ou romaine, elle facilement décomposable en éléments plus simple.149 cf. ADAM (J.-P.), « Les nouveaux regards de l’archéologie monumentale », Les Nouvelles de l’Archéologie,n°76, 1999, p.6-9. Comme le rappelle J.-P. Adam, cela a été fréquemment le cas « au Bas Empire, lorsque lesmonuments périphériques des cités furent détruits pour permettre l’édification des remparts »; à ce sujet, il donnedes exemples similaires à celui développé ci-dessous, mais qui ont fait l’objet d’anastyloses réelles.150 cf. DELESTRE (X.) & SCHULMANN (J.-L.), « Le mausolée antique de Rouen: une approche pluridisciplinairepour une hypothèse de restitution » in Patrimoine et multimédia, le rôle du conservateur: actes du colloqueorganisé à la Bibiothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentation française, 1997,p.48-51.151 Service Régional de l’Archéologie de Haute Normandie

89

anastylose virtuelle152, qui présentait l’avantage d’autoriser les manipulations des volumes

architecturaux sans faire courir aucun risque aux opérateurs et aux vestiges. Modélisés d’après

les études des architectes, le caractère immatériel de ces blocs architecturaux virtuels a permis

de tester avec efficacité différentes options de restitutions en modifiant à volonté la

disposition des blocs de manière à en retrouver le parti initial. La possibilité de déplacer en

temps réel ces blocs et de visualiser immédiatement le résultat a été d’un grand intérêt pour

les archéologues, qui ont pu essayer différentes combinaisons pour en conserver les plus

pertinentes.

Le problème de ces reconstructions réside néanmoins dans le caractère presque

toujours lacunaire de la documentation disponible : ce projet s’est notamment heurté à

l’absence d’indice laissant présager de la forme de la toiture et de certains éléments

conditionnant l’ensemble de l’édifice (la partie arrière de l’édifice n’est pas attestée par les

découvertes archéologiques). Il en résulte que le modèle numérique ainsi constitué donne une

vision partielle de ce à quoi pouvait ressembler le bâtiment : les responsables de la restitution

reconnaissent cette limite mais soulignent le caractère perfectible d’un modèle numérique, car

rien n’empêche de le mettre à jour en fonction de nouvelles découvertes153. Ce cas de figure

où la majorité des éléments constitutifs sont conservés est relativement rare : la plupart des

restitutions, qu’elles soient virtuelles ou réelles, ont recours à une autre démarche.

4.1.1.2.2.2. Quand les vestiges manquent : lareconstitution « hypothético-déductive »

L’alternative suivante se construit sur l’analyse d’une documentation hétérogène et

exogène. En fait, les données permettant de restituer un site connu dans une moindre mesure

sont de natures différentes : d’une part, celles-ci peuvent provenir directement du site en

question, et sont fournies par les études archéologiques – récentes ou anciennes – des vestiges

conservés et par la consultation des sources qui en font mention (littéraires, iconographiques

et épigraphiques). D’autre part, il peut être fait appel aux connaissances disponibles sur des

vestiges comparables présents sur d’autres sites. Dans ce cas, tout le travail du « restituteur »

réside dans sa capacité à se nourrir des éléments réellement intéressants pour la tâche qu’il a à

152 Réalisée par J.-L. Schulmann, de la société Image Digitale153 Cf. idem, p.50

90

réaliser : il s’agit pour lui d’extraire avec pertinence le contenu cognitif de tous ces

documents154.

L’exemple de la restitution de la tholos du sanctuaire d’Athéna à Marmaria est

caractéristique de cette démarche. Ce monument, connu par les nombreuses études menées par

l’Ecole Française d’Athènes depuis plus d’un siècle, a fait l’objet d’une reconstitution

virtuelle dans laquelle l’outil infographique a joué un rôle actif en tant qu’auxiliaire à la

validation ou à l’infirmation d’hypothèse155. Le soubassement de la tholos, connu par les

vestiges découverts in situ, a été modélisé sans problème. En fait, le premier écueil rencontré

dans cette opération concerne la polémique existant autour de la colonnade extérieure : il

s’agissait d’en déterminer la hauteur en fonction du nombre de tambour entrant dans la

composition d’une colonne. Le canon parthénonien avait conduit les archéologues du début du

siècle à préconiser une restitution à quatre tambours, choix qui s’est révélé caduque lors de

l’anastylose réelle menée sur trois colonnes en 1938, au cours de laquelle il est apparu que le

parti d’ensemble de chacune des colonnes nécessitait l’utilisation de cinq tambours pour

préserver la continuité des lignes le long des fûts156. Ce choix de restitution n’avait pas été

retenu avant cette date en raison du mauvais état de conservation des tambours, qui du coup

n’avaient pas permis des mesures fiables et significatives. Cependant, il n’a pas fait

l’unanimité dans l’ensemble de la communauté scientifique. Aussi, pour justifier cette

restitution encore contestée cinquante ans plus tard, l’utilisation de l’infographie couplée à un

système de mesure tridimensionnelle a permis de vérifier qu’il n’y avait pas d’incohérence

dans la restitution à cinq tambours157 : les mesures tridimensionnelles ont permis de comparer

les diamètres restitués par l’analyse des fragments de tambours avec ceux produits par le

travail de restauration lors de l’anastylose réelle158 ; il en a résulté que la restitution des

colonnes avec cinq tambours respectait sans équivoque la cohérence des colonnes, tandis

qu’une version à quatre tambours produisait inévitablement un décrochement entre les

différentes formes composant la colonne.

154 A ce sujet, cf. GOLVIN (J.-C.), « De Karnak aux problèmes fondamentaux de la modélisation », Les Nouvellesde l’Archéologie, n°76, 1999, p.20-21.155 Pour tout ce développement, cf. BOMMELAER (J.-F.) (DIR.), Marmaria, le sanctuaire d’Athéna à Delphes,Paris, de Boccard, 1997, p.59- 76 et 106-110.156 Cf. idem, p.59.157 Cf. idem, p.107.158 Cf. LAROCHE (D.), « Les apports des nouvelles techniques au relevé et à l’étude des monuments antiques »,Les Nouvelles de L’archéologie, n°76, 1999, p.10-13.

91

La suite des opérations de reconstitution a nécessité d’avoir recours à des processus

autres que l’analyse directe des vestiges : la porte, dont l’emplacement est connu par des

indices archéologiques, n’est pas conservée en hauteur. Celle-ci a été déterminée en fonction

du « découpage et de l’agencement des pierres » de construction et des « proportions

habituelles des portes de temple »159. Le parti fourni par cette hypothèse a ensuite été comparé

à la restitution initiale basée sur l’étude de 1925. Cette confrontation a permis de formuler une

nouvelle hypothèse de restitution de la colonnade intérieure, celle-ci ne pouvant pas

correspondre à la hauteur présumée de la porte. Aussi, en réduisant d’un tambour la hauteur

de cette colonnade, il est apparu que la partie supérieure des chapiteaux coïncidait avec la

surface inférieure du linteau de la porte. Cette avancée dans les travaux de restitution a

débouché sur la spéculation de l’existence d’un ordre supérieur dans la partie laissée vide par

la réduction de la colonnade intérieure, cette hypothèse étant corroborée par l’existence d’une

colonnade supérieure dans certains temples contemporains de la tholos160. Par la suite, la

présence dans les réserves du musée de Delphes de chapiteaux ioniques, dont les proportions

semblaient laisser croire qu’ils pouvaient appartenir à un ordre supérieur, a été à l’origine

d’une tentative de modélisation qui a permis de rendre plausible l’existence d’une colonnade

supérieure.

Ces postulats, établis de proche en proche, ont donc contribué à la création d’un

modèle cohérent de l’édifice, basé sur le croisement et sur la critique d’un certain nombre de

données. Cependant, comme le rappellent les responsables scientifiques de cette opération, la

modélisation numérique a permis de faire évoluer la restitution de la tholos vers une

conception probable mais non définitive de l’édifice tel qu’il fut construit à l’origine :

l’enchaînement logique des choix de restitution repose sur des hypothèses plus ou moins

plausibles, ce qui a pour effet de définir la modélisation numérique comme un outil de test et

de formulation d’hypothèses. Ces choix de restitutions, vérifiés visuellement, offrent un

exemple intéressant de l’utilisation de l’infographie à des fins scientifiques : le modèle

numérique a fourni de multiples représentations tridimensionnelles permettant aux architectes

et aux archéologues d’appréhender les volumes des éléments d’architecture et les espaces dans

lesquels ils s’organisent, sans pour autant avoir recours à des images photoréalistes. C’est

dans la représentation des volumes et dans la possibilité d’agir directement sur eux que se

159 Cf. BOMMELAER (J.-F.) (DIR.), Marmaria, le sanctuaire d’Athéna à Delphes, Paris, de Boccard, 1997,p.108. Les auteurs ne mentionnent pas les exemples précis desquels ils ont tirés les proportions « canoniques »des portes de temple.

92

trouve véritablement l’apport de l’infographie au monde de la recherche archéologique. Dans

cette même perspective, nous allons voir que l’association des logiciels de représentation

tridimensionnelle interactive avec d’autres programmes offre de nouveaux outils à

l’archéologue.

4.1.1.2.3. L’hybridation des logiciels : simulation despropriétés physiques et visualisation de l’invisible

Jusqu’ici, les principales applications de l’infographie à l’archéologie avaient un rôle

de retranscription virtuelle des informations déjà visibles dans la réalité, ou tout du moins

potentiellement (en rendant visible ce qui n’existe plus). L’exemple de la modification de

certaines données, comme le facteur d’altitude en topographie161, nous avait fait pressentir de

l’intérêt que pouvait présenter la représentation infographique de données cachées ou bien non

visuelles.

A ce titre, la modélisation permet d’intégrer les propriétés physiques des objets dans

des simulations de manière à mettre en évidence les contraintes de poussée supportées par

certains vestiges archéologiques. Par exemple, des ingénieurs de l’Ecole des Mines d’Alès162

ont procédé à une simulation qui visait à étudier les conditions de l’effondrement de l’aqueduc

romain de Barbegal163.

Dans cette perspective, les ingénieurs ont modélisé deux arches du pont-canal en

prenant compte des propriétés spécifiques à chacun des matériaux entrant dans la composition

de l’ouvrage. Les propriétés de ces matériaux ont d’abord été étudiées par l’analyse

d’échantillons comparables à ceux présents dans la construction : les géologues ont retrouvé

des pierres aux propriétés mécaniques similaires, les ingénieurs des matériaux ont reconstitué

les mortiers utilisés par les Romains et les physiciens ont étudié l’interface mécanique entre

ces deux matériaux. En plaçant l’échantillon dans une presse hydraulique et en le chargeant de

capteurs, il a été possible de mesurer les déformations subies par l’assemblage de pierre et de

mortier suivant différentes configurations. Ces mesures ont permis de déterminer le point de

rupture des assemblages composites en fonction de différents types de poussées, qu’elles

soient verticales, obliques ou horizontales. Ensuite, les résultats obtenus ont été intégrés dans

160 Cf. idem, p.109. Temple de Tégée et de Némée.161 cf. 4.1.1.1.4 la prospection virtuelle, p.76162 Marc Vinches, Patrick Lenny, Didier Nectoux (ingénieurs), Delphine Raffard (étudiante), Pierre Gaudon(géologue), Christian Buisson (technicien).163 cf. Retranscription du reportage « Modèle d’aqueduc » diffusé sur Arte, lors de l’émission Archimède du 9mars 1999, présent sur le site web de la chaîne à l’URL=http://www.arte.fr

93

le modèle de l’aqueduc et différents calculs ont été lancés en fonction de la nature du sol

présent sous les piles de l’ouvrage. Ces premiers essais ont permis de tester le modèle en

diminuant la dureté du sol présent sous la pile centrale : il en résulte un déplacement plus

important au niveau de la base de la pile qu’en haut, tandis que certains blocs de pierre se

désolidarisent de l’ouvrage pour venir tomber sur le sol. Par la suite, les poussées et les

contraintes jouant à l’intérieur de la construction ont été rendues visibles par des échelles de

couleur, montrant ainsi les zones davantage exposées à un risque de ruine en fonction de la

nature du sol sur lequel repose l’ouvrage.

En entrant dans le modèle numérique les données géologiques réelles, les ingénieurs

pourront dès lors présenter aux archéologues une vision plus précise de ce qui a causé la ruine

de l’édifice et l’ordre dans lequel l’effondrement s’est déroulé164. L’analyse des poussées et

des caractéristiques techniques des matériaux permet donc non seulement d’expliquer la ruine

d’un édifice, mais également d’en prédire la venue, offrant ainsi des observations utiles dans

le cadre de campagnes de restauration. En outre, nous allons voir que ce type de procédé à des

applications directes dans la présentation de vestiges monumentaux.

L’opération très médiatisée des anastyloses virtuelle puis réelle du colosse

d’Alexandrie illustre sans conteste l’efficacité des modèles numériques pour la reconstruction

de certains vestiges165. Nous ne reviendrons pas sur l’intérêt que présente la possibilité de

manipuler sans risque de nombreux blocs de pierre pesant chacun plusieurs tonnes dans la

réalité. En fait, outre lors de la campagne de remontage virtuel166, les données

tridimensionnelles du modèle numérique ont été exploitées dans le but de déterminer la

meilleure stratégie de remontage réel du monument, qui nécessitait alors la construction d’une

structure complétant les vides laissés par les pièces manquantes et suffisamment bien conçue

pour les réintégrer une fois retrouvées. Ces données, acquises directement sur les pièces

archéologiques167, ont fourni des estimations très précises sur les propriétés physiques des

différentes parties de la statue168. Ainsi, les volumes exacts ont été obtenus, et leur croisement

164 Cette phase du travail était encore en cours lors de la diffusion du reportage.165 A ce sujet, cf. COIGNARD (O.), (R.) & (B.), « La restauration du colosse d’Alexandrie », Archéologia, n°349,Octobre 1998, p.34-41 et le droit de réponse accordé à M. Albouy dans le même numéro, p.42-43. Rappelonsque ce projet est le fruit d’une collaboration entre l’atelier de restauration Coignard, le Centre Technique duBâtiment et des Travaux Publics et les laboratoires d’EDF (Direction des études et recherches – Société Mensi).166 qui avait servi, dans un premier temps, à vérifier que tous les blocs appartenaient bien à la même statue, puis,dans un second temps, à en préciser les modalités d’assemblage167 par capture des coordonnées tridimensionnelles par triangulation laser, cf. 4.2.2.1.2 Par balayage laser, p.112168 cf. PARAMYTHIOTI (M.), « Le colosse d’Alexandrie, remontage de la statue de Ptolémée », Revue XYZ, n°76,1998, pp.59-64.

94

avec la densité du granit a fourni à la fois leur masse précise ainsi que la position de leur

centre de gravité respectif. La connaissance de ces éléments a simplifié grandement le travail

d’assemblage réel mené par l’atelier de restauration : la simulation virtuelle des poussées et de

la résistance du matériau169 a permis de déterminer avec précision les meilleurs emplacements

pour réaliser les percements destinés à recevoir les broches d’assemblage. L’ensemble de la

structure consolidant et maintenant les différentes pièces entre elles a ensuite été contrôlé

avant de passer à la phase d’assemblage réel : ce dernier modèle a permis de tester les efforts

transitant dans le colosse, dans les prothèses qui remplacent les pièces faisant défaut et dans

l’ossature métallique complétant le tout (voir la fig. 1, planche XVII). Au total, la simulation

informatique a permis de préciser la stratégie à adopter pour le remontage effectif du colosse

en prenant en compte de nombreux paramètres : masse, centre de gravité, pression, résistance

des matériaux à la gravité, résistance de la structure au vent, aux vibrations, au défaut de

verticalité.

Dans une autre perspective, la visualisation d’éléments non visibles offre de nouvelles

applications en archéologie, notamment lorsqu’il est nécessaire de vérifier la structure interne

d’un vestige dont on désirerait, par ailleurs, préserver l’intégrité. Les technologies permettant

de voir à l’intérieur d’un objet sans avoir à l’altérer proviennent essentiellement du secteur

médical. En effet, c’est dans ce domaine que la majorité des efforts de « recherche et

développement » en imagerie ont été consentis, justifiés par les gains d’efficacité dus à la

possibilité de voir l’intérieur du corps humain sans avoir à intervenir physiquement dessus170.

L’appareillage nécessaire à la production de ce genre de documents, déjà très coûteux

dans le cadre médical, n’autorise pas, dans l’immédiat, des utilisations généralisées de cette

technologie dans un contexte de recherche archéologique. C’est pourquoi les applications

archéologiques sont actuellement très marginales et font essentiellement l’objet de recherches

expérimentales soutenues par des opérations de mécénat scientifique et technique171. Il est

néanmoins utile d’en exposer les mécanismes.

169 Cette phase a été rendue possible par la compression du modèle original, composé de plus d’un million defacettes en éléments finis tétraédriques totalisant 21000 triangles. Cette compression a été nécessaire pourréaliser les calculs de résistances des matériaux avec le logiciel Code-Aster (laboratoire d’EDF), cfPARAMYTHIOTI (M.), idem, p. 63170 cf. HURIET (CL.), « Rapport sur les Images de synthèse et monde virtuel : techniques et enjeux de société » inOffice parlementaire d’évaluation des choix scientifiques et technologiques, n°526, Paris, éd. Société Nouvellesdes Librairies, p.69-72.171 cf. KOUWENHOVEN (A.), « Projet Sensaos: comment reconstituer le visage d’une momie », Archéologia,n°349, Octobre 1998, pp.28-32. L’exemple qui suit a bénéficié de la collaboration de Philips Medical Center

95

Les techniques d’imagerie médicale sont nombreuses et relativement complémentaires,

ce n’est pas le propos de les exposer ici172. L’une d’entre elles, banalisée dans le langage

quotidien par l’appareil qu’elle requiert, le « scanner », fait appel aux technologies mettant en

œuvre la Résonance Magnétique Nucléaire (RMN), également connue sous l’appellation

d’Image par Résonance Magnétique (IRM). Dans les grandes lignes, cette technologie,

couplée à la tomographie173, permet de recomposer un modèle numérique de tout le corps

humain en différenciant chaque type de tissus, d’organe ou d’os connus par la quantité relative

d’atomes d’hydrogènes qu’ils contiennent174. L’application de cette technologie à

l’archéologie nécessite que le vestige à étudier soit composé d’éléments organiques, ce qui la

réserve pour l’heure à l’étude de cas particuliers tels que les momies175.

A ce titre, un projet initié par le musée national des antiquités de Leyde, aux Pays-Bas,

avait pour objet la reconstitution du visage d’une défunte momifiée au début du IIème s. ap. J.-

C., sans recourir à des interventions physiques qui auraient mutilé le vestige. Outre la création

d’un double réel du visage par la stéréolithographie176 du crâne et la restitution des chairs par

un spécialiste du modelage, le modèle numérique, recomposé à partir de plus de 700 coupes, a

fourni des indications sur la santé de la jeune fille à partir de l’observation des os et des dents

calculés en images tridimensionnelles (voir fig. 42 à 46, planche XVI). L’observation du

modèle a également permis d’étudier le mode de momification de la défunte, trahit par des

dommages causés sur le crâne, indiquant que le cerveau avait été extrait par le nez ; des yeux

factices en verre avaient été déposés sur les paupières et un paquet de lin était disposé à la

place du cœur. Par la suite, en jouant sur les facteurs de transparence permis par les matériaux

virtuels, il est possible de voir la position du squelette de la jeune fille par rapport à

172 Pour une synthèse rapide de ces différentes techniques, cf. SCHRYVER (J. DE), « Principes d’imageriemédicale », Pixel, n°22, p.49-52.173 Technique qui consiste à prendre une succession de clichés radiographiques ou magnétiques en coupe parrapport à un corps. L’assemblage informatique de ces « tranches » permet de restituer un modèle numérique ducorps, plus ou moins précis en fonction de la fréquence et de la finesse de ces clichés.174 La résonance magnétique fait vibrer les atomes d’hydrogène présents dans tout le corps humain. Le scannercouplé à l’ordinateur permet de mesurer l’intensité du signal renvoyés par les atomes. Connaissant leur quantitédans les différents constituants du corps humain, il est possible de déterminer, pour chaque point de l’espacetridimensionnel, à quel type d’organe, de tissus ou d’os il appartient.175 La radiographie associée à la tomographie devrait permettre, dans une moindre mesure, d’étudier des vestigesne contenant pas d’hydrogène, ce qui pourrait étendre le champs de l’imagerie médicale à des vestiges nonorganiques.176 Technique qui permet de créer, à partir d’un modèle numérique, un objet réel par dépôts progressifs degouttelettes de cire ou de résine. C’est un procédé provenant du monde industriel, utilisé principalement lors dela phase de prototypage d’un produit conçu initialement sur ordinateur.

96

l’ensemble de la momie, ce qui peut encore fournir des éléments de compréhension des

méthodes de momification177.

Les principes d’imagerie médicale, réservés à quelques cas particuliers de vestiges,

laissent présager des applications futures à la visualisation des vestiges cachés ou enfouis

grâce à l’utilisation d’autres méthodes d’analyse et de détection, comme celles qui furent

utilisées lors des campagnes de prospection géophysique autour de la pyramide de Pépi Ier, à

partir de 1988178. Cependant, il est encore trop tôt pour en parler et pour espérer une

application directe des méthodes de représentation tridimensionnelle dans ce domaine179.

4.1.2. Une grande souplesse dans les traitements mais quelqueslimites dues à l’idéalisation de la représentation

Nous avons vu que l’utilisation de modèles numériques renouvèle considérablement la

connaissance que les archéologues ont de l’objet de leur recherche. Il leur est désormais

possible de rassembler, dans un même fichier, une grande quantité d’informations traduisant,

sous forme numérique, l’ensemble des connaissances qu’ils ont acquises en étudiant la réalité

archéologique. A ce titre, les modèles numériques peuvent contenir des représentations

tridimensionnelles aussi bien basées sur l’analyse de la réalité, quelle qu’en soit l’échelle ou le

degré de précision180, que sur la projection de ce que pouvait être cette réalité à un moment

révolu.

La pertinence et l’étendue de leur raisonnement scientifique ne sont plus limitées par

leur capacité d’abstraction et de synthèse de ces multiples données. L’ordinateur se charge

désormais de cette tâche, laissant le champ libre à des processus plus intuitifs dans les

démarches d’analyse et d’explication des phénomènes archéologiques. A cet égard, nous

avons bien vu le rôle déterminant joué par les multiples possibilités de visualisation des

données, qu’il s’agisse des différents modes de représentation (projection orthogonale,

177 cf. illustrations de l’article et site web du musée à l’URL=http://www.rmo.nl. Le site est daté de 1998.178 cf. BERTAUX (CH.), (J.-P.), DELETIE (P.) & LEMOINE (Y.), « Géophysique et archéologie de Saqqara àGrand », Les Dossier d’Archéologie, n°153, Octobre 1990, p.32-39. Les méthodes de prospections géophysiques,basées sur des capteurs électrique, électromagnétique et magnétique ont permis de détecter, à huit mètres audessous du sol actuel, trois zones réduites contenant des vestiges, ce qui a épargné l’engagement de travaux defouille sur plusieurs années pour arriver au même résultat.179 Hormis dans de rares cas particuliers, où la visualisation tridimensionnelle des résultats est obtenue parl’exagération de certains signaux, à l’instar de notre exemple sur la modification de l’altitude dans les MNT. Pourplus de précisions sur les méthodes de prospection géophysique, cf. DABAS (M.), DELETANG (H.), FERDIERE

(A.), JUNG (C.) ET HAIO ZIMMERMANN (W.), La Prospection, Paris, éd. Errance, 1998, coll.« Archéologiques », p.161-206.180 Cette approche privilégie une connaissance globale de la problématique archéologique, où le mobilier, le sitearchéologique même et son environnement sont pris en compte dans le même fichier numérique.

97

perspective centrale) ou de la modification instantanée des points de vue. En outre, la nature

numérique des objets contenus dans le modèle permet aux archéologues d’intervenir sur les

paramètres qui les caractérisent, rendant de ce fait possible l’édition interactive du modèle par

la modification des attributs de forme (exagération de l’altitude dans les MNT), de position

(déplacement des éléments d’architecture) et d’apparence des objets (jeu sur la transparence

des bandelettes de la momie de Leyde). Au total, les modèles numériques présentent une

alternative à la réalité, sans en connaître les contraintes : fondamentalement immatériels, ils

n’ont pas de masse, ne sont pas composés de matières réelles et peuvent être dupliqués à

l’infini sans risque d’altération. Ces qualités font d’eux les supports idéaux des informations

archéologiques.

En contrepartie, la représentation tridimensionnelle des informations prélevées par les

archéologues pose de nouveaux problèmes dans la démarche d’acquisition de ces données. En

effet, nous avons vu que les méthodes de modélisation ex nihilo ne répondaient pas de

manière satisfaisante aux nouvelles exigences des archéologues en terme de précision et de

significativité. Les logiciels de modélisation conduisent invariablement à créer des formes

trop régulières qui contribuent à l’élaboration de modèles théoriques ne rendant absolument

pas compte des imperfections de la réalité. Par conséquent, ces modèles ne permettent pas

d’exprimer ce qui fait tout l’intérêt de l’enregistrement des vestiges sur le terrain : pour s’en

convaincre, il suffit d’imaginer le travail d’un dessinateur, qui, au lieu de relever

soigneusement les formes et la disposition des vestiges en prenant un certain nombre de

mesure, se contenterait d’en reproduire l’aspect général à l’aide de figures géométriques

régulières.

Pour remédier à cette faiblesse, la pratique de l’archéologie virtuelle impose le recours

à des méthodes d’enregistrement davantage en accord avec les données réelles. Cette nécessité

est d’autant plus importante que, jusqu’à présent, les méthodes d’acquisition des données

étaient essentiellement conçues dans une approche bidimensionnelle, déterminées par le

support de destination de l’information. Par conséquent, l’utilisation de l’infographie et des

modèles numériques comme outil de la recherche archéologique implique une véritable

réflexion sur l’acquisition tridimensionnelle des données observées par les archéologues.

4.2. Les modalités d’acquisition des donnéesL’utilisation des modèles numériques à des fins scientifiques impose aux archéologues

de nouveaux besoins et de nouvelles méthodes de travail. En effet, jusqu’à présent, les

98

vestiges découverts en fouille étaient conservés sous la forme de documents graphiques

comportant plus ou moins d’informations181, suivant qu’il s’agissait de photographie, de

dessins côtés etc.… Ces documents, destinés à être publiés sur des supports plans, ont été

essentiellement conçus dans une logique bidimensionnelle. Or, il s’avère que les données

archéologiques, comme nous l’avons montré, gagnent à être véritablement gérées dans une

logique tridimensionnelle. Cependant, les instruments de mesure dont disposent jusqu’à

présent les archéologues ne permettent pas de procéder à de vastes campagnes de mesures

tridimensionnelles, ou tout du moins, n’autorisent pas la précision des enregistrements

nécessaire à la production de modèles numériques scientifiques.

Par exemple, sur la plupart des chantiers de fouille, la saisie des coordonnées

tridimensionnelles ne concerne que certains vestiges caractéristiques et n’est réalisée que de

manière approximative : l’objet est d’abord replacé dans le plan du site, ses coordonnées (x, y)

étant obtenues par triangulation à partir de points connus, puis se voit attribuer une

coordonnée (z) grâce un instrument de nivellement qui permet d’en déterminer l’altitude par

rapport à un plan horizontal de référence182. Cette méthode, si elle permet de situer

approximativement un objet de faible volume, ne permet pas, en revanche, d’exprimer avec

beaucoup de pertinence d’autres vestiges plus importants : il en est ainsi des couches

stratigraphiques, qui ne sont connues dans l’espace que par leurs niveaux maximal et minimal,

ce qui présente l’inconvénient, par exemple, de favoriser l’idée d’une disposition horizontale

de la sédimentation archéologique. Le manque de précision de cette méthode combinant deux

types de mesure ne permet pas, en outre, de procéder à la saisie des formes des vestiges, alors

qu’il pourrait être utile, par ce moyen, d’en connaître l’orientation et la disposition. En fait, la

saisie des coordonnées tridimensionnelles en archéologie ne s’applique, pour l’instant, qu’à la

localisation de certains vestiges et au positionnement des relevés effectués au fur et à mesure

de la fouille.

Cet exemple souligne le décalage existant entre l’archéologie telle que pratiquée

aujourd’hui et les conditions à remplir pour que l’efficacité des modèles numériques soit

assurée. Il reste ainsi à étudier les différentes méthodes d’acquisition tridimensionnelle

palliant les limites de l’archéologie actuelle.

181 Cf. 1.2.2.2 Le dessin technique en deux dimensions, p.16182 Cette mesure, après calcul, est exprimée en mètre par rapport au niveau de la mer, et a été déterminée en1897. Cf. VINCENT (R.), « En 1897, le Zéro du Nivellement Général de la France était adopté grâce auMarégraphe totalisateur fondamental de Marseille », Revue XYZ, n°73, 1997, p.85-89.

99

4.2.1. Le transfert des méthodes traditionnelles de relevétridimensionnel des spécialistes vers les archéologues

4.2.1.1. Des instruments de métrologietridimensionnelle réservés aux spécialistes

Depuis de nombreuses années, les géomètres topographes et les cartographes disposent

de méthodes et d’instruments leur permettant de mesurer les coordonnées tridimensionnelles.

Cependant, leur coût ainsi que les compétences qu’ils requièrent constituaient des obstacles à

leur utilisation courante en archéologie, les réservant de ce fait à quelques circonstances

précises, comme par exemple l’implantation du quadrillage d’un chantier de fouille ou bien

encore le relevé d’une façade architecturale.

4.2.1.1.1. Le relevé au théodolite

Le théodolite est un instrument portable permettant de mesurer les angles verticaux et

horizontaux. Les calculs trigonométriques réalisés à partir de ces mesures permettent aux

géomètres de relever des objets à partir de leurs points significatifs. Par exemple, pour

attribuer des coordonnées tridimensionnelles aux différents points d’un objet, il suffit, pour

chaque point, de réaliser des mesures d’angles à partir d’au moins deux positions de visée

différentes (stations), celles-ci étant connues dans l’espace (en calculant leur position, par

exemple, à partir d’une borne géodésique exprimée en coordonnées x, y, z). Connaissant la

position respective des deux stations et, par conséquent, leur distance, ainsi que les angles

horizontaux et verticaux de chaque point en chaque station, il est possible, par un calcul

d’intersection, de déterminer la distance des points par rapport aux points de station. Il reste

ensuite aux géomètres, par des calculs dont ils ont le secret, de transformer les coordonnées

polaires obtenues par les mesures d’angles et de distances en coordonnées rectangulaires

exprimées par le triplet x, y, z.

L’inconvénient majeur de cette technique réside dans sa relative complexité due à la

quantité de calculs à réaliser pour obtenir les coordonnées d’un seul point. Seuls des

professionnels rompus à ces calculs sont en mesure de produire rapidement de bons résultats,

ce qui réduit d’autant plus leur portée en archéologie, les archéologues préférant remplacer les

mesures au théodolite par celles réalisées avec un niveau183 lorsqu’il s’agit de déterminer les

coordonnées d’un vestige mis au jour. Dans le cas de relevés plus précis, nécessitant la mesure

de nombreux points, l’application de cette technique n’est pas réellement effective, car la

183 cf. plus haut

100

quantité de mesures d’angles et de distance à consigner par écrit est une source d’erreurs non

négligeable. Par conséquent, le manque de rapidité de cette technique lié aux temps de mesure

et de calcul et le risque d’erreurs qu’elle génère sont des facteurs expliquant le peu d’intérêt

manifesté par les archéologues qui désirent disposer d’instruments leur permettant de relever

les vestiges rapidement. En effet, le caractère éphémère des dispositions in situ lors des

fouilles archéologiques rend nécessaire la mise en œuvre de méthodes permettant de

documenter la fouille sans pour autant la retarder. Les mesures au théodolite, par leur relative

lenteur, ne remplissent pas cette obligation ; d’autres méthodes permettent d’y remédier

4.2.1.1.2. Les relevés photogrammétriques

La photogrammétrie est une application dérivée de la photographie et bénéficie, de ce

fait, de sa capacité à enregistrer globalement et instantanément les informations situées dans le

champ de vision de l’appareil photographique. Le principe de la photogrammétrie repose sur

l’intersection des visées enregistrées par deux photographies du même objet prises sous deux

angles différents184. Les deux vues différentes permettent de restituer le relief de l’objet, et la

prise en compte des caractéristiques de l’appareil photographique, telles que la focale, donne

la possibilité de mesurer la position tridimensionnelle des points significatifs présent sur les

deux photographies.

Cette opération de mesure, réalisée dans un premier temps mécaniquement au début du

XXème siècle sur des « restituteurs » analogiques, était d’abord utilisée pour des opérations de

cartographie à partir des couples de photographies pris d’avion, le grand avantage des clichés

tenant au fait qu’ils peuvent couvrir de vastes portions de territoire. Le principe de

fonctionnement du restituteur, simple a priori, fait appel à des mécanismes et à une optique de

haute technicité qui explique son coût prohibitif, d’autant plus qu’il était produit en petite

série, et les seuls organismes qui pouvaient s’en porter acquéreurs devaient rentabiliser leur

investissement en produisant en grandes quantités : la cartographie, de ce fait, était une des

rares activités à justifier l’achat d’un tel matériel185.

L’opérateur, le photogrammètre, couchait les deux photographies sur des plateaux

supportés par un système opto-mécanique qui produisait une intersection optique des deux

images. En regardant dans la lunette stéréoscopique, il voyait une scène en relief

184 cf. SAINT AUBIN (J.-P.), « Architecture et images virtuelles: vers une nouvelle pensée visuelle » inPatrimoine et multimédia, le rôle du conservateur, La Documentation française, Paris, 1997, p.58

101

correspondant à une portion du photogramme186. Grâce à des systèmes mécaniques, il peut

jouer sur le défilement tridimensionnel de la scène, en réglant la position (x, y) et l’altitude

des points visés. Un curseur, le ballonnet, est placé au centre du champ de vision du

photogrammètre, immobile, et permet de détourer et de dessiner les formes caractéristiques en

faisant défiler la scène. La mise au point du ballonnet permet de déterminer l’altitude du

terrain en ce point précis du photogramme ; par ce moyen, le photogrammètre peut dessiner

les courbes de niveaux du terrain en recherchant tous les points d’altitude constante.

Les cartographes avaient ainsi à leur disposition des documents qui leur permettaient

de produire des cartes précises sur lesquelles étaient portées les courbes de niveau déterminées

par les mesures données par le restituteur. Ce n’est qu’à partir des années 1960 que les relevés

photogrammétriques furent appliqués au patrimoine archéologique et architectural : les

premières expériences furent réalisées par l’Institut Géographique National187 qui était l’un

des seuls, tout du moins en France, à disposer des moyens nécessaires et du savoir-faire acquis

depuis qu’il a pour mission de cartographier le territoire français. La photogrammétrie a été

détournée de son application première pour ensuite être appliquée au relevé architectural. Par

les mêmes principes, elle permet de créer des documents précis, qu’il s’agisse de plans, de

coupes ou de relevés d’élévation. Le photogrammètre, par l’observation stéréoscopique du

couple de photographie, procède en dessinant les formes caractéristiques de ce qu’il veut faire

figurer. La gestion de la profondeur lui permet de suivre, dans un espace en trois dimensions,

une forme architecturale qui ne serait pas parallèle au plan du dessin. Par cette possibilité, il

peut dessiner en profondeur, ce qui équivaut en quelque sorte à réaliser un plan en vue de

dessus de ce qu’il voit de face. Il peut donc, à partir du même couple de photographie, créer

différents documents graphiques.

Cependant, avant que l’informatique ne permette d’en élargir le champ de possibilité,

la restitution photogrammétrique ne pouvait produire que des dessins définitifs. La création de

nouveaux restituteurs (les restituteurs analytiques) combinant la vision analogique avec un

traitement informatique des données a permis de conserver les coordonnées

tridimensionnelles pour les exporter vers des logiciels gérant les informations

tridimensionnelles. Dès lors, les photogrammètres ont pu créer, à partir d’un photogramme, le

185 cf. EGELS (Y.), « La photogrammétrie numérique: vers une banalisation du métier de photogrammètre? » inBulletin de la Société Française de Photogrammétrie et de Topographie, N°149 (1998-1), p.8186 couple de photographies

102

modèle numérique de l’objet voulu, quelle que soit sa taille puisque la photographie permet de

saisir n’importe quel objet, qu’il s’agisse d’une portion de territoire, de la façade d’un édifice

ou d’une lampe à huile.

Le problème inhérent à cette technique de numérisation 3D tient au fait qu’elle met en

œuvre des moyens disproportionnés188 avec le financement de la plupart des fouilles

archéologiques. Seuls quelques organismes sont en mesure de proposer ces services, et les

principaux exemples de l’application de la photogrammétrie à l’archéologie ont été justement

réalisés avec leur collaboration. L’IGN a participé à de nombreuses campagnes d’étude

photogrammétrique de sites et de monuments archéologiques, qu’il s’agisse des plus

prestigieux du monde (cf. Abou Simbel, Angkor189) ou de France (Glanum). Pour ce qui est

du relevé architectural, l’atelier de photogrammétrie de l’Inventaire Général a réalisé les

principaux travaux sur les façades des édifices inventoriés, les sociétés privées de

photogrammétrie se chargeant des autres levées architecturales. Pour la photogrammétrie

proprement archéologique, le Centre de Recherches Archéologiques de Sophia Antipolis

(CNRS) est le principal producteur d’études photogrammétriques en France (ou, tout du

moins, dans le sud de la France), suivi par d’autres unités du CNRS comme le Laboratoire

d’Archéologie Médiévale d’Aix-en-Provence190.

Par conséquent, l’utilisation de la photogrammétrie comme outil de numérisation

tridimensionnelle semble réservée à quelques sites relativement importants ou bénéficiant

d’un programme de recherche suffisamment étoffé pour justifier le recours à de tels moyens.

Dans ce cas, les archéologues doivent céder leurs prérogatives de sélection des informations

aux photogrammètres sur lesquels repose le choix des éléments significatifs à numériser. Le

fait que les archéologues n’aient pas une maîtrise directe des instruments de sélection et

d’enregistrement des informations constitue un réel obstacle à la valeur de la documentation

élaborée : qui, mieux qu’un archéologue, peut savoir quelles sont les informations à conserver

et celles qui ne sont pas importantes ?

187 Lors de la grande campagne de sauvetage des monuments de Nubie, cf. ADAM (J-P.), « Les nouveaux regardsde l’archéologie monumentale », in Les Nouvelles de l’Archéologie, N°76 – 1er trimestre 1999, p.6.188 Les appareils photographiques utilisés sont spécialement conçus pour cet usage et sont onéreux, mais plusencore, le restituteur et son utilisation requièrent un investissement relativement élevé, puisqu’ils mobilisent unepersonne spécialisée pour cette activité.189 Entretien avec Y. Egels, Ingénieur en Chef, Atelier de Photogrammétrie de l’Ecole Nationale des SciencesGéographiques, IGN.190 cf. CARBONNELL (M.), Apports des méthodes photogrammétriques à la connaissance et à la conservationdes sites méditerranéens français, 1ère Rencontre internationale des responsables des sites historiques d’intérêtcommun méditerranéen, Marseille, 1989, p.12-16.

103

4.2.1.2. Des instruments désormais accessibles auxarchéologues

Qu’il s’agisse de la photogrammétrie ou du relevé au théodolite, les progrès liés à

l’informatique apportent de nouvelles possibilités aux archéologues.

L’intégration de circuits électroniques dans les théodolites permet de minimiser le

risque d’erreur lié à la lecture des mesures et à leur conservation : les angles, directement lus

par l’électronique embarquée, sont stockés sous forme numérique et peuvent être exportés

vers des logiciels de calcul tridimensionnel. « Le stockage sans faute des données »191 permet

non seulement de conserver les lectures sans risque d’erreur, mais aussi de multiplier les

mesures de point, l’opérateur étant désormais affranchi de la tâche fastidieuse de consignation

des résultats. Ensuite, l’exportation des données vers des logiciels spécialisés dans les calculs

d’intersection et dans la conversion des coordonnées polaires en coordonnées rectangulaires

débarrasse l’archéologue des calculs complexes, souvent sources d’erreur et consommateurs

en temps. Dans certains cas, l’adjonction d’un distancemètre192 transforme le théodolite en

station totale : l’archéologue connaît désormais les angles verticaux, horizontaux et la distance

entre l’appareil de mesure et l’objet visé, les mesures gagnent ainsi en précision. Ces

nouveautés se répercutent bien entendu dans le coût total du matériel, mais permettent, en

revanche, l’utilisation directe du matériel par les archéologues, qui peuvent désormais se

passer des spécialistes, tout du moins lorsqu’il s’agit d’obtenir, sur toute la durée des travaux

archéologiques, les nombreuses coordonnées tridimensionnelles nécessaires à l’établissement

d’une documentation précise.

Pour ce qui est de la photogrammétrie, de récentes recherches ont conduit à

l’élaboration de restituteurs intégralement numériques193. La principale limite des restituteurs

analogiques et analytiques tenait au fait qu’ils étaient composés de systèmes opto-mécaniques

pour les premiers et optoélectroniques pour les derniers très perfectionnés et par conséquent

relativement coûteux. Le développement et la démocratisation du matériel informatique

permettent aujourd’hui de reproduire intégralement le processus de restitution

photogrammétrique sur ordinateur.

191 cf. SAINT AUBIN, idem, p.57.192 Instrument de mesure électronique des distances. Le distancemètre se base sur la durée que met la lumièreémise par un laser pour aller de l’instrument jusqu’à l’objet visé (ou plus exactement jusqu’au réflecteur [prismepermettant de réfléchir le signal émis par le distancemètre] posé sur l’objet) et pour en revenir, afin d’en déduirela distance parcourue, à raison de 1 m en 1/299 792 458 de seconde (vitesse de la lumière dans le vide:299 792 458 m/s).

104

Les données de bases, à savoir le couple photographique, peuvent être obtenues par

deux moyens. Le premier repose sur l’amélioration à venir des appareils photographiques

numériques, qui devront prochainement atteindre des résolutions intéressantes pour ce genre

d’application194. Le second table sur la qualité actuelle des scanners à plat dont l’usage s’est

fortement répandu et dont les plus performants permettent d’obtenir, à partir des clichés

photographiques, des résolutions satisfaisantes (une information tous les 6 microns195).

Le système de restitution est ensuite intégralement numérique : l’utilisateur spécifie les

caractéristiques de l’appareil et fourni un certain nombre de points d’appui présents dans les

deux clichés pour caler les photographies ensembles. Pour reproduire l’effet de stéréoscopie

nécessaire à l’opération de restitution, les développeurs ont fait alterner l’affichage des deux

images à des fréquences imperceptibles par l’œil humain, couplé à des lunettes actives à

cristaux liquides : les verres s’obturent alternativement en synchronisation avec l’affichage

des deux images ; ainsi, chaque œil reçoit une image différente, et, la persistance rétinienne

faisant le reste, le cerveau recompose le relief à partir les signaux émis par l’écran.

L’affichage ne prend en compte qu’une partie des images, en raison de leur taille qui rend

particulièrement délicats les problèmes de gestion de mémoire de l’ordinateur. Aussi, le

système de défilement de l’image a été également reproduit pour permettre la consultation de

l’ensemble du photogramme. Les déplacements tridimensionnels des machines analogiques et

analytiques commandés par les manivelles (x, y) et la pédale (z) ont été simplement remplacés

par l’adjonction d’une seconde souris : la première s’occupe des déplacements en deux

dimensions tandis que la seconde est réservée au réglage de l’altitude. Ensuite, le pointage des

éléments caractéristiques du photogramme se réalise de la même manière qu’avec les

restituteurs traditionnels : le ballonnet, immobile, renseigne sur les coordonnées

tridimensionnelles, qui, d’un simple clic de souris, sont enregistrées dans une base de

données. Le fichier ainsi créé peut être directement employé par un logiciel de CAO, qui

pourra reconstituer, à partir des points numérisés, la surface de l’objet à modéliser.

193 cf. EGELS (Y.), « La photogrammétrie numérique: vers une banalisation du métier de photogrammètre? » inBulletin de la Société Française de Photogrammétrie et de Topographie, N°149 (1998-1), p.8-11.194 cf. EGELS, idem, p.9 et SAINT AUBIN, idem, p. 61. Des recherches actuellement en cours au laboratoired’optique, électronique et microinformatique de l’IGN portent sur le développement d’une caméra numériquepouvant atteindre une résolution de 4096x4096 pixels, soit plus de 16,7 millions d’informations, ce qui est encoreen dessous de ce que permet la photographie argentique, qui, à raison d’une information tous les 5 microns,propose des résolutions allant de 32 à 234 millions d’information par clichés. Néanmoins, il est à noter quel’ensemble de l’offre (numérique ou argentique) peut fournir des appareils convenant parfaitement à laphotogrammétrie numérique: il n’est pas nécessaire d’avoir recours à une caméra métrique, des logicielspermettent désormais de corriger les problèmes de distorsion par le calcul.

105

La restitution numérique, bien qu’existant depuis quelques années sur des stations

graphiques relativement coûteuses (Intergraph), est désormais possible sur du matériel

informatique standard. En effet, c’est dans le cadre de la formation en photogrammétrie de

l’Ecole Nationale des Sciences Géographiques qu’Yves Egels, ingénieur à l’IGN, a développé

le restituteur numérique Poivilliers E196. Ce logiciel, conçu pour fonctionner sur

environnement PC, ne requiert qu’un processeur Pentium réglé à 150 Mhz et disposant de 16

Mo de mémoire vive, ce qui, de toute évidence, met la restitution numérique à la portée de

tous, car la plupart des ordinateurs du marché dépasse aujourd’hui les performances

demandées par ce logiciel. L’investissement supplémentaire à concéder pour obtenir une

station de restitution est relativement modéré, étant donné que d’une part, les lunettes actives

à cristaux liquides sont aujourd’hui disponibles pour le grand public en raison de leur

utilisation dans les jeux vidéos, et que d’autre part, les périphériques de numérisation

(scanners à plat, photoscope197) tendent à être de plus en plus utilisés par le grand public et par

la communauté archéologique198.

Par conséquent, la faiblesse des moyens à engager pour obtenir un restituteur

numérique laisse présager des applications futures en archéologie : les archéologues disposent

désormais d’un outil de numérisation tridimensionnelle dont ils ont la totale maîtrise sans

recourir à des services spécialisés199.

Bien entendu, le transfert des méthodes de métrologie des spécialistes vers les

archéologues ne va pas sans poser de problème. Avant d’être de fournir des outils utiles aux

archéologues, ces méthodes nécessitaient de ceux qui les utilisaient un savoir-faire acquis par

l’apprentissage d’un métier : les géomètres topographes et les photogrammètres ont une pleine

195 cf. SAINT AUBIN, idem, p.62.196 cf. EGELS (Y.), « La photogrammétrie numérique: vers une banalisation du métier de photogrammètre? » inBulletin de la Société Française de Photogrammétrie et de Topographie, N°149 (1998-1), p.8-11. Le logicieln’est pas commercialisé par l’IGN: son développeur le distribue gratuitement (pour l’instant) aux universitairespar courrier électronique à l’adresse [email protected] Nouvelle dénomination en usage pour les appareils photographiques numériques198 L’investissement dans un scanner à plat est déjà souvent justifié par son utilisation comme outil denumérisation des documents réalisés directement sur le terrain, en vue de produire des plans, coupes, cartes dequalité professionnelle.199 A titre indicatif, il existe depuis peu quelques logiciels de modélisation s’inspirant de la photogrammétrienumérique et disponibles dans le commerce pour moins de 10 000 F. Pour l’heure, ils ne semblent pas offrir degrandes possibilités pour modéliser des objets complexes. Photo Modeler est développé par Eos System(http://www.photomodeler.com) et 3D Builder par 3D Construction. Cf. THORIN (H.) & TOMBEUR (J.), « Lessolutions de modélisation 3D », Pixel, n°41, Septembre – Octobre 1998, p.42.

106

connaissance des limites de leurs méthodes200 et ont conscience des incertitudes et des

nécessités liées à leur pratique. Par conséquent, l’utilisation de ces outils sans le contrôle des

professionnels sous-entend, de la part des archéologues, une certaine compétence que

l’informatique ne saurait remplacer, notamment sur la façon d’asseoir l’opération de saisie

tridimensionnelle dans un système de coordonnées plus général, ou bien encore sur le choix

de la méthodologie la plus efficace à adopter en fonction du matériel disponible. A ce titre, il

existe déjà une réflexion menée par certains archéologues sur l’efficience et la faisabilité de

ces méthodes dans le champ archéologique. Il est ressorti d’une de ces études que l’utilisation

du relevé topographique et du relevé photogrammétrique assistés par ordinateur apportait une

réelle plus value suivant les propriétés respectives de ces deux approches.

Les deux méthodes ont été utilisées successivement pour relever les mêmes points

connus dans l’espace201. Lors de ce test, différents paramètres ont été pris en compte pour

juger de l’efficacité des deux procédés : la précision des résultats, le temps de travail

nécessaire à leur production, la facilité de mise en place et de manipulation du matériel, le

coût global inhérent à chaque technique et le personnel requit pour mener à bien chaque

opération. Ces critères de jugements n’ont pas toujours été facilement comparables, étant

donné que certaines phases des opérations dépendaient de facteurs extérieurs non contrôlables

par les archéologues. Néanmoins, au terme de cette comparaison, il est apparu que les deux

techniques apportaient chacune leurs propres avantages.

Ainsi, en terme de précision, la station totale est apparue plus fiable que la restitution

photogrammétrique, toutes deux fournissant, cependant, des résultats plus que satisfaisants

pour une pratique archéologique, puisque la marge d’erreur ne dépasse pas les 5 mm202.

Pour ce qui est du temps de travail total, la saisie de 100 points prend trois heures de

plus avec une station totale qu’avec une solution photogrammétrique (7 heures contre 4, ce

qui revient, pour un seul point, à une moyenne de plus de 4 mn contre 2 mn 30 s).

200 Ne serait-ce qu’en formulant mathématiquement la marge d’erreur permise par les différentes méthodes demesure et en la répercutant sur les résultats obtenus (le calcul d’incertitude occupe une place non négligeabledans le travail des professionnels de la métrologie, à tel point qu’ils ont établi des normes pour l’exprimer, p. Ex.La norme XP X 07-020 Juin 1996: Guide pour l’expression de l’incertitude de mesure, cf. MARTIN-RABAUD

(A.), « Intercomparaison des méthodes de métrologie tridimensionnelle par procédés optique » in Bulletin de laSociété Française de Photogrammétrie et de Topographie, N°150 (1988-2), p.18-22).201 cf. EITELJORG (H.), « Surveying for Computer-Aided Drafting and Design – experiments in three-dimensionnal techniques », Center for the Study of Architecture, Bryn Mawr, 1996,

URL=http://csaws.brynmawr.edu/web1/srveybk.html

107

Au niveau de l’utilisation sur le terrain, la station totale est plus contraignante, car son

usage demande une certaine habitude et dépend du bon placement du réflecteur sur le point à

viser, ce qui, sur une longue durée, ne manque pas de générer des erreurs dues à la fatigue des

opérateurs. A l’inverse, la photogrammétrie permet d’enregistrer en une seule fois les points à

numériser, et ne requiert, du moins sur le terrain, que la compétence du photographe.

L’essentiel du travail est ensuite mené en laboratoire, ce qui implique qu’un soin particulier

soit apporté à la prise de vue sur le terrain. L’avantage de ce procédé tient au fait que le

photogramme constitue un enregistrement sur lequel il est possible de revenir à tout moment,

après l’achèvement de la fouille, alors que les mesures faites avec une station totale doivent

être réalisées sur le champ, sans possibilité de repentir. En outre, la photogrammétrie présente

une alternative au relevé topographique lorsqu’il s’agit de numériser des points difficilement

accessibles, tels que ceux présents en élévation, le placement du réflecteur étant dans ce cas

très problématique. D’un autre côté, le relevé avec une station totale peut être réellement

intéressant lorsque les points à saisir, en faible quantité, sont disséminés autour du point de

station, ce qui évite de multiplier les photogrammes ne présentant pas grand intérêt en raison

du faible nombre de points à prélever sur chacun des documents.

En terme de coût, le relevé topographique requiert l’appareil et le logiciel de calcul

tridimensionnel, qui peuvent atteindre tous deux des sommes relativement importantes : le

coût d’une station totale s’élève au moins à 60 000 F203, tandis que celui des logiciels est

variable. Le coût du relevé photogrammétrique est fonction du matériel utilisé : à celui de

l’appareil photographique204 s’ajoute celui des films et de leur développement, auxquels se

rajoute celui du matériel de restitution, dont nous avons vu qu’il commençait à devenir

accessible.

4.2.2. Les nouvelles méthodes de numérisation tridimensionnelleLa saisie de coordonnées tridimensionnelles est une activité qui, nous l’avons vu, est

relativement fastidieuse et contraignante : elle requiert davantage de temps, d’attention et de

lecture de mesure que n’en nécessite le relevé à finalité bidimensionnelle. En fait, le caractère

manuel du relevé rend souvent l’établissement d’une documentation bidimensionnelle plus

202 Rappelons que cette comparaison a été réalisée vers 1988 à partir du matériel et des logiciels du moment, cequi, en toute logique, ne fournit que des résultats à prendre à titre indicatif, étant donné l’amélioration de laqualité de l’offre aujourd’hui.203 Ordre de grandeur donné par M. J.-P. Saint Aubin lors d’un entretien.204 cf. EITELJORG (H.), idem. Pour un appareil à chambre métrique Rolleiflex, H. Eiteljorg, en 1989, proposaitun prix atteignant plus de 35 000 F (à partir de 7 000 $).

108

intéressant que celui d’une documentation tridimensionnelle : il est parfois plus avantageux de

se contenter de documents en deux dimensions complémentaires et complets plutôt que de

s’engager dans l’élaboration d’un modèle numérique qu’il faudra nourrir d’une quantité

considérable de saisies sur le terrain et qui sera, en raison du temps de travail qu’il demande,

moins complet, voire moins homogène que ce qui aurait pu être obtenu si les objectifs avaient

été moins ambitieux.

Nous avons vu que l’utilisation d’une documentation tridimensionnelle ne peut être

effective sans le recours à l’informatique et à ses capacités de traitement sans égal

aujourd’hui. Cette simple constatation, désormais évidente, démontre le rôle incontestable que

joue l’informatique non seulement dans le traitement, la gestion et la représentation de ces

informations, mais également dans leur acquisition. En effet, la nécessité de saisir une

multitude de coordonnées tridimensionnelles ne peut être réellement satisfaite qu’en ayant

recours à l’ordinateur et aux traitements automatiques qu’il permet. Aujourd’hui, il existe un

réel enjeu autour des méthodes de capture tridimensionnelle pilotée ou assistée par ordinateur

(la saisie tridimensionnelle ne pouvant se passer de l’outil informatique qui, d’une manière

générale, intervient fatalement à un moment ou à un autre de sa chaîne opératoire). En fait, cet

intérêt pour la numérisation tridimensionnelle, puisque c’est de cela qu’il s’agit, est motivé

par les nombreuses applications qui en découlent. A ce titre, les techniques de numérisation

3D intéressent aux plus haut point de nombreux secteurs d’activité qui, contrairement aux

archéologues, ont les moyens de financer le recours à ces technologies : à titre d’exemple, les

bureaux d’études des entreprises industrielles en tirent un réel bénéfice en terme de temps et

de précision en effectuant des prototypages rapides des pièces destinées à être usinées par le

biais de machines-outils à commande numérique.

Ces techniques de numérisation 3D sont pour l’instant réservées, en raison de leur

coût, à des applications qui se justifient « économiquement ». Par conséquent, leur transfert

vers le domaine de l’archéologie est relativement inégal et découle généralement des accords

de mécénats technologiques établis entre les détenteurs de ces technologies et les acteurs de

l’archéologie, l’exemple du mécénat technologique d’EDF étant particulièrement probant dans

le cas de l’archéologie française205. Néanmoins, il n’est pas à exclure que l’offre en matériel /

logiciel de numérisation 3D ne tende à devenir, dans quelques années, davantage accessible au

205 Il est à noter qu’une collaboration similaire, du moins au niveau du matériel impliqué et du savoir-faire mis enœuvre, a été établie entre une société française (qui possède d’ailleurs le même appareil de numérisation 3Dqu’EDF) et la société de travaux archéologiques Archéotech S.A., installée en Suisse.

109

budget des archéologues : aujourd’hui, le scanner à plat s’impose de plus en plus comme un

périphérique de numérisation grand public, alors qu’il y a encore quelques années, son prix le

réservait exclusivement à un usage professionnel. Cependant, certains projets archéologiques

n’ont pas attendu la démocratisation probable de la numérisation 3D pour tenter d’adapter ou

d’élaborer des méthodes d’acquisition des coordonnées tridimensionnelles au domaine de

l’archéologie. Il convient donc de présenter ces différentes initiatives sans pour autant oublier

de mentionner les méthodes déjà éprouvées par les utilisations dans le milieu industriel.

4.2.2.1. La saisie distanteSous le terme de saisie distante, nous avons choisit de regrouper les méthodes de

capture tridimensionnelle n’entretenant pas de contact physique avec l’objet à numériser. Ce

type d’approche semble être particulièrement adapté aux vestiges archéologiques, qui peuvent

parfois être difficilement accessibles ou bien encore particulièrement fragiles, et par

conséquent sensibles à n’importe quel type de contact.

4.2.2.1.1. Par l’analyse d’images

Certaines méthodes, à l’instar de la photogrammétrie, résultent de l’analyse d’une ou

de plusieurs images de l’objet à numériser. L’avantage de ces méthodes par rapport à la

photogrammétrie traditionnelle tient au fait que les coordonnées ne proviennent pas d’un

pointage manuel fastidieux mais sont issues d’une analyse automatique pilotée par

l’ordinateur via un logiciel spécifique.

Une équipe de chercheurs autrichiens206 a évalué l’apport de deux de ces méthodes en

les appliquant à la numérisation d’un tesson de céramique, et ce en vue de les généraliser en

les appliquant à l’ensemble d’une collection de mobilier céramique.

4.2.2.1.1.1. Acquisition de la forme d’après un couplestéréographique (Shape from stereo)207

Cette première méthode s’inspire fortement de la photogrammétrie traditionnelle, dont

elle reprend les principes de fonctionnement pour déterminer les coordonnées d’un point à

partir de deux photographies prises sous des angles sensiblement différents. En fait, les

chambres métriques sont remplacées par des appareils photographiques numériques orientés

206 Robert Sablatnig et Christian Menard, du « Department for Pattern Recognition and Image Processing,Institute for Automation, Technical University of Vienna ». Cf. MENARD (CH.) & SABLATNIG (R.), « Computerbased acquisition of archaeological finds : the first step towards automatic classification » in Archeologia &Calcolatori, n°7, 1996, p.429-446.

110

parallèlement et distants l’un de l’autre de 6,5 cm. Tous deux visent le tesson placé à 52 cm :

de cette manière, les clichés sont très proches et présentent une grande ressemblance. Pour

déterminer la forme du tesson, le logiciel va rechercher automatiquement en chaque point

d’une photo son homologue sur l’autre, en fondant les critères de correspondance de chaque

point homologue sur sa position relative dans les deux images ainsi que sur sa luminosité.

Connaissant la position d’un point particulier sur les deux images ainsi que les paramètres de

réglages et d’orientation des appareils numériques, le logiciel est capable d’en déterminer la

profondeur. Ensuite, il généralise cette procédure à l’ensemble des points homologues des

deux images de manière à obtenir pour chacun d’entre eux un triplet de coordonnées : au total,

la surface visible du tesson est connue et inscrite dans un espace tridimensionnel. En traitant

les différentes faces de l’objet de cette manière, il est possible d’obtenir, de proche en proche,

le modèle numérique du tesson sous forme d’un nuage de points. En outre, la correspondance

de deux points similaires sur les deux photos permet de créer et de déterminer l’emplacement

d’une texture sur le modèle numérique, élaborée à partir des deux images sources. Au total, ce

système permet de reproduire la forme et les propriétés de surface de l’objet, mais son

principal inconvénient tient au fait qu’il lui est difficile d’opérer lorsque l’objet présente sur

les photographies des zones sombres desquelles il est difficile d’extraire avec précision des

points remarquables. Par conséquent, le modèle obtenu manque de précision en certains

endroits, ce qui est relativement préjudiciable au vu des objectifs qui avaient été fixés208.

Aussi, afin de compléter cette expérience, une autre méthode a été testée.

4.2.2.1.1.2. Acquisition de la forme par lumièrestructurée (shape from structured light)209

Cette méthode d’acquisition utilise un appareil numérique couplé à un projecteur

dirigé par un ordinateur. Le principe consiste à projeter sur l’objet un motif de formes et de

couleurs connues, de manière à ce que les déformations se produisant à la surface de l’objet en

trahissent la forme, qu’il est ensuite facile, en théorie, de restituer. Généralement, le motif

projeté est simple et se compose de bandes verticales d’épaisseurs variées, alternant le noir et

207 cf. idem p.433-434.208 A titre indicatif, cette variante de la photogrammétrie numérique est plus connue sous le terme devidéogrammétrie. De nombreuses solutions reprenant ce principe sont aujourd’hui commercialisées et permettentd’obtenir presque instantanément le modèle numérique de l’objet saisit avec une résolution très intéressante. Parexemple, le système Digital Surface Photogrammetry de la société Tricorder permet d’atteindre une précision del’ordre de moins de 0,5 mm sur un sujet placé à moins de 1 m de distance (cf. le site web de la société Tricorder àl’URL=http://www.tricorder.co.uk)209 cf. idem p.434-436.

111

le blanc. En fait, le système de projection est composé d’un filtre à cristaux liquides qui peut

reproduire n’importe quel motif en noir et blanc, de sorte qu’il est possible de projeter

successivement plusieurs motifs, par exemple des bandeaux verticaux de plus en plus fins.

Les paramètres du motif, contrôlés par l’ordinateur, sont conservés et corrélés avec la prise de

vue correspondante lors de l’analyse, ce qui, au total, permet d’affiner l’étude de la forme du

tesson en privilégiant l’étude de telle ou telle zone en raison de sa finesse ou de la difficulté de

saisie qu’elle présente. L’ensemble des données renseignant sur la forme de l’objet sont

obtenues automatiquement par le croisement des différentes analyses successives. A partir de

la connaissance de la luminance de chacun des points de l’image, il a ensuite été possible

d’attribuer à l’objet une texture reproduisant avec réalisme l’aspect du tesson original.

L’inconvénient de cette méthode réside dans la persistance, après traitement, des lignes

verticales témoignant de la démarcation entre les bandes blanches et les bandes noires, ce qui,

au total, réduit la précision du modèle numérique.

Par la suite, ces deux méthodes ont été combinées afin de réduire les imprécisions que

chacune d’entre elles introduisait : cette association semble, aux dires des auteurs, fournir un

modèle tout à fait correct du tesson et a permis de constituer un système d’enregistrement

pertinent des informations relatives aux tessons, puisque le but recherché était d’établir une

typologie couplée à une base de donnée, dont la réalisation s’affranchissait des temps

traditionnellement longs alloués au dessin de céramique.

4.2.2.1.1.3. Acquisition de la forme par le mouvement(shape from motion)

Une variante de la reconstruction de forme à partir d’analyse d’image a été testée par

une équipe de chercheurs italiens210. La méthode utilise toujours le même principe de

correspondance entre des points analogues d’une image à l’autre. Cette fois, l’analyse n’est

pas limitée aux deux clichés du couple photographique mais s’étend sur toute une séquence

filmée. Le principe est simple en théorie : le film, après numérisation, est analysé par un

logiciel qui, avec l’aide d’un algorithme spécifique, va pouvoir retrouver le mouvement de la

caméra et déterminer la géométrie de la scène filmée en s’appuyant sur des points significatifs

de la scène qu’il peut suivre tout le long de la séquence. Cette méthode est encore plus

210 Scientifiques du CINECA (L. Calori, M. Forte, A. Guidazzoli), des universités de Bologne (F. Fraticelli) et deFerrare (S. Simani); en outre, ce projet a été mené en collaboration avec le California Institute of Technology. CfFORTE (M.) & GUIDAZZOLI (A.), « Shape from motion : dalle sequenze filmate alla modellazionetridimensionale. Projetto per l’elaborazione 3D di immagini video archeologiche » in Archeologia & Calcolatori,n°7, 1996, p.223-232.

112

efficace lorsque le parcours et les caractéristiques de la caméra sont connus : le logiciel peut

alors être davantage précis dans la reconstruction des formes géométriques de la scène.

L’équipe de chercheurs a testé l’efficacité de cette méthode dans des conditions différentes. La

première expérience a eu lieu in situ, dans la grotte préhistorique d’Altamura (Puglia) et il

s’agissait de numériser la forme d’un crâne humain accompagné de quelques restes osseux, le

tout étant recouvert d’une couche de concrétions calcaires211. Ce premier essai fut peu

concluant en raison des mauvaises conditions : l’inconstance de l’éclairage et le revêtement

calcaire ont atténué les possibilités d’identification de points significatifs d’une image à

l’autre, ce qui a grandement perturbé l’analyse du logiciel, qui a fourni, au total, un modèle

incomplet du vestige, comportant notamment de nombreuses lacunes. La seconde expérience

s’est déroulée en plein air sur le site de l’acropole étrusque de Marzabotto, l’objet de la

numérisation étant les vestiges du temple D. Les chercheurs avaient au préalable pris le soin

de disposer des marques de couleurs à des emplacements stratégiques, de manière à améliorer

la reconnaissance des points caractéristiques par le logiciel. De plus, le paramétrage de la

caméra a permis d’en préciser le parcours, ce qui a rendu les opérations de suivi de points

davantage précises212. Au final, le modèle numérique du site a pu être obtenu

automatiquement puis être intégré dans un logiciel de CAO.

4.2.2.1.2. Par balayage laser

D’autres méthodes de capture tridimensionnelle ont recours à des procédés plus

sophistiqués permettant de relever des projets plus ambitieux. L’exemple incontournable de ce

type de procédé est la désormais célèbre association du capteur Soisic avec le logiciel

3Dipsos. L’utilisation qu’en a fait le mécénat technologique et scientifique d’EDF lors des

numérisations de la grotte Cosquer, du Colosse d’Alexandrie et de certains éléments

architecturaux du sanctuaire d’Athéna à Marmaria a permis de démontrer qu’il était possible,

du moins dans une certaine mesure, de réaliser des campagnes de numérisation relativement

ambitieuses, visant à reproduire les vestiges archéologiques « au plus près du réel »213. Le

principal avantage de ce type de capteur réside dans le fait qu’il peut créer un réseau régulier

de points connus dans l’espace, et ce grâce à un système de pointage dépendant directement

du capteur et non du document intermédiaire analysé par le capteur. En effet, le système est

211 Cf. idem, p.229.212 Cf. idem, p.230.

113

équipé d’un émetteur laser produisant un faisceau lumineux destiné à balayer horizontalement

la surface de l’objet, marquée ainsi d’un point lumineux dont les coordonnées sont relevées à

intervalle régulier par une caméra vidéo214. Ce système de pointage « actif » permet de rendre

visible la surface de l’objet même lorsque celle-ci est noyée dans une zone d’ombre, alors que

s’il s’était limité à un pointage « passif » comme c’est le cas pour les procédés que nous avons

vu plus haut, l’efficacité de la capture aurait été fonction de la visibilité ou non des éléments

remarquables suivant l’incidence de la lumière éclairant l’objet.

Le gain de temps apporté par l’automatisation des calculs de mesure et par la

fréquence à laquelle ils sont menés (environ 100 par seconde) permet de garantir un nombre

considérable de mesures : Marc Albouy, le directeur du Mécénat Technologique d’EDF,

rappelle ainsi que un peu moins de 5 millions de points ont été saisis sur une durée de sept

jours dans la grotte Cosquer215. L’intégralité de la surface de la grotte n’a pas pu être saisie, en

raison de l’inaccessibilité optique de certains de ces recoins : en effet, à l’instar de la

photogrammétrie, la saisie tridimensionnelle par laser ne dispose que d’une largeur de champ

limitée ( dans son cas à 46°) et il est par conséquent nécessaire de multiplier les stations (28

au total lors de cette opération216) afin de couvrir le maximum de surface. Cette nécessité pose

parfois problème : ainsi, la numérisation des pièces composant le Colosse d’Alexandrie n’a pu

être entièrement menée à son terme en raison de l’impossibilité de les déplacer pour en rendre

accessibles les faces cachées217. De plus, l’automatisation du processus de saisie ne doit pas

faire oublier les limites actuelles de cette technique : Jean Clottes rappelle à ce propos que le

niveau de précision, d’un millimètre à une distance de 5 m, produit une marge d’erreur

suffisamment élevée pour gommer le détail d’une incision dont la section est bien souvent

inférieure au millimètre218. Ainsi, la saisie laser ne doit pas dispenser l’archéologue d’une

213 Cf. ALBOUY (M.), « Restitution en images de synthèse de la grotte Cosquer et du site de Marmaria àDelphes » in Patrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à la BibliothèqueNationale de France, 23-25 octobre 1996, Paris, La Documentation française, 1997, p.87-93.214 les coordonnées tridimensionnelles sont connues par un calcul de triangulation, le triangle étant formé parl’émetteur laser, le récépteur (caméra vidéo) et le point à mesuré. La fréquence de numérisation approche les 100points par seconde. (Cf BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, DeBoccard, 1997, p 112)215 cf ALBOUY (M.), « Restitution en images de synthèse de la grotte Cosquer et du site de Marmaria à Delphes »in Patrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à la Bibliothèque Nationale deFrance, 23-25 octobre 1996, Paris, La Documentation française, 1997, p.88.216 cf. CLOTTES (J.), COURTIN (J.) & LONG (L.), « La grotte Cosquer: une fouille en images? » in Patrimoine etmultimédia, le rôle du conservateur: actes du colloque organisé à la Bibliothèque Nationale de France, 23-25octobre 1996, Paris, La Documentation française, 1997, p.83.217 PARAMYTHIOTI (M.), « Le colosse d’Alexandrie, remontage de la statue de Ptolémée », Revue XYZ, n°76,1998, p.61.218 CLOTTES (J.), COURTIN (J.) & LONG (L.), idem, p.85.

114

analyse directe de la réalité : elle ne peut faire le tri dans les informations qu’elle prélève car

elle opère, à l’instar de la photographie, une saisie globale de la réalité, sans discrimination.

Aussi, certains détails risquent d’être atténués dans le fichier numérique, et les informations

dont ils étaient les vecteurs sont provisoirement perdues si la consultation directe du site est

compromise, comme cela a été le cas ici.

En fait, la seule variation intervenant dans le procédé d’acquisition tient à la densité

des points enregistrés : il est possible, en fonction de l’intérêt de la surface numérisée, d’en

moduler la précision. Au total, le modèle numérique peut se révéler être relativement

hétérogène, présentant des zones plus ou moins grossières lorsqu’elles ne comportent pas de

traces significatives et des zones plus soignées, plus denses en points de manière à retranscrire

avec plus de fidélité les états de surface des parois (sur les cinq millions de points que

comporte la grotte, un million a été concentré pour les zones numérisées le plus finement

possible). Par conséquent, de l’aveu des archéologues, cette technique est optimale, du moins

pour l’heure actuelle, lorsqu’elle est associée à des relevés photogrammétriques qui

permettent de conserver dans le fichier latent du stéréogramme à la fois les coordonnées pour

des relevés plus fins ainsi que les propriétés de surface, qui continuent, par la mention des

ombres, à indiquer les très faibles reliefs.

En outre, la prédominance, du moins médiatique, de ce système de numérisation ne

doit pas faire oublier qu’il existe d’autres capteurs laser comparables à celui commercialisé

par la société Mensi. A titre d’exemple, la société japonaise Minolta, spécialisée dans le

matériel d’acquisition optique, propose un système moins ambitieux, du moins dans son

champ d’action, puisque son scanner 3D à laser, de faibles dimensions, numérise un objet

distant seulement de 0,6 à 2,5 m219. Il reste à savoir dans quelle mesure ce type d’appareil peut

être appliqué couramment dans une pratique archéologique : son faible encombrement, sa

portabilité et son champ de numérisation limité pourrait le réserver à l’enregistrement

tridimensionnel du mobilier mis au jour ou bien encore à la sauvegarde de pièces relativement

instables après leur exhumation. Cependant, pour l’heure, ce genre de matériel reste hors de

219 cf. descriptif du produit sur le site web du constructeur àl’URL=http://www.minolta.com/japan/rio/vivid/index.htmlLe scanner offre l’avantage de pouvoir plaquer sur le modèle numérique la photographie de l’objet.

115

portée des budgets alloués à l’équipement de la recherche archéologique, puisqu’il avoisine la

somme de 200 000 Francs.220

Nous avions évoqué plus tôt dans une autre partie l’apport des techniques de

l’imagerie médicale. Bien entendu, celles-ci ont leur place dans cette partie sur les méthodes

d’acquisition à distance, mais étant donné qu’elles ont déjà été abordées plus haut, nous

estimons qu’il n’est pas nécessaire d’y revenir. Tout au plus pouvons-nous rappeler que

celles-ci sont exclusivement destinées à être utilisées en intérieur en raison de l’importance

des infrastructures qu’elles requièrent.

Au total, les méthodes de numérisation à distance sont relativement nombreuses, et

nous aurions pu également élargir notre présentation à d’autres types de documents qui, à

l’instar des photographies, peuvent receler, lorsqu’ils sont associés entre eux, de nombreuses

informations tridimensionnelles : à titre d’exemple, des clichés radar peuvent être associés par

couple de manière à permettre la pratique de la radargrammétrie, variante de la

photogrammétrie221.

4.2.2.2. La saisie directeFace à ces techniques de saisie tridimensionnelle opérant à distance se trouve un

ensemble de procédés permettant d’acquérir la forme des objets par contact physique. En

réalité, ces procédés de numérisation tridimensionnelle proviennent également du secteur

industriel et plus particulièrement du prototypage rapide et de la retro-conception (reverse

engineering). Ces outils de numérisation appartiennent à la catégorie des Machines à Mesurer

Tridimensionnelles (MMT) et font généralement partie d’une installation plus ou moins

complexe comprenant un bras mobile dans les trois dimensions pourvu à son extrémité d’un

senseur de haute précision avec lequel il peut palper la surface de l’objet. Ce dispositif, piloté

par ordinateur, permet de reconstituer toute la surface de l’objet en la parcourant de proche et

proche. A l’instar de la saisie distante, il en résulte un nuage de points de coordonnées x, y, z

qui, reliés entre eux trois à trois, forment une surface composée d’une multitude de facettes

220 L’offre matérielle / logicielle de systèmes de numérisation 3D basés sur l’association du laser et de la caméranumérique est relativement fournie. A ce propos, la manifestation Numérisation 3D / Moulage 3D permet chaqueannée de surveiller les évolutions de ce marché. Outre Mensi, on y retrouve d’autres sociétés françaises telles queKréon Industrie, Multistation, Cybernétix ainsi que des entreprises étrangères telles que 3D Scanners, Digibotics,Laser Design. Pour plus de renseignement sur la manifestation, cf. URL=http://www.numerisation3d.com221 cf. DOWMAN (I.), MARINELLI (T.) & TOUTIN (TH.), « Génération de MNT par radargrammétrie : état del’art et perspectives », Bulletin de la Société Française de Photogrammétrie et de Topographie, n°148, 1997,p.89-95.

116

triangulaires inscrites dans un système tridimensionnel. Ces installations sont couramment

utilisées afin de créer le modèle numérique du prototype d’une pièce, et ce dans le but de

réaliser le moule qui servira à la produire en série.

A l’heure actuelle, nous n’avons pas trouvé d’exemple illustrant l’application de ces

techniques de numérisation à des vestiges archéologiques : l’utilisation d’un tel matériel ne

peut se justifier que par des impératifs d’ordre économique. Il n’y a pas eu, à notre

connaissance, d’opération similaire à celles mises en œuvre par le mécénat technologique

d’EDF permettant de définir les modalités de transfert de l’utilisation du capteur

optoélectronique vers des thématiques archéologiques. En effet, l’utilisation des MMT en

archéologie ne semble pas apporter de réelle plus value, du moins en regard de l’importance

des moyens mis en œuvre : ce type d’installation est destiné à ne traiter que des objets

mobiles, à laquelle il faudra préférer le recours à des procédés de saisie distante dans le cas de

vestiges plus volumineux ou immobiliers. Néanmoins, nous estimions qu’il était important de

faire allusion à ce secteur de la numérisation 3D : à l’avenir, la miniaturisation et la

simplification de tels équipements pourraient amener ces machines encore réservées au monde

industriel vers le domaine de l’archéologie, où elles pourraient peut être offrir une alternative

aux protocoles de saisie distante.

En attendant le moment hypothétique de la diffusion de telles technologies dans le

domaine de l’archéologie, une initiative plus modeste a été menée il y a quelques années par

des archéologues italiens pour tenter de numériser des tessons de céramique à l’aide d’un

système mécanique relayé par un ordinateur. Ce projet, connu sur le nom de

« Ceramigrafo »222, prévoyait de numériser le profil du tesson à l’aide d’un pantographe, dont

l’un des bras parcourait verticalement la surface grâce à un pointeur en roulette qui

garantissait la continuité du mouvement, tandis que l’autre bras le reproduisait sur une tablette

à digitaliser qui enregistrait le profil vertical de l’objet sous la forme d’un dessin vectoriel en

deux dimensions. En fait, ce système avait pour but d’améliorer les temps impartis au dessin

de céramique en en automatisant plus ou moins le déroulement. Au total, le profil de l’objet

est directement entré dans l’ordinateur de manière à être ensuite exporter vers un logiciel de

CAO qui, à partir des indications relatives au profil et à la courbure horizontale du tesson, a

pu proposer une restitution de la forme complète du vase en trois dimensions. Ainsi dans cet

222 cf. FORTE (M.), « Il Ceramigrafo : un sistema integrato per il disegno della ceramica al calcolatore » inArcheologia & Calcolatori, n°5, 1994, p.317-332.

117

exemple, la numérisation de ces tessons, bien que n’étant pas à l’origine réalisée en trois

dimensions, a permis de mettre en évidence certaines des applications directes que peut

apporter un tel procédé : le vestige archéologique subit moins fortement la codification que lui

imposait le dessinateur, puisque désormais les formes sont pour ainsi dire directement

introduites dans l’ordinateur sans passer par une réelle phase de retranscription graphique (le

profil de l’objet est numérisé d’un seul tenant, tandis que les techniques traditionnelles de

dessin céramique avaient recours à un assemblage de plusieurs profils complémentaires

obtenus à l’aide du conformateur). Au total, cette méthode de numérisation a permis de

rationaliser la conservation et la production de documents relatifs au matériel céramique, en

améliorant les temps de traitement et en produisant un fonds homogène d’objets numériques,

qu’ils soient en 2D ou en 3D.

118

CONCLUSION

Nous avons vu tout au long de cette recherche que l’infographie constituait un outil

susceptible de répondre aux attentes des archéologues et de ceux pour qui ils travaillent.

Aux archéologues, l’outil infographique offre de nouvelles possibilités dans le

traitement des données toujours plus nombreuses qu’ils sont amenés à manipuler après les

avoir prélevées sur le terrain. A ce titre, l’élaboration de modèles numériques dans lesquels

sont reproduites ces informations leur permet par exemple d’avoir un meilleur contrôle sur

l’étendue des connaissances engrangées par leur activité. Aussi, l’utilisation d’un modèle

tridimensionnel où est conservé le double virtuel d’une campagne de fouille offre à

l’archéologue une vision générale de son travail depuis le début jusqu’à son achèvement :

comme nous l’avons évoqué, le modèle numérique permet de pallier le côté destructeur des

fouilles archéologiques en leur assurant d’une certaine manière une conservation

tridimensionnelle et dynamique. Ainsi, l’aspect dynamique est un autre argument plaidant en

faveur de l’infographie : le modèle numérique, en raison de sa nature informatique, peut être

remis à jour à volonté sans pour autant requérir une reprise de tous les autres travaux

antérieurs, ce qui constitue bien évidemment un gain considérable. Nous avons également vu

que les informations présentes dans le modèle numérique peuvent être exploitées dans le but

de rendre certains faits particulièrement évidents : il en est ainsi des faibles reliefs témoignant

de l’emplacement des vestiges que les archéologues ont pu détecter en accentuant le contraste

d’altitude de l’ensemble de la zone prise en compte dans le modèle numérique. En outre, la

nature informatique et tridimensionnelle des données autorise des traitements faisant appel à

d’autres logiciels : par exemple, le fameux colosse d’Alexandrie, n’a pu être remonté

réellement qu’après une évaluation des efforts transitant à l’intérieur de son équivalent virtuel

reconstitué, et ce à l’aide d’un logiciel spécialement dédié à ce genre de calcul.

Nous avons également étudié le rôle et la spécificité des documents produits par

l’infographie. Ces derniers, pour la plupart davantage destinés à un large public qu’aux seuls

archéologues, offrent autant de voies d’accès possibles vers la connaissance de l’archéologie.

En effet, nous avons vu que ces documents, qu’il s’agisse d’images fixes, de séquences

animées ou bien encore de séquences interactives, utilisent différentes ressources afin de

rendre plus tangibles les connaissances produites par les archéologues. A ce titre, il est

possible de constater dans certains cas une meilleure accessibilité de ces connaissances : nous

119

avions vu ainsi quelques exemples de sites archéologiques reconstitués et diffusés sur Internet

au travers desquels le visiteur pouvaient accéder à d’autres informations relevant directement

de la pratique archéologique, qu’il s’agisse de photographies et de descriptions de mobilier in

situ ou bien encore de plans et de relevés de la surface fouillée, parfois simplifiés pour ne

garder que leurs aspects significatifs. Ce nouveau type de document pose bien évidemment

des problèmes, qui, en fait, ont toujours été ceux de la présentation au public des données

issues de la recherche archéologique, à savoir : comment représenter une réalité que l’on ne

connaît que par fragment ?

Au total, l’infographie permet de rapprocher les archéologues de leur auditoire de

spécialistes et de non-spécialistes. En effet, l’utilisation de cette technique dans le cadre de la

recherche archéologique peut donner lieu, dans une certaine mesure, à la diffusion de ces

documents à destination de leurs confrères ou bien encore à leur réorientation vers le grand

public. Cette exploitation possible de l’infographie soulève ainsi le problème du support sur

lequel l’information archéologique est destinée à être publiée : qu’en est-il alors des

publications traditionnelles sur papier qui n’offrent pas autant de souplesse avec les

documents visuels, par ailleurs limités en raison des coûts supplémentaires qu’ils génèrent.

Néanmoins, avant d’envisager ce type de problématique, il resterait à étudier avec le

recul nécessaire la véritable efficience de l’infographie dans un programme de recherche

ambitieux, qui, mené à long terme, tenterait d’intégrer cette technique à tous les niveaux, par

conséquent aussi bien comme outil de recherche et de validation d’hypothèse que comme

interface de publication, en l’associant à des logiciels permettant d’autres types de traitements,

tels les systèmes de gestion de base de données. Dans cette perspective, l’utilisation de

l’infographie, à l’instar de toutes les applications informatiques menées sur le long terme,

posera nécessairement la question de la pérennité de ces informations : l’évolution

permanente des formats de fichier ainsi que du matériel informatique risque de compromettre

la viabilité de tout projet d’envergure.

120

BIBLIOGRAPHIE

Ouvrages et articlesADAM (J.-P.), « Les nouveaux regards de l’archéologie monumentale », Les Nouvelles del’archéologie, n°76, 1999, p.6-9.

ADRAIT (R.) & SOMMIER (D.), Guide du constructeur en bâtiment, Paris, éd. Hachette, 1987,239 p.

ALBOUY (M.), « Restitution en images de synthèse de la grotte Cosquer et du site deMarmaria à Delphes » in Patrimoine et multimédia, le rôle du conservateur: actes du colloqueorganisé à la Bibliothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentationfrançaise, 1997, p.87-93.

ANDREOU (S.), KOTSAKIS (K.), VARGAS (A.) & PAPOUDAS (D.), « Reconstructing a BronzeAge Site with CAD » in Computer applications and quantitative methods in archaeology1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, Tempus Reparatum, 1995, p.181-187.

ANTONINI (A.) & FEIHL (O.), « Hypersion – Hypogée, un système informatique pour lerelevé, la gestion et l’analyse de structures funéraires – l’exemple de la basilique de Sous-le-Scex à Sion (Suisse) » in Archeologia & Calcolatori, n°7, 1996, p.249-257.

AXELSSON (P.) & STERNER (H.), « Laser scanning », Revue XYZ, n°78, 1999, p.57-61.

BAILLARD (C.) & DISSARD (O.), « Analyse automatique d’images aériennes stéréoscopiquespour la restitution 3D des milieux urbains », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°149, 1998, p.28-41.

BESSAC (J.-CL), JOURNOT (F.), PRIGENT (D.), SAPIN (CH.) & SEIGNE (J.), La Construction,la pierre, Paris, éd. Errance, 1999, coll. « Archéologiques », 174 p.

BOCCON-GIBOD (H.) & GOLVIN (J.-C.), « Le grand temple d’Amon-Rê à Karnak reconstruitpar l’ordinateur », Les Dossier de l’archéologie, n°153, octobre 1990, p.8-17.

BOISMIER (W. A.) & REILLY (P.), “ Expanding the role of computer graphics in the analysisof survey data ” in Computer and quantitative methods in archaeology 1987, éd. par Ruggleset Rahtz, Oxford, B.A.R., 1988, p.221-225.

BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, De Boccard,1997, 144 p.

BONDIOLI (L.), PACELLI (A.) & VIDALE (M.), « The labours of Sisyphus : computersimulation of downslope movement of artefacts » in Aplicaciones Informaticas enArqueologia : teorias y sistemas, Tome 1, Bilbao, 1995, p. 77-90.

BRETON (C.), « Conférence CAA 98 : vers une archéologie assistée par ordinateur… »,Archéologia, n°346, juin 1999, p.8-10.

BRETON (C.), « Multimédia et image de synthèse : de futurs outils au service du passé ? »,Archéologia, n°342, février 1998, p.4-5.

121

BRUNET (J.) & VOUVET (J.), La Conservation des grottes ornées, Paris, éd. CNRS, 1996,264 p.

BUCHSENSCHUTZ (O.) & GRUEL (K.), « Arkéoplan, premiers tests sur le chantier de fouillesde Ribemont-sur-Ancre », Les Nouvelles de l’archéologie, n°46, 1991, p.18-19.

BUCHSENSCHUTZ (O.) & GRUEL (K.), « De l’usage d’Arkéoplan pour l’enregistrementd’éléments en élévation: étude d’un mur du couvent du Mont Beuvray », Le Médiéviste etl’ordinateur, n°29, 1994, p.12-18.

BUCHSENSCHUTZ (O.), « Image, mesure et électronique sur le terrain » in Patrimoine etmultimédia, le rôle du conservateur: actes du colloque organisé à la Bibliothèque Nationale deFrance, 23-25 octobre 1996, Paris, La Documentation française, 1997, p.94-99.

CADOZ (C.), Les Réalités Virtuelles, Paris, Flammarion, 1994, coll. « Dominos », 128 p.

CAMIRUAGA (I.), IGLESIA (M. A. DE LA) & SUBIAS (E.), « Sistemas de medicion nauticaaplicado al Hipogeo de Via Latina, Roma » in Aplicaciones informaticas en arqueologia:teorias y sistemas, 2, Bilbao, Denborarem Argia, 1995, p.180-193.

CAMPAGNOLLE (L.), « Du vestige au virtuel : Cluny », Pixel, n°18, p.55.

CARBONNELL (M.), Apport des Méthodes photogrammétriques à la connaissance et à laconservation des sites méditerranéens français, Marseille, 1989, 17 p.

CARBONNELL (M.), Documentation, relevés, inventaires pour la connaissance, lasauvegarde, la planification et la gestion des sites historiques méditerranéens, Marseille,1989, 9 p.

CHALMERS (A.), MILES (R.), STODDART (S.) & TIDMUS (J.), « Insite: an interactivevisualisation system for archaeological sites » in Computer applications and quantitativemethods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, TempusReparatum, 1995, p.225-234.

CHAPMAN (G.) & WOOD (J.), « Three-Dimensional computer visualization of historicbuildings – with particular reference to reconstruction modelling » in Archaeology and theinformation age, a global perspective, London & New York, éd. Routledge, 1992, p.123-146.

CHAPMAN (G.), « Do-it yourself reconstructing modelling » in Computer Applications andQuantitative Methods in Archaeology 1991, éd. Par Gary Lock et Jonathan Moffet, Oxford,Tempus Reparatum, 1992, p.213-218.

CLOTTES (J.), COURTIN (J.) & LONG (L.), « La grotte Cosquer: une fouille en images? » inPatrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à laBibliothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentation française,1997, p.78-86.

CORNFORTH (J.), DAVIDSON (C.), DALLAS (C. J.) & LOCK (G. R.), « Visualising ancientGreece: computer graphics in the Sacred Way Project » in Computer applications andquantitative methods in archaeology 1991, éd. Par Gary Lock et Jonathan Moffet, Oxford,Tempus Reparatum, 1992, p.219-225.

COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, 576 p.

122

CREMASCHI (M.), FERRETTI (A.) & FORTE (M.), « Tecniche digitali e di visualizzazzione ingeoarcheologia : il caso di studio della Terramara S. Rosa di Poviglio (Re) » in Archeologia &Calcolatori, n°5, 1994, p.305-316.

DABAS (M.), DELETANG (H.), FERDIERE (A.), JUNG (C.) ET HAIO ZIMMERMANN (W.), LaProspection, Paris, éd. Errance, 1998, coll. « Archéologiques », 223 p.

DEABAQUE (B.) & JULES (S.), « Visualisation réaliste 3D d’un site par photogrammétrieterrestre et aérienne », Bulletin de la Société Française de Photogrammétrie et deTopographie, n°146, 1997, p.33-36.

DELESTRE (X.) & SCHULMANN (J.-L.), « Le mausolée antique de Rouen: une approchepluridisciplinaire pour une hypothèse de restitution » in Patrimoine et multimédia, le rôle duconservateur: actes du colloque organisé à la Bibliothèque Nationale de France, 23-25 octobre1996, Paris, La Documentation française, 1997, p.48-51.

DELESTRE (X.), « Rouen des origines à la fin de l’Antiquité », Archéologia, n°322, avril 1996,p.50-57.

DELOOZE (K.) & WOOD (J.), « Furness Abbey survey project- the application of computergraphic and data visualisation to reconstruction modelling of an historic monument » inComputer and quantitative methods in archaeology 1990, éd. par Kris Lockyear et SebastianRahtz, Oxford, Tempus Reparatum, 1991, p.141-148.

DIAZ SANZ (M. A.), MEDRANO MARQUES (M.) & TRAMULLAS SAZ (J.), « Reconstitucionasistada por ordenador de la estructuras del alfar de terra sigillata hispanica de Villaroya de laSierra (Zaragoza, Espana) » in Aplicaciones informaticas en arqueologia: teorias y sistemas,1, Bilbao, Denborarem Argia, 1995, p.175-182.

DIAZ SANZ (M. A.), MEDRANO MARQUES (M.) & TRAMULLAS SAZ (J.), « Reconsitucionasistida por ordenador de las instalaciones de tenerias de Contrebia Belaisca (Botorrita,Zaragoza) » in Aplicaciones informaticas en arqueologia: teorias y sistemas, 2, Bilbao,Denborarem Argia, 1995, p.248-255.

DJINDJIAN (E.), IAKOVLEVA (L.) & PIROT (F.), « Résultats préliminaires d’un projet dereconstitution 2D et 3D de structures d’habitats préhistoriques par le logiciel de gestiond’objets graphiques ArcInfo » in Archeologia & Calcolatori, n°7, 1996, p.215-222.

DOEPPER (U.), FEIHL (O.) & HUGUENIN (C.), « L’église Saint-François de Lausanne » inCahiers d’Archéologie Romande, n°73, Lausanne, 1998, p.15-17.

DORRELL (P. G.), Photography in archaeology and conservation, Cambridge, CambridgeUniversity Press, 1989, 266 p.

DOWMAN (I.), MARINELLI (T.) & TOUTIN (TH.), « Génération de MNT parradargrammétrie : état de l’art et perspectives », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°148, 1997, p.89-95.

DRIESSCHE (B. VAN DEN), Le Dessin au service de l’archéologie, Louvain, 1975, 100 p.

DUPONT (S.), NONIN (PH.) & RENOUARD (L.), « Production de modèles numériques deterrain par interférométrie et radargrammétrie », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°148, 1997, p.97-104.

123

EGELS (Y.), « La photogrammétrie numérique : vers une banalisation du métier dephotogrammètre ? », Bulletin de la Société Française de Photogrammétrie et de Topographie,n°149, 1998, p.8-11.

EITELJORG (H.), « Computer-Assisted Drafting and Design programs for use in archaeologyand architectural history », BRISES, n°15, 1989, p.125-131

FEIHL (O.), « Utilisation de l’informatique dans la gestion documentaire des chantiers derestauration des châteaux de Valère et Chillon » in Aplicaciones informaticas en arqueologia:teorias y sistemas, 2, Bilbao, Denborarem Argia, 1995, p.273-286.

FINCKER (M.), « Du relevé à la restitution des édifices antiques: l’informatisation de l’institutde recherche sur l’architecture », Les Nouvelles de l’archéologie, n°76, 1999, p.14-17.

FLETCHER (M.) & SPICER (D.), « The Display and analysis of ridge-and-furrow fromtopographically surveyed data » in Archaeology and the Information age, a globalperspective, London & New York, éd. Routledge, 1992, p.98-122.

FLORENZANO (M.) & QUINTRAND (P.), « Les envois de Marseille, mémoire du port antique »in Aplicaciones informaticas en arqueologia: teorias y sistemas, 1, Bilbao, DenboraremArgia, 1995, p.409-413.

FORTE (M.) & GUIDAZZOLI (A.), « Archaeology and computer image processing:applications in the aerial photographs analysis and the perspectives in the landscapenavigation » in Aplicaciones informaticas en arqueologia: teorias y sistemas, 1, Bilbao,Denborarem Argia, 1995, p.210-230.

FORTE (M.) & GUIDAZZOLI (A.), « Archeologia e tecniche di eidologia informatica » inArcheologia & Calcolatori, n°3, 1992, p.37-75.

FORTE (M.) & GUIDAZZOLI (A.), « Shape from motion : dalle sequenze filmate allamodellazione tridimensionale. Projetto per l’elaborazione 3D di immagini videoarcheologiche » in Archeologia & Calcolatori, n°7, 1996, p.223-232.

FORTE (M.) & SARTI (A.), « Tra archeologia e realtà virtuale : verso l’archeologia virtuale »in Archeologia & Calcolatori, n°6, 1995, p.105-118.

FORTE (M.) [dir.], Archéologie Virtuelle, le passé retrouvé, Paris, éd. Arthaud, 1996, 293 p.

FORTE (M.), « Il Ceramigrafo : un sistema integrato per il disegno della ceramica alcalcolatore » in Archeologia & Calcolatori, n°5, 1994, p.317-332.

FORTE (M.), « Il progetto Arctos : verso un GIS multimediale » in Archeologia & Calcolatori,n°7, 1996, p.179-192.

FORTE (M.), « Un esperimento di visualizzazione scientifica per l’archeologia del paesaggio :la navigazione nel paesaggio virtuale » in Archeologia & Calcolatore, n°4, 1993, p.137-152.

FORTE (M.), MONTEBELLI (M.) & TUSA (S.), « Il projetto valle del Belice : applicazioni GISe di remote sensing su dati archeologici » in Archeologia & Calcolatori, n°9, 1998, p.291-304.

124

FORTE (M.), MOZZI (P.) & ZOCCHI (M.), « Immagini satellitari e modellivirtuali :interpretazione geoarcheologiche della regione del Sistan meridionale » inArcheologia & Calcolatori, n°9, 1998, p.271-290.

FRACCHIA (F. D.), HAYDEN (B.) & PETERSON (PH.), « A virtual computer imaging techniquefor archaeological research », Society for American Archaeology, Vol. 13, n°4, septembre /octobre 1995, p.30-33.

FRANTZ (D.), « La modélisation du Colisée : quelques aperçus de méthode générale » inCahiers de la Maison de la Recherche en Sciences Humaines, n°14, avril 1998, p.33-36.

GARCIA (D.), "Urbanisme et architecture de la ville de Lattara aux IIIème – Ier s. av. n. è.,premières observations" in Lattara 3, 1990, p.303-315.

GASSEND (J.-M.) & GOLVIN (J.-CL.), « Les restitutions graphiques : pourquoi ?comment ? », l’Archéologue – Archéologie Nouvelle, n°23, juillet - août 1996, p.48-50.

GOLVIN (J.-C.), « De Karnak aux problèmes fondamentaux de la modélisation », LesNouvelles de l’archéologie, n°76, 1999, p.18-22.

GOODWIN (C. M.) & HRAWARD (V. J.), « Multimedia computing in archaeology », BRISES,n°15, 1989, p.103-110.

GOTTARELLI (A.), « La modelazzione tridimensionnale del documento archeologico : livellidescrittivi e processamento digitale » in Archeologia & Calcolatori, n°6, 1995, p.75-103.

GOTTARELLI (A.), « La video documentazione elettronica dello scavo archeologico modelliinterpretativi e processamento digitale », Le Médiéviste et l’ordinateur, n°29, 1994, p.19-25.

GOTTARELLI (A.), « Museografia e informatica : la riconstruzione virtuale della tombamenfita del generale Horemheb » in Archeologia & Calcolatori, n°7, 1996, p.1091-1099.

GRADIAS (M.), Grand Livre, Adobe Photoshop 4.0, Paris, Micro Application, 1997, 1159 p.

GROS (P.), L’architecture romaine, I. les monuments publics, Paris, éd. Picard, 1996, coll."les Manuels d’art et d’archéologie antiques", 503 p.

HARRIS (T.) & LOCK (G.), « Visualizing spatial data : the importance of GeographicInformation Systems » in Archaeology and the Information age, a global perspective, London& New York, éd. Routledge, 1992, p.81-96.

HARRIS (T.), « Digital terrain modelling and three-dimensional surface graphics for landscapeand site analysis in archaeology and regional planning » in Computer and quantitativemethods in archaeology 1987, éd. par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.161-170.

HUNT (P.), « Summus Poeninus on the Grand St Bernard pass », Journal of RomanArchaeology, vol. 11, 1998, p.265-274.

HURIET (CL.), « Rapport sur les Images de synthèse et monde virtuel : techniques et enjeux desociété » in Office parlementaire d’évaluation des choix scientifiques et technologiques,n°526, Paris, éd. Société Nouvelles des Librairies, 1997, 198 p.

IMMLER (CH.), Grand Livre, 3D Studio Max 2-2.5, Paris, Micro Application, 1998, 1278 p.

125

JAMES (S.), « Drawing inferences. Visual reconstructions in theory and practice » in TheCultural life of images, visual representation in archaeology, éd. par Brian Leigh Molyneaux,Londres, Routledge, 1997, p.23-48.

JUFFARD (O.), « Relevés architecturaux assistés par ordinateur », Le Médiéviste etl’ordinateur, n°29, 1994, p.2-6.

JUILLIER (L.), Les Images de synthèse, Paris, éd. Nathan, 1998, 128 p.

JULIEN (P.), LE GOFF (F.) & TANNOUS (I.), « Méthodologie de production de MNT parfusion de données mixtes radar / optique », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°148, 1997, p.105-113.

LAROCHE (D.), « Les apports des nouvelles techniques au relevé et à l’étude des monumentsantiques », Les Nouvelles de l’archéologie, n°76, 1999, p.10-13.

LEYGE (F.), « Le musée de Saint-Romain-en-Gal », Archéologia, n°327, octobre 1996, p.26-35.

LOSA (A. DE LA), « Gestion tridimensionnelle de données géographiques », JournéeRecherche de l’IGN, 23 Mars 1999, p.7-14.

LUCET (G. L.), « The virtual restitution of the mesoamerican site of Cacaxtla : amethodological point of view » in Archeologia & Calcolatori, n°8, 1997, p.129-138.

MAESTRO ZALDIVAR (E. M.) & TRAMULLAS SAZ (J.), « Herramientas informaticas en lainvestigacion arqueologica: bases de datos y CAD. La experiencia de Mediana de Aragon » inAplicaciones informaticas en arqueologia: teorias y sistemas, 1, Bilbao, Denborarem Argia,1995, p.289-297.

MAIN (P.L.), SPENCE (A.J.) & HIGGINS (T.), « Computer-aided design techniques for thegraphical modelling of data from the prehistoric site of Runnymede, Berkshire » in Computerapplications and quantitative methods in archaeology 1994, éd. par Jeremy Hugget et NickRyan, Oxford, Tempus Reparatum, 1995, p.235-243.

MARTIN-BUENO (M.) & TRAMULLAS SAZ (J.), « Forum Augusta Bilbilis: application de lareconstitution assistée par ordinateur pour un forum romain » in Aplicaciones informaticas enarqueologia: teorias y sistemas, 1, Bilbao, Denborarem Argia, 1995, p.298-307.

MARTINEZ (I. M.), PUJANA (I.) & VALDES (L.), « Archeograf : agility for the documentationof archaeological excavations » in Archeologia & Calcolatori, n°7, 1996, p.887-899.

MARTIN-RABAUD (A.), « Intercomparaison des méthodes de métrologie tridimensionnelle parprocédés optiques » in Bulletin de la Société Française de Photogrammétrie et deTopographie, n°150, 1998, p.19-22.

MENARD (CH.) & SABLATNIG (R.), « Computer based acquisition of archaeological finds :the first step towards automatic classification » in Archeologia & Calcolatori, n°7, 1996,p.429-446.

MILLER (P.) & RICHARDS (J.), « The good, the bad, and the downright misleading:archaeological adoption of computer visualization » in Computer applications and

126

quantitative methods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford,Tempus Reparatum, 1995, p.19-22.

Observation de la Terre & Environnement, N°5, février 1999, 31 p

PARAMYTHIOTI (M.), « Le colosse d’Alexandrie, remontage de la statue de Ptolémée », RevueXYZ, n°76, 1998, pp.59-64.

POINSAC (B.), L’infographie, Paris, Presses Universitaires de France, 1994, coll. « Que sais-je ? », 127 p.

PORADA (S.), « Visualiser les réminiscences d’un lointain passé », De Lascaux au virtuel,patrimoine et nouvelles images, séminaire des 14 et 15 octobre 1994, Périgueux, 1994, p.27-33.

PY (M.), « Le module “données de terrain” » in Lattara 4, 1991, p.123-132.

PY (M.), « Les maisons protohistoriques de Lattara (IVème – Ier s. av. n. è.), approchetypologique fonctionnelle » in Lattara 9, 1996, 141-213.

REILLY (P.) & RICHARDS (J.), « New perspectives on Sutton Hoo : the potential of 3-Dgraphics » in Computer and quantitative methods in archaeology 1987, éd. par Ruggles etRahtz, Oxford, B.A.R., 1988, p. 173-185.

REILLY (P.), « Three-dimensional modelling and primary archaeological data » inArchaeology and the information age, a global perspective, London & New York, éd.Routledge, 1992, p.145-173.

REILLY (P.), « Towards a virtual archaeology » in Computer and quantitative methods inarchaeology 1990, éd. par Kris Lockyear et Sebastian Rahtz, Oxford, Tempus Reparatum,1991, p.133-139.

RIGOIR (Y.), Le Dessin technique en céramique, Lambesc, 1975, 96 p.

ROMANO (D. G.) & TOLBA (O.), « Remote sensing, GIS and electronic surveying :reconstructing the city plan and landscape of Roman Corinth » in Computer applications andquantitative methods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford,Tempus Reparatum, 1995, p.163-174.

ROUGER (E.), « Image numérique et archéologie », Le Médiéviste et l’ordinateur, n°29, 1994,p.7-11.

ROUVERET (A.), Histoire et Imaginaire de la peinture ancienne (Ve siècle av. J.-C. – Ier siècleap. J.-C.), Rome, BEFAR 274, 1989

SAINT-AUBIN (J.-P.) [dir.], L’Architecture en représentation, Malesherbes, Ministère de laCulture, Inventaire Général des Monuments Historiques, 1985

SAINT-AUBIN (J.-P.), « Architecture et images virtuelles: vers une nouvelle pensée visuelle »in Patrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à laBibliothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentation française,1997, p.54-74.

127

SAINT-AUBIN (J.-P.), « L’image de synthèse, un outil pour l’étude et la conservation dupatrimoine », De Lascaux au virtuel, patrimoine et nouvelles images, séminaire des 14 et 15octobre 1994, Périgueux, 1994, p.38-43.

SAINT-AUBIN (J.-P.), Le Relevé et la représentation de l’architecture, relevés, dessins etphotographies, Paris, Service de l’Inventaire Général, 1992, 232 p.

SAPIN (CHR.), « L’archéologie face aux images de synthèse », Le Médiéviste et l’ordinateur,n°29, 1994, p.53-57.

SHANKS (M.), « Photography and archaeology » in The Cultural life of images, visualrepresentation in archaeology, Londres, Routledge, 1997

SOIROT (C.), « Archéologie et modélisation », Archéologia, n°337, septembre 1997, p.8.

SPICER (D.), « Computer graphics and the perception of archaeological information: lies,damned statistics and…graphics! » in Computer and quantitative methods in archaeology1987, éd. par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.187-200.

STECKNER (C.), « Archaeological buildings reconstruction and the physical analysis ofexcavation documents » in Archeologia & Calcolatori, n°7, 1996, p.923-938.

THIBAULT (G.), « Fac-similés virtuels au plus près du réel », De Lascaux au virtuel,patrimoine et nouvelles images, séminaire des 14 et 15 octobre 1994, Périgueux, 1994, p.44-51.

VALENTI (M.), « La gestione informatica del dato. Precorsi ed evoluzioni nell’attività dellacattedra di archeologia medievale del dipartimento di archeologia e storia delle arti – sezionearcheologica dell’Università di Siena » in Archeologia & Calcolatori, n°9, 1998, p.305-329.

VERGNIEUX (R.), « La Réalité Virtuelle au coeur de la stratégie des données en archéologie »,Les Nouvelles de l’archéologie, n°76, 1999, p.23-25.

WATON (M.-D.) & WERLE (M.), « Une maison de musique à Strasbourg » Archéologia,n°327, octobre 1996, p.20-25.

CédéromsEgypte, 1156 av. J.-C., l’énigme de la tombe royale, Réunion des Musées Nationaux, Canal +Multimédia, Cryo Interactive Entertainment, 1997, France

Viaggo virtuale nell’antico Egitto, sulle orme della spedizione napoleonica, Altair 4Multimedia, Mondadori New Media, 1997, Italie

Viaggo virtuale nella antica Roma, Altair 4 Multimedia, Mondadori New Media, 1998, Italie

Vikings, Index +, France Télécom Multimédia, 1998, France.

Architectus, Eurêcad, 1997, Suisse.

Le Château des Cars, Ultime, ArchéA, 1997, France

The Castle of Ferrara, Archè, Soprintendenza ai Beni Storici e Artistici di Ferrara-Bologna,1997, Italie.

128

Ramsès II, Syrinx, 1998, France.

Articles sur InternetBELCHER (M.), CHALMERS (A.), DAY (M.) & STODDART (S.), « An interactive photo-realistic visualisation system for archaeological sites », University of Bristol, Department ofArchaeology, daté du 3/11/96,

URL=http://www.bris.ac.uk/Depts/Archaeology/html

DANIELS (R.), « The need for the solid modelling of structure in the archaeolgy of thebuildings », Internet Archaeology, n°2, 1997

URL=http://intarch.ac.uk/journal/issue2/daniels/index.html

EITELJORG (H.), « The CSA layer Naming Convention », Center for the Study ofArchitecture, Bryn Mawr, daté de février 1996,

URL=http://csaws.brynmawr.edu:443/web1/csalnc.html

EITELJORG (H.), « Computer-assisted drafting and design : new technologies for oldproblems », Center for the Study of Architecture, Bryn Mawr, daté d’avril 1996,

URL=http://csaws.brynmawr.edu:443/web1/cadbklt.html

EITELJORG (H.), « Surveying for Computer-Aided Drafting and Design – experiments inthree-dimensionnal techniques », Center for the Study of Architecture, Bryn Mawr, 1996,

URL= http://csaws.brynmawr.edu/web1/srveybk.html

GILLINGS (M.) & GOODRICK (G. T.), « Sensuous and reflexive GIS: exploring visualisationand VRML », Internet Archaeology, n°1, 1996

URL=http://intarch.ac.uk/journal/issue1/gillings/index.html

MATHUR (S.), « Three-dimensional representation of archaeological data in americanarchaeology », University of Iowa, Department of Anthropology, daté du 17/02/1997,

URL=http://www.uiowa.edu/~anthro/plains/Termppr.htm

129

ILLUSTRATIONS