Upload
ledang
View
214
Download
2
Embed Size (px)
Citation preview
Alban-Brice PIMPAUD Université Paris-X-Nanterre
LES APPLICATIONS DE L’INFOGRAPHIE3D A L’ARCHEOLOGIE
Année 1998-1999
Mémoire de maîtrise d’histoire de l’art etd’archéologie dirigé par Mme A.-M. GUIMIER-SORBETS2
TABLES DES MATIERES
TABLES DES MATIÈRES .................................................................................................................................. 2
INTRODUCTION................................................................................................................................................. 4
1. LES INFORMATIONS GRAPHIQUES EN ARCHÉOLOGIE ............................................................. 7
1.1. L’ARCHÉOLOGIE, UNE SCIENCE DE L’ÉRUDITION FONDÉE SUR LA CONNAISSANCE DES TÉMOINS MATÉRIELS
71.1.1. L’importance des informations ....................................................................................................... 71.1.2. La spécificité des données archéologiques ..................................................................................... 9
1.2. LE CODAGE ET LA RETRANSCRIPTION DES INFORMATIONS ....................................................................... 111.2.1. La description en langage naturel : de l’approche littéraire à l’analyse structurée .................... 111.2.2. La représentation graphique......................................................................................................... 12
1.2.2.1. La documentation photographique ........................................................................................................... 121.2.2.2. Le dessin technique en deux dimensions .................................................................................................. 161.2.2.3. La représentation tridimensionnelle.......................................................................................................... 19
2. PRÉSENTATION ET TECHNIQUES DE L’INFOGRAPHIE ............................................................ 25
2.1. DÉFINITIONS ............................................................................................................................................ 252.1.1. Le traitement d’image ................................................................................................................... 25
2.1.1.1. Les images numériques............................................................................................................................. 252.1.1.2. La numérisation ........................................................................................................................................ 26
2.1.2. La synthèse d’image...................................................................................................................... 282.1.2.1. Les images en deux dimensions ;.............................................................................................................. 282.1.2.2. Les images en trois dimensions ................................................................................................................ 29
2.2. LA MODÉLISATION ................................................................................................................................... 292.2.1. Espace tridimensionnel et interface bidimensionnelle .................................................................. 302.2.2. Les méthodes de modélisation....................................................................................................... 31
2.2.2.1. la modélisation surfacique : la conquête du volume par le dessin ............................................................ 322.2.2.1.1. Le balayage d’un dessin le long d’un chemin : l’extrusion ............................................................ 33
2.2.2.2. La modélisation volumique : la sculpture virtuelle................................................................................... 362.2.2.3. Les nouveaux outils de modélisation........................................................................................................ 38
2.3. LE RENDU ................................................................................................................................................ 402.3.1. La perspective ............................................................................................................................... 402.3.2. La lumière ..................................................................................................................................... 412.3.3. Les matières et les textures : les propriétés de surface et de volume ............................................ 42
2.3.3.1. Les textures planes.................................................................................................................................... 432.3.3.1.1. Le mapping d’image ...................................................................................................................... 432.3.3.1.2. Le bump mapping .......................................................................................................................... 452.3.3.1.3. Les autres techniques de mapping.................................................................................................. 46
2.3.3.2. Les textures tridimensionnelles................................................................................................................. 47CONCLUSION..................................................................................................................................................... 48
3. LES IMAGES DE SYNTHÈSE COMME OUTIL DE COMMUNICATION..................................... 50
3.1. DE NOUVELLES IMAGES ........................................................................................................................... 503.1.1. Des images comprises de tous....................................................................................................... 503.1.2. Des images qui posent problème : les « cartes postales » du passé.............................................. 52
3.2. UN LANGAGE DIDACTIQUE : LA MULTIPLICATION DES IMAGES ................................................................. 543.2.1. Les séries d’image......................................................................................................................... 553.2.2. L’animation, outil de narration..................................................................................................... 56
3.3. L’INTERACTIVITÉ COMME MODE D’ACCÈS À LA CONNAISSANCE. ............................................................. 603.3.1. Les visites virtuelles....................................................................................................................... 61
3.3.1.1. La navigation dans les mondes virtuels .................................................................................................... 623.3.1.1.1. Un langage de description de scènes en 3D : l’exemple du VRML ............................................... 623.3.1.1.2. La simulation de la navigation tridimensionnelle par anamorphose sphérique : le QTVR ............ 63
3.3.1.2. La 3D : une interface pour la connaissance .............................................................................................. 653.3.1.2.1. L’accès à la documentation ............................................................................................................ 653.3.1.2.2. L’approche ludique : une archéologie « vivante ».......................................................................... 66
3
3.3.1.2.3. La recontextualisation des vestiges : la découverte d’une archéologie « matérielle » .................... 673.3.2. La manipulation d’objets .............................................................................................................. 68
4. LES IMAGES DE SYNTHÈSE COMME AUXILIAIRES DE LA RECHERCHEARCHÉOLOGIQUE .......................................................................................................................................... 71
4.1. DE NOMBREUSES POSSIBILITÉS DE TRAITEMENT DE L’INFORMATION ....................................................... 714.1.1. Vers une connaissance globale en l’archéologie .......................................................................... 71
4.1.1.1. La prise en compte de l’environnement et de la topographie.................................................................... 724.1.1.1.1. la représentation tridimensionnelle de la topographie.................................................................... 734.1.1.1.2. l’observation du paysage................................................................................................................ 734.1.1.1.3. la reconstruction du paysage archéologique................................................................................... 754.1.1.1.4. la prospection virtuelle................................................................................................................... 764.1.1.1.5. L’association avec d’autres logiciels.............................................................................................. 77
4.1.1.2. Le site archéologique en 3D : le reflet virtuel d’une réalité opaque ......................................................... 804.1.1.2.1. la gestion et la représentation des données tridimensionnelles provenant des sites ....................... 81
4.1.1.2.1.1. Le fonctionnement par calque.................................................................................................... 824.1.1.2.1.2. L’association avec des bases de données ................................................................................... 85
4.1.1.2.2. Les reconstitutions ......................................................................................................................... 864.1.1.2.2.1. Quand les vestiges existent : la reconstruction assistée par ordinateur ...................................... 884.1.1.2.2.2. Quand les vestiges manquent : la reconstitution « hypothético-déductive » .............................. 89
4.1.1.2.3. L’hybridation des logiciels : simulation des propriétés physiques et visualisation de l’invisible .. 924.1.2. Une grande souplesse dans les traitements mais quelques limites dues à l’idéalisation de lareprésentation.............................................................................................................................................. 96
4.2. LES MODALITÉS D’ACQUISITION DES DONNÉES ........................................................................................ 974.2.1. Le transfert des méthodes traditionnelles de relevé tridimensionnel des spécialistes vers lesarchéologues ............................................................................................................................................... 99
4.2.1.1. Des instruments de métrologie tridimensionnelle réservés aux spécialistes ............................................. 994.2.1.1.1. Le relevé au théodolite ................................................................................................................... 994.2.1.1.2. Les relevés photogrammétriques .................................................................................................. 100
4.2.1.2. Des instruments désormais accessibles aux archéologues ...................................................................... 1034.2.2. Les nouvelles méthodes de numérisation tridimensionnelle........................................................ 107
4.2.2.1. La saisie distante..................................................................................................................................... 1094.2.2.1.1. Par l’analyse d’images ................................................................................................................. 109
4.2.2.1.1.1. Acquisition de la forme d’après un couple stéréographique (Shape from stereo) .................... 1094.2.2.1.1.2. Acquisition de la forme par lumière structurée (shape from structured light).......................... 1104.2.2.1.1.3. Acquisition de la forme par le mouvement (shape from motion)............................................. 111
4.2.2.1.2. Par balayage laser......................................................................................................................... 1124.2.2.2. La saisie directe ...................................................................................................................................... 115
CONCLUSION.................................................................................................................................................. 118
BIBLIOGRAPHIE............................................................................................................................................ 120
OUVRAGES ET ARTICLES ................................................................................................................................. 120CÉDÉROMS...................................................................................................................................................... 127ARTICLES SUR INTERNET................................................................................................................................. 128
ILLUSTRATIONS............................................................................................................................................ 129
4
INTRODUCTION
De plus en plus souvent, l’archéologie se voit associée, aux yeux du grand public, aux
nouvelles technologies. En fait, cette association, qui semble être un véritable paradoxe, n’est,
en réalité, que peu surprenante. En effet, l’archéologie est avant tout une science
d’aujourd’hui, et, à ce titre, en utilise les outils. Aussi, parmi les plus spectaculaires d’entre
eux, l’infographie et les images de synthèse qu’elle permet de réaliser figurent en bonne place.
Pour s’en convaincre, il suffit d’observer la part de plus en plus importante que prend cette
application particulière de l’informatique dans les documents à destination du grand public,
qu’il s’agisse des produits audiovisuels ou, plus récemment, des productions multimédias. En
fait, le côté magique et séduisant de ces images ne doit pas cacher ce qui fait leur succès :
porteuses ou non d’une thématique archéologique, elles plaisent de toute évidence car elles
véhiculent, du moins pour le moment, une connotation positive relative au mythe du « must »
technologique. A ce titre, et ce depuis quelques années, un véritable engouement s’est créé
autour du phénomène « 3D », si bien que, d’une manière ou d’une autre, l’archéologie ne
saurait y échapper.
C’est dans ce contexte que prend part cette recherche portant sur les applications de
l’infographie 3D à l’archéologie. En réalité, il nous a paru essentiel de voir dans quelle mesure
cette pratique et les images qu’elle permet de créer pouvaient servir l’archéologie d’un point
de vue général, et ce aussi bien au niveau de leur contribution au travail des archéologues que
sur la façon dont elles permettent à ce dernier d’être accessible à un large public. Ce dernier
point est particulièrement important et trouve pleinement sa place ici, car, ne l’oublions pas,
les connaissances produites par la pratique de l’archéologie ne sont pas destinées à rester la
propriété d’un petit nombre d’initiés mais sont bel et bien censées bénéficier à l’ensemble de
la communauté, qui, par ailleurs, justifie indirectement le travail des archéologues en suscitant
le nécessaire effort de mémoire que toute société se doit de reporter sur son passé.
Aussi, pour mener à bien cette recherche, nous avons jugé utile de nous intéresser,
dans une première partie, à la façon dont les informations prélevées sur le terrain par les
archéologues sont mises en forme et présentées au public qui est susceptible d’en avoir
l’usage. Cette partie porte essentiellement sur la représentation visuelle des connaissances
archéologiques, et ce qu’il s’agisse aussi bien de documents destinés aux spécialistes que ceux
s’adressant à un public moins averti. En développant cette partie, nous pensons montrer les
5
avantages et les limites de chacune des méthodes de représentation utilisées par les
archéologues ou par ceux qui sont chargés de produire ces documents. Se faisant, nous
insistons sur le fait que l’ensemble de ces documents, quelles que soient leurs finalités,
présentent une faiblesse que les techniques traditionnelles de représentation ne savent atténuer
qu’au prix d’un effort démesuré et souvent insuffisant : ils s’évertuent tous à reproduire dans
les deux dimensions des connaissances provenant de la réalité et observées en trois
dimensions, voire en quatre si l’on juge nécessaire la mention de l’effet du temps sur les
témoignages du passé. Cette partie nous permet d’introduire et de justifier le recours à
l’infographie tridimensionnelle pour représenter et traiter les connaissances archéologiques
dans une logique tridimensionnelle, voire quadridimensionnelle.
La deuxième partie propose une présentation de l’infographie. En effet, nous avons
estimé qu’il était important de mettre en évidence les « mécanismes » permettant la création
d’images de synthèse, afin de mieux comprendre quels en sont les enjeux ainsi que les
dangers. Par ailleurs, nous soulignons le fait que les images de synthèse ne sont en réalité
qu’un des produits possibles de l’infographie, et c’est pourquoi il nous a paru intéressant d’en
disséquer la réalisation. Par conséquent, après un exposé rapide traitant de la place de
l’infographie tridimensionnelle à l’intérieur du groupe plus large de l’informatique graphique,
nous entendons montrer de quelle manière les objets destinés à être représentés sont d’abord
créés de toutes pièces en trois dimensions dans la mémoire de l’ordinateur, et ce par
l’utilisation de plusieurs techniques que nous détaillons. Ensuite, nous exposons les méthodes
employées pour rendre ces objets, du moins dans leur aspect, davantage conformes à ceux
auxquels ils se réfèrent dans la réalité. Enfin, cette partie s’achève par la présentation du
processus final commun à toute réalisation d’image de synthèse, qui, en fait, détermine de
quelle manière la scène virtuelle en trois dimensions ainsi créée est projetée sur la surface
plane sur laquelle elle est généralement destinée à être publiée.
La précision des modalités de création des images de synthèse nous permet d’aborder
une troisième partie, où il est question d’étudier la portée pédagogique des documents à base
d’images de synthèse. En effet, l’infographie permet de produire plusieurs types de
documents, et à chacun d’entre eux correspond des possibilités propres en terme de
communication des informations. Ainsi, il nous est apparu intéressant de voir dans quelle
mesure ces différents produits destinés à différents supports pouvaient satisfaire à la
présentation et à la connaissance d’informations de nature archéologique. En fait, cette partie
6
entend présenter les alternatives aux documents traditionnels de l’archéologie en montrant les
plus values apportées par le recours à une documentation infographique.
Enfin, nous avons préféré isoler dans une dernière partie l’utilisation de l’infographie
dans le cadre de la recherche scientifique uniquement. En effet, il nous a semblé plus pertinent
de détailler ce sujet en l’excluant de toute problématique relative à la représentation
photoréaliste, ce point étant déjà traité dans les parties précédentes. Aussi, nous avons
privilégié le développement de cette partie suivant deux aspects : le premier s’attache à
présenter les nombreuses possibilités de traitement induites par la nature tridimensionnelle des
informations contenues dans les modèles numériques ; nous évaluons ainsi la propension de
l’infographie à constituer un outil de recherche pour l’archéologue, qui le seconde notamment
pour des activités de prospection, de gestion tridimensionnelle des vestiges découverts en
fouille ou bien encore de reconstruction de monuments détruits. Le deuxième point de cette
partie s’attache à rendre compte de la principale nécessité à laquelle doivent faire face les
archéologues désireux d’exploiter les possibilités de traitement évoquées plus haut : se pose
alors la nécessaire question de l’acquisition des données tridimensionnelles, qui, jusqu’à
présent, comme nous le verrons, dispose de solutions généralement réservées, en raison des
moyens financiers à mettre en œuvre, aux secteurs générant des richesses financières.
7
1. Les informations graphiques en archéologie
Dans cette partie, il s’agit d’étudier le rôle joué par les informations graphiques dans
l’élaboration d’une connaissance archéologique. Avant d’étudier précisément ce point, il nous
semble important de définir la spécificité des informations en archéologie.
1.1. L’archéologie, une science de l’érudition fondée sur laconnaissance des témoins matériels
1.1.1. L’importance des informationsDe par sa nature même, l’archéologie détruit les sources contribuant à forger sa
connaissance : aujourd’hui encore, une grande partie des documents sur lesquels elle se fonde
doivent être soustraits au contexte qui a permis de les préserver depuis leur enfouissement1,
lui-même porteur de nombreuses informations. L’étude de toutes ces données contenues dans
le sol passant nécessairement par un travail de destruction, la constitution d’un savoir, dans le
cas de cette discipline, est confrontée à un problème majeur qui tient précisément au caractère
irréversible de la fouille archéologique : seul l’archéologue en charge des opérations de
fouilles a un contact direct avec les vestiges observés sur le terrain. De ce fait, il résulte une
certaine restriction de la portée des découvertes réalisées sur chaque site, étant donné que les
seuls dépositaires de telles connaissances en sont les inventeurs respectifs. Par conséquent,
pour pallier le caractère irréversible et unique de chaque fouille, l’archéologue se doit de
conserver les données qu’il met au jour (et qu’il détruit) en les enregistrant sous d’autres
formes, de manière à pouvoir les communiquer à ses collègues et à l’ensemble de la
communauté scientifique, voire au grand public. En effet, la pratique de l’archéologie et la
teneur du discours scientifique qui en découle ne sauraient se limiter aux seules observations
faites sur chaque site isolément, mais participent, en réalité, d’un mouvement général où les
informations provenant d’un seul site peuvent bénéficier à l’ensemble des études menées sur
des sujets comparables. En outre, le résultat des campagnes de fouilles et d’études
archéologiques, dans de nombreux cas, intéresse la collectivité au sens général, puisqu’il est
du devoir de l’archéologue de justifier et de rendre compte de ses travaux en les rendant
accessibles à un public de néophytes, qu’il s’agisse des décideurs et des représentants de la
1 L’archéologie de fouille ou du bâti, bien que n’étant pas la seule approche possible dans l’étude des vestiges,continue toujours à fournir la plupart de la documentation utile aux archéologues. Néanmoins, son importancetend à être pondérée par des approches moins agressives et moins lourdes qui privilégient davantage uneconnaissance « distante » de ces documents par les méthodes issues de la prospection et de la détection.
8
collectivité ou bien plus largement du grand public, qui sont autant d’acteurs en droit
d’attendre de la part des archéologues de s’expliquer sur leur activité et de présenter les
résultats de leurs recherches, et ce dans le cadre d’une réflexion plus générale que peut porter
une société sur son passé.
Par conséquent, la diversité des publics auxquels se destinent les informations et les
observations produites par les archéologues implique de leur part une formulation spécifique
en fonction du public visé. Ainsi, une grande partie du travail de l’archéologue consiste à
établir une documentation où sont présentées les informations récoltées sur le terrain. Cette
documentation, de caractère secondaire, restera ensuite, avec la mémoire de l’archéologue, la
seule « trace » disponible renseignant et témoignant de l’intégrité du site archéologique et de
sa propension à fournir des informations non corrompues par l’agression de la fouille. En
outre, la documentation, dans bien des cas, sera le seul support de diffusion des informations :
les « vestiges des vestiges », c’est-à-dire l’ensemble du matériel archéologique exhumé,
extrait de son contexte et ayant « survécu » à la fouille, constituent, à terme, des documents
qu’il est difficile de consulter directement. En effet, les vestiges mis au jour sont uniques et
les rendre simultanément accessibles à plusieurs personnes présentes à des endroits différents
pose véritablement des problèmes : qu’ils soient mobiliers ou immobiliers, les vestiges
archéologiques « voyagent » rarement et sont plutôt destinés à alimenter les réserves des
musées et les rayons des dépôts archéologiques. Dans ce cas, la mobilité des chercheurs est
loin de présenter une solution pour la diffusion des connaissances, et ces déplacements,
motivés par la possible confrontation de leurs « vestiges », posent toujours le même
problème : celui de la conjonction dans l’espace et dans le temps de vestiges distants
géographiquement et qu’il serait impossible de déplacer. De plus, une comparaison menée
entre des objets issus de sites différents n’est réellement efficace que lorsqu’elle est réalisée
terme à terme, ce qui nécessite, au préalable, de bien cerner les critères réellement significatifs
de manière à rendre possible l’application d’une telle démarche à un corpus relativement
large2.
Aussi, l’établissement d’une documentation secondaire présente l’avantage de
rassembler certaines informations issues de la réalité en les portant sur des supports qui en
2 La quantité de pièces contenues dans une collection archéologique interdit, dans une certaine mesure, deconsacrer un temps excessif à l’étude de chacune d’entre elles. Par conséquent, le fait de déterminer les critèresréellement intéressants pour l’analyse de chaque type de vestige permet de traiter l’ensemble d’une collectionavec plus d’efficacité.
9
garantissent la diffusion et la reproduction tout en s’affranchissant des contraintes spatio-
temporelles de leur référé. En outre, les possibilités de diffusion et de reproduction des
informations secondaires permettent aux archéologues de publier les sources à partir
desquelles ils ont élaboré leur discours scientifique, fournissant ainsi l’opportunité à leurs
confrères d’en vérifier et d’en valider la pertinence.
Cependant, l’efficience d’une telle documentation est tributaire de la façon dont sont
formulées et retranscrites les informations qu’elle cherche à véhiculer. Lorsqu’elles sont
destinées à être échangées entre les spécialistes, celles-ci doivent, pour des raisons évidentes
de compréhension, faire appel à un système de codification qui permette d’en garantir la
constance et la cohérence. Ces qualités sont nécessaires pour assurer l’utilité documentaire des
informations et pour autoriser les comparaisons destinées à mettre en rapport certains faits
archéologiques observés.
Aussi, l’établissement d’une telle documentation requiert au préalable un travail de
réflexion sur la manière dont doivent être formulées les informations, et cette tâche est
d’autant plus primordiale que le volume des documents primaires utiles aux archéologues
augmente à chaque fois que la recherche archéologique s’enrichit des approches et des
méthodes d’analyse spécifiques aux disciplines « connexes » : l’importance des observations
apportées par les sciences de la Terre (géologie, géographie, topographie, pédologie) ou les
sciences de la Nature (biologie, zoologie et bien d’autres spécialités comme la carpologie ou
la palynologie) n’est plus à démontrer.
1.1.2. La spécificité des données archéologiquesAinsi, les vestiges utiles à la recherche archéologique constituent un panel
relativement riche et diversifié : ils peuvent avoir été intentionnellement créés par ceux qui
nous ont précédés, qu’il s’agisse de leurs habitations, de leurs constructions ou bien encore
des objets faisant partie de leur quotidien (comme les céramiques, complètes ou morcelées,
etc.…), ou qu’il s’agisse des déchets d’activité (éclats de silex provenant de la taille de pierre,
déchets de minerais indiquant le travail des métaux) ou de consommation (os, coquilles,
arêtes). En outre, il peut également s’agir de témoins plus ténus, comme les graines, les
pollens et les autres résidus organiques qui nous renseignent par exemple sur les conditions
climatiques et sur l’environnement dans lequel ils vivaient, ou bien encore de traces indiquant
des gestes, des actions (traces de façonnage) ou attestant la présence de matériaux périssables
aujourd’hui disparus (comme les trous de poteaux des huttes néolithiques).
10
En plus de l’étendue croissante et de la diversité de ces données, l’archéologue doit
faire face à un autre problème, et non des moindres : celui-ci se trouve confronté à leur nature
fondamentalement tridimensionnelle, puisqu’elles proviennent directement de la réalité. Dans
de nombreux cas, l’appréciation de telles données permet d’aboutir à des observations pleines
de sens pour les archéologues. Par exemple, dans le cas de l’archéologie dite « de fouille », le
caractère progressif de l’enfouissement des vestiges permet de conserver, dans un même
volume, des éléments souvent contemporains. Dès lors, on comprend mieux l’importance que
revêt la connaissance des relations tridimensionnelles qui existent entre les vestiges,
puisqu’elle permet, entre autre, de mettre en évidence des relations temporelles, et ce afin de
restituer, par exemple, la séquence chronologique d’un site.
En outre, l’ensemble des données couvertes par le champ archéologique n’offre qu’une
vision lacunaire d’une réalité révolue : il est rare que les vestiges soient conservés en élévation
et dans l’état dans lequel ils étaient du temps de leur utilisation. De plus, quand bien même ils
auraient été préservés de l’enfouissement, le maintient en élévation, du moins pour les
structures « en dur », n’en garantit pas l’intégrité et le caractère originel : à part les vestiges
préservés de toute réaffectation comme les monuments découverts à Pompéi, il arrive bien
souvent que les vestiges conservés en élévation aient subis de nombreuses transformations et
aménagements afin de satisfaire aux nécessités des populations qui se sont succédées3. Au
total, les objets de l’étude archéologique ne donnent à voir que des fragments du passé qui ne
permettent pas toujours d’apprécier concrètement la réalité d’un site archéologique à un
moment précis : les ruines, dans une certaine mesure, ne permettent pas toujours de rendre
compte de leur état à un moment de leur histoire, ou tout du moins ne facilitent pas le travail
d’imagination et de reconstruction mentale qu’elles requièrent de ceux qui les fréquentent,
qu’il s’agisse des scientifiques ou de simples visiteurs. Par conséquent, il existe réellement un
problème de représentation sélective des vestiges : comment étudier ou présenter un vestige
tel qu’il était à un moment donné en ne prenant en compte que les éléments valables à ce
3 A ce sujet, J.-P. Adam rappelle le paradoxe existant dans les opérations d’étude et de restauration desmonuments architecturaux, qui bien souvent s’attachent à ne rétablir que l’état initial du vestige en minimisantl’importance des phases successives de sa vie, qui, pourtant, participent autant à une problématiquearchéologique (cf. ADAM (J.-P.), « Les nouveaux regards de l’archéologie monumentale », Les Nouvelles del’Archéologie, n°76, 1999, p.6-9). Aujourd’hui, les choix d’étude et de restauration s’explique par l’unicité duvestige en question ; dès lors, le choix s’impose entre une présentation ne prenant en compte qu’un seul aspect del’édifice, balayant du coup, du moins dans la réalité, tous les autres aspects du monument, et entre unerestauration préservant l’intégralité de la séquence chronologique, mais qui, d’une certaine manière, risqued’occulter chacune des phases de l’évolution du bâtiment, puisqu’il n’est pas possible, dans la plupart des cas, deles dissocier physiquement.
11
moment et en excluant l’effet des modifications postérieures ? A ce problème de
représentation se rajoute celui de la manipulation et de la gestion de ces données de nature
tridimensionnelle : en fait, il convient de s’interroger sur l’efficacité des outils actuels dont
disposent les archéologues pour exprimer toutes ces informations constituées par l’imbrication
de notions spatiales et chronologiques.
Ces outils sont autant de supports sur lesquelles s’expriment ces informations, et
chacun d’autres eux emprunte un langage spécifique : il s’agit de voir dans quelle mesure ces
langages permettent de renseigner sur la tridimensionnalité et sur la temporalité des vestiges.
1.2. Le codage et la retranscription des informations
1.2.1. La description en langage naturel : de l’approche littéraire àl’analyse structurée
Historiquement, la première méthode d’enregistrement et de présentation des données
archéologiques a emprunté un raisonnement littéraire qui s’est prolongé jusqu’au début du
XXème siècle : les vestiges archéologiques faisaient souvent l’objet d’une description textuelle,
méthode qui s’est révélée être une source d’erreur fréquente, du fait de la difficulté de
retranscrire avec précision, exhaustivité et rigueur différents niveaux d’information issus de
l’observation de la réalité. En effet, les descriptions textuelles ne permettent pas de
hiérarchiser de manière claire les informations observées dans un contexte archéologique,
d’autant plus lorsqu’elles sont nombreuses. En outre, les chercheurs ayant eu à reprendre un
travail de ce type ont souvent été confrontés à un problème de terminologie : il faut, dans de
nombreux cas, émettre des hypothèses sur la signification de tel ou tel mot désignant un
vestige précis. De la même manière, il subsiste de nombreux doutes lorsque l’on cherche à
localiser un site déjà étudié, dans la mesure où nos prédécesseurs ne disposaient pas des
mêmes instruments de mesure des distances et des orientations, tant au niveau matériel que
conceptuel : à ce titre, les imprécisions induites par l’usage d’unités de mesure aujourd’hui
tombées en désuétude constituent un écueil sérieux à cette tâche de localisation, sans compter
l’effet de la fluctuation des étalons et des points de repère alors utilisés. Enfin, la faillite de
cette méthode réside aussi dans son fort niveau de subjectivité : la qualité d’une description
dépend souvent de l’aptitude du narrateur à décrire la réalité (l’appréciation des qualités
formelles des vestiges dépend du jugement du rédacteur, et se fonde rarement sur des procédés
automatiques).
12
Bien évidemment, la description textuelle n’a pas disparu de la méthode
archéologique. En fait, elle intervient davantage comme outil de synthèse des recherches que
comme outil de conservation : l’écrit reste un outil privilégié pour présenter de manière
synthétique et orientée les résultats des campagnes de recherches archéologiques, tandis que le
rôle de conservation est davantage joué par les autres types de documents que nous verrons
plus bas.
En fait, au texte littéraire s’est substituée une nouvelle utilisation de l’écrit. Désormais,
dans certains cas, la conservation des informations prélevées sur le terrain passe par une phase
de traitement hiérarchique et normalisé : plus que les textes, les mots permettent de synthétiser
des informations en les organisant de manière rationnelle dans des systèmes descriptifs et
analytiques.
Cependant, qu’elle soit analytique ou simplement littéraire, l’utilisation de l’écrit est
limitée lorsqu’il s’agit de conserver et de décrire des faits observés sur le terrain : il existe une
réelle distance entre les informations qu’ils véhiculent et celles auxquelles ils se réfèrent.
C’est pourquoi le recours aux documents graphiques est nécessaire.
1.2.2. La représentation graphique
1.2.2.1. La documentation photographiqueDès son invention, la photographie a été utilisée pour conserver l’image des vestiges
archéologiques. En France, une des premières initiatives faisant intervenir ce procédé est due à
l’administration des Beaux-Arts, qui, à partir de 1851, envoya des photographes prendre des
clichés des principaux monuments du Moyen-Orient afin de constituer un fonds
documentaire4. En réalité, la photographie n’a véritablement été associée à des opérations
archéologiques qu’à partir des fouilles menées en Assyrie sur la Porte de Khorsabad, de 1852
à 1855. Par la suite, elle est rapidement apparue dans les publications scientifiques,
remplaçant définitivement les méthodes plus traditionnelles de reproduction telles que la
lithographie. Aujourd’hui, elle occupe, à part égale avec les autres documents graphiques, une
place relativement importante dans les publications, sinon en terme de quantité, du moins au
niveau de la complémentarité qu’elle tient avec le texte. Néanmoins, avant d’être un document
4 Cf. DORRELL (P. G.), Photography in archaeology and conservation, Cambridge, Cambridge University Press,1989, p.1.
13
destiné à être publié, la photographie constitue, pour les archéologues, un véritable outil de
travail.
En effet, elle présente la particularité d’enregistrer les données de terrain sans
discrimination : elle permet de produire des documents bruts où les informations ne sont pas –
a priori – hiérarchisées. Ce genre de document, réalisé avec un minimum d’intervention de
l’opérateur dans un laps de temps infiniment court, est apparemment propice à
l’enregistrement exhaustif et rapide des données5. En outre, son mode d’accès excessivement
intuitif (exclusivement visuel) fait de lui un document accessible au plus grand nombre. Dans
certains cas, la photographie n’est plus cantonnée à un rôle d’enregistrement et de sauvegarde
des informations mais est réellement utilisée en tant qu’outil de découverte : le
développement de la photographie aérienne a incontestablement assis son statut d’outil d’aide
à la prospection6.
Néanmoins, il n’est plus à démontrer que les documents produits par la photographie
ne vont pas sans poser de problème : d’une part, l’impossibilité de distinguer les informations
pertinentes de celles qui sont inutiles conduit à une « pollution » de la valeur informative du
document, le destinataire ne saisissant pas forcément ce qui est véritablement intéressant7 ;
d’autre part, le cadrage de la photographie le conduit à focaliser son attention sur le centre de
l’image, alors qu’il arrive bien souvent que l’objet (au sens large) de la photographie dépasse
largement les limites du cadrage ou bien ne soit pas uniquement concentré dans les parties
centrales du cliché.
En outre, la photographie perd ou corrompt beaucoup d’informations : de nombreuses
nuances perceptibles sur le terrain par le fouilleur ne peuvent pas être enregistrées par la
photographie8. La qualité de l’enregistrement dépend de certains facteurs extérieurs parfois
difficilement contrôlables, comme par exemple la luminosité qui, suivant les ombres qu’elle
créée, peut rendre un cliché illisible. De plus, la réalisation d’une prise de vue doit prendre en
5 Cf. REILLY (P.), « Three-dimensional modelling and primary archaeological data » in Archaeology and theinformation age, a global perspective, London & New York, éd. Routledge, 1992, p.160-161.6 Cf. DABAS (M.), DELETANG (H.), FERDIERE (A.), JUNG (C.) ET HAIO ZIMMERMANN (W.), La Prospection,Paris, éd. Errance, 1998, coll. « Archéologiques », p.91-160.7 Généralement, ce problème est contourné en plaçant près de l’objet à identifier une marque, un tableauprécisant ses références.8 Ces nuances tiennent souvent à des différences de textures ou de consistance qui caractérisent différentescouches archéologiques. A l’inverse, certaines utilisations de la photographie permettent de mettre en évidencedes détails ou des nuances invisibles à l’œil nu ; toutefois, ces utilisations spécifiques présupposent le recours àdes méthodes ou à du matériel spéciaux (macrophotographie, utilisation de films et de filtres spéciaux), ce qui lesexclus d’une application généraliste dans l’archéologie.
14
compte certaines contraintes inhérentes au matériel utilisé : la focale employée sur le boîtier
photographique risque de produire une déformation plus ou moins importante, nuisant bien
évidemment à la qualité et à la précision des informations reproduites9. Les caractéristiques
techniques, propres à chaque type d’appareil, et l’inconstance des conditions dans lesquelles
ces prises de vue sont réalisées ne permettent pas d’offrir un moyen réellement satisfaisant
pour générer des documents destinés à mettre sur pied des comparaisons entre les vestiges : en
effet, il n’y pas véritablement d’homogénéité dans les traitements, et ce manque de cohérence
rend les tentatives de comparaison d’une photographie à l’autre relativement ardues10. Par
conséquent, la photographie semble davantage dévouée à des observations menées à titre
indicatif, permettant de conserver rapidement une image des vestiges11. Néanmoins, elle
conserve tout son intérêt dans certains cas particuliers, et principalement lorsqu’il est plus
avantageux d’y faire appel plutôt que d’avoir recours à d’autres procédés. Ainsi, la
photographie est une méthode de retranscription réellement efficace lorsqu’il s’agit de
conserver des vestiges particuliers tels que les peintures murales ou les mosaïques, ou bien
encore tout type de décor inscrit sur un support relativement bidimensionnel. Dans ce cas,
l’objectif principal est de privilégier la conservation des propriétés de surface et de forme de
manière à ne pas trahir l’expression artistique qu’elles véhiculent.
Au total, la photographie échoue lorsqu’elle cherche à retranscrire avec fidélité les
rapports de proportion et de dimension qui structurent une réalité tridimensionnelle : les
vestiges, n’étant vus que sous un seul angle, sont projetés sur une surface plane qui ne permet
pas d’en restituer le volume, étant donné qu’il n’y a pas moyen d’observer, sur un même
document, les faces cachées d’un objet. En fait, les seuls moyens existants pour saisir le
volume nécessitent soit l’utilisation d’un couple de photographie12 reproduisant la vision
humaine en stéréoscopie mais difficile à retranscrire sur un support papier, soit de réaliser une
9 Il existe néanmoins des procédés qui permettent de corriger ces déformations. Ainsi, suivant le type dephotographie réalisée, il est possible de minimiser l’importance de la distorsion en ayant recours à un matérieloptique spécifique. En outre, des logiciels ont été spécialement développés pour redresser des photographiesaériennes obliques (le logiciel « Reimagae » de L. Langouët et « Aérophoto » d’O. Buchsenschutz), et d’autresinitiatives ont été menées pour adapter ce type de logiciels à une utilisation sur le terrain. Ainsi, le système« Arkéoplan » permet, dans une certaine mesure, de corriger les déformations, mais il n’est véritablement efficaceque lorsqu’il est employé pour relever des surfaces relativement planes (paroi d’un mur, aire de fouille vue dehaut), car il ne permet pas de traiter la profondeur de champ et ne gère pas les effets de perspective (cf.BUCHSENSCHUTZ (O.) & GRUEL (K.), « De l’usage d’Arkéoplan pour l’enregistrement d’éléments en élévation :étude d’un mur du couvent du Mont Beuvray », Le Médiéviste et l’ordinateur, n°29, 1994, p.14).10 Cf. RIGOIR (Y.), Le Dessin technique en céramique, Lambesc, 1975, p. 18-19.11 Comme c’est généralement le cas lorsque les archéologues décident de conserver, au cours de la fouille, unstade provisoire du vestige avant d’en achever la destruction.12 Cf. ci-dessous 4.2.1.1.2 Les relevés photogrammétriques, p.100.
15
séquence cinématographique (ou vidéo) qui n’est en fait qu’une succession d’images
observant le même vestige sous des angles différents. Bien que ce procédé présente l’avantage
d’être très suggestif en permettant de mieux appréhender visuellement un vestige
archéologique, il n’en possède pas moins les mêmes inconvénients techniques que la
photographie, sans compter la difficulté qu’il y aurait à reproduire une telle information, qui
ne peut bien évidemment pas emprunter les médias traditionnels, les produits audiovisuels en
archéologie étant relativement marginaux et essentiellement destinés au grand public.
Toutefois, la photographie semble bénéficier depuis quelques années d’un
renouvellement de son apport en tant que document descriptif des faits archéologiques
observés. Désormais, son association avec l’informatique a permis de l’établir comme un
document intermédiaire servant à produire d’autres documents. En effet, comme nous l’avions
indiqué plus haut, certains logiciels permettent de corriger les déformations induites par la
prise de vue. Ainsi, à partir de mesures connues dans la réalité et reportées sur la
photographie, il est possible de rétablir les rapports de proportions et d’obtenir un document
orthogonal, où toutes les dimensions, mises à l’échelle, sont conformes à la réalité. Par la
suite, ce document sert de modèle à la réalisation d’un dessin, où seules les informations
jugées pertinentes sont conservées : cette phase de mise au net consiste schématiquement à
décalquer les formes observées sur l’orthophotographie13. Ainsi, cette utilisation de la
photographie permet d’alléger considérablement le temps consacré à la prise de mesure sur le
terrain, puisque seules quelques mesures de références suffisent à établir les rapports de
proportions14.
Dans ce dernier exemple, la photographie fait intégralement partie d’un processus
d’élaboration permettant de produire un autre type de document graphique, qu’il s’agit
désormais d’étudier.
13 c’est-à-dire la photographie après traitement et correction des déformations.14 Plusieurs travaux ont été menés sur l’application de l’orthophotographie à l’archéologie. La plus connue faitpartie d’un projet plus ambitieux, Arkéoplan, dirigé par O. Buchsenschutz (cf. BUCHSENSCHUTZ (O.) & GRUEL
(K.), « De l’usage d’Arkéoplan pour l’enregistrement d’éléments en élévation : étude d’un mur du couvent duMont Beuvray », Le Médiéviste et l’ordinateur, n°29, 1994, p.12-18.). Une autre initiative a permis d’établirl’efficacité d’une telle méthode en ayant recours à du matériel et des logiciels relativement communs, sansnécessiter l’utilisation de logiciels spécialement développés à cet effet (cf. ROUGER (E.), « Image numérique etarchéologie », Le Médiéviste et l’ordinateur, n°29, 1994, p.7-11.).
16
1.2.2.2. Le dessin technique en deux dimensionsA la différence de la photographie, le dessin est un procédé de représentation par
sélection des informations. En fait, la personne chargée de réaliser un dessin dispose d’un
contrôle absolu sur l’objet de la représentation ainsi que sur la manière dont il doit être figuré.
La maîtrise totale du processus de représentation offre ainsi un large éventail de possibilités
dans le traitement de l’information : en théorie, l’exercice du dessin est relativement libre et
dépend entièrement du savoir-faire de celui qui le réalise. Néanmoins, cette approche,
lorsqu’elle est appliquée dans une logique rigoureuse, n’est pas satisfaisante ; tout l’intérêt du
dessin réside en réalité dans sa propension à faire l’objet d’une codification, où chaque
élément dessiné témoigne, suivant certaines conventions, de la réalité et de ce qui est
réellement intéressant de noter. Ainsi, le recours au dessin permet d’élaborer un langage de
description compréhensible par tous.
Le dessin archéologique participe du même mouvement qui caractérise d’une manière
générale le dessin technique, qu’il s’agisse du dessin cartographique, industriel ou bien encore
d’architecture. En fait, l’objectif principal du dessin est de fournir une représentation
graphique permettant de conserver fidèlement les dimensions de l’objet, du vestige observé.
Cette forme de retranscription de la réalité subit nécessairement trois réductions, toutes les
trois déterminées par le support sur lequel elle est destinée à être publiée. La première
réduction concerne les dimensions mêmes de l’objet, qui sont réduites par un processus de
mise à l’échelle, et ce de manière à pouvoir être transposées sur un support relativement
maniable et peu encombrant15. La seconde tient à la clarté du document final : pour être
significatif, le dessin ne prend en compte que les éléments pertinents, et, de ce fait, les
informations qui y figurent sont nécessairement sélectionnées et mises en forme de manière à
ne pas polluer inutilement la lecture du document. Enfin, la troisième réduction opère sur une
des trois dimensions présentes dans la réalité, car seule l’expression de deux dimensions est
réellement adaptée au support bidimensionnel. Pour satisfaire à cette exigence, la réduction
s’effectue, suivant les principes de la géométrie descriptive, par la projection orthogonale de
l’objet sur un plan perpendiculaire par rapport au sens de projection. Ce type de projection
permet de conserver la disposition et la forme des objets suivant le plan sur lequel ils sont
destinés à être projetés. Cela explique que, dans certains cas, les dessins d’ensemble ne
permettent pas de rendre compte individuellement des dimensions de chacun des objets
15 C’est généralement le cas lorsque les dimensions du référé dépassent celles du support. Cependant, danscertain cas, il peut arriver que le dessin soit réalisé en taille réelle, lorsqu’il s’agit de représenter le mobilier.
17
représentés, du fait que chacune des dimensions choisies pour caractériser un objet ne
coïncide pas forcément avec le plan de projection. Aussi, chaque dessin témoigne de la façon
dont le dessinateur appréhende la réalité qu’il observe ; il existe cependant certaines
conventions qui régissent la manière suivant laquelle la réalité doit être décomposée et qui
définissent comment doivent être représentées les informations.
D’une manière générale, le dessin archéologique s’attache à retranscrire la réalité à
l’aide de plusieurs documents, dont la complémentarité permet d’en appréhender la
tridimensionnalité. Ainsi, les informations relatives à l’étendue des vestiges et des sites en
terme de surface sont fixées par leur projection sur un plan horizontal. Dans ce cas, seules
sont réellement exprimées les deux dimensions relatives à la longueur et à la largeur.
Néanmoins, il arrive parfois que certains artifices permettent de mentionner la dimension
absente : à ce titre, l’altitude est généralement exprimée sur les plans grâce à des courbes de
niveaux associées à des valeurs numériques. En fait, ce principe convient essentiellement aux
données topographiques : pour des raisons évidentes de clarté, à chaque point du plan ne peut
être associée qu’une seule valeur d’altitude, ce qui est généralement le cas avec le relief (sauf
lorsque, par exemple, le sommet d’une falaise est à l’aplomb de sa base). Lorsqu’il s’agit de
documenter des vestiges archéologiques, la précision de la hauteur par ce procédé montre ses
limites : en effet, la projection sur un plan ne permet pas de renseigner sur les vestiges situés
au-dessous de ceux directement visibles, et il est par conséquent impossible d’y faire figurer
des données quantitatives telles que les mesures de hauteur. La seule liberté permise par ce
type de projection consiste à différencier la hauteur des éléments mitoyens sur le plan en leur
attribuant une graisse différente en fonction de leur hauteur respective : par exemple, dans le
cas d’un mur inégalement conservé en élévation, le dessinateur peut utiliser un trait plus fort
pour marquer le contour de l’assise supérieure, prenant soin ainsi d’éviter tout risque de
confusion lié à l’absence de discontinuité lorsque le mur est vu de dessus. Cependant, cette
option de représentation tient encore de l’artifice, puisqu’elle ne permet en aucun cas de
renseigner sur le nombre d’assises et sur leur hauteur respective, car elle ne s’attache qu’aux
éléments directement visibles dans le plan de projection.
Ainsi, pour les autres données où la mention précise de la hauteur est nécessaire, il faut
envisager le recours à un autre type de document. La vue en plan peut alors être complétée par
une projection sur un plan vertical, qui permet ainsi de fournir des vues en élévation ou en
coupe. De même que pour les planimétries, ces documents ne prennent en compte que deux
18
dimensions, la troisième pouvant être évoquée à l’aide des procédés cités plus haut. Ces vues
sont également très importantes, puisqu’elles permettent de conserver des informations
primordiales en archéologie : les logiques de construction ou de sédimentation des vestiges
archéologiques sont particulièrement bien visibles sur ce type de document, étant donné
qu’elles sont généralement déterminées par une succession verticale de couches
stratigraphiques ou d’éléments superposés. Cependant, les vues en coupe et en élévation ne
renseignent que “ ponctuellement ” sur l’organisation verticale d’un site ou d’un monument :
il est rare qu’un seul document suffise à témoigner de l’ensemble de l’objet étudié. Dans le
cas d’un monument, par exemple, un relevé d’élévation ne peut donner d’indication que sur
un seul parement d’un mur. Pour connaître l’épaisseur de ce mur en regard de son élévation, il
est nécessaire de l’observer dans un autre document, et il en est de même si l’on désire étudier
l’autre parement. Dans un contexte de fouille, le dessin de coupe ou le relevé vertical ne
concerne pas l’ensemble du volume exhumé mais s’attache plutôt à quelques cas particuliers
tels que les éléments construits ou bien encore certains échantillons où la stratigraphie peut
s’avérer particulièrement intéressante, qu’il s’agisse de fosses ou des bermes laissées comme
témoins à la périphérie de l’aire de fouille. Ainsi, la connaissance et l’enregistrement précis
des zones fouillées ou étudiées n’offrent des informations tridimensionnelles que par le
croisement des différents documents et par leur extrapolation : à partir des informations tirées
de l’observation des bermes, il est possible a posteriori de restituer mentalement
l’organisation en volume de la zone fouillée, qui jusqu’alors n’était documentée que par des
plans, car le déroulement même de la fouille privilégie l’établissement de ce type de dessin.
Le dessin archéologique ne se limite pas à l’établissement d’une connaissance du site
même ou de son environnement local ou régional, mais permet également de conserver des
informations plus précises sur le mobilier. Dans ce cas, l’objet même du dessin est isolé du
contexte dans lequel il a été découvert, et un ensemble de règles et de conventions détermine
la façon dont il doit être retranscrit. Ce n’est pas l’objet ici de faire l’inventaire de chacune des
spécificités de représentation propre aux différents types de vestige, puisque, globalement, le
dessin de mobilier a recours au même système de projection sur un plan orthogonal, qu’il
s’agisse du dessin de céramique, de matériel lithique ou bien encore de mobilier
ostéologique16.
16 Pour plus de précision sur le dessin de matériel, cf. DRIESSCHE (B. VAN DEN), Le Dessin au service del’archéologie, Louvain, 1975, p.30-44 et RIGOIR (Y.), Le Dessin technique en céramique, Lambesc, 1975, p.23-26.
19
Au total, la pratique du dessin d’après relevé présente l’avantage de conserver les
propriétés formelles des vestiges observés : les dimensions appartenant au plan de référence
sont saisies avec justesse et sont mises à l’échelle sur le document de destination. Néanmoins,
du fait du caractère non automatisé de la phase d’acquisition des informations, le dessin ne
permet pas de faire figurer l’intégralité des propriétés des objets, comme leur couleur, forme
en volume, etc.…
En outre, dans le cas d’une vaste documentation archéologique, ce procédé montre ses
limites : d’une part, le croisement de deux documents 2D complémentaires ne suffit pas pour
reproduire la tridimensionnalité ; d’autre part, la quantité sans cesse grandissante des données
archéologiques rend difficile cet effort mental de recoupement de documents de plus en plus
nombreux. Enfin, ce mode d’accès à la tridimensionnalité favorise, du fait de son manque de
transparence, de nombreuses incompréhensions lors de l’échange des points de vues et des
observations émanant de plusieurs archéologues travaillant ensemble. Cette faillite, aussi
cruciale soit-elle en terme de communication entre les spécialistes, n’en est pas moins
caractéristique de la difficulté d’accès que peuvent présenter de tels documents pour un public
de non-spécialistes.
1.2.2.3. La représentation tridimensionnelleLe croisement de plusieurs documents exprimés en deux dimensions n’est pas la seule
méthode pour retranscrire les trois dimensions de la réalité. En fait, il existe d’autres procédés
qui permettent de porter dans les deux dimensions de la feuille de papier et dans un même
document des informations de nature tridimensionnelle.
Ces représentations tridimensionnelles fonctionnent sur la base d’un principe similaire
à celui que nous avons vu pour le dessin en deux dimensions : elles résultent également de la
projection de la réalité sur un plan en deux dimensions (le tableau), en l’occurrence constitué
par la feuille de papier. Les seules différences résident dans l’orientation du plan de projection
par rapport à l’objet et dans la façon dont sont traitées les informations relatives à la troisième
dimension. En effet, dans le cas du dessin en deux dimensions, le plan de projection est
rigoureusement parallèle aux plans privilégiés de l’objet, de sorte que les informations
s’établissant sur des plans perpendiculaires à ce dernier ne puissent pas venir perturber la
lecture du document. Ainsi, les rapports qui unissent les dimensions dans la réalité sont
respectés : il n’est pas possible d’exprimer la profondeur sur un support en deux dimensions,
et la solution consiste tout simplement à en annuler la mention. A l’inverse, le dessin en trois
20
dimensions contourne ce problème en offrant plusieurs solutions qui consistent à restituer
graphiquement une certaine vision de la profondeur : les perpendiculaires au tableau qui
témoignent justement de cette troisième dimension sont représentées suivant une orientation
particulière, de manière à pouvoir apparaître en plus des directions déjà établies par les deux
premières dimensions. Par conséquent, le rapport de perpendicularité qui relie l’orientation de
la troisième dimension au plan établit par le rapport des deux premières est nécessairement
aménagé suivant certaines modalités, qu’il s’agit dès à présent de présenter.
La première solution consiste à conserver sur le papier les parallélismes présents dans
la réalité, afin que les verticales restent parallèles entre elles, de même que les horizontales et
les fuyantes indiquant la profondeur. Ce type de projection, dite « affine oblique »17 permet de
conserver les mesures de dimensions sur un ou plusieurs plans. Dans le cas particulier de la
perspective cavalière, le plan principal de l’objet est parallèle au tableau, et seul le rapport
angulaire qu’entretient ce plan avec les parallèles indiquant la profondeur est modifié : cet
angle, perpendiculaire dans la réalité, est fixé par convention à 45°, et les dimensions des
fuyantes qu’il définit sont réduites de moitié. Ainsi, ces aménagements permettent de
conserver, à l’instar du dessin en deux dimensions, les proportions, les dimensions et la forme
des éléments présents sur le plan principal de l’objet et sur tous ceux qui lui sont parallèles,
tandis que les dimensions présentes sur les plans perpendiculaires subissent une déformation
qu’il est néanmoins possible de mesurer. Cependant, le fait que des échelles différentes soient
attribuées aux dimensions n’autorise pas une lecture des plus significatives : il faut envisager
un autre type de projection affine oblique répondant de manière plus convaincante aux
exigences du dessin archéologique. L’axonométrie est le seul système de projection à
conserver le parallélisme et l’échelle des différentes dimensions. Elle permet ainsi de
représenter non seulement le plan d’un édifice sans déformation, mais également de faire
figurer ces dimensions verticales, exprimées dans la même échelle que le plan. Ces
dimensions verticales sont portées sur le tableau de manière à ce qu’elles soient
rigoureusement parallèles aux verticales de ce dernier : il en résulte alors une meilleure lecture
des informations qu’elles véhiculent, la perception des différentes dimensions étant davantage
évidente. En outre, le plan voit ses rapports et ces dimensions conservés, de sorte que son
expression semble être également parallèle au plan du tableau : en fait, les angles sont
maintenus mais le système orthonormé qu’il définit est basculé de 45° de manière afin que
21
l’une de ces dimensions ne coïncide pas avec l’expression des verticales. Au total, aucune des
faces n’est privilégiée mais le recours à ce système permet de conserver avec le maximum de
fidélité l’échelle, les orientations et les dimensions de ce qui est observé dans la réalité.
Ces systèmes de représentation permettent ainsi de formuler de manière mesurable des
informations de nature tridimensionnelle sur des supports à deux dimensions. Cependant, ces
informations sont représentées suivant des conventions qui ne sont pas toujours accessibles de
prime abord : par exemple, il arrive souvent que pour améliorer la lecture d’un édifice, celui-
ci soit figurer comme s’il était vu de dessous. En fait, ce type de point de vue peu commun
permet de privilégier le plan de l’édifice en le représentant dans son intégralité et en rapport
avec son élévation, sans qu’il soit en partie caché par cette dernière. Cette convention de
représentation, bien que permettant d’exprimer de nombreuses informations, n’offre pas une
vision très naturelle de l’objet. En effet, d’une manière générale, les systèmes de projection
affine induisent une certaine mise à distance entre l’observateur et l’objet : ce qui est
représenté est conçu comme un produit abstrait, conceptuel, véhiculant des informations
quantifiables. Or, outre la reproduction des trois dimensions à des fins d’études et de mesures,
il existe un véritable intérêt à représenter ces informations sous des formes plus accessibles,
voire plus subjectives. Comme c’est souvent le cas en archéologie, les vestiges ne sont que les
témoins lacunaires d’une réalité passée, et il est parfois important de pouvoir leur redonner
leur aspect originel, du moins celui qu’on leur suppose, en les restituant. Cette tâche, ne
pouvant pas être assurée par la photographie, incombe naturellement à la représentation
graphique. A cet effet, un autre type de projection permet de reproduire avec fidélité la façon
dont l’œil humain perçoit son environnement, et offre ainsi des représentations plus
accessibles.
A la différence de la projection affine, la projection centrale – la perspective – ne
maintient que très rarement les parallélismes présents dans la réalité : en fait, chacune des
trois directions de l’espace tridimensionnel voit ses parallèles converger vers un point de fuite
lorsque celle-ci n’est pas parallèle au plan du tableau, de sorte que le dessin final peut
comporter de un à trois points de fuite. Ce principe de construction assoit une des principales
limites de la projection centrale, à qui il est pratiquement impossible de conserver les
dimensions et de les préserver de toute déformation. En fait, seuls les plans rigoureusement
17 Cf. SAINT-AUBIN (J.-P.) [dir.], L’Architecture en représentation, Malesherbes, Ministère de la Culture,Inventaire Général des Monuments Historiques, 1985, p.20-21.
22
parallèles au tableau peuvent conserver leur forme, tandis que leurs dimensions sont plus ou
moins réduites en fonction de leur éloignement par rapport au tableau. Par conséquent, il n’est
pratiquement pas possible de tirer des informations de grandeur sur ce type de document, étant
donné que ni les dimensions, ni les formes ne sont invariablement conservées. En fait, la
projection centrale permet d’effectuer une mise en scène du monument, et ce afin de porter un
certain regard sur lui : par ce biais, il est possible de personnaliser le rapport que l’on désire
établir avec le vestige restitué. Ainsi, le jeu sur les points de fuite et sur la position du tableau
par rapport à l’objet de la représentation permet de modifier l’image que l’on en a : dans
certains cas, il peut être intéressant de restituer le côté monumental et écrasant de certains
vestiges, de manière, par exemple, à éprouver les messages que l’architecte ou le maître
d’œuvre s’étaient décidés à faire passer au travers de leur réalisation, comme peut en
témoigner à cet égard l’architecture monumentale publique des Romains. Le dessin en
perspective, en raison de son analogie avec la perception humaine, favorise l’expression
immédiate de certaines impressions intranscriptibles par les autres types de dessin. Son
utilisation dans l’archéologie peut emprunter plusieurs logiques : il peut tendre à ne traiter que
le vestige même, monument ou témoin plus modeste, en ayant recours à un minimum d’effets
graphiques de manière à garantir la sobriété et la crédibilité scientifique du message qu’il
délivre18. A l’opposé, le dessin peut être rehaussé de couleurs afin de retranscrire non
seulement une réalité archéologique observée (polychromie de certaines architectures), mais
également une interprétation plus partisane de ce que pouvait être la réalité du vestige dans le
passé : à ce titre, le dessin perspectif joue davantage un rôle figuratif qu’analytique ou
conservateur. Les aquarelles de MM. J.-Cl. Golvin et J.-M. Gassend19 en sont des exemples
flagrants : dans leur cas, l’unité n’est plus le vestige même mais s’est étendue à son
environnement. En fait, le dessin en perspective créé des passerelles entre l’abstraction des
résultats des recherches archéologiques, qui n’offrent que très rarement de points de vue
18 JAMES (S.), « Drawing inferences. Visual reconstructions in theory and practice » in The Cultural life ofimages, visual representation in archaeology, éd. par Brian Leigh Molyneaux, Londres, Routledge, 1997, p.24.L’auteur de cette contribution souligne le fait qu’il existe un certain « académisme » dans les publicationsarchéologiques scientifiques, du moins en Grande-Bretagne, qui, selon lui, consiste à n’accorder de crédit auxtravaux archéologiques que lorsque les représentations graphiques auxquelles les archéologues font appel pourasseoir certains de leurs arguments ou pour tenter de les rendre plus accessibles soient réduites au minimum :pour résumer, la présence de nombreuses images dans une publication peut être synonyme de manque de sérieuxpour le travail qui a été mené.19 GASSEND (J.-M.) & GOLVIN (J.-CL.), « Les restitutions graphiques : pourquoi ? comment ? »,l’Archéologue – Archéologie Nouvelle, n°23, juillet - août 1996, p.48-50.
23
généraux sur les réalités révolues, et leur nécessaire synthèse demandée par toute entreprise de
mise en image qui acceptent difficilement les hésitations et les incertitudes20.
En fait, la réalisation de tels documents permet de mettre à plat l’état des
connaissances sur un site et d’en vérifier la cohérence : ces représentations constituent des
supports, des terrains d’entente sur lesquels les spécialistes peuvent se retrouver pour exposer
avec plus de réussite leurs hypothèses de travail. En particulier, le dessin en perspective
bénéficie également à un public plus large : les dessins, plus ou moins réalistes, sont
accessibles à tous. C’est donc par sa capacité à évoquer l’aspect d’un objet, réel ou reconstruit
mentalement, que le dessin perspectif l’emporte du moins en terme d’efficacité. Cependant,
comme tout dessin, il est limité par un mode de réalisation long et fastidieux :
• sa réalisation demande une certaine quantité de travail : lorsque le dessin doit être
relativement précis, le dessinateur doit s’aider d’autres documents décomposant l’objet en
projections orthogonales afin de mieux en contrôler la projection centrale.
• cette vue en perspective est unique : pour réaliser une autre vue du même objet, le
dessinateur doit recommencer la même procédure en choisissant un autre point de vue.
Par conséquent, dans de nombreux cas, la réalisation de tels dessins est conditionnée
par des contraintes de “ rentabilité ” : dans le cadre d’une publication archéologique, il faut
que la représentation de la tridimensionnalité soit justifiée par l’intérêt qu’elle présente à la
fois d’un point de vue général (est-ce qu’elle apporte réellement une meilleure compréhension
par rapport au texte et aux dessins déjà présents) et d’un point de vue orienté (quel point de
vue choisir au détriment de quel autre ; quelle vue sera la plus significative ?), tout en sachant
qu’une seule image de objet ne suffit pas pour rendre compte de la façon dont il s’inscrit dans
l’espace ; dans le cadre de la diffusion vers le public, le choix ne s’établit pas de la même
façon : les impératifs de précision sont moins contraignants, car ce qui compte, ce n’est pas
tant une reproduction fidèle à partir des données archéologiques mais plutôt une évocation
proche de ce qui est connu par les fouilles, généralement rehaussée de couleurs pour la rendre
plus attractive.
Nous avons vu que, dans le cas de l’archéologie, les documents graphiques sont
essentiels car ils peuvent être vecteurs de nombreuses informations. A plus forte raison, nous
20 Parfois, les dessinateurs ont néanmoins recours à des subterfuges pour cacher certains endroits de leurs dessinsqui ne sont pas connus dans la réalité par les archéologues et dont il serait délicat d’extrapoler la restitution.
24
avons montré qu’il existait un réel enjeu pour représenter les données archéologiques en trois
dimensions.
Depuis quelques années, l’introduction de l’informatique dans l’archéologie a apporté
de nouvelles méthodes de travail, notamment dans la pratique graphique : l’élaboration de
plan, de coupe et de carte sur des logiciels de D.A.O. disponibles sur des ordinateurs
accessibles aux archéologues non-spécialistes de l’informatique a permis à ces derniers de
produire une quantité infinie de documents sans pour autant augmenter en proportion leur
volume de travail.
Aujourd’hui, ce sont désormais les logiciels permettant de traiter les informations
tridimensionnelles21 et de réaliser automatiquement les dessins en projection centrale qui se
trouvent à la portée des archéologues. Il s’agit donc de voir plus en détail en quoi consiste
cette nouvelle pratique et dans quelle mesure elle peut se conformer à l’expression des
connaissances archéologiques.
21 Cela s’explique par des raisons de matériel et de logiciel : les ordinateurs accessibles au plus grand nombredeviennent de plus en plus puissants, ce qui leur permet de recevoir des logiciels, qui, il y a quelques années,étaient réservés à ceux qui disposaient des meilleures machines. Ces logiciels, de plus en plus nombreux,nécessitent moins de compétence en informatique de la part des utilisateurs.
25
2. Présentation et techniques de l’infographie
2.1. DéfinitionsLe terme infographie est un néologisme désignant la rencontre du graphisme et de
l’informatique ; il s’applique à deux types d’activités22 :
• l’analyse ou le traitement d’image à partir d’images existantes ;
• la synthèse d’image, où les images sont produites artificiellement par le calcul de
l’ordinateur.
2.1.1. Le traitement d’imageLe traitement d’image désigne l’ensemble des opérations informatiques qui permettent
d’intervenir sur ce qui constitue une image numérique. Avant toute chose, il faut donc pouvoir
disposer des outils permettant de traduire une image issue de la réalité en informations
numériques, directement compréhensibles par l’ordinateur. Cette étape, la numérisation,
implique dans un premier temps de définir la nature d’une image numérique.
2.1.1.1. Les images numériquesEn fait, une image numérique est une surface plane entièrement remplie d’éléments
graphiques, – les pixels23 –, disposés régulièrement en lignes et en colonnes de manière à
former un rectangle. Chacun de ces éléments est codé à l’aide d’informations numériques qui
indiquent à l’ordinateur ses propriétés d’affichage, telles que sa couleur et sa position relative
dans la trame rectangulaire de l’image. Ainsi, la couleur d’un pixel est définie par le mélange
de trois composantes primaires (le rouge, le vert et le bleu) suivant le principe de la synthèse
additive : la couleur finale dépend de l’intensité de chacune de ces composantes ; pour obtenir
du blanc, il suffit de pousser l’intensité des trois couleurs à leur maximum ; à l’inverse, le noir
s’obtient en réduisant leur intensité au minimum. Entre ces deux extrêmes, les nombreuses
combinaisons possibles permettent de couvrir un champ colorimétrique plus ou moins vaste
en fonction de la profondeur de codage de l’image24. Aujourd’hui, chacune des composantes
primaires peut proposer jusqu’à 256 niveaux d’intensité, ce qui fait au total plus de 16,7
22 cf. POINSAC (B.), L’infographie, Paris, Presses Universitaires de France, 1994, coll. « Que sais-je ? », p.723 de l’anglais picture element24 En fait, la profondeur de codage détermine le nombre de possibilité dont on dispose pour coder uneinformation. Par exemple, une image codée sur 8 bits pourra offrir 256 couleurs possibles pour chaque pixel : unbit (binary digit) est un élément d’information qui peut prendre deux valeurs au choix ; aussi, une chaîne de
26
millions de combinaisons, soit autant de nuances possibles25. Outre la possibilité d’afficher
une couleur précise, chaque pixel se voit attribué un emplacement unique : ils sont
uniformément distribués sur une surface rectangulaire suivant un nombre limité de colonnes et
de lignes dont la quantité détermine la finesse et le niveau de détail de l’image finale. Leur
position respective est alors connue grâce à des coordonnées exprimées par rapport à un
repère orthogonal composé d’un axe horizontal (l’abscisse) et d’un axe vertical (l’ordonnée)26.
2.1.1.2. La numérisationUne image numérique est donc composée d’une quantité limitée d’éléments : elle
possède un nombre fini de pixels qui peuvent être colorés par un nombre limité de couleurs.
Cette finitude de l’image numérique s’oppose au caractère infini des images réelles : en effet,
dans la réalité, les images ne se réduisent pas à ce qu’elles expriment, elles participent d’un
tout. Par exemple, l’effet produit par un dessin ou une peinture est non seulement dû aux
couleurs et aux formes dessinées sur la toile ou sur le papier, mais également à la matérialité
de la « matière picturale » : la toile, la peinture, l’encre participent de la réalité et sont
véritablement inscrites dans un espace tridimensionnel dont les limites sont celles de
l’infiniment petit ; il en est de même de la photographie argentique, qui fixe une expression de
la réalité sur un support dont les propriétés chimiques et physiques déterminent la qualité : à la
saisie d’une image de la réalité se superpose la matière du support recevant l’information,
rajoutant ainsi autant de bruit supplémentaire au signal original.
Par conséquent, l’image elle-même est indissociable de son support. Les signaux
visuels émis par ces « images-supports » sont continus, c’est-à-dire sans fin : leurs
rayonnements proviennent directement de la matière qui les compose, et pour arriver à leur
limite, il faudrait au moins pénétrer jusqu’au niveau de leur structure moléculaire. Aussi, pour
rendre ces images lisibles et manipulables par un ordinateur, il faut les retranscrire en un
nombre fini d’informations numériques. Ce phénomène de réduction, la discrétisation, se
produit lors de la phase de numérisation : il permet de substituer à un signal continu, dit
« analogique » un signal discontinu, dit « numérique » composé d’un nombre limité de valeur.
Par exemple, la numérisation d’un dessin procède par un échantillonnage plus ou moins précis
codage constituée de 8 bits offre 28 possibilités de codage, soit un total de 256. A l’heure actuelle, les pixelsd’une images peuvent être codés sur 24 bits, ce qui fait un total de plus de 16,7 millions de possibilités (224).25 Ce chiffre est obtenu en multipliant les niveaux d’intensité de chacune des composantes, soit 256x256x256. Ilcorrespond au nombre de nuances affichable simultanément par un écran.26 Pour un exposé plus détaillé sur la nature des « mécanismes » graphiques en informatique, cf. COUWENBERGH
(J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.26-32.
27
de l’image, c’est-à-dire en remplaçant la continuité des motifs, des traits de crayon par un
nombre limité de pixels dont la quantité est déterminée par l’utilisateur. Chaque pixel
remplace alors une petite portion de l’image de départ, la simplifiant nécessairement du fait
qu’il constitue lui-même la plus petite entité affichable d’une image numérique27. Au total,
l’image est recomposée par une mosaïque de pixels.
Au total, l’image de départ a été traduite en un langage compréhensible seulement par
l’ordinateur, qui se charge ensuite de le reconvertir en éléments graphiques que l’homme peut
voir et comprendre. En fait, le traitement d’image permet d’intervenir sur toutes les
informations déterminant la couleur et la position de chaque pixel. En effet, l’ordinateur
connaît et maîtrise l’ensemble de ces informations puisqu’il commande à l’écran de les
afficher ; aussi, les logiciels de traitement, à l’aide de quelques commandes, peuvent
demander à l’ordinateur de modifier certaines de ces informations, par exemple de rendre plus
clairs une sélection de pixels, de jouer sur l’intensité de l’une des trois couleurs fondamentales
ou bien encore de déplacer quelques pixels en modifiant leur position. Les possibilités
d’édition d’une image sont pratiquement illimitées : à ces opérations basiques se sont
substituées d’autres commandes beaucoup plus puissantes qui permettent de transformer
complètement l’image de départ tant et si bien que ces logiciels de traitement tendent à
devenir également des logiciels de synthèse d’image.
Aujourd’hui, avec la démocratisation des périphériques de numérisation (scanner à
plat, appareil photographique numérique) et de ces logiciels, le traitement d’image s’est
largement répandu. En archéologie, les utilisations sont multiples : elles interviennent par
exemple lors du processus de publication, en permettant d’améliorer la qualité d’une
photographie parfois trop sombre ; ou bien encore comme outil d’aide à la recherche, en
rendant visibles certains détails invisibles à l’œil nu en accentuant le contraste de l’image ou
l’intensité de certaines couleurs.
Ces traitements peuvent donc s’appliquer à toutes les images numériques, quelle qu’en
soit la provenance, qu’il s’agisse de documents issus de la réalité (photographies, documents
dessinés ou peints sur support plan, etc.…) ou intégralement conçus sur ordinateur.
27 Cf. JUILLIER (L.), Les Images de synthèse, Paris, éd. Nathan, 1998, p.8-10.
28
2.1.2. La synthèse d’imageLa synthèse d’image permet de créer des images directement à partir de l’ordinateur,
sans passer par la numérisation d’un document réel. Cette création ex nihilo engendre deux
types d’images :
2.1.2.1. Les images en deux dimensions ;Dans le cas des images en deux dimensions, la surface de l’écran est considérée pour
ce qu’elle est, c’est-à-dire un support plan, et sur lequel, à l’instar d’une toile, les logiciels de
synthèse d’image offrent la possibilité d’utiliser de nombreux outils rappelant parfois les
instruments de dessin et de peinture (le pinceau, la brosse, les ciseaux, le pot de peinture, la
plume, les couleurs...28). Ces outils déterminent – dans une certaine mesure – les modalités de
coloration des pixels de l’image. Par exemple, le pinceau, dans le logiciel Adobe Photoshop,
permet de déposer de la couleur sur l’image suivant un tracé régulier et doux : dans les zones
situées à la périphérie de l’empreinte de l’outil, la couleur du pinceau est mélangée avec la
couleur de fond. Dans cet exemple, chaque outil à une spécificité propre et joue sur les
propriétés des pixels composant le document.
Dans d’autres logiciels, les dessins ne sont pas définis par la coloration des pixels mais
par un ensemble de formes géométriques assises dans un repère orthogonal en deux
dimensions. Les dessins sont alors codés par des formules mathématiques qui en décrivent les
formes en déterminant l’orientation d’une courbe, la longueur d’un segment, les positions des
points principaux par lesquels passent des droites, ainsi que leurs attributs de forme et de
couleur, comme l’épaisseur du trait, la couleur du contour et de la surface de la forme
géométrique29. Par la suite, ces informations absolues sont calculées de manière à être
affichées sur l’écran, quelle que soit la résolution de ce dernier30 : la représentation graphique
n’est plus l’expression limitée d’une image composée d’un nombre fini d’éléments
graphiques, mais devient l’outil de visualisation de figures abstraites. C’est cette logique de
fonctionnement de l’écran qui prévaut également dans les images en trois dimensions.
28 A titre indicatif, cf. GRADIAS (M.), Grand Livre, Adobe Photoshop 4.0, Paris, Micro Application, 1997, p.281-296.29 Ce type de logiciel est d’ailleurs de plus en plus utilisé dans le milieu archéologique pour produire des cartesou bien encore des dessins techniques de mobilier et de structure. Les logiciels de tracés vectoriels permettent,entre autre, de réaliser des dessins agrandissables ou réductibles sans perte de qualité, ce qui est particulièrementintéressant lorsqu’il s’agit d’assembler deux cartes complémentaires d’échelle différente.30 Il s’agit ici des deux approches du dessin en deux dimensions: la première, le mode « raster » ou « bitmap »,définit des fichiers constitués par les informations colorimétriques de chaque pixel; la seconde, le mode« vectoriel », crée des fichiers simplement composés d’informations géométriques renseignant sur la position depoints, de droites, de courbes. Ce n’est pas le propos de les développer davantage ici.
29
2.1.2.2. Les images en trois dimensionsLes logiciels permettant de créer des images de synthèse en trois dimensions
n’appartiennent donc qu’à une partie de l’infographie31. En fait, l’expression images de
synthèse en trois dimensions est un raccourci pour désigner l’aboutissement visible d’une
succession d’opérations : au final, les images créées sont dites « en 3D » car elles expriment,
sur des supports bidimensionnels (papier, écran...), des projections planaires de formes
géométriques conçues dans l’absolu en trois dimensions. La projection se réalise suivant les
lois de la perspective formulées depuis la Renaissance32. Pour rendre l’effet perspectiviste
encore plus saisissant, les logiciels de 3D intègrent d’autres fonctions permettant de simuler
des phénomènes optiques naturels tel que l’incidence de la lumière sur les volumes ou bien
encore sa réfraction à travers un liquide ou un solide transparent. L’ensemble de ces artifices
contribue à créer une image « 3D », qui en fait n’a de tridimensionnel que son mode de
conception.
Afin de mieux comprendre la nature et le fonctionnement de ces images
tridimensionnelles, il s’agit d’étudier leur mode de conception et les différentes étapes du
travail qui président à leur réalisation.
2.2. La modélisationCe terme à un sens légèrement différent de celui qui lui est donné usuellement. En fait,
la modélisation, dans le cadre des mathématiques, de la physique ou bien encore de la
géographie, désigne une mise en équation d’un phénomène observable dans la réalité. Cette
mise en équation permet d’étudier un phénomène, quel qu’il soit, en maîtrisant certains des
paramètres qui le définissent. Ainsi, la modélisation est en quelque sorte une simplification de
la réalité : pour que le modèle soit efficace, il est nécessaire de retirer les détails insignifiants
qui sont autant de « bruit »33 pour l’étude pertinente du phénomène.
Dans le cas de l’infographie, cette définition de la modélisation peut convenir dans une
certaine mesure : il ne s’agit pas de simplifier la réalité par des équations, mais plutôt
d’exprimer les objets qui la composent sous forme de figures géométriques
tridimensionnelles. La simplification opère donc dans une logique géométrique, et non pas
31 Dans le souci d’une simplification du langage, nous utiliserons indifféremment les expressions infographie 3Dou infographie pour désigner le processus de fabrication des images de synthèse en trois dimensions.32 Cf. 1.2.2.3 La représentation tridimensionnelle, p.1933 Vient du terme anglais noise, qui, dans cette acception, retranscrit l’idée d’une perturbation, d’un parasitagedes informations.
30
algébrique. En outre, elle peut s’appliquer à des objets provenant aussi bien de la réalité que
de l’imagination de leur concepteur. En ce sens, la modélisation est aucunement limitée par
les contraintes réelles ; elle dépend simplement des outils logiciels, des performances du
matériel informatique et de la compétence du concepteur.
En fait, le terme « modélisation » serait une mauvaise traduction de l’anglais34, son
équivalent français « modelage »35 désignant plutôt les activités de façonnage de la matière.
La modélisation, dans cette dernière acception, correspond donc à la phase d’élaboration
tridimensionnelle des objets, et, plus généralement, à la définition du modèle dans lequel ils
s’organisent. Aussi, la modélisation fait appel à un ensemble d’outils logiciels permettant de
créer et d’intervenir sur la géométrie 3D des objets. Cependant, avant de présenter ces
différents outils, il faut néanmoins évoquer la particularité de l’infographie 3D, qui consiste, à
partir d’une interface bidimensionnelle, à intervenir sur des informations qui ne sont
tridimensionnelles que dans la mémoire de l’ordinateur.
2.2.1. Espace tridimensionnel et interface bidimensionnelleEn effet, la modélisation doit faire face à un réel paradoxe : jusqu’à présent,
l’ensemble des périphériques d’ordinateur permettant à l’homme de communiquer avec la
machine fonctionnent suivant une logique bidimensionnelle. Les périphériques d’entrée tels
que la souris36 ou le clavier37 ne gèrent pas la troisième dimension et l’écran38, qui permet à
l’utilisateur de voir et de contrôler le résultat de ses actions, ne peut, bien évidemment,
qu’afficher deux dimensions. Pour remédier à ce problème, les concepteurs des logiciels de
modélisation ont adapté les principes du dessin technique à l’outil informatique. L’objet est
alors représenté par un certain nombre de vues permettant d’en définir les formes et les
dimensions39 : ces vues en deux dimensions se complètent et permettent de rendre compte du
volume de l’objet. Ainsi, les modeleurs40 disposent généralement de « fenêtres » dans
34 Cf. HURIET (CL.), « Rapport sur les Images de synthèse et monde virtuel : techniques et enjeux de société » inOffice parlementaire d’évaluation des choix scientifiques et technologiques, n°526, Paris, éd. Société Nouvellesdes Librairies, 1997, p.22.35 « Modelage : action de modeler une substance plastique pour lui donner une forme déterminée » cf. Robert(P.), Dictionnaire alphabétique et analogique de la langue française, Paris, Le Robert, 1972, p.1097.36 Le déplacement de la souris sur le tapis se réalise exclusivement en deux dimensions.37 Le clavier ne peut envoyer que des informations alphanumériques. L’utilisation des touches comme outil demanipulation et de déplacement tridimensionnels dans les jeux vidéos a montré leur manque d’ergonomie et desouplesse (une touche pour chaque direction, soit six au minimum pour aller en bas, en haut, à droite, à gauche,en avant et en arrière).38 Périphérique de sortie.39 cf. ADRAIT (R.) & SOMMIER (D.), Guide du constructeur en bâtiment, Paris, éd. Hachette, 1987, p.10-1140 Nom générique employé pour désigner les logiciels de modélisation.
31
lesquelles figurent des vues de face, de haut, de profil, qui sont autant de projections
orthogonales de l’objet (voir fig.1, planche I). Lorsque l’objet est complexe, ces vues peuvent
être complétées par d’autres afin de donner une image plus précise de sa géométrie (vue de
dessous, de derrière). Ainsi, grâce à cette décomposition du volume en dessin, l’utilisateur
peut créer et modifier plus librement les objets : l’utilisation de la souris l’autorise à modifier
les caractéristiques bidimensionnelles de l’objet présentes dans chaque vue. De plus, à la
différence de la planche à dessin, ces vues sont solidaires entre elles : si l’utilisateur intervient
sur l’une d’elles, les autres seront automatiquement affectées par la modification. Enfin, pour
mieux contrôler le résultat de ces opérations, il a la possibilité d’afficher l’objet sous tous les
angles possibles : en projections planes, axonométriques ou perspective, le logiciel se
chargeant de calculer toutes les vues.
2.2.2. Les méthodes de modélisationA l’origine, il existait principalement deux types de modélisation, qui témoignaient
chacune de deux approches différentes dans la définition et dans l’utilisation des volumes.
L’existence de ces différentes approches tient au fait que les premières applications
informatiques permettant de représenter des données tridimensionnelles furent développées
pour des secteurs d’activité qui avaient à la fois de réels besoins et en même temps qui avaient
les moyens de les développer ou de les financer. Les premiers programmes de modélisation
3D furent donc créés pour répondre aux besoins de l’industrie et de l’armée. Certaines
activités et leur méthode de travail ont alors été transposées de la réalité vers l’écran de
l’ordinateur, c’est-ce que nous avons rapidement évoqué plus haut (cf. ci-dessus, p.30) à
propos de la planche à dessin des dessinateurs techniques de l’industrie et des cabinets
d’architecture41. Ces logiciels ont alors permis de créer des formes en trois dimensions à partir
de dessins, suivant les possibilités de la modélisation filaire et surfacique42. D’autres logiciels
ont permis d’ouvrir de nouvelles perspectives, en offrant la possibilité aux ingénieurs de tester
les propriétés physiques des objets qu’ils concevaient, élaborés non pas à partir de dessin mais
à partir de solides43 assemblés entre eux : ce type de modélisation44 a été largement employé
41 Les logiciels qui transposèrent ces méthodes de travail sur l’ordinateur sont connus sous l’acronyme génériquede C.A.O (Conception Assistée / Aidée par Ordinateur), équivalent de l’anglais C.A.D. (Computer AidedDesign).42 Pour une définition plus précise de ces notions, cf. 2.2.2.1 la modélisation surfacique : la conquête du volumepar le dessin, p.32.43 Forme géométrique en trois dimensions, définie par une équation. Par exemple, la sphère est définie par unrayon et par un centre de position connu : ainsi, elle ne s’exprime que par quatre variables (position du centre en
32
dans l’ingénierie pour évaluer le volume, la masse ou la solidité d’une pièce à l’état de
prototype et destinée à être fabriquée en série.
Prévues à l’origine pour une utilisation industrielle, ces deux méthodes de
modélisation ont été confrontées pendant de nombreuses années à partir du moment où elles
furent utilisées à d’autres fins, notamment dans des secteurs où leurs performances visuelles
ont davantage primé sur les possibilités de traitement qu’elles offraient. Leur opposition a
d’ailleurs trouvé des défenseurs et des détracteurs jusque dans la communauté
archéologique45. Par la suite, l’amélioration du matériel et des logiciels à permis de
développer de nouvelles méthodes de modélisation, que nous verrons plus bas.
2.2.2.1. la modélisation surfacique : la conquête duvolume par le dessin
La modélisation surfacique poursuit en fait la voie ouverte par la modélisation en fil de
fer : elles procèdent toutes deux de la même logique. La modélisation en fil de fer (de
l’anglais wireframe), historiquement conçue en premier, permet de créer un volume à partir
d’un dessin en deux dimensions. La différence qui la sépare de sa variante tient au fait que,
dans son cas, le volume est définit par un réseau d’arêtes et de nœuds enveloppant l’objet
(voir fig. 2 planche II), qui, dans les modèles surfaciques, détermine des surfaces
triangulaires opaques (voir fig. 3 planche II). Aussi, ce dernier type de modélisation présente
l’avantage de cacher au spectateur les faces invisibles de l’objet et en offre, de ce fait, une
meilleure lisibilité. En outre, le succès rencontré par la modélisation surfacique s’explique
également par la possibilité de recevoir des attributs de couleur : en fonction de la provenance
de la lumière, les logiciels peuvent améliorer la perception du volume en le soulignant grâce à
un procédé longuement utilisé par les peintres : le modelé. Cependant, l’inconvénient majeur
de la modélisation filaire / surfacique réside dans le fait qu’elle peut ne définir que
l’enveloppe de l’objet : au total, le modèle est composé d’un assemblage de points reliés dans
l’espace par des arêtes et par les facettes. Ainsi, le modèle surfacique doit être comparé, en
x,y,z et longueur du rayon) contre une multitude lorsqu’elle est définie par les très nombreuses facettestriangulaires propres aux objets surfaciques.44 cf. 2.2.2.2 La modélisation volumique : la sculpture virtuelle, p.36.45 A ce sujet, cf. CHAPMAN (G.) & WOOD (J.), « Three-Dimensional computer visualization of historicbuildings – with particular reference to reconstruction modelling » in Archaeology and the information age, aglobal perspective, London & New York, éd. Routledge, 1992, p.123-146, où les auteurs présentent deuxexemples de reconstitution virtuelle de monuments archéologiques en modélisation surfacique et volumique.Pour une présentation de la modélisation volumique en archéologie, cf. DANIELS (R.), « The need for the solidmodelling of structure in the archaeology of the buildings », Internet Archaeology, n°2, mis à jour le 14/03/1997,à l’URL=http://intarch.ac.uk/journal/issue2/daniels/index.html.
33
quelque sorte, à la coquille d’un œuf : il est alors impossible de connaître directement les
propriétés « physiques » du volume contenu par cette coquille. De plus, étant constituée
d’éléments surfaciques, donc en deux dimensions, la coquille a une existence
tridimensionnelle limitée dans le modèle : par exemple, les facettes qui la composent ne
peuvent être vues que d’un seul côté ; les retourner reviendrait à les rendre invisibles. Par
conséquent, la modélisation surfacique est réellement intéressante lorsqu’il s’agit de
représenter l’aspect extérieur de certains objets ; en revanche, elle n’est absolument pas
adaptée à la simulation physique des volumes (par exemple, elle ne permet pas de connaître la
masse ou le centre de gravité d’un objet auquel on aurait attribué une matière définie par un
coefficient de densité).
Voici un aperçu des possibilités qu’offre la modélisation surfacique, avec des
exemples d’utilisation par des acteurs de la recherche archéologique.
2.2.2.1.1. Le balayage d’un dessin le long d’un chemin :l’extrusion
Il existe plusieurs fonctions permettant de créer des objets en trois dimensions à partir
de dessins. Dans les principes généraux, cette méthode de création consiste à repérer, dans les
objets, des formes construites sur des répétitions régulières et des symétries. Cette méthode de
construction convient parfaitement à certains vestiges archéologiques, dont on sait qu’ils ont
été élaborés grâce à des procédés qui garantissaient la régularité des formes.
Par exemple, l’application la plus simple de ce procédé se trouve dans l’attribution
d’une épaisseur à une forme dessinée. En fait, cette technique, dite l’« extrusion simple »,
consiste à répéter un dessin le long d’une ligne droite perpendiculaire au plan sur lequel il a
été réalisé46. Ainsi, grâce à l’extrusion, il est possible de générer des objets plus ou moins
complexes simplement à partir de leur contour. A cet effet, quelques-unes des formes
régulières de l’architecture monumentale, comme les moulures taillées dans la pierre ou bien
moulées dans le stuc à l’aide d’un gabarit se prêtent particulièrement à ce genre de traitement.
L’objet tridimensionnel, au final, se définit par deux extrémités identiques entre lesquelles a
été tendue une enveloppe constituée d’un nombre fini de facettes : de leur quantité dépend la
finesse du contour le long de l’objet.
46 L’extrusion, à l’origine, est un terme technique désignant le procédé par lequel un métal est poussé à chaud parune presse dans une filière.
34
Une variante directe de cette technique consiste à balayer une figure le long d’un
chemin, c’est-à-dire le long d’un dessin réalisé sur un plan autre que celui où est placé le
« profil ». Le dessin de cheminement peut être de plusieurs natures : il peut s’agir d’une ligne
composée de plusieurs segments de droite ou de courbe, d’un polygone ouvert ou fermé…en
fait, il peut s’agir de n’importe quelle figure géométrique linéaire, qu’elle s’inscrive dans un
plan ou dans un espace. Toujours est-il que le profil est répété le long de ce chemin, en étant
toujours disposé perpendiculairement par rapport à lui. L’« extrusion sur chemin » permet
alors de créer des formes plus compliquées, qui vont de la moulure répétée le long d’un
rectangle jusqu’à des canalisations en plomb à la régularité plutôt erratique, voire jusqu’à un
motif répété en colimaçon (comme la moulure séparant les registres de la colonne trajanne).
Plus concrètement, cette technique a été utilisée par l’équipe du pôle pluridisciplinaire
« Ville – Architecture, urbanisme et image virtuelle » de l’université de Caen qui fut chargée
de réaliser la maquette virtuelle de l’amphithéâtre flavien de Rome47. A partir des nombreuses
études réalisées sur ce monument, les responsables de ce projet ont analysé les logiques de
construction de cet édifice. Il est alors apparu que, dans les grandes lignes, les architectes
romains avaient construit leur monument en suivant une logique modulaire : ils ont reproduit
80 travées le long d’un chemin en ellipse. La structure même de l’édifice, relativement
complexe, n’a pas fait appel à l’extrusion sur chemin, car elle nécessitait de reproduire sur ce
chemin elliptique une travée déjà modélisée en trois dimensions. Néanmoins, l’intérieur du
Colisée, comprenant principalement les gradins, a pu être modélisé de la sorte : il a suffit de
dessiner le profil des dénivellations et de le reproduire le long de l’ellipse, en rajoutant ensuite
les éléments qui ne pouvaient pas être formés par ce procédé, tels que les escaliers et les
vomitoires48.
A un niveau plus complexe, l’extrusion permet de créer des formes à partir de
plusieurs profils. Ceux-ci, répartis par l’utilisateur à différents emplacements du chemin,
définissent des points clés de l’objet à des endroits où sa forme est caractéristique. Le procédé
d’extrusion respecte alors le chemin et interpole la forme de l’objet entre chaque profil
documenté par un dessin. Les formes conçues à l’aide de cette fonction peuvent être
47 Cf. FRANTZ (D.), « La modélisation du Colisée : quelques aperçus de méthode générale » in Cahiers de laMaison de la Recherche en Sciences Humaines, n°14, avril 1998, p.33-36.48 Un autre exemple illustrant cette technique se trouve dans CHAPMAN (G.), « Do-it yourself reconstructingmodelling » in Computer Applications and Quantitative Methods in Archaeology 1991, Oxford, BARinternational series, 1992, p.213-218. Dans cet article, l’auteur montre comment, à partir du dessin de la couped’un monument et du schéma directeur précisant son tracé, il a pu reconstituer la forme générale d’un four àchaux construit à la fin du XIXème siècle.
35
relativement compliquées, on parle alors d’« objets extrudés », parmi lesquels on pourrait
trouver par exemple un tambour de colonne, étant donné que la face inférieure est plus
importante que la face supérieure.
La dernière variation utilisant le procédé de l’extrusion s’applique cette fois aux
formes construites « au tour ». Toujours basé sur des profils en deux dimensions, le principe
d’extrusion par « surface de révolution » permet de faire tourner le dessin autour d’un axe sur
un maximum de 360°. Cette fonction est bien entendu un outil privilégié pour reconstituer les
céramiques faites au tour de potier (voir fig. 6 à 9, planche III) : à partir d’un simple tesson
témoignant des profils interne et externe de l’objet, il est possible de recréer la forme d’un
vase. Les possibilités qu’offrait cette technique n’ont pas échappé à certains archéologues49,
qui ont vu là un moyen rapide et efficace pour élaborer des typologies de céramiques en trois
dimensions à partir des nombreux dessins techniques dont ils disposaient50 : les objets ainsi
réalisés étaient davantage significatifs que les simples documents normalisés présents dans les
publications archéologiques51. Cette technique de modélisation ne se limite pas à la vaisselle
tournée, car elle peut également être employée pour recréer des pièces plus ambitieuses. Ainsi,
rien n’empêche de reproduire le volume d’une colonne simplement à partir de son profil et de
son axe de révolution, en imitant de ce fait les gestes des tailleurs de pierre, qui, dans certains
cas, avaient recours à des tours pour donner des formes régulières à leurs ouvrages52.
Ainsi, les outils de modélisation surfacique sont réellement intéressants dans la mesure
où ils prolongent le travail d’étude et d’enregistrement graphique réalisé par les dessinateurs
en archéologie : pour s’en convaincre, il suffit d’observer la plupart des dessins de pièces
49 cf. GOTTARELLI (A.), « La modellazione tridimensionale del documento archeologico : livelli descrittivi eprocessamento digitale » in Archeologia & Calcolatori, n°6, 1995, p.90 et p.93 (fig. 8) ; cf. CATTANI (M.) &FORTE (M.), « Il Ceramigrafo : un sistema integrato per il disegno della ceramica al calcolatore » in Archeologia& Calcolatori, n°5, 1994, p.32750 Les normes en dessin technique de céramique sont les mêmes que celles employées pour tous les solides derévolution : par convention, l’axe de rotation qui prolonge l’arbre du tour est représenté par un axe vertical, sur lagauche duquel se trouve une section verticale de la pièce. Le profil et la situation de la pièce par rapport à l’axede révolution permettent d’en déterminer la forme, dont la vue extérieure est représenté symétriquement, à droitede l’axe de révolution (Cf. RIGOIR (Y.), Le Dessin technique en céramologie, Lambesc, 1975, p. 25). Parconséquent, il leur a suffit de reprendre ces documents déjà prêts en redessinant sur ordinateur les profils puis enles faisant tourner autour de l’axe de révolution.51 En effet, nous verrons plus bas que ces modèles peuvent recevoir d’autres couches d’information, quirenseignent par exemple sur la décoration (projection de la photo du décor sur l’objet 3D). En outre, lareprésentation tridimensionnelle est simplement une représentation possible de l’objet : les vues orthogonalespeuvent remplir le rôle joué par le dessin conventionnel, en en conservant les dimensions et les proportions.52 Cf, BESSAC (J.-CL), JOURNOT (F.), PRIGENT (D.), SAPIN (CH.) & SEIGNE (J.), La Construction, la pierre,Paris, éd. Errance, 1999, coll. « Archéologiques », p. 31 et 33. Pour un exemple de cette technique, cf.BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, De Boccard, 1997, p.101 (fig.99).
36
archéologiques dont l’objectif est de retranscrire, dans les deux dimensions, la forme et les
logiques de construction de certains de ces vestiges conçus avec une régularité et une
homogénéité de traitement. Vue sous cet angle, la modélisation surfacique permet de
recomposer les pièces archéologiques afin de les représenter avec plus d’efficacité que ne le
permettaient les conventions de représentation traditionnelles. A ce titre, il ne faut pas oublier
que ce type de modélisation se fonde entièrement sur la connaissance a posteriori des
vestiges, avec la part d’interprétation, de simplification et de codification qui en résultent53 :
comment un même dessin reproduit le long d’un chemin pourrait prétendre représenter le
volume d’un objet réel qui présente obligatoirement des irrégularités, sans compter les
nombreux outrages qu’il a subis avant de nous parvenir.
En fait, la modélisation surfacique, comme toutes les autres méthodes de modélisation,
opère inévitablement une théorisation des formes, qui conduit nécessairement à concevoir
l’objet sous une forme idéale : la façon dont celui-ci est modélisé témoigne du regard et de la
manière dont il est compris par les archéologues.
2.2.2.2. La modélisation volumique : la sculpturevirtuelle
La modélisation volumique participe d’une logique autre que celle employée par la
modélisation surfacique. Alors que cette dernière s’apparentait aux activités du dessinateur, la
modélisation volumique, quant à elle, se rapproche davantage du travail d’un sculpteur. En
effet, les logiciels de modélisation volumique permettent d’obtenir des formes par ajout ou
soustraction de volume en utilisant un répertoire limité de solides. Les primitives utilisées par
ces logiciels sont généralement la sphère, le cube, le cône, le cylindre et leurs variantes. Dans
la principale méthode de modélisation volumique, celles-ci sont combinées de façon à créer
des objets plus complexes, suivant des modalités définies par l’algèbre du mathématicien
Boole. Connue sous l’appellation CSG (Constructive Solid Geometry), ce type de
modélisation volumique fait donc appel aux opérateurs booléens tels que l’union, la
soustraction et l’intersection qui offrent des possibilités de composition illimitées (voir fig. 10
à 12, planche IV) et dont le principal apport est de permettre la connaissance du volume
occupé par chaque objet54. Cette connaissance est d’une grande utilité, car elle ouvre des
53 Par exemple, le dessin issu d’un relevé synthétise des données prélevées sur l’objet : ainsi, le profil de certainesmodénatures peut être obtenu par des mesures et par un relevé au conformateur ; ce type de relevé n’est valableque dans la mesure où les informations qu’il comporte suffisent à rendre compte de l’ensemble de l’objet.54 cf. COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.75-76.
37
possibilités dans la simulation des propriétés physiques des objets modélisés de la sorte : il est
ainsi possible de déterminer leur centre de gravité, leur masse en fonction de la densité connue
de chaque matériau réel, et de les combiner dans un modèle plus large qui prendrait en compte
les phénomènes de gravité, de poussée et de répartition des forces à l’intérieur de la matière.
Contrairement à la modélisation surfacique, la modélisation volumique requiert une
forte capacité d’abstraction et d’analyse des volumes : la création d’objets plus ou moins
complexes à partir des quelques primitives disponibles est loin d’être évidente et n’offre pas la
même souplesse de traitement apportée par les modeleurs surfaciques. Ainsi, à titre
comparatif, la modélisation tridimensionnelle d’un objet à l’aide des deux méthodes donne
généralement l’avantage à la modélisation surfacique, aussi bien au niveau du confort
d’utilisation que sur le plan des temps de calcul, étant donné que les opérations portant sur les
volumes nécessitent des performances qui rendent les systèmes d’exploitation
particulièrement instables. Par conséquent, à objectif égal, la plupart des acteurs de
l’infographie ont opté pour l’alternative surfacique (et ses dérivés), ce qui explique
aujourd’hui la sous-exploitation des modeleurs volumiques55. Dans le domaine de
l’archéologie « virtuelle », les exemples utilisant la modélisation volumique sont aujourd’hui
devenus relativement rares56, et témoignent généralement du peu de compréhension, ou tout
du moins de la difficulté de mettre en application une telle méthode : en fait, son intérêt ne se
situe pas tant du côté des performances visuelles que du côté des traitements qu’elle autorise,
alors que la plupart de ses détracteurs la comparaient à sa rivale sur un terrain où elle était sûre
de ne pas être « concurrentielle »57. Ainsi, l’utilisation optimale de ses spécificités est encore
55 Les créateurs d’images de synthèse privilégient bien évidemment les solutions leur apportant le maximumd’efficacité par rapport au temps de travail investi, le but étant de produire des images et non des modèles.56 En fait, les premières applications de l’infographie dans une thématique archéologique ont été réalisées à basede modélisation volumique : en Angleterre, avec la modélisation du complexe thermal de Bath (1984) et desbains de Caerleon, de l’église abbatiale de Winchester (1985) et de l’abbaye de Furness (cf. REILLY (P.),« Three-dimensional modelling and primary archaeological data » in Archaeology and the information age, aglobal perspective, London & New York, éd. Routledge, 1992, p.147-173.) et en France avec la reconstitution dugrand temple d’Amon-Rê de Karnak (cf. BOCCON-GIBOD (H.) & GOLVIN (J.-C.), « Le grand temple d’Amon-Rê à Karnak reconstruit par l’ordinateur » Les Dossier de l’archéologie, n°153, octobre 1990, p.8-17). Il est ànoter que ces deux derniers projets furent réalisés à l’aide du même logiciel, PDMS, qui est utilisé pour laconstruction d’installations électriques et pétrolières (le projet de l’abbaye de Furness était soutenu par BritishNuclear Fuels, tandis que celui de Karnak recevait l’aide d’EDF).57 Dans CHAPMAN (G.) & WOOD (J.), op. cit., les auteurs analysent les apports respectifs des deux méthodesappliquées à deux exemples de restitution archéologique, réalisées par des acteurs privés sous le contrôle dudépartement d’archéologie de l’université de Lancaster et d’autres instances scientifiques britanniques. L’objectifétant de produire des images et des animations pédagogiques pour le grand public, les auteurs ont naturellementconclu à une meilleure adéquation de la modélisation surfacique pour les raisons que nous avons évoqués plushaut. A l’opposé, le réel apport de la modélisation volumique, bien qu’évoqué (p.133 et 143), n’a pas été exploité
38
marginale, d’autant plus qu’elle nécessite parfois l’écriture de programmes spéciaux afin
d’adapter certains calculs aux paramètres que l’on cherche à prendre en compte, ce qui
demande des compétences particulières en programmation et en modélisation mathématique
des phénomènes physiques, en en limitant de ce fait la portée dans l’archéologie (et qui
souligne la nécessité de contracter des opérations de mécénat pour bénéficier d’outils dont peu
de gens ont la maîtrise).
Aujourd’hui, la constante amélioration de l’offre logicielle dans le domaine de
l’infographie et de la C.A.O. a permis de gommer les différences existant entre les modeleurs
surfaciques et volumiques. Dans certains cas, il est désormais possible de convertir un modèle
surfacique en modèle volumique, et vice versa. Aujourd’hui, nombre d’outils de modélisation
sont construits sur les spécificités apportées par ces deux approches, en combinant certaines
de leurs particularités et en leur rajoutant de nouvelles fonctionnalités.
2.2.2.3. Les nouveaux outils de modélisationAujourd’hui, les logiciels de modélisation disposent d’un éventail relativement large
d’outils et de méthodes pour créer des objets en trois dimensions. Désormais, un modeleur ne
se caractérise plus par les fonctionnalités de la méthode qu’il emploie, mais plutôt par sa
capacité à en combiner plusieurs en fonction des formes à obtenir : ainsi, les méthodes que
nous venons de voir conviennent généralement à la définition de formes relativement
géométriques et régulières, mais n’offrent pas de grande possibilité lorsqu’il s’agit de
modéliser des formes gauches, qui nécessiteraient, pour la méthode surfacique, un trop grand
nombre de facettes, et qui demanderaient trop de travail avec la modélisation volumique.
Aussi, l’ensemble des innovations touchant aux outils de modélisation va dans le sens d’une
meilleure maîtrise des paramètres définissant les objets virtuels : à l’heure actuelle, un des
meilleurs outils de modélisation combine la souplesse de traitement apportée par la
modélisation surfacique à base de formes en deux dimensions avec la puissance des modèles
volumiques dont les formes sont définies par des fonctions mathématiques. Il résulte de ces
innovations la possibilité de modéliser des formes très complexes ne présentant aucune
symétrie ni de traitement conditionnant la régularité des formes.
dans ce cas d’étude, et il est d’ailleurs très rare de trouver des exemples précis de son utilisation à des finsarchéologiques.
39
La modélisation NURBS58 bénéficie, dans ce sens, des recherches menées depuis de
nombreuses années sur la définition de courbes et de surfaces par des fonctions
mathématiques. A l’instar de la modélisation surfacique, elle permet de travailler à partir du
contour des objets et utilise des fonctions comparables à celles que nous regroupions sous le
terme d’extrusion (cf. ci-dessus p.33), à la différence que l’enveloppe tendue entre les
différentes itérations du dessin n’est pas composée d’un nombre limité de facettes
triangulaires mais est définie par des fonctions mathématiques dans l’espace. En outre, les
courbes composant les dessins de base et les surfaces qui les relient peuvent être définies par
un certain nombre de points de contrôle sur lequel on peut intervenir à tout moment pour
modifier la forme de l’objet, ce qui est d’un véritable intérêt lorsqu’il s’agit de retoucher
localement un aspect de l’objet qui n’aurait pas été conçu comme prévu. Aussi, la
modélisation à base de NURBS témoigne d’un mouvement plus général qui offre davantage de
confort et de liberté lors des opérations de modélisation, ce qui conduit à privilégier une
approche plus intuitive de cette activité. Cet assouplissement des modalités de modélisation se
ressent également pour les méthodes plus traditionnelles, qui disposent désormais de
nouvelles fonctionnalités : la plupart des modeleurs proposent aujourd’hui d’un ensemble
d’outils de déformation œuvrant, à l’aide de quelques points de contrôle, sur la topologie d’un
objet ; ainsi, il est possible de faire subir à un modèle surfacique des opérations de torsion,
d’étirement, d’effilement, d’écrasement et bien d’autres encore.
Ce n’est pas l’objet, ici, de développer l’ensemble des techniques de modélisation,
étant donné que leur application, essentiellement visuelle, vise à produire des modèles de plus
en plus réalistes : les développements futurs dans ce domaine s’engagent vers la simulation
visuelle des formes traditionnellement difficiles à reproduire, aux premiers rangs desquelles
figurent les formes organiques et tout un ensemble d’éléments encore peu maîtrisés comme
les cheveux, etc. Pour ce qui nous intéresse, ces développements n’offrent pas réellement de
grande nouveauté, tout juste si la modélisation organique peut apporter des améliorations pour
modéliser la statuaire humaine, par exemple.
La modélisation ne constitue, en fait, qu’une partie du travail de création d’images de
synthèse : elle permet de définir les formes des objets, de les inscrire dans un espace
tridimensionnel. Cependant, ces objets, dans l’absolu, ne sont pas visibles : ils ne sont
58 NURBS : Non-Uniform Rational B-Splines. Pour une définition technique de ce terme, cf. COUWENBERGH
(J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.69-70.
40
exprimés que par des relations tridimensionnelles comme l’assemblage de triangles du modèle
surfacique ou les fonctions mathématiques des objets volumiques. Pour rendre la modélisation
plus simple et efficace, les logiciels intègrent des fonctions permettant d’afficher le modèle
sous différentes formes : aujourd’hui, la puissance des ordinateurs permet de calculer et
d’afficher en temps réel des vues représentant les objets, suivant des modalités plus ou moins
compliquées. Ainsi, le type de visualisation le plus simple permet de figurer l’objet sous la
forme d’un maillage triangulaire, alors que les plus aboutis prennent en compte d’autres
paramètres, comme la couleur et son comportement face à l’incidence de la lumière en
fonction de la forme de l’objet. Ces options de visualisation permettent de donner une idée
rapide de la forme et de la disposition des objets dans la scène virtuelle.
Cependant, la réalisation d’image de synthèse doit prendre en compte d’autres
informations, telle que le placement des sources lumineuses, la définition du point de vue,
l’affichage des textures, ainsi que d’autres effets, comme la dureté des ombres, la profondeur
de champ, etc. Toutes ces informations relèvent alors d’une autre phase, pendant laquelle le
logiciel prend en compte les paramètres définis par l’utilisateur afin de générer une série de
calculs qu’il n’est pas encore possible de réaliser en temps réel. Tous ces paramètres, spécifiés
pendant la phase de modélisation, ne prennent réellement effet que lors de la phase finale de
calcul de l’image. C’est pourquoi nous avons décidé de les faire apparaître dans le
développement traitant de ce sujet.
2.3. Le renduL’objet de cette partie n’est pas de faire une présentation exhaustive des opérations et
des réglages nécessaires au calcul de l’image, mais plutôt de donner une idée de la spécificité
de cette phase de travail, qui est primordiale dans le processus de réalisation d’images
vraisemblables.
2.3.1. La perspectiveLa première opération d’importance réalisée lors du calcul de l’image correspond
précisément à déterminer la façon dont l’objet ou la scène vont être projetés sur une surface
plane, en premier lieu celle de l’écran. En effet, les objets, bien que conçus en trois
dimensions lors de la phase de modélisation, sont destinés à être diffusés sur des supports
planaires : à part la stéréovision, qui consiste à projeter deux images du même objet, il
41
n’existe pas de procédé permettant de restituer le relief à partir de données numériques59.
Aussi, l’utilisateur doit procéder à une série de réglages qui vont déterminer les modalités de
la projection ; la projection perspective, dans ce cas, n’est qu’une alternative parmi d’autres,
mais c’est la seule à permettre une vision réaliste de la scène et à laquelle nous sommes
naturellement habitués.
2.3.2. La lumièreLa lumière joue un rôle primordial dans la perception d’un environnement, qu’il soit
réel ou virtuel, car elle détermine, en premier lieu, la façon dont nous percevons la forme et la
couleur des objets qui nous entourent. Dans la réalité, la lumière est un phénomène complexe
qui fait intervenir de nombreux éléments s’influençant entre eux, de sorte que ce que nous
percevons n’est jamais dû à la seule source lumineuse mais bel et bien à toute une déclinaison
de ses effets sur l’ensemble d’un environnement. Ainsi, dans le cas d’un éclairage naturel, les
objets réels sont visibles par l’incidence de la lumière du soleil sur leur surface, qui, avant
d’arriver à eux, se trouve plus ou moins filtrée par l’atmosphère et les nuages, produisant de
ce fait une luminosité ambiante qui en modifie l’impact : ce phénomène est particulièrement
visible lorsqu’un objet, directement éclairé par le soleil, produit une ombre portée bien nette
qui a tendance à s’atténuer, voire à complètement disparaître quand une couverture nuageuse
relativement basse absorbe une partie de la lumière du soleil et la restitue par une luminosité
indirecte, plus diffuse. En outre, la lumière du soleil est également partiellement renvoyée par
chacun des objets éclairés, et ce en fonction de leur propension à l’absorber ou à la réfléchir :
les surfaces brillantes la restituent par une réflexion spéculaire qui renvoie le rayonnement
dans une direction précise, tandis que les surfaces plus mates produisent une réflexion diffuse
qui renvoie la lumière dans toutes les directions ; cette forme d’éclairage indirect contribue à
créer un autre facteur de luminosité ambiante.
Par conséquent, la complexité de ce phénomène pose quelques problèmes à sa
transposition dans la conception d’une scène virtuelle. Car, si, dans la réalité, il se trouve
toujours (à quelques exceptions près) une infime source de luminosité pour habiller et rendre
visible une partie de la surface des objets, il en est tout autre en image de synthèse : en effet, le
59 D’une part, l’holographie n’est pas encore suffisamment développée pour répondre à cette attente. D’autrepart, il existe bien des procédés permettant de produire des objets physiques à partir des modèles numériques (lastéréolithographie et ses dérivés, qui consistent à créer un objet à partir de fines gouttelettes de résine déposéespar une « imprimante 3d »), mais cette alternative n’est d’aucun intérêt dans la mesure où l’avantage del’infographie tient principalement à la création d’objets virtuels exemptes des contraintes physiques de la réalitéet pouvant être animés.
42
concepteur est en quelque sorte un « démiurge » qui doit théoriquement contrôler tous les
paramètres entrant en ligne de compte dans la définition de la scène virtuelle, ce qui revient à
dire qu’il doit penser à tous les préciser pour que sa création ait un sens. Aussi, l’omission de
la source lumineuse produit un résultat sans appel : la scène, n’étant pas éclairée, n’est pas
visible et l’image finale est désespérément vide. En infographie, le « vide » est absolu :
l’absence de lumière ne peut pas être compensée par la luminosité ambiante présente
naturellement dans la réalité. En outre, la diversité des sources à l’origine de la luminosité
naturelle oblige l’infographiste à simuler leur effet en ayant recours à plusieurs types de
lumières virtuelles qui, additionnés entre eux, permettent de recréer un éclairage réaliste.
Ainsi, afin de simuler la lumière produite par le soleil ou par la lune60, les logiciels
disposent de lumières dites « directionnelles » car elles projètent, dans une seule direction, des
rayons lumineux parallèles d’intensité constante61 produisant de plus des ombres portées. Pour
compléter l’effet produit par ce type de lumière, il est possible de placer des sources de
lumière omnidirectionnelles qui émettent de la lumière dans toutes les directions à partir d’un
point (elles sont également appelées lumières ponctuelles) : elles permettent ainsi de remplir
les zones laissées trop sombres par les sources de lumière directionnelles après la diminution
de leur intensité de manière à ce qu’elles ne prennent pas le pas sur l’éclairage principal. De
ce fait, elles reproduisent, en quelque sorte, la luminosité diffuse que nous avons vu plus haut.
En outre, grâce à la simulation du phénomène de déperdition de luminosité, il est possible de
reproduire un éclairage artificiel à partir d’une lumière omnidirectionnelle (comme une
ampoule) ou à partir d’une source lumineuse imitant l’effet d’un projecteur. Ainsi, il est
possible, dans une certaine mesure, de reproduire un éclairage réaliste. Néanmoins, il ne faut
pas oublier que l’éclairage d’une scène dépend justement d’un travail de mise en scène et de
construction délibérée des effets : à titre d’exemple, la dureté des ombres et la façon dont elles
sont calculées peuvent être définies à volonté dans le but de produire un effet précis.
2.3.3. Les matières et les textures : les propriétés de surface et devolume
L’objet tridimensionnel, après la modélisation, n’est composé que de d’entités
géométriques et mathématiques. Fondamentalement virtuelles, elles ne définissent que sa
forme et ne permettent pas de rendre compte de ses propriétés de surface. Qu’il soit défini par
60 En réalité, le soleil projète des rayons dans toutes les directions ; cependant, il est tellement éloigné de la terreque les rayons qui nous parviennent sont pratiquement parallèles.61 Cf. IMMLER (CH.), Grand Livre, 3D Studio Max 2-2.5, Paris, Micro Application, 1998, p.708.
43
un volume plein ou par une simple enveloppe, l’objet, lors de la phase de rendu, doit
apparaître en fonction d’un certain nombre de caractéristiques visuelles définies par
l’utilisateur. L’alternative la plus simple consiste à appliquer au modèle des propriétés de
surface spécifiant sa couleur. Dans la réalité, un objet constitué d’une seule couleur est perçu,
dans l’ensemble, comme étant composé de plusieurs couleurs, dues à la façon dont certaines
de ses parties reflètent la lumière : le côté exposé à la lumière sera plus clair que celui qui est
dans l’ombre, et l’endroit de l’objet où la lumière est directement renvoyée vers le spectateur
est généralement constitué d’une couleur plus claire, définie par celle de la lumière et par la
nature plus ou moins brillante de l’objet. Pour reproduire ce phénomène en image de synthèse,
l’objet virtuel doit être défini par trois propriétés de couleur : la première, la couleur diffuse,
détermine la couleur absolue de l’objet, c’est-à-dire celle de sa partie éclairée ; la seconde, la
couleur ambiante, correspond à la couleur de la partie n’étant pas sous l’éclairage direct ; la
troisième, la couleur spéculaire, définit la couleur du reflet. Ensuite, à l’aide d’autres
paramètres, l’utilisateur peut jouer sur l’incidence que ces couleurs ont sur l’aspect général de
l’objet. Par exemple, la brillance permet de déterminer la taille et l’intensité du reflet,
l’opacité permet de régler le niveau de transparence de l’objet et la radiance définit la quantité
de lumière qu’il émet, indépendamment de tout éclairage extérieur62.
Ces réglages affectant les propriétés de base ne suffisent généralement pas pour
représenter des matériaux issus de la réalité. Aussi, dans de nombreux cas, tout l’enjeu
consiste à en reproduire l’aspect grâce à quelques artifices.
2.3.3.1. Les textures planes
2.3.3.1.1. Le mapping d’image
La principale technique de simulation de matériau consiste en fait à habiller la surface
de l’objet avec une image reproduisant une texture, qu’elle provienne de la réalité ou qu’elle
ait été créée de toute pièce : la simple numérisation de la surface d’un objet suffit
généralement à produire des matériaux virtuels simulant de manière convaincante leurs
homologues réels. Ainsi, ce procédé permet de recréer dans le modèle des objets qu’il aurait
été difficile de reproduire autrement : il est particulièrement idéal pour simuler des propriétés
de surface planes dans la réalité. Par exemple, la photographie d’une peinture murale
62 Cf. COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.184-187.
44
provenant d’une villa de Pompéi peut être plaquée et reposée sur un parallélépipède rectangle
ou tout objet présentant des surfaces planes aux dimensions du mur réel.
Plus connue sous le nom de mapping, cette technique présente malgré tout quelques
inconvénients. En effet, les images sur lesquelles elle se base sont essentiellement de forme
quadrangulaire, ce qui pose parfois de réels problèmes étant donné que la plupart des objets
destinés à être « mappés » ne présentent pas que des faces planes. L’exemple le plus flagrant
de cette limite s’apparente au problème auquel étaient confrontés les cartographes lorsqu’ils
cherchaient à élaborer des planisphères, lequel était de savoir de quelle manière représenter la
surface de la Terre sur un plan, alors que cette opération provoque nécessairement des
distorsions dans les proportions et dans les mesures. Dans le domaine de l’infographie, le
plaquage d’une image rectangulaire sur une sphère pose le problème inverse : l’image
originale est obligatoirement déformée pour pouvoir envelopper intégralement la forme de
destination. Par conséquent, le plaquage de cette même image sur des formes plus complexes
à toutes les chances de générer davantage de distorsions, ce qui pose de réels problèmes
lorsqu’il s’agit de simuler des matériaux sinon réalistes, du moins cohérents : l’image de base
est étirée à chaque fois qu’elle est appliquée à une forme convexe ou concave, ce qui a pour
effet de juxtaposer des parties de l’image de bonne définition avec des parties où les pixels
sont visibles et complètement exagérés. Pour résoudre ce problème d’adéquation de l’image à
la forme, il est possible d’en spécifier le mode de projection :
• la projection planaire applique l’image sur un plan, qui, suivant sa position par rapport à
l’objet, procède de la même manière qu’un projecteur de diapositives : dans ce cas,
l’image n’est cohérente que lorsqu’elle est projetée sur une face plane de l’objet ;
• la projection cylindrique fait de même avec un cylindre enveloppant l’objet, l’image
« mappée » étant arrondie sur toute la hauteur de l’objet pour minimiser les différences
dues aux distorsions, tandis que le sommet et la base du cylindre procèdent de leurs côtés
de la même manière que la projection plane ;
• la projection sphérique enveloppe l’objet en déformant complètement l’image ;
• la projection cubique procède de la même manière que la projection planaire, à la
différence que l’image est projetée à partir de chacune des six faces du cube.
Néanmoins, ces types de projection ne sont réellement convenables que dans la mesure
où la forme générale de l’objet de destination se conforme plus ou moins à leurs propriétés.
45
L’autre majeure limite de cette technique tient au fait qu’elle ne fait appel qu’à une
image, un échantillon pour simuler un matériau qui, en théorie, est continu et unique en
chaque point de l’objet réel. Aussi, dans certains cas, l’objet à habiller est trop grand pour
pouvoir recevoir cette image et le rapport entre la taille de l’objet et celle de l’image ne joue
pas en faveur d’un résultat réaliste de l’association : les limites physiques de la texture sont
alors atteintes, et le niveau de détail de l’ensemble en pâti. Pour remédier à l’inadéquation
entre ces deux éléments, il existe deux alternatives : la première offre une solution peu réaliste
qui consiste à considérer l’image comme un motif que l’on applique à toute la surface de
l’objet ; il en résulte alors un effet peu naturel de répétition, convenant davantage aux surfaces
présentant une décoration foncièrement répétitive, comme les carrelages ou les pavages : les
bords de l’image en trahissent le format rectangulaire par l’absence de continuité entre chaque
itération de l’image. L’autre alternative offre un résultat plus réaliste mais présente
l’inconvénient de générer d’importants temps de calcul lors du rendu ; il s’agit en fait
d’appliquer à l’objet une image de très haute résolution. Ainsi, dans le cas d’une scène
composée de nombreux objets à texturer, ce choix n’est pas forcément le plus rationnel.
En outre, il existe une alternative à ce problème, qui, en revanche, ne relève pas du
plaquage d’une ou de plusieurs images sur un objet mais procède réellement d’un calcul, nous
le verrons ci-dessous63.
2.3.3.1.2. Le bump mapping
L’utilisation d’image pour reproduire visuellement l’aspect d’un matériau
s’accompagne d’autres possibilités, dont la plus intéressante est celle offerte par la technique
du bump mapping. Généralement, la création d’un faible relief sur toute ou partie de la surface
d’un objet est une tâche relativement fastidieuse, car il faut modifier « à la main » la position
de chacun des éléments composant la surface que l’on désire rendre moins lisse. Cette tâche
peut bien sûr être simplifiée grâce à l’utilisation d’une fonction permettant de perturber
automatiquement la surface d’un objet, mais dans ce cas, cette alternative n’offre que peu de
contrôle sur l’ampleur des modifications. En outre, chaque modification dans la topologie64 de
l’objet accroît le nombre de facettes que l’ordinateur doit calculer, ce qui rallonge d’autant
plus les temps de calcul. Aussi, le bump mapping – le bosselage – offre une alternative à la
modélisation en simulant des bosses et des creux à partir des niveaux de luminosité d’une
63 Cf. 2.3.3.2 Les textures tridimensionnelles, p.4764 Nous entendons par là toutes les relations qui définissent la tridimensionnalité de l’objet.
46
image mappée (voir fig. 14, planche V). En fait, chaque pixel de l’image, en fonction de sa
luminosité (donc quelle que soit sa couleur) est converti en information renseignant sur son
altitude, codée sous la forme de niveaux de gris : le blanc indique le niveau le plus haut, le
noir le niveau le plus bas, et le dégradé de gris toutes les hauteurs intermédiaires entre ces
deux extrêmes. Ensuite, chacune de ces informations est interprétée par le logiciel de rendu
pour créer l’illusion d’un relief à la surface de l’objet. En réalité, les bosses et les creux
n’affectent pas vraiment la topologie de l’objet car ils sont simplement déterminés par
l’incidence de la lumière sur la surface : afin de simuler un relief positif (en bosse), les zones
considérées comme hautes reçoivent, sur ce qui correspondrait à leur adret, davantage de
lumière, tandis que leur ubac – le côté le moins exposé à la lumière –, reste sombre ; de la
même manière, les pseudo flancs des creux reçoivent plus ou moins de lumière en fonction de
leur exposition théorique à la source lumineuse. Au total, ce procédé produit un résultat
totalement artificiel : par exemple, les modulations du relief n’apparaissent pas sur la
silhouette de l’objet, qui conserve ainsi un contour lisse, et les bosses, bien qu’ombrées, ne
projètent pas d’ombre sur la surface de l’objet, même lorsque la lumière est rasante.
Par conséquent, cette méthode est essentiellement destinée à faire illusion en simulant
des reliefs qui n’existent pas. Néanmoins, elle peut se révéler utile lorsque le but est de donner
à voir des images et non de constituer des modèles tridimensionnels dont les formes sont
conformes à la réalité. Cet artifice permet donc de réaliser des images vraisemblables à
moindre frais (en terme de temps de travail et de calcul) et peut apporter, dans une certaine
mesure, des solutions lorsqu’on désire représenter des surfaces difficilement modélisables. Par
exemple, l’image servant au bump mapping peut très bien comporter le relevé d’une
inscription épigraphique figurant en noir sur blanc, et qui, en guise de creux, sera par la suite
appliqué au modèle numérique de l’objet sur lequel elle doit figurer (voir les fig. 15 et 16 de la
planche V). Ce procédé peut, en outre, convenir lorsqu’il s’agit de représenter des éléments
sculptés en très bas-relief : les niveaux de gris permettent de rendre compte, jusqu’à un certain
point, des nuances présentes dans les modelés, offrant ainsi une alternative rapide et efficace à
une modélisation relativement délicate à accomplir.
2.3.3.1.3. Les autres techniques de mapping
Le même principe d’utilisation d’image en niveaux de gris peut être appliqué dans le
cadre d’autres techniques de définition de texture. En fait, ces images sont plus connues sous
le nom de canal alpha car elles correspondent généralement au quatrième canal présent dans
47
une image numérique, les trois premiers désignant les couches de couleurs constituant l’image
même (rouge, vert, bleu). Ce dernier canal peut être utilisé comme un pochoir qui masque
certaines parties de l’image. Ainsi, les zones blanches laissent apparaître l’image tandis que
les zones noires la cache complètement ; les niveaux de gris, quant à eux, la laissent
transparaître dans une certaine mesure en fonction de leur clarté. L’utilisateur, en jouant sur
l’emplacement des zones blanches et noires, peut ainsi régler la découpe de l’image, qui, bien
que toujours rectangulaire, peut n’apparaître que suivant les contours définis de la sorte. En
image de synthèse, l’utilisation du canal alpha permet de régler l’opacité d’une image en se
superposant à elle : dans ce cas, les zones blanches la laissent totalement opaques et les zones
noires la rendent transparente. De ce fait, il est possible de créer des objets a priori opaques
qui seront, au total, en partie transparents. Ainsi, cette technique offre également un artifice
visuel qui vise, pour les mêmes raisons que le bump mapping, à élaborer des objets complexes
sans générer trop de calculs. Elle peut alors convenir lorsqu’il s’agit de faire figurer un objet
présentant une structure fortement ajourée ou entrelacée, comme un grillage, qu’il ne serait
pas « économique » de modéliser entièrement.
En outre, le mapping d’une image comportant un canal alpha permet de spécifier la
brillance de certaines zones à la surface d’un objet. Ainsi, il est possible de vieillir ou de salir
artificiellement un objet en lui affectant une image en niveaux de gris, qui, en fonction de la
luminosité des pixels la composant, permet de rendre certaines zones de l’objet plus mattes ou
plus brillantes que le reste.
2.3.3.2. Les textures tridimensionnellesA la différence des textures planes que nous venons de voir, les textures
tridimensionnelles ne sont pas obtenues par la projection d’images sur la surface d’un objet
mais résultent véritablement d’un calcul. En fait, les textures sont générées par des procédures
mathématiques qui permettent de composer des matériaux plus ou moins complexes, élaborés
suivant un schéma de développement aléatoire qui leur garantit une certaine continuité. Cette
technique permet, à partir de quelques paramètres de base, de simuler des matières naturelles
en évitant les problèmes de répétition en « mosaïque » rencontrés lors de l’utilisation des
textures planes. Aussi, le principal avantage de ces textures dites « procédurales » tient au fait
qu’elles sont calculées comme si elles occupaient tout le volume de l’objet, en partant
généralement de son centre de gravité. Par conséquent, leur apparition à la surface de l’objet
donne l’impression que sa forme a été directement sculptée dans un bloc de matière : en effet,
48
il n’y a pas de discontinuité entre les arêtes de l’objet et le motif reste cohérent et uniforme,
sans subir de distorsion. Néanmoins, étant donnée leur nature mathématique et aléatoire, ces
textures n’offrent de réels intérêts que pour simuler des matériaux naturels tels que le bois, le
marbre, ou d’autres phénomènes tels que la fumée, les nuages ou bien encore les ondulations
de l’eau65. A titre d’exemple, le bois peut être reproduit à partir de deux couleurs que
l’utilisateur doit spécifier en plus de la taille des cernes et du coefficient de perturbation du
motif. Ainsi, en raison du faible nombre de paramètre que l’utilisateur peut spécifier, ces
textures n’autorisent pas l’élaboration de motifs aussi variés et aussi précis que ceux produits
par les textures planes, ce qui, au total, les cantonne à quelques applications. En outre, bien
que simulant, d’une certaine manière, le processus de formation des matériaux naturels, les
algorithmes présidant à l’élaboration de ces textures ne permettent pas (encore) de modéliser
mathématiquement et avec rigueur l’aspect des différentes variétés d’un matériau66. Par
conséquent, il est encore préférable, lorsque le besoin s’en fait sentir, d’avoir recours à des
textures « mappés » pour simuler des matériaux précis tels que le marbre du Pentélique ou
celui de l’Hymette, avec tous les problèmes qui en découlent comme nous l’avons vu plus
haut.
ConclusionNous avons vu, au long de cette partie, que les images de synthèse résultaient en fait de
deux opérations faisant appel à des techniques différentes : dans un premier temps, la
modélisation permet de créer la structure géométrique des objets et de les mettre en scène,
puis, dans un deuxième temps, le rendu procède au calcul de l’image en compilant toutes les
informations renseignant sur la géométrie, les matériaux et les conditions d’éclairage présents
dans le modèle numérique. La finalité de l’infographie, à savoir produire des images
« photoréalistes », justifie, dans l’industrie de l’image de synthèse, le recours à des artifices
visuels pour contourner certaines difficultés techniques qu’il ne serait pas raisonnable, en
terme de temps de travail homme / machine, de vouloir à tout prix défier. Ainsi, l’évocation
d’un faible relief à la surface d’un objet se fait par une illusion d’optique plutôt que par une
modélisation. Par conséquent, la réalisation d’images de synthèse reproduisant avec
vraisemblance une certaine réalité, voire une certaine tridimensionnalité, ne doit pas faire
65 cf. IMMLER (CH.), Grand Livre, 3D Studio Max 2-2.5, Paris, Micro Application, 1998, p.883-900.66 Cette possibilité permettrait, par exemple, de reproduire l’aspect des différents types de marbre, en tenantcompte de leurs couleurs, de la forme de leurs veines et des propriétés de surface telles que le grain ou labrillance après un polissage.
49
oublier que le modèle numérique qui a servi à la produire peut être constituer d’un certain
nombre d’artifices visuels qui ne sont en aucun cas garant de la réelle tridimensionnalité de
certaines parties du modèle. Ce choix, guidé par des contraintes de temps de calcul et de
travail, peut influer sur les utilisations ultérieures du modèle n’ayant pas été prévues en amont.
Au total, il importe de connaître les utilisations possibles afin d’éviter d’avoir à recommencer
deux travaux similaires : les techniques de modélisation que nous avons abordées semblent
être plutôt destinées à produire les documents que nous verrons dans la partie suivante, tandis
qu’il faudra envisager un autre type d’élaboration de modèle numérique pour obtenir des
formes, des dimensions davantage conformes à celles présentent dans la réalité lorsqu’il
faudra les mettre en accord avec les besoins scientifiques, ce que nous verrons dans la dernière
partie.
50
3. Les images de synthèse comme outil de communication
3.1. De nouvelles images
3.1.1. Des images comprises de tousGrâce à l’ensemble des techniques que nous venons de voir, l’infographie permet de
créer des images vraisemblables, donnant à voir des scènes, des objets presque totalement
élaborés par l’ordinateur. En terme de lecture, ces images empruntent la même sémantique
visuelle que les procédés de représentation « réalistes » plus traditionnels (analogiques)
comme la photographie ou la vidéo.
En cela, l’image de synthèse s’inspire de ces techniques par le vocabulaire et les
possibilités d’expression : l’image finale dépend d’un cadrage (rectangulaire) et les réglages
qui déterminent sa définition sont volontairement calqués sur les caractéristiques du matériel
photographique ou cinématographique. Ainsi, l’image calculée est davantage vue à partir
d’une caméra qu’à partir d’un œil : la plupart des logiciels disposent de caméras virtuelles
dont l’objectif ou la focale peuvent être réglés et permettent également de simuler une
profondeur de champ (pour rendre plus flous certains éléments en avant ou en retrait par
rapport à l’objet sur lequel est réalisée la mise au point).
Cependant, la principale différence réside dans le fait que les procédés analogiques
sont automatiques : ils fixent une part de la réalité en enregistrant la lumière réfléchie par les
objets à l’aide, dans le cas de la photographie, de procédés chimiques, et dans le cas de la
vidéo, de la conversion du signal lumineux en signal électrique. A l’inverse, l’image créée par
l’ordinateur ne provient pas d’une capture ponctuelle de la réalité mais bel et bien d’une
élaboration raisonnée : des instructions sont programmées pour réaliser la projection des
objets sur un plan rectangulaire (celui de l’écran ou du fichier informatique contenant l’image)
suivant les lois de la perspective centrale67. Ce procédé de représentation des volumes par
projection sur un plan est connu, sous d’autres formes, depuis l’Antiquité : en fait, les règles
de la perspective centrale n’ont réellement été formulées qu’à partir de la Renaissance, mais
les Anciens avaient déjà la notion d’un système perspectif qui voyait converger les parallèles
perpendiculaires au plan de projection non pas en un point de fuite unique, mais sur une ligne
verticale, qui les recevait donc deux à deux, en arêtes de poisson. La perspective ne permet de
67 Cf. 1.2.2.3 La représentation tridimensionnelle, p.19.
51
définir que les lignes de construction d’un espace et des objets qui le composent ; aussi, pour
les rendre plus réalistes, les Anciens accentuaient le sentiment de profondeur et de
tridimensionnalité par une représentation des objets en trompe l’œil basée sur des jeux
d’ombre et de lumière et sur le modelé des objets par la couleur afin de leur donner plus de
relief et de volume68.
Ces effets de perspective et de trompe l’œil , utilisés dans la peinture grecque puis
romaine, ont été théorisés à la Renaissance par les artistes italiens L. B. Alberti et F.
Brunelleschi et sont devenus des critères d’évaluation et de jugements jusque dans la peinture
du XIXème siècle69. Aujourd’hui, ces techniques font plus que jamais partie de notre quotidien
et sont les fondements même d’une représentation illusionniste de la nature.
Le réalisme de ces représentations, qu’elles soient totalement construites ou qu’elles
proviennent d’une capture automatique de la réalité, constitue une grande partie du langage
visuel des sociétés occidentales : la plupart des icônes qui nous sont données à voir sont
réalisées par ces procédés ; pour s’en convaincre, il suffit de considérer la place que prennent
les médias visuels dans notre environnement (affichage public, cinéma, télévision, jeux
informatiques...) ainsi que les publics auxquels ils se destinent : aujourd’hui, toutes les classes
d’âge sont touchées par ce mode de représentation, que ce soit les plus jeunes, initiés de plus
en plus tôt par une offre entreprenante (par exemple, le développement des jeux vidéos depuis
une vingtaine d’années ; les programmes audiovisuels pour la jeunesse) ou les seniors, qui ont
vu naître les médias de masse et sont, par conséquent, familiarisés avec cette culture de
l’image.
La large diffusion des images « réalistes » et leur facilité d’accès en terme de lecture
ont ainsi ouvert la voie aux images de synthèse, qui en empruntent les mêmes registres : à ce
sujet, il arrive parfois que ces images se substituent aux images « réelles » avec beaucoup
d’efficacité70. Dans certain cas, les effets spéciaux en 3D insérés dans des séquences filmées
font illusion et sont pris, par le spectateur, pour argent comptant.
68 Cf. ROUVERET (A.), Histoire et Imaginaire de la peinture ancienne (Ve siècle av. J.-C. – Ier siècle ap. J.-C.),Rome, BEFAR 274, 1989, p. 65-127. La tradition littéraire nous fournit une série de textes qui attestent deréférences théoriques à la représentation perspective (la scaenographia) et d’une connaissance des effets detrompe l’œil (la skiagraphia, σκιαγραϕια ), chez Vitruve notamment ( De Architectura, I, 2, 2).69 Cf. DALAI EMILIANI (M.), « Perspective » in Encyclopaedia Universalis, t. 17, p.929-936.70 Pour cela, il suffit d’observer la part grandissante des images de synthèse dans la productioncinématographique.
52
L’effet de mode qu’il existe autour des images de synthèse, aux possibilités presque
infinies, leur confère un statut particulier : synonyme de rêve réalisable, elles offrent
l’avantage de donner à voir avec beaucoup de vraisemblance aussi bien des choses qui
existent que des choses qui n’existent pas, ou qui n’existent plus. L’archéologie et les vestiges
qu’elle met au jour n’échappent pas à cette règle : d’emblée, la 3D semble réussir là où les
moyens traditionnels de représentation échouaient. En effet, l’engouement que l’archéologie
suscite depuis de nombreuses années atteint une nouvelle dimension avec l’introduction des
images 3D dans des thématiques culturelles et patrimoniales : ces images se donnent au
spectateur sans attendre de sa part les fortes capacités d’abstraction et de synthèse qui
accompagnaient généralement l’observation des données archéologiques qui, jusqu’alors, lui
étaient inculquées par les procédés peu attractifs ni très significatifs pour le néophyte71.
Par conséquent, les images en 3D semblent être des outils idéaux pour la
représentation et la mise en scène des connaissances archéologiques.
3.1.2. Des images qui posent problème : les « cartes postales » dupassé
Une des premières utilisations évidentes des images de synthèse semble être leur
emploi dans des illustrations de sites archéologiques qui exploitent à plein régime leur
potentiel figuratif. Dans cette optique, l’image créée joue le rôle de « carte postale »
représentant avec beaucoup de vraisemblance le site concerné. Reçues comme de simples
vues d’illustration, ces images n’en renferment pas moins la synthèse de nombreuses
informations, quel que soit le sérieux archéologique qui les accompagne.
Car, nous l’avons vu, la réalisation d’une image satisfaisante, en terme d’attractivité,
nécessite l’emploi de nombreux artifices et le croisement de nombreux documents pour
recréer les objets et l’environnement dans lequel ils se trouvent. Bien qu’il soit relativement
facile de réaliser une image séduisante, une image destinée à faire illusion requiert, de la part
de son créateur, d’apporter un soin particulier aux détails qui ne se perçoivent pas de prime
abord, mais qui risquent de dénoter fortement dans l’impression que l’image laissera au
spectateur si ces détails sont négligés.
Ainsi, la réalisation d’une telle image nécessite de prendre en compte un grand nombre
de paramètres : l’image donne à voir non seulement le monument ou le site - qui fera l’objet
71 Cf. ci-dessus, 1.2.2 La représentation graphique, p.12
53
d’une grande attention - mais également son environnement. Il en est ainsi de certaines
réalisations qui, telle la restitution du sanctuaire d’Athéna à Marmaria72, proposent des vues
très réalistes de sites en 3D réinsérés dans leur paysage.
Le soin particulier apporté à cette dernière réalisation ne va pas sans poser de
questions. Ainsi, qu’en est-il d’une telle image qui nous présente une vue délibérément
réaliste simulant une réalité passée en réintégrant l’ensemble monumental dans une
perspective résolument illusionniste : le paysage, réalisé à partir de photographies récentes, a
été débarrassé de tout témoignage postérieur à la séquence chronologique du site reconstitué73.
Le but d’une telle initiative était donc de produire une vue du site et de son
environnement tel qu’il pouvait être lors de sa période d’activité. Or, le problème, c’est qu’en
insérant la reconstitution dans un environnement réaliste (sinon réel), l’ensemble du document
bénéficie de cette caution et devient lui-même une image réaliste, achevée. L’aspect
provisoire, voire lacunaire de certaines restitutions à l’intérieur de ce même site est gommé
par le caractère définitif de l’image. Ainsi, l’ensemble des informations contenues dans ce
document, formes et dimensions des bâtiments, couleurs, disposition, place dans
l’environnement se trouve validé, alors qu’il n’en est rien : par exemple, les trésors doriques et
éolique possèdent une décoration polychrome, documentée par les observations des
archéologues, tandis que les édifices voisins (le temple en tuf et le temple en calcaire), moins
bien connus, sont habillés de blanc, non pas parce qu’ils devaient être comme cela, mais parce
que les traces de polychromie n’ont pas été retrouvées74. Il n’en demeure pas moins que, dans
le document final, ces deux édifices sont juxtaposés sans qu’il y ait moyen de différencier la
restitution validée de la restitution provisoire.
Ainsi, cet exemple permet de mettre en exergue certains dangers des images de
synthèse : celles-ci ne sont pas neutres, elles témoignent d’un parti pris de la part de ceux qui
président à leur réalisation et véhiculent une quantité d’informations diversement reçues
suivant le degré d’attention du spectateur.
En effet, ces images, lorsqu’elles sont statiques, ne permettent pas de hiérarchisation
raisonnée des informations : comment différencier le degré de certitude des différentes
restitutions alors que le but même de l’image est de faire illusion en simulant la réalité d’un
72 Cf. BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, De Boccard, 1997, 144 p.73 Cf. idem, p.12874 Cf. idem, p.43
54
édifice par les artifices que nous avons détaillés plus haut ? Dans cet exemple, tous les
édifices reçoivent le même traitement (reconstruction des volumes par la perspective, effets
d’ombres et de lumières) qui conduit à leur donner le même statut d’authenticité. Aussi
convient-il de s’interroger sur d’autres solutions d’expression et de différenciation des
informations. A ce sujet, les techniques de l’infographie offrent des alternatives au résultat
« skiagrapique » que nous avons observé sur la reconstitution du site de Marmaria. Les auteurs
de ces images ont d’ailleurs proposé un autre type de traitement qui vise à ne conserver que
les informations de volume et non plus de surface en recourant à une représentation filaire des
reconstructions ; tout l’intérêt de ce procédé réside en fait dans la possibilité de superposer le
modèle en fil de fer sur des vues réelles du site apparaissant entre ses mailles : le spectateur
peut alors faire directement la jonction entre l’état actuel du site et son état restitué75. Une
autre possibilité consiste à exploiter les opportunités offertes dans le traitement des surfaces :
certaines parties de la reconstitution peuvent apparaître de manière plus ou moins
fantomatique en jouant sur leur degré de transparence. En fait, toute une gamme d’effet est
disponible pour différencier les niveaux de certitude attribués à tel ou tel aspect de la
reconstitution : en eux-mêmes, les modèles sont éditables à volonté, il est donc possible de
leur attribuer n’importe quel type de surface, quelle qu’en soit la couleur. Ces nombreuses
possibilités de traitement ouvrent une nouvelle approche dans la pratique des illustrations
archéologiques : chaque variation de traitement peut faire l’objet d’une individualisation,
c’est-à-dire qu’il est possible de produire, à partir de la même reconstitution, une multitude de
documents témoignant de tel ou tel parti pris.
3.2. Un langage didactique : la multiplication des imagesPour remédier au danger engendré par la confusion des informations présentes dans
une seule image, l’infographie possède l’avantage de pouvoir en multiplier la production sans
pour autant générer de surplus de travail. Cette productivité accrue en terme de quantité
d’image exploite également les autres ressources de l’infographie : à partir d’un même modèle
numérique, il y a possibilité d’effectuer de multiples traitements pour mettre en scène
l’information. La multiplication des images emprunte plusieurs types de supports ; elle n’est
pourtant véritablement effective que lorsqu’elle est déclinée sur les supports permettant la
diffusion de nombreuses images (multimédia, audiovisuel).
75 Cf. idem, p.124 , fig. 113. En réalité, ce procédé a été utilisé pour caler les reconstructions sur les vestigesvisibles avant le calcul définitif des images photoréalistes.
55
3.2.1. Les séries d’imageLa première approche consiste à créer une succession d’images du même objet, où
chaque image détaille un élément ou un ensemble précis d’information. Les images
fonctionnent ainsi comme des diapositives projetées les unes à la suite des autres, offrant au
spectateur une analyse progressive de l’objet, où les informations sont distillées au fur et à
mesure et mises en valeur suivant la thématique du « diaporama ».
Le palais hellénistique d’Hyrcan à Iraq-al-Amir en Jordanie76 a fait l’objet d’une
restitution commandée par l’archéologue architecte F. Larché, de l’Institut Français
d’Archéologie du Proche-Orient. Cette restitution, réalisée par Claude Soirot (architecte
urbaniste) a donné lieu, notamment, à une présentation en diaporama77 : au fil des
« diapositives », le monument est reconstruit étage par étage, montrant, pour chaque image, la
structure interne de l’édifice. Ces images, partant du rez-de-chaussée jusqu’au bâtiment entier,
permettent de recréer un discours impossible à exprimer par une seule image. Le déroulement
linéaire de la présentation privilégie un exposé argumenté et raisonné des différentes
informations. Ainsi, le spectateur observe non pas un objet différent sur chaque image, mais
un objet dynamique, qui évolue au gré des diapositives : le regard n’est plus attiré par la
beauté d’une image mais est plutôt stimulé par les différences existant entre chaque séquence.
Ce mode de lecture ne nécessite plus d’insérer la restitution dans un environnement
illusionniste : un fond neutre sans effet de perspective suffit amplement, puisque l’intérêt
même de ces images réside dans la représentation progressive de la structure du bâtiment (voir
fig. 16, planche VI).
Ce procédé fonctionne encore plus lorsqu’une couche supplémentaire d’information
vient se superposer aux images. Le cédérom multimédia Viaggo virtuale nell’antico Egitto78
propose, sur le même principe, quatre vues de la pyramide de Kheops. La première correspond
à une vue de la pyramide en 3D dans son entier, les trois suivantes présentent la même
pyramide dépourvue de ses enveloppes successives. A chaque image correspondent des
légendes fléchées qui indiquent la nature des différentes parties de la pyramide (voir fig. 17 à
20 planche VII).
76 Trouver quelques références bibliographiques à ce sujet.77 Ce diaporama, diffusé lors du festival Archéo Virtua, sert de support aux exposés de M. Claude Soirot, etn’emprunte pas, par conséquent, les circuits de diffusion commerciaux. Cf. SOIROT (C.), « Archéologie etmodélisation », Archéologia, n°337, septembre 1997, p.8.78 Viaggo virtuale nell’antico Egitto, sulle orme della spedizione napoleonica, Altair 4 Multimedia, MondadoriNew Media, 1997, Italie.
56
Ce type de présentation n’est pas réellement nouveau, il ne fait qu’adapter un principe
déjà communément utilisé dans des communications à destination du grand public.
Néanmoins, l’utilisation d’une telle technique témoigne de l’efficacité et de la souplesse des
images de synthèse. D’abord, pour créer ces variantes autour du même thème, il n’est pas
nécessaire d’investir énormément de temps sur chaque image : elles sont toutes issues du
même modèle numérique, et il a suffit d’employer les possibilités de l’infographie à bon
escient pour réaliser les différents éclatés architecturaux. Ensuite, du point de vue du
destinataire de ces images, les vues proposées sont tout de suite significatives : il n’est pas
besoin de s’étendre davantage sur l’efficience de telles images, qui, en place et lieu des
conventions et des symboles graphiques pour représenter un volume79, font appel à l’acuité
visuelle du spectateur.
Cependant, leur mode de réalisation ne permet pas de donner des informations d’ordre
quantitatif : nous avons vu que la perspective ne conserve pas les proportions, aussi il est
évident que ces images, d’un point de vue uniquement visuel, ne peuvent donner des
renseignements précis quant aux dimensions du monument représenté. Seule la présence d’un
référent, telle une silhouette humaine, peut donner une idée des dimensions et des échelles.
C’est pourquoi ces images, en tant que produit fini, ne peuvent être employées qu’à titre
indicatif : elles sont idéales pour donner à voir ou à comprendre, mais ne sont pas utiles pour
exprimer les données quantitatives.
3.2.2. L’animation, outil de narrationLa production d’images en quantité permet également de réaliser des séquences
animées. Ces animations en 3D sont construites de la même manière que les séquences
cinématographiques ou vidéographiques : l’illusion du mouvement est créée en tirant profit de
la limitation de la perception humaine. En effet, l’œil humain possède un pouvoir de
séparation relativement restreint, de sorte qu’une perception sensorielle persiste quand bien
même son origine aurait disparu. Ce phénomène de persistance rétinienne, de l’ordre d’un
tiers de seconde, permet de créer une impression de continuité grâce à une succession rapide
d’images sensiblement différentes les unes des autres. L’illusion du mouvement peut être ainsi
générée à partir de 16 images par seconde, mais les fréquences de défilement ne deviennent
réellement confortables qu’à partir de 24 images par seconde80. La reproduction du
79 Cf. ci-dessus, 1.2.2.2 Le dessin technique en deux dimensions, p.1680 Brard (P.), « La persistance rétinienne et son utilisation » in Encyclopaedia Universalis, t. 5, p.839.
57
mouvement par une succession d’images dépend en fait du support sur lequel l’animation est
destinée à être diffusée. Ainsi, sur support vidéo, un minimum de 25 images par seconde est
requis tandis qu’une diffusion sur l’écran d’un ordinateur peut demander davantage.
Bien évidemment, l’avantage considérable des animations 3D sur les animations
traditionnelles réside dans leur absence de contrainte physique : l’ensemble des éléments
d’une scène n’est pas régi par les lois de la physique, ce qui laisse une plus grande liberté dans
les possibilités de mise en scène ; en outre, la création d’une animation ne dépend pas d’un
référent réel car il ne s’agit pas d’un enregistrement du réel mais bel et bien une création ex
nihilo. Ces avantages de l’infographie 3D prennent ici une plus grande dimension : la création
du mouvement, confère à ces images une plus grande efficacité, les rend davantage
vraisemblables, ce qui a pour effet d’améliorer grandement la compréhension que peut en
avoir un spectateur.
L’introduction du facteur « temps » dans les images de synthèse permet une meilleure
appréhension des volumes et de la tridimensionnalité : le mouvement exprimé par une
animation peut être une solution au problème de la planéité du support de la représentation.
Par exemple, on peut très bien imaginer que la caméra virtuelle – l’œil du spectateur – fait le
tour d’un édifice en le dévoilant au fur et à mesure, privilégiant ainsi une approche des
volumes par la mémorisation des formes, la vision humaine recomposant automatiquement la
spatialité. Cette possibilité supplante de loin, dans le cas d’une présentation générale de
vestige, les précédentes que nous avons envisagées plus haut. La caméra peut emprunter un
chemin plus compliqué que celui lui faisant faire le tour du monument en suivant un parcours
à l’intérieur du monument en en montrant successivement les volumes intérieurs.
Ainsi, les possibilités de narration sont illimitées : suivant les mouvements de caméra,
les types de cadrage, le réalisateur d’une séquence animée peut exprimer un discours raisonné
et hiérarchisé. La présentation d’un monument peut être construite sur un développement
utilisant l’ensemble des procédés cinématographiques pour mettre en scène l’information. Par
exemple, la présentation peut commencer par un plan général du site, puis détailler les
différents monuments du site ; des zooms peuvent être utilisés, de même que les travelling,
convenant parfaitement au déroulé d’une frise...
Cependant, l’intérêt de l’animation par ordinateur réside également dans la possibilité
d’intervenir sur les objets, les éléments constituant une scène. Il s’ensuit alors tout un
58
ensemble de possibilités permettant de présenter de manière didactique, voire intuitive, les
informations.
Ces animations d’objets constituent un véritable support à la démonstration et à
l’explication de principes difficilement exprimable autrement.
Ainsi, le cédérom Architectus81 contient une animation expliquant le principe
d’assemblage et de fonctionnement de la louve, instrument de préhension utilisé par les
Romains dans la construction en pierre82. D’une durée de 20 secondes, l’animation débute par
le plan serré d’un bloc de pierre percé, sur sa partie supérieure, d’une ouverture (voir la fig.
21, planche VIII). Ce plan, fixe, voit l’apparition des différentes pièces composant l’outil et
leur déplacement du haut de l’écran vers l’ouverture ménagée dans la pierre. Les pièces
viennent s’y loger progressivement : d’abord les latérales, ensuite la centrale. Puis suivent, sur
le même principe, les accessoires de fixation : le spectateur a le loisir de suivre leur
déplacement et leur insertion dans les orifices ménagés à cette intention. Enfin, l’animation
s’achève par un plan plus large représentant le bloc de pierre et le système de levage,
comprenant la louve et le gréement (poulies, cordes). L’animation a donc expliqué, en un
minimum de temps, le principe de fonctionnement de la louve avec beaucoup d’efficacité : la
forme générale de l’instrument – en queue d’aronde – et le problème de son introduction dans
une ouverture de la même forme sont immédiatement appréhendés par le spectateur grâce à
l’assemblage progressif des différentes pièces, le mouvement permettant de structurer, à la
manière d’un discours, les informations. Le spectateur peut alors apprécier la simplicité et
l’ingéniosité de ce système sans avoir à subir un exposé rébarbatif.
L’animation est également très utile pour rendre compte des différentes phases
d’évolution d’un site, pour représenter le caractère diachronique des sujets de la recherche
archéologique. L’expression des phases de construction d’un édifice n’est pas toujours très
claire : généralement, la retranscription d’une évolution doit prendre en compte de nombreux
paramètres, de nombreux composants ; dans ces conditions, il n’est pas aisé de formuler,
graphiquement ou par écrit, l’ordre des constructions, des destructions, etc. Pour résoudre ce
problème, rien n’empêche de présenter une animation évolutive du site. Le château de Ferrare
a fait l’objet d’une reconstitution en 3D dans un produit multimédia83, où il est notamment
81 Architectus, Eurêcad, 1997, Suisse.82 cf. BESSAC (J.-CL), JOURNOT (F.), PRIGENT (D.), SAPIN (CH.) & SEIGNE (J.), La Construction, la pierre,Paris, éd. Errance, 1999, coll. « Archéologiques », p. 78 et 83, fig. 23.83 The Castle of Ferrara, Archè, Soprintendenza ai Beni Storici e Artistici di Ferrara-Bologna, 1997, Italie
59
possible d’observer une telle animation : les différents états de l’édifice se succèdent pendant
que la camera opère un mouvement circulaire autour de la construction ; les phases de
construction s’enchaînent les unes après les autres, donnant ainsi un aperçu général et
dynamique du château italien.
Ainsi, la possibilité de réaliser des représentations dynamiques des objets d’étude
archéologique ouvre la porte à de nombreuses mises en scène des vestiges archéologiques : il
est désormais facile de représenter dans un même document les vestiges découverts par les
archéologues et leur restitution. Le spectateur prend alors davantage conscience du travail des
archéologues et de l’importance de leur choix de restitution.
Par exemple, dans Viaggo virtuale nella antica Roma84, l’utilisateur peut lancer des
animations de différents types : certaines mettent en avant la relation existant entre les
vestiges réels et leur restitution, dans ce cas, l’animation commence par une photographie
réelle des vestiges, qui, par un effet de « fondu », découvrent à leur place, une image de
synthèse calculée avec un cadrage et un point de vue identique à celui de la photo (voir les fig.
22 à 26 de la planche IX) ; la transition, douce, permet d’illustrer avec beaucoup de force le
pouvoir des images de synthèse et leur nécessaire confrontation à la réalité. D’autres donnent
à voir une mise en volume des documents traditionnels des archéologues ; en effet, le cédérom
permet d’accéder à de nombreux plans quelques peu théoriques des principaux types de
bâtiments (temples prostyle, in antis..., villa à péristyle, etc) : le plan, en 2D, livre
progressivement une restitution idéale du bâtiment. Cette mise en scène reflète bien l’intérêt et
l’utilité des images de synthèse pour le grand public : les restitutions proposées sont idéales,
ne font pas référence à un édifice précis, mais proposent des documents significatifs qui
expliquent, dans les principes généraux, ce qu’il faut savoir d’un type d’édifice, en fournissant
quelques informations telles que le nom des différentes pièces d’une villa, suivi
immédiatement de son aspect global. L’apport pédagogique d’un tel procédé est encore plus
évident lorsque l’animation permet de dévoiler la structure interne d’un édifice : par exemple,
l’animation débute sur une représentation 3D d’un arc de triomphe pour finir sur la même
image, à la différence qu’une des parois a été retirée pour laisser apparaître la structure interne
de l’édifice, ce qui permet au spectateur de voir qu’un escalier était aménagé dans l’édifice.
En contrôlant la vitesse, le sens (vers l’avant ou vers l’arrière) de l’animation, le spectateur
84 Viaggo virtuale nella antica Roma, Altair 4 Multimedia, Mondadori New Media, 1998, Italie
60
peut terme à terme, comparer les deux images pour apprendre d’avantage ce qu’une forme
dessinée (plan) ou lacunaire (photo) peut produire après la restitution.
3.3. L’interactivité comme mode d’accès à la connaissance.La recherche de l’interactivité avec les images de synthèse correspond en fait à une
problématique plus large portant sur la Réalité Virtuelle. Les images de synthèse, nous l’avons
vu, sont la représentation, la projection bidimensionnelle d’un système tridimensionnel
synthétique (le modèle numérique et tous les paramètres qui concourent à la réalisation des
images). Grâce aux animations, nous avons vu qu’il était possible de se déplacer dans
l’univers virtuel du modèle numérique suivant un cheminement prédéterminé calculé en
images 3D : en fait, les déplacements ne se faisaient pas dans les images, mais dans le modèle
numérique même, dans lequel était défini le parcours de la caméra virtuelle. Cependant, les
séquences animées sont des documents fondamentalement linéaires, avec un début, une fin, et
entre ces deux extrémités, un déroulement invariable et rigide : la principale raison de cette
rigidité tient au fait que l’illusion du mouvement est donnée par une grande quantité d’images
qu’il a fallu calculer au préalable. C’est justement ce temps de calcul nécessaire pour créer
toutes les images qui constitue l’une des principales restrictions à l’interactivité des images de
synthèse.
En effet, pour permettre l’interactivité, il est indispensable que les images soient
« rafraîchies » en temps réel : la caméra virtuelle dirigée par les mouvements de l’utilisateur
doit produire, en réaction, des images calquées simultanément sur le mouvement. Autrement
dit, l’ordinateur doit calculer et afficher le plus rapidement possible toutes les images
nécessaires à la reproduction du mouvement. Cette contrainte avait cantonné les recherches
sur la réalité virtuelle aux quelques centres et instituts de recherche qui disposaient de
suffisamment de moyens financiers et matériels pour mener à bien ces investigations. Bien
entendu, ces recherches ne portaient pas simplement sur l’affichage en temps réel des images
mais s’étendaient à l’ensemble de l’interface matérielle et logicielle nécessaire pour réaliser
les immersions dans la réalité virtuelle85. Toujours est-il que l’immersion dans les « mondes
85 Outre des logiciels de rendu suffisamment puissants pour afficher en temps réel, l’immersion demande, àdifférents niveaux, toute une interface homme-machine / machine-homme pour améliorer la navigation dans lesmondes virtuels. Ainsi, l’écran, qui n’est en fait qu’une simple fenêtre sur la virtualité, est remplacé par d’autrespériphériques tels que le visiocasque, qui constitue une véritable « prolongation » de l’œil humain, en recréant,par la stéréovision, notre mode naturel de vision en relief, et, par l’analyse des mouvements de la tête, notrefaculté d’appréhender notre environnement par balayage de notre champs de vision. A l’inverse, lespériphériques d’entrée tels que la souris ou le clavier sont remplacés par des instruments davantage calqués sur
61
virtuels » se joue à différents niveaux : dans le cas de l’archéologie, peu d’expériences ont été
tentées, en raison des coûts que nécessitent de telles technologies, et les applications directes
en terme de visualisation se limitent à des manifestations ponctuelles supportées par les
acteurs de la haute technologie.
Pour exemple, une expérience de réalité virtuelle a été tentée en 1993 à l’occasion du
festival Imagina, où il était question d’une visite virtuelle de l’abbaye de Cluny, projet qui
avait en partie bénéficié du savoir-faire d’IBM France86. Dans le milieu universitaire, ce genre
de projet n’échappe pas à la nécessité de collaborer avec des organismes spécialisés, déjà
détenteurs de cette technologie : le chercheur italien Maurizio Forte, dans ses investigations
portant sur l’exploration virtuelle des paysages archéologiques, s’est associé avec le CINECA
(Centre interuniversitaire de calcul scientifique, à Bologne)87 dans le cadre d’un projet de
recherche sur la visualisation scientifique en archéologie88. Par conséquent, les expériences
réalisées en immersion sont, pour l’heure, très marginales et réservées à des circonstances
exceptionnelles.
Il existe néanmoins un ensemble d’applications qui participe de cette approche de
l’interactivité et qui, pour autant, commence à être accessible à partir d’un ordinateur
standard89. A ce titre, l’offre en produit multimédia propose de nombreuses réalisations où il
est question de visite virtuelle de sites archéologiques reconstitués.
3.3.1. Les visites virtuellesDans bon nombre de cédéroms culturels à destination du grand public, les visites
interactives en 3D constituent à elles seules un argument d’achat du logiciel90. L’engouement
existant autour de la 3D et des visites virtuelles est parfois exploité à l’excès par les
développeurs de multimédia, tant et si bien que le produit, en lui-même, ne présente pas
toujours de réel intérêt, du moins en ce qui concerne la qualité des informations
notre mode d’accès à la réalité, en permettant, par exemple, des déplacements plus intuitifs dans les troisdimensions. Pour plus de détail sur ce sujet, cf. CADOZ (C.), Les Réalités Virtuelles, Paris, Flammarion, 1994,coll. « Dominos », 128 p.86 Cf. CAMPAGNOLLE (L.), « Du vestige au virtuel : Cluny », Pixel, n°18, p.55.87 Cf. FORTE (M.), « Un esperimento di visualizzazione scientifica per l’archeologia del paesaggio : lanavigazione nel paesaggio virtuale » in Archeologia & Calcolatore, n°4, 1993, p.137-152.88 Cf. idem, p.150. Archeologia, Eidologia informatica e Visualizzazione Scientifica est un projet de recherchemené en collaboration avec le laboratoire de Visualisation Scientifique du CINECA.89 Par standard, nous entendons tout ordinateur disponible sur le marché des particuliers en 1998-99, à savoir,pour le parc PC, les ordinateurs équipés de Pentium II ou équivalent, et disposant en moyenne de 32 Mo demémoire vive (Random Access Memory), et tout ordinateur équivalent de type Macintosh.
62
archéologiques qu’il propose. Il en résulte que les visites virtuelles, lorsqu’elles ne sont pas
accompagnées d’une réelle volonté de présenter et de rendre compte d’un discours de
vulgarisation scientifique rigoureux, ne sont généralement que des prétextes pour inscrire un
produit dans une logique commerciale. Néanmoins, il s’agit d’étudier de quelle manière ces
voyages virtuels peuvent être des portes d’entrée dans l’archéologie.
3.3.1.1. La navigation dans les mondes virtuelsJusqu’à aujourd’hui, la principale utilisation de l’interactivité dans un environnement
tridimensionnel se cantonne à la navigation à l’intérieur du site virtuel, sans réelle possibilité
d’agir sur l’environnement. En fait de navigation tridimensionnelle, les ordinateurs actuels,
pour des raisons techniques, commencent à peine à proposer des déplacements dans des
univers réellement tridimensionnels : la difficulté de faire calculer, en temps réel, des scènes
en 3D, limite les applications à quelques expériences, qu’il ne nous a pas été possible
d’étudier en tant que produit fini. C’est pourquoi d’autres solutions ont été adoptées pour
contourner le problème et pour rendre viables les visites virtuelles sur les ordinateurs
communs. Il existe par conséquent deux types de produits : ceux qui proposent de véritables
déplacements dans les univers 3D, encore à l’état d’ébauche, du moins pour les produits
concernant l’archéologie, et ceux qui les simulent et qui sont couramment utilisés dans la
production de cédéroms culturels et d’œuvres interactives.
3.3.1.1.1. Un langage de description de scènes en 3D :l’exemple du VRML
Le VRML (Virtual Reality Modeling – ou Markup – Language) est un langage91
spécialement créé pour définir des univers virtuels en 3D sur le World Wide Web. Il s’agit en
fait d’un langage de description de scène en 3D qui permet d’afficher, en temps réel, la
projection bidimensionnelle d’un modèle tridimensionnel dans lequel on peut se déplacer et
activer des liens menant vers d’autres documents (vers des textes, des images, des sites web
90 Pour s’en convaincre, il suffit d’observer le « packaging » de ces cédéroms : bon nombre d’entre eux possèdentdes vignettes, des labels pour signaler la présence de visites virtuelles en 3D à l’intérieur du produit.91 Ce langage, présenté officiellement à la première conférence internationale sur le World Wide Web en 1994, aété conçu par des passionnés d’informatique pour répondre au manque de « palpabilité » de l’interface del’Internet de la fin des années 1990. Le VRML était donc, à la base, un langage de description d’interface en 3Dpour les réseaux. Depuis, il a été adopté comme standard dans la description de scène 3D pour le web, et laplupart des acteurs dans le domaine de la 3D s’y intéressent et apportent leur contribution. A titre indicatif, lesfichiers VRML sont de simples fichiers de texte Ascii comportant l’extension *.wrl (Pour les lire en tant quescènes en 3D, il faut bien évidemment disposer du lecteur (player) approprié). Pour plus de précisions sur leVRML, cf. GILLINGS (M.) & GOODRICK (G. T.), « Sensuous and reflexive GIS : exploring visualisation and
63
ou toute autre scène 3D). Pour garantir une certaine fluidité dans les déplacements, les effets
« skiagraphiques » sont limités au minimum : les objets composant la scène sont exprimés par
une méthode de rendu relativement économique en temps de calcul, qui peut aller de la
représentation filaire à la représentation texturée et ombrée, mais qui ne rendra pas un haut
niveau de détail92.
Néanmoins, les possibilités d’un tel langage sont édifiantes : la liberté de navigation
dans la scène est totale, puisqu’il est donc possible d’observer le monument sous tous les
angles et d’en visiter tous les recoins (voir les fig. 27 et 29 de la planche X). Le site web de la
société Learning Sites93 propose de se rendre dans la salle du trône du palais d’Ashur-nasi-Pal
II (Assyrie) et d’en observer les fameux bas-reliefs et les taureaux ailés, regroupés « in situ »
pour l’occasion. Le même site web propose également la visite de la maison hellénistique de
Vari (Attique), montrant d’abord une scène virtuelle décrivant le site tel que découvert, puis
sa restitution. Certains hyperliens sont disséminés dans la scène et mènent à des
développements thématiques qui sont affichés dans une autre fenêtre. Ainsi, la visite est un
support pour accéder à des informations de natures différentes : les développements
contiennent du texte présentant un historique du site, des dessins, avec les plans simplifiés des
vestiges, et des commentaires sur les actions de l’utilisateur. Un clic de la souris sur un objet
sensible, comme une ruche ou une céramique, active une autre fenêtre où il est possible de le
manipuler et de l’observer sous tous les angles94.
3.3.1.1.2. La simulation de la navigation tridimensionnellepar anamorphose sphérique : le QTVR
Le QTVR (Quick Time Virtual Reality) est un format de fichier dérivant d’un format
standard dans l’animation, le Quick Time, développé par Apple et fonctionnant sur les
ordinateurs Macintosh et PC. Ce standard, également prévu pour fonctionner sur les sites web,
permet à l’utilisateur de déplacer son champ de vision sur les trois axes et sur 360°. En fait, la
VRML », Internet Archaeology, n°1, 1996, à l’URL=http://intarch.ac.uk/journal/issue1/gillings/index.html(consulté le 17/05/99) ou COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, p.423-446.92 Il est à noter que la technologie logicielle dédiée aux sites web évolue très rapidement : de nouveaux formatsde description tridimensionnelle apparaissent et tentent de s’imposer face au VRML, qui est lui même destiné àévoluer. Ainsi, la qualité et les performances de ces formats tendent à s’améliorer, mais le standard actuel estparticulièrement significatif de ce que les moteurs de description tridimensionnelle à venir sont susceptiblesd’apporter.93 Learning Sites Inc est une société spécialisée dans les reconstitutions archéologiques en 3D. Son site web estconsultable à l’URL=http://www.learningsites.com/. Il est à noter que ce site a été récemment mis à jour, etcertaines des applications décrites plus haut n’ont pas été conservées dans cette nouvelle version site (le site a étévisité le 4/10/99 et dispose d’une mise à jour depuis Mars 1999).94 Voir ci dessous 3.3.2 La manipulation d’objets, p.68
64
visite virtuelle ne se fait pas à l’intérieur d’un monde en 3D mais plutôt à l’intérieur d’une
image dépassant largement du champ de vision délimité par l’écran. Cette image est un
panoramique d’une scène en 3D : l’effet simule la rotation du spectateur sur lui-même, qui
voit défiler l’image en 3D en même temps que son mouvement.
Pour permettre un panoramique vertical, c’est-à-dire de bas en haut, l’image de
synthèse a été calculée de manière à pouvoir être plaquée à l’intérieur d’une sphère (voir les
fig. 30 à 32, planche XI), c’est le principe d’anamorphose sphérique95. L’ensemble du site
virtuel dispose de plusieurs panoramiques de ce type : la navigation se fait en activant les liens
présents dans chacun d’entre eux, l’utilisateur peut ainsi progresser à sa guise et visiter le site
comme bon lui semble.
Ainsi, le site web le Plan de Rome96 propose notamment une visite du forum boarium,
dans lequel l’utilisateur peut évoluer selon les points de vue prédéfinis. En fait, les différents
panoramiques ont été judicieusement placés suivant ce que les concepteurs cherchaient à
montrer : un premier point de vue, placé au centre du forum, dispose de plusieurs zones
sensibles97 dans toutes les directions. Au choix, l’utilisateur peut se diriger vers le temple de
Portunus, puis rentrer dans la cella, se rendre dans le quartier des entrepôts ou bien encore
visiter le temple d’Hercule.
La principale limite de ce type de navigation tient au fait que les liens vers les autres
points de vue sont déjà définis par le concepteur : il n’est pas possible d’emprunter un chemin
inédit, la liberté de mouvement étant par conséquent fortement limitée et dépend entièrement
du nombre de panoramiques et de liens prévus par le concepteur. Par exemple, il n’est pas
possible de pénétrer à l’intérieur des entrepôts : l’utilisateur peut simplement déambuler entre
les différents bâtiments. En outre, une autre limite de ce type de navigation réside dans
l’impossibilité de tourner autour d’un objet, d’étudier un édifice sous tous ces angles : le
spectateur est en quelque sorte le centre de chaque panoramique, et il lui est impossible de se
déplacer autrement qu’en passant de panoramique en panoramique ; il en résulte que le
95 Le fichier graphique résultant du calcul de l’image est obligatoirement de forme rectangulaire. Pour pouvoirêtre plaqué sur toute la surface interne de la sphère, et pour éviter les effets de distorsion, l’image a été calculéeen coordonnées rectangulaires de manière à ce qu’elle forme une images lisible en coordonnées polaires (c’est-à-dire, une fois plaquée sur la sphère).96 Le site web Plan de Rome fait partie du domaine de l’université de Caen. Il se trouve àl’URL=http://www.unicaen.fr/rome/index.html et a été consulté le 26/03/1999. Il a été réalisé par le Pôlepluridisciplinaire « Ville – Architecture, Urbanisme et Image Virtuelle » de la Maison de la Recherche enSciences Humaines de Caen.
65
spectateur est tributaire du nombre et de l’emplacement des panoramiques : parfois, un édifice
n’est visible que d’un seul panoramique, le reste de la construction étant perdu.
Néanmoins, l’avantage principal de la navigation de type QTVR tient à la qualité des
images, qui, alliées à la fluidité de défilement des panoramiques, confère à la visite virtuelle
beaucoup de vraisemblance : cet aspect n’est pas à négliger lorsqu’il s’agit de proposer au
grand public des visites de sites archéologiques « comme si on y était », accessibles à tous via
Internet ou les cédéroms. Ainsi, par le biais de cette « simili » réalité virtuelle, le public
désirant avoir une idée de l’aspect des sites archéologiques a désormais l’opportunité de
partager et de bénéficier des connaissances des spécialistes (archéologues, architectes...) grâce
à une interface plus intuitive qui se calque, d’une certaine façon, sur notre expérience directe
du réel : le champ de vision, mobile sur les trois axes et sur 360°, permet de simuler notre
mode d’accès à la réalité par la vision, à la fois par la limitation de notre champ visuel (large
d’environ 40°) et par notre perception dynamique de l’environnement (la relative étroitesse de
notre champ visuel ne nous permet pas d’embrasser du regard l’ensemble de l’environnement
qui se présente à nous. Aussi, notre perception de la réalité ne s’établit pas instantanément à la
manière d’un appareil photographique mais se fonde sur un « balayage » dynamique de
l’environnement que notre cerveau reconstruit par la suite98.
3.3.1.2. La 3D : une interface pour la connaissance
3.3.1.2.1. L’accès à la documentation
Les images de synthèse sont d’autant plus utiles lorsqu’elles sont accompagnées
d’informations complémentaires, cela vaut aussi bien pour les images fixes que pour les
voyages interactifs. En fait, la navigation à l’intérieur d’un site, du moins dans le cas des
produits multimédias, sert d’interface pour accéder à tout un appareil documentaire portant sur
le sujet même de la restitution, voire sur des développements thématiques autour des
civilisations qui occupèrent le site. Ainsi, l’utilisation d’hyperliens dans les environnements
virtuels permet de chaîner des informations de nature différentes : un clic de souris sur un
objet du site virtuel peut activer une fenêtre contenant des informations relatives à cet objet ; il
peut très bien s’agir d’une photographie, d’une séquence vidéo ou d’un commentaire, écrit ou
parlé. Cette fonction se retrouve généralement dans les produits « institutionnels » à grande
97 Zones sensibles (hot spot en anglais) : parties de l’image indiquant, par le changement du curseur de la souris,qu’il est possible d’activer une fonction (déplacement vers un autre point de vue, interrogation d’un objet...).98 Cf. CADOZ (C.), Les Réalités Virtuelles, Paris, Flammarion, 1994, coll. « Dominos », p. 22.
66
diffusion, tels ceux développés par la Réunion des Musées Nationaux99 ou bien encore ceux
créés en collaboration avec des personnalités du monde scientifique.
A ce titre, le cédérom Ramsès II100 comporte des séquences pendant lesquelles
l’utilisateur peut visiter les tombes de la vallée des Rois, reconstituées pour l’occasion en
images 3D. Les peintures pariétales, plaquées sur le modèle numérique de ces tombes, ne
présentent pas toujours un fort niveau de détail en raison des contraintes techniques inhérentes
au mode de consultation, mais renferment néanmoins des liens vers des photos réelles prises
dans les meilleures conditions. L’affichage de ces photographies, instantané, est d’un véritable
intérêt : l’évolution dans le monde reconstitué permet une découverte des lieux plus intuitive,
augmentée, lorsque c’est nécessaire, d’un ensemble documentaire complétant les lacunes de la
représentation tridimensionnelle. La « surcouche » d’informations contenue dans la fenêtre de
la photographie peut également délivrer du texte, des commentaires renseignant sur
l’iconographie, sur la chronologie ou sur toute autre remarque concernant le vestige. Le
visiteur possède ainsi beaucoup plus d’informations que s’il se contentait d’une expérience
réelle du site, qui impliquerait, s’il désire accéder à un même niveau d’information, un plus
important investissement en terme de temps pour récolter et synthétiser toutes ces
informations101.
3.3.1.2.2. L’approche ludique : une archéologie « vivante »
L’interactivité suit un développement parallèle à celui des jeux sur ordinateurs. C’est
d’ailleurs cette spécificité de l’informatique qui à fait le succès de ces derniers. En effet, le jeu
touche un public de plus en plus large, séduisant plusieurs générations de jeunes depuis
l’invention de Pong au début des années 1970, et n’est pas un simple phénomène de classe
d’âge puisque nombre d’adultes qui ont vu naître la première génération de jeux vidéos sont
encore des joueurs actifs.
L’intérêt des jeux et leur succès auprès d’une grande partie de la population n’ont pas
échappé aux éditeurs multimédias, qui en ont fait un prétexte particulièrement intéressant pour
développer des produits culturels à caractère ludique : les « ludo-culturels ».
99 Egypte, 1156 av. J.-C., l’énigme de la tombe royale, Réunion des Musées Nationaux, Canal + Multimédia,Cryo Interactive Entertainment, 1997, France100 Ramsès II, Syrinx, 1998, France.101 Ce qui reviendrait à faire un travail déjà réalisé par les spécialistes.
67
En fait, comme nous l’avons vu plus haut, l’interactivité permet à l’utilisateur de
s’approprier, de son propre chef, les connaissances qu’il désire, en visitant les sites suivant la
liberté qui lui a été impartie par les concepteurs du produit. L’introduction d’une logique
ludique lui enjoint d’utiliser à bon escient les connaissances acquises : dans le jeu « l’Enigme
de la tombe royale »102, le joueur, pour progresser, doit résoudre de nombreuses énigmes en
s’aidant de l’ensemble des connaissances disponibles dans le produit. Le contrôle des
connaissances s’effectue alors dans l’univers virtuel en 3D, en répondant, par exemple, aux
questions posées par un personnage du jeu. Les personnages, recrées en 3D103 ou joués par des
acteurs104 et construits à partir des connaissances acquises par les scientifiques, sont une des
particularités de ce type de produits : à travers leurs comportements et leurs actes, le joueur
accède à l’environnement et aux us et coutumes des anciennes civilisations (par exemple, les
rites funéraires de l’Egypte du XIIème siècle av. J.-C. pour la coproduction de la RMN, ou
bien encore les activités artisanales des Vikings pour le cédérom d’Index+105).
Par conséquent, l’interactivité ludique de ce type de production permet de toucher et de
sensibiliser un large public, souvent jeune, à l’héritage culturel construit chaque jour par les
chercheurs : nous sommes ici face à un exemple réussi de transfert des connaissances
archéologiques vers le public, par l’utilisation combinée de l’interactivité et des images de
synthèse.
3.3.1.2.3. La recontextualisation des vestiges : ladécouverte d’une archéologie « matérielle »
Plus spécifiquement, l’interface « 3D » peut servir à présenter, dans un même
document, l’ensemble des données recueillies par les archéologues à propos d’un site. En
effet, le grand public est souvent confronté à une dispersion des vestiges appartenant à un
même site : la pratique muséale a sorti de leur contexte les vestiges mobiliers (objets) en les
conservant dans des dépôts ou derrière les vitrines des musées, rompant de fait la relation
existant entre le site archéologique même et le mobilier qu’il contenait. Cette séparation opère
aussi bien à un niveau local (en France, le mobilier archéologique est souvent exposé dans le
102 Cf. note 99.103 Les personnages de ce cédérom parlent avec le joueur grâce à une technologie spécialement développée parl’équipe technique (l’entreprise Cryo, co-productrice du projet) pour simuler le mouvement des lèvres (Omnisync).104 Comme c’est le cas dans le cédérom Vikings (Vikings, Index +, France Télécom Multimédia, 1998, France)où les acteurs jouant les personnages sont filmés sur fond bleu ou verts et réincrustés dans des décors en imagesde synthèse.105 Vikings, Index +, France Télécom Multimédia, 1998, France.
68
musée le plus proche du site) qu’à un niveau international : l’exemple des vestiges égyptiens
conservés dans les plus prestigieux musées du monde (British Museum, Le Louvre, New
York) l’atteste sans conteste.
Par conséquent, le regroupement des différents vestiges archéologiques dans un même
lieu virtuel constitue une alternative à leur dispersion géographique. Cette possibilité a été très
vite perçue par les archéologues sensibles à la diffusion de leurs connaissances. A ce titre, le
web constitue le vecteur idéal pour rendre possible la visite de sites archéologiques par le
grand public. Le site Ceren Web Ressource106 en est un exemple : les habitations ont été
reconstituées avec l’ensemble du mobilier découvert en fouille. En se déplaçant suivant les
principes du QTVR, l’internaute peut cliquer sur les différents objets pour accéder aux
informations précisant leur nature, leurs dimensions, leur code d’inventaire, parfois
accompagnés d’une photographie (voir fig. 33, planche XII). Ces principes de consultation
permettent de familiariser le grand public à une démarche archéologique plus moderne, à
savoir l’étude des populations passées par leurs vestiges matériels, quelle que soit leur nature,
et non plus seulement par la visite de leurs lieux exceptionnels, qui ne restituent qu’une partie
des connaissances disponibles sur elles.
3.3.2. La manipulation d’objetsCette réorientation de l’attention, qui passe des sites même vers les vestiges mobiliers,
exploite une autre application de la réalité virtuelle : cette fois, il ne s’agit plus de s’immerger
dans un site en 3D, mais plutôt de le manipuler comme s’il s’agissait d’un objet. Car, nous
l’avons vu, les modèles numériques, qu’ils représentent un objet ou un site entier, n’ont pas de
masse physique. Il est par conséquent facile de se saisir d’un objet virtuel, quelque il soit, et
de lui faire subir tous les mouvements que l’on fait généralement subir aux objets dont on peut
se saisir dans la réalité, que ce soit au niveau de leur forme, de leurs couleurs, de leurs détails
etc.…
Pour ce genre d’opération, il existe deux types de procédés que nous avons déjà
évoqués : le VRML et le QTVR. Le premier offre un fonctionnement similaire à celui que
106 Le site Ceren Web Resource fait partie du domaine de l’université du Colorado et se trouve àl’URL=http://ucsub.colorado.edu/~lewin/Home.htmlLe site archéologique de Ceren, découvert en 1976 au Salvador, est un village mésoaméricainexceptionnellement conservé par un enfouissement sous des couches de cendres suite à une éruption volcanique(le site est d’ailleurs surnommé « la Pompéi du Nouveau Monde). Il a donné lieu à la création d’un site web parla collaboration du département d’anthropologie et du « College of Architecture and Planning » de l’Universitédu Colorado.
69
nous avions décrit pour la navigation à l’intérieur des sites. Cette fois, la liberté est limitée à
un seul objet, qui devient en quelque sorte de centre du monde virtuel : le site web Learning
Sites107 utilise le langage VRML pour présenter deux exemples de vestiges archéologiques
manipulables on-line. Il s’agit de deux céramiques trouvées sur le site de Nemrud Dagi
(Turquie), qui ont d’abord été modélisées puis texturées à partir de nombreuses
photographies. Retranscrites ensuite en langage VRML, il est désormais possible de les faire
tourner sur elles-mêmes, ce qui est d’un grand intérêt pour rendre compte de l’intégralité de
l’objet sans passer par la consultation de multiples photographies ne présentant pas de
solution de continuité entre elles. Ici, le vase virtuel est observable sous tous les angles, par
des rotations horizontales, verticales : s’il le désire, l’utilisateur peut pénétrer à l’intérieur du
vase pour en étudier les détails et les agrandissements sont également possibles (voir fig. 34 à
38, planche XIII). La principale contrainte induite par cette description d’objet en 3D
concerne le nombre considérable de calcul que l’ordinateur doit réaliser pour gérer et afficher
les informations tridimensionnelles. Il en résulte que, pour alléger les temps de calcul, il est
parfois nécessaire de réduire la qualité graphique des images, tant au niveau de la finesse du
modèle qu’au niveau de la résolution des textures, ce qui affecte beaucoup les possibilités de
lecture des informations portées sur le modèle 3D (les détails s’en ressentent).
Ainsi, il existe une alternative à ces inconvénients en utilisant une autre possibilité du
QTVR. Outre les panoramas, le QTVR peut gérer la manipulation d’objets sous forme
d’images de synthèse précalculées : en fait, la manipulation ne porte pas sur l’objet
directement, mais sur un certain nombre d’images prises sous des angles différents. Suivant la
position du curseur de la souris, et suite à un clic, le logiciel réagit en affichant l’image
correspondant au point de vue. Par exemple, il est possible de tourner ou de faire tourner sur
elle-même une frise pour en suivre le motif sur tout le périmètre (voir fig. 39, planche XIV).
Bien entendu, la vraisemblance de la rotation autour de l’objet dépend du nombre d’images
inclues dans le document : tout dépend du concepteur de la séquence interactive.
L’infographie dispose ainsi d’un ensemble de solutions pour donner forme aux
informations archéologiques afin de les rendre davantage accessibles au plus grand nombre.
Outre les images fixes qui ne renouvèlent pas de manière radicale l’apport des documents
visuels en archéologie, l’introduction des animations et des séquences interactives permet
d’offrir de nouvelles possibilité d’accès à la connaissance archéologique : nous avons vu que
107 Cf. note 93.
70
les animations pouvaient, d’une certaine manière, dispenser avec efficacité un discours
résumant l’état des connaissances sur un sujet archéologique, avec cependant tous les risques
que ce genre de raccourcis comporte. Parallèlement, le développement de l’interactivité offre
désormais de nouveaux usages dans l’accès à la connaissance, puisque c’est dorénavant le
destinataire de l’information qui fait lui-même l’expérience des données archéologiques : en
effet, nous avons vu qu’il lui est possible, à partir d’un site archéologique reconstitué en 3D,
d’accéder à une partie de la documentation et de s’initier à une pratique de l’archéologie
scientifique. Cependant, l’ensemble de ces documents, bien qu’ayant été produit par ou en
collaboration avec des archéologues, est incontestablement tourné vers le public et ne doit pas
faire oublier que parallèlement, il existe un ensemble de traitements rendus possibles par
l’archéologie et qui sont plus particulièrement destiné aux archéologues.
71
4. Les images de synthèse comme auxiliaires de la recherchearchéologique
4.1. De nombreuses possibilités de traitement de l’information
4.1.1. Vers une connaissance globale en l’archéologieLes modèles numériques sont des fichiers informatiques pouvant contenir une quantité
considérable d’informations. Ces informations, en premier lieu, décrivent la géométrie des
objets contenus dans une scène, en définissant les formes à partir de leurs propriétés formelles
qui sont exprimées par des coordonnées tridimensionnelles. Ces coordonnées
tridimensionnelles permettent donc de renseigner sur la forme et l’emplacement de chaque
objet dans l’univers tridimensionnel du modèle numérique. Dans les parties précédentes, nous
avons vu que les objets virtuels peuvent être exprimés par un ensemble de relations existant
entre des points (x, y, z) rejoint entre eux par des lignes et formant des surfaces, qui
assemblées entre elles, constituent la forme d’un objet. Chaque objet est ainsi défini par ces
relations ou par des propriétés intrinsèques108. L’ensemble de ces objets constitue le modèle
numérique. La précision et la finesse du modèle numérique dépendent intégralement de la
quantité d’informations tridimensionnelles présentes dans le fichier informatique. Par
conséquent, la seule limite des modèles numériques réside dans la possibilité de stocker et de
gérer des quantités plus ou moins grandes d’informations, et cette limite est intimement liée
aux performances des ordinateurs actuels. Il s’ensuit que la précision du modèle numérique est
conditionnée par le projet qui sous tend sa création : tout dépend de ce que recherchent les
concepteurs en fonction des moyens matériels et logiciels dont ils disposent.
Si on excepte ces limites technologiques, les modèles numériques sont potentiellement
capables de synthétiser une grande partie de notre réalité tridimensionnelle, ou du moins d’en
fournir une synthèse plus ou moins fine. Bien évidemment, il ne sera jamais possible de
reproduire l’intégralité de la réalité, car cette synthèse du réel repose toujours sur un nombre
fini d’informations, alors que notre réalité est fondamentalement infinie109. Néanmoins, la
possibilité de réduire un certain nombre d’informations tridimensionnelles sur les supports
108 Cf. 2.2.2.2 La modélisation volumique : la sculpture virtuelle, p.36.109 Il s’agit ici du phénomène de discrétisation : pour pouvoir conserver ou reproduire n’importe quel signalvenant de la réalité (un son, un environnement visuel), l’ordinateur doit réduire une infinité de valeursconsécutives (le signal continu) en un nombre fini d’informations. Par conséquent, quel que soit le degré definesse de l’enregistrement, le signal conservé et reproduit par l’ordinateur ne sera jamais exactement conforme
72
informatiques présente un réel intérêt dans l’archéologie : cette synthèse de la réalité n’est pas
limitée par la dimension des objets à reproduire, car, comme nous l’avons vu dans la partie
précédente, l’infographie permet de recréer n’importe quel type de vestige, qu’il s’agisse d’un
ensemble monumental ou d’un tesson de céramique. Cette absence de limite favorise de
nouvelles approches dans la recherche archéologique : bien plus qu’un ensemble monumental,
les modèles numériques permettent d’étendre le champ de la recherche archéologique où sont
prises en compte des études aussi bien d’envergures régionales que d’extensions locales.
4.1.1.1. La prise en compte de l’environnement et de latopographie
L’archéologie, depuis quelques années, commence à bénéficier des méthodes de
recherche élaborées par les sciences de la Terre (géologie, pédologie, tectonique,
vulcanologie) et par les sciences géographiques (océanographie, météorologie, topographie,
géographie physique). Ces disciplines, notamment les sciences géographiques, ont un usage
courant des nouvelles technologies comme outil de recherche. Cela s’explique par les
répercussions immédiates de ces recherches dans notre quotidien110, dont les résultats
justifient de tels moyens : en effet, elles ont recours aux images satellitales, aux couvertures
photographiques aériennes, aux opérations de télédétection et de photo-interprétation, à la
cartographie par stéréophotogrammétrie, le tout nécessitant un usage omniprésent de
l’informatique. Tous ces outils ont bien évidemment un coût et requièrent des compétences
particulières, ce qui constitue un facteur expliquant la rareté de leur utilisation en
archéologie111. Néanmoins, l’usage de tels outils a ouvert de nouvelles perspectives en
archéologie : jusqu’alors limitée à l’étude ponctuelle de sites signalés par des vestiges (des
constructions ou du mobilier), l’archéologie, grâce à la multiplication des prospections
aériennes et à la mise à disposition des archéologues d’outils permettant d’avoir des
connaissances sur l’ensemble d’un territoire, s’est intéressée davantage aux relations existant
entre les sites et au rôle joué par l’environnement dans leur implantation.
au signal original. Pour plus de précision sur la discrétisation cf. CADOZ (C.), Les Réalités Virtuelles, Paris,Flammarion, 1994, coll. « Dominos », 128 p.110 Rappelons que de telles études ont des applications directes et concrètes pour la collectivité, que cela soit pourl’aménagement du territoire, la prévision des risques naturels directs ou indirects (inondations, feux de forêt,éruptions volcaniques, séismes…), ou bien encore l’étude du climat. Pour un exposé plus détaillé de cesapplications, cf. les articles publiés dans Observation de la Terre & Environnement, N°5, février 1999, 31 p., àl’occasion du premier forum sur la gestion des risques (GERI 1999) qui a eu lieu le 3 février 1999 à Sophia-Antipolis.111 Pour une étude de ces outils appliqués à l’archéologie, cf. Les Nouvelles de l’archéologie, n°74, hiver 98,éditions Errance, pp.5-52
73
Cette prise en compte de l’environnement s’accompagne de la nécessité, pour les
archéologues, d’appréhender avec plus d’efficacité et de simplicité leur rapport au paysage
dans lequel sont inscrits les sites. Dans cette optique, une utilisation relativement ancienne des
modèles numériques s’avère véritablement intéressante : il s’agit des modèles numériques de
terrain.
4.1.1.1.1. la représentation tridimensionnelle de latopographie
Les MNT (Modèles Numériques de Terrain) sont apparus à partir de la fin des années
1950112, sous les acronymes DTM (Digital Terrain Model) ou DEM (Digital Elevation
Model). A l’origine, ils permettaient de recréer des reliefs en trois dimensions à partir d’une
quantité finie de points exprimés par le triplet de coordonnées (x, y, z). Pour récréer des reliefs
d’après la réalité, il suffisait donc d’entrer dans le fichier numérique les coordonnées des
points saisis sur le terrain soit à partir d’instruments de mesure tridimensionnelle comme les
théodolites, soit à partir des restitutions photogrammétriques issues des photographies
aériennes du terrain à numériser113. La finesse et le degré de conformité du MNT par rapport
au relief réel dépend bien évidemment de la quantité de points saisis ; néanmoins, pour donner
au MNT l’aspect général du relief sans pour autant nécessiter la mesure d’un trop grand
nombre de points, des algorithmes permettent de combler les vides laissés entre chaque
mesure en interpolant la forme du relief à partir des données avoisinantes et réellement
mesurées. Il résulte de ce genre de procédé une image plus ou moins fidèle de l’original,
présentée sous la forme d’un réseau de facettes triangulaires assis sur les véritables
coordonnées du terrain.
4.1.1.1.2. l’observation du paysage
L’intérêt direct des MNT dans l’archéologie réside dans une appropriation plus
intuitive de la topographie d’une région : les reliefs peuvent être représentés comme des
maquettes qu’il est possible de faire tourner, de manipuler. En choisissant n’importe quel
point de vue extérieur à la maquette, l’archéologue peut, par exemple, mieux apprécier
l’installation d’un site par rapport au relief. Au début de l’application des MNT à
l’archéologie, les sites archéologiques pouvaient être signalés à l’intérieur du modèle
112 cf. HARRIS (T.), « Digital terrain modelling and three-dimensional surface graphics for landscape and siteanalysis in archaeology and regional planning » in Computer and quantitative methods in archaeology 1987, éd.par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.161-170.113 Nous détaillerons les modalités d’acquisition des données tridimensionnelles dans une autre partie. Cf. renvoi.
74
numérique par la coloration des facettes composant la surface du terrain numérique, car
chacune d’entre elles, représentant une surface dans la réalité, peut contenir un ou plusieurs
sites. Ainsi, Trevor Harris, dans son article (cf. note 112, p. 73) traitant des apports de ces
modèles numériques à l’archéologie, se fait l’écho d’une expérience menée dans le cadre du
projet de système d’information archéologique de Brighton (Grande Bretagne)114, où toutes
les facettes contenant des sites archéologiques se sont vues attribuées des couleurs différentes
suivant la période d’activité des sites. Sur une superficie relativement étendue (l’auteur ne
précise pas la superficie de l’échantillon étudié, mais le relief et le nombre de sites inclus dans
l’étude attestent d’une extension relativement importante), il est possible de faire apparaître
les sites contemporains et de voir de quelle façon ils se sont répartis et comment ils se
situaient les uns par rapport aux autres115, ou bien encore de comprendre leur implantation en
fonction du couvert végétal, de la nature des sols ou de l’exposition au soleil (ces informations
pouvant également être codées en couleur).
Aujourd’hui, grâce aux progrès réalisés dans la gestion et l’affichage des données, il
est possible de superposer une quantité considérable d’informations sur un MNT, qui devient
en quelque sorte la structure sur laquelle viennent se déposer les couches d’informations. Le
chercheur italien Maurizio Forte utilise couramment les MNT dans ses recherches sur la
navigation virtuelle à l’intérieur des paysages archéologiques : un échantillon de 13 km²
entourant la ville étrusque de Marzabotto, dans la vallée du Reno (Italie)116 a fait l’objet d’une
modélisation réalisée à partir des courbes de niveaux, sur laquelle sont venues se plaquer des
photographies aériennes et des images satellitales dont le but était de reproduire l’aspect du
paysage. Enfin, par-dessus la texture ont été déposées des données géographiques gérées par
un Système d’Information Géographique. Au total, l’ensemble du modèle a été calculé en 3D
sur des machines puissantes117 de manière à permettre une visite interactive du paysage, ce qui
aurait permis, aux dires de M. Forte, de préciser la dynamique du paysage, en soulignant, par
exemple, le rôle du Reno comme agent d’érosion de plusieurs hectares de terrain sur lesquels
devaient se trouver plus de la moitié de la cité étrusque118.
114 L’auteur ne donne pas davantage de précisions sur la nature de ce projet.115 Notamment en vérifiant l’existence de relation d’intervisibilité entre ces sites, ce qui fut effectué enpositionnant, dans le MNT, la caméra virtuelle sur un site précis et en la faisant pointer en direction d’un autre.116 Cf. FORTE (M.), « Un esperimento di visualizzazione scientifica per l’archeologia del paesaggio : lanavigazione nel paesaggio virtuale » in Archeologia & Calcolatore, n°4, 1993, p.141-150.117 Le CINECA (cf. note , p. ) a mis à la disposition de M. Forte un supercalculateur CRAY ainsi que des stationsgraphiques Silicon Graphics pour réaliser les calculs les plus complexes cf. idem, pp.140-141.118 Cf. idem, p.149-150.
75
4.1.1.1.3. la reconstruction du paysage archéologique
Ce dernier exemple préfigure d’autres applications utiles à l’archéologue. Grâce aux
connaissances acquises par les sciences de la Terre lors de l’observation du paysage actuel, il
est possible, dans une certaine mesure, de restaurer le paysage archéologique dans un MNT.
La première utilisation, du moins la plus simple à mettre en œuvre, permet de simuler le
niveau de la mer à différentes époques : il suffit simplement de créer un plan horizontal et de
le disposer à la hauteur voulue. Cette première application a des répercussions directes dans
une recherche archéologique : elle permet en effet de mettre en évidence l’ensemble des terres
émergées à un certain moment, ce qui présente un réel intérêt lorsqu’il s’agit de déterminer les
choix et les possibilités d’implantation qu’avaient les populations à différentes époques ainsi
que l’extension de leur réseau de communications et de leur rapport aux autres sites suivant
les possibilités de déplacement à l’intérieur d’un environnement119.
Parfois, d’autres données sur le paysage antique sont disponibles et peuvent être
reconstruites à partir du paysage actuel. Ainsi, une équipe de chercheurs de l’Université de
Pennsylvanie120 a pu, sous l’autorité de l’Ecole américaine d’études classiques d’Athènes121,
créer un MNT de la Corinthe romaine et de ses environs à partir du paysage actuel (environ 35
km² recréés à partir de cartes topographiques fournies par le « Greek Geodetic Survey », de
photographies aériennes et spatiales et de saisies sur le terrain122). Cependant, la principale
limite de ce premier MNT tient au fait qu’il reproduit, à proximité du site de la colonie
romaine, un tertre artificiel de plus de 200 m de long et de 15 m de hauteur, créé par les
remblais dus aux activités de fouilles123 (les dimensions de ce tertre s’expliquent par le fait
que l’Ecole américaine d’Athènes bénéficie depuis 1896 d’une concession de fouille à
Corinthe124). Grâce à la nature informatique des informations contenues dans le MNT, il a été
très facile de remédier à ce problème en faisant disparaître le tertre : pour chaque point connu,
119 Ainsi, une montée ou une baisse du niveau de la mer peut conditionner le rapprochement ou l’éloignement dedeux populations géographiquement proches l’une de l’autre. Un autre exemple prouvant l’importance du niveaude la mer dans l’étude des populations passées se trouve dans l’explication des déplacements humains lors despériodes de glaciation, et sur lequel se fonde une des théories de la « colonisation » du continent américain par ledétroit de Behring, alors émergé.120 Cf. ROMANO (D. G.) & TOLBA (O.), « Remote sensing, GIS and electronic surveying : reconstructing the cityplan and landscape of Roman Corinth » in Computer applications and quantitative methods in archaeology1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, Tempus Reparatum, 1995, p.163-174.121 American School of Classical Studies at Athens122 Cf. idem, p.172. En vérité, plusieurs MNT ont été générés pour gérer au mieux le rapport superficiecouverte / précision demandée. Ainsi, le MNT général couvre 35 km² mais est réalisé avec une précision faible(la grille est composée de carreaux de 20 m²), tandis que les MNT couvrant une superficie moins importante sontconçus avec une grille dont les carreaux font 5 m².123 Cf. idem, p.172
76
il a suffit de réduire l’altitude d’autant de mètre que nécessaire. Le MNT obtenu permet ainsi,
dans une certaine mesure, de rendre compte de l’environnement de la cité tel qu’il pouvait être
en fonction des connaissances disponibles à l’heure actuelle.
4.1.1.1.4. la prospection virtuelle
Le développement de la prospection aérienne a permis de mettre en évidence le rôle
conservateur du relief : dans une certaine mesure, celui-ci garde en lui les traces des activités
humaines. Aussi, il est fréquent que des vestiges, invisibles du sol, se révèlent au regard
lorsqu’ils sont observés sous d’autres points de vue. Généralement, la découverte de vestiges
trahis par des empreintes en relief est tributaire des conditions climatiques qui ne sont
absolument pas contrôlables : par exemple, à certains moment de l’année et de la journée, les
lumières rasantes permettent de souligner des reliefs très estompés. Par conséquent, les
prospecteurs, dépendants de ces conditions, bénéficient rarement de la conjoncture propice à
la découverte de nouveaux sites. La modélisation numérique du relief peut présenter une
alternative à ce manque de liberté. Que cela soit à une échelle prenant en compte un site et son
environnement ou simplement une zone à l’intérieur d’un site, il est possible d’utiliser les
MNT dans une perspective prospective. Les campagnes d’étude réalisées sur le site de Sutton
Hoo (Grande-Bretagne) en sont un exemple125.
Il s’agit en fait d’un cimetière composé de nombreux tertres, dont l’un d’entre eux a
révélé, en 1939, un mobilier relativement riche. Fouillé depuis cette date, le site a connu de
nombreuses campagnes de fouille, qui ont mis au jour quantité de vestiges, appartenant à
différentes périodes : un site préhistorique a été découvert autour du cimetière, un autre
cimetière, d’époque anglo-saxonne, se trouvait à proximité du champ de tertre. Ce contexte
relativement confus à donné lieu à une campagne d’étude menée en collaboration avec IBM
UK126, où ont été investies de nouvelles méthodes de recherches, faisant notamment appel à la
modélisation numérique de terrain127. Cette campagne avait pour objectif d’étudier les
bénéfices apportés par la saisie et la visualisation tridimensionnelle des données,
particulièrement en matière de découverte. En effet, les dernières campagnes de fouille
124 Cf. idem, p.168125 cf. REILLY (P.) & RICHARDS (J.), « New perspectives on Sutton Hoo : the potential of 3-D graphics », inComputer and quantitative methods in archaeology 1987, éd. par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.173-185.126 Rappelons qu’un des auteurs de l’article, Paul REILLY, travaille au centre scientifique d’IBM UK àWinchester.127 Rappelons également que l’article a été publié en 1987.
77
avaient permis d’attester l’existence de quelques tertres qui n’avaient été visibles que sous des
conditions exceptionnelles d’éclairage, et qu’il s’agissait de localiser. Ainsi, le relief du site a
été numérisé par la saisie de nombreux points dont les coordonnées (x, y, z) ont été relevées
par un théodolite et enregistrées directement sur ordinateur128. L’ensemble des points a permis
de générer un MNT qui a ensuite été exploité pour détecter les tertres :
• la première solution a consisté à découper le modèle en tranches horizontales, les zones de
points devaient indiquer l’emplacement du sommet des tertres (pour les tranches
supérieures du modèle) par rapport au vide qui les entourait ; cette solution a permis de
découvrir rapidement les principaux tertres.
• la deuxième solution a nécessité d’exagérer l’altitude de chacun des points (la coordonnée
z), les deux autres coordonnées conservant leur propriété. Cela a eu pour résultat de mettre
en évidence de « petites îles » de points révélant la présence de tertres.
• Enfin, le mouvement en temps réel autour du modèle a permis de souligner certaines
discontinuités dans le relief, qui trahissaient autant de tertres possibles.129
Au total, il apparaît que ces techniques, une fois le modèle crée, ont été très faciles à
mettre en œuvre et ont pu être combinées afin de souligner la présence de quelques vestiges.
La vérification visuelle des reliefs mis en évidence a également permis de les interpréter : l’un
d’entre eux présentait un relief trop escarpé, et a par conséquent été retiré de la sélection ;
d’autres, aux dires des auteurs, peuvent également n’être que des déblais créés lors des
précédentes campagnes130. Par conséquent, la méthode de détection par MNT, bien qu’offrant
des possibilités puissantes131, ne dispense pas de la vérification sur le terrain car elle peut
fournir des résultats erronés.
4.1.1.1.5. L’association avec d’autres logiciels
Les modèles numériques de terrain, par la nature informatique de leurs données,
peuvent être associés à d’autres logiciels pour devenir des outils d’aide à l’interprétation
archéologique. En fait, ils deviennent en quelque sorte un support sur lequel peuvent se greffer
de nombreuses informations. Bien souvent, leur utilisation est optimale lorsqu’ils sont
128 Cf. idem, p.176.129 Cf. idem, pp.177-180.130 Cf. idem, p.180 : « Certainly, other experiments with interpolated terrain model indicate other small featuresin the area which are also possible candidates. However, some of these features may be the remains of spoil-heaps from earlier excavations. »
78
associés à des logiciels de gestion de base de données. L’intérêt principal de cette association
réside dans la possibilité de visualiser certaines données en les replaçant dans un système
tridimensionnel. Il s’ensuit que certaines relations de cause à effet peuvent être mises en
évidence.
En Grande Bretagne, la nécessité d’étudier rapidement de larges portions de territoire
dans le cadre d’une évaluation des ressources archéologiques et de l’impact de l’utilisation des
sols sur elles a permis de tester l’association modèles numériques de terrain / système de
gestion de base de données. Dans ce projet, initié par le Hampshire County Council’s
Planning Department132 et réalisé en collaboration avec IBM UK, il était question de mettre
en relation des cartes de répartitions de sites archéologiques avec la topographie, afin de voir
dans quelle mesure les labours, les activités agricoles et certains travaux d’aménagement du
territoire pouvaient influer sur l’intégrité et la conservation des sites. Les systèmes de gestion
de bases de données ont permis de créer des cartes thématiques de répartition de ce qu’il était
intéressant de montrer, en codant, dans l’exemple donné dans l’article, les concentrations de
céramiques modernes à l’aide de différentes couleurs. La carte de répartition est ensuite
plaquée sur le modèle numérique du terrain correspondant à l’échantillon, donnant ainsi une
image directe de la répartition de céramique en fonction du relief. Afin de mieux percevoir les
pentes, les données d’altitude ont été exagérées. L’analyse qui s’ensuit souligne la présence
d’une forte concentration de matériel sur le sommet d’une pente, tandis que le bas hérite d’une
concentration moindre. A priori, sans prendre en compte le micro-relief, ces deux
concentrations peuvent être interprétées comme étant deux gisements différents. En fait, la
représentation du relief permet de formuler une autre hypothèse : il est possible que les deux
concentrations proviennent du même gisement, et dans ce cas, il resterait à préciser la raison
du déplacement de certains tessons, dû aux labours successifs ou à des glissements de terrain.
Cet exemple montre bien l’intérêt de telles associations : d’une part, la combinaison de
différents documents génère davantage d’interprétations qui peuvent désormais être
confirmées par la prise en compte de nombreux paramètres ingérables autrement que par
ordinateur ; d’autre part, le résultat visuel peut être contrôlé et discuté plus facilement par
d’autres archéologues.
131 En outre, l’utilisation d’un MNT permet la manipulation d’autres paramètres : à titre d’exemple, les sourceslumineuses peuvent être disposées de manière à reproduire les conditions d’éclairage par lumière rasante, ce quipeut être d’un grand intérêt pour faire ressortir les micro-reliefs.
79
Un autre type d’association utilise le MNT comme un support à la simulation. Dans
certains cas, les archéologues sont confrontés à un état dit « post-depositional » des vestiges,
du moins du mobilier à étudier. En fait, il s’agit ni plus ni moins de caractériser un état non
primaire d’enfouissement ou de déposition des vestiges ; autrement dit, les vestiges ne sont
plus en place et le site a été perturbé après abandon d’activité. Dans ces conditions, il est
parfois extrêmement difficile de déterminer les raisons de la perturbation du site et d’en
quantifier les effets. Afin d’obtenir davantage d’éléments d’explication pour asseoir leur
théorie, certains archéologues s’en remettent à la simulation des phénomènes à l’origine des
perturbations et des modalités de déplacement des artefacts.
Le site de Mohenjo-Daro, étudié depuis 1983 par une équipe italo-germanique, est
riche en mobilier attestant la présence de nombreuses industries : plus de 7300 objets dans un
rectangle de 60 x 45 m (atelier et four de potier, artisanat de coquillage, travail de la pierre)133.
Cependant, la lecture d’un tel site est très difficile en raison de son mauvais état de
conservation : les pluies torrentielles de la mousson l’ont complètement raviné tant et si bien
qu’elles ont créé de profondes rigoles, charriant lors de leur passage de nombreux artefacts. La
configuration du site ainsi perturbée laisse peu de place à des interprétations solides : le peu
de connaissance a été fourni par des sondages menés en surface, qui ont renseigné sur la
chronologie relative de l’artisanat134 et sur la géomorphologie du site. A partir de ces indices,
les archéologues ont mené une expérience visant à modéliser – au sens premier du terme – les
modalités de déplacement des artefacts en fonction de la topographie (pente, petits ravins) du
site et des propriétés dynamiques des sols et du mobilier, et ceci afin de déterminer la position
primaire du mobilier. Pour réaliser cette simulation, il a été nécessaire de produire un MNT
avec un échantillonnement de 50 cm (une saisie tous les 50 cm) et d’enregistrer également la
position de tous les artefacts, classés par nature. Chaque artefact s’est vu attribuer des
propriétés dynamiques en fonction de sa nature et a ensuite été intégré dans le MNT grâce à
un programme de simulation de particule (Sisyphus135).
132 Cf. BOISMIER (W. A.) & REILLY (P.), « Expanding the role of computer graphics in the analysis of surveydata », in Computer and quantitative methods in archaeology 1987, éd. par Ruggles et Rahtz, Oxford, B.A.R.,1988, p.221-225.133 Cf. BONDIOLI (L.), PACELLI (A.) & VIDALE (M.), « The labours of Sisyphus : computer simulation ofdownslope movement of artefacts » in Aplicaciones Informaticas en Arqueologia : teorias y sistemas, Tome 1,Bilbao, 1995, p. 77-90.134 Cf. idem, p.79.135 Cf. idem, p.80 : Sisyphus : SImulation SYstem for PHenomena of Uncertain Scattering.
80
Plusieurs essais ont alors été tentés : les archéologues ont d’abord vérifié le
fonctionnement du modèle en lui demandant de placer aléatoirement 500 éléments en position
primaire, puis de leur appliquer des instructions de dispersion aléatoire. Il résulte de cette
première expérience que les artefacts se sont concentrés dans les ravins pour ensuite se
disperser dans un environnement plat. Les expériences qui ont suivi se sont par la suite basées
sur l’enregistrement des coordonnées de chaque vestige, en respectant leur nature et leurs
propriétés dynamiques : cette phase a permis d’affirmer que certaines concentrations d’objets
étaient bien en position primaire, après en avoir observé la constance en tant que source
« approvisionnant » d’autres concentrations situées en aval dans le modèle. Au total,
l’ensemble des expériences a fourni certaines explications et a indiqué dans certains cas l’état
secondaire ou primaire des dépôts archéologiques. Toutefois, les auteurs soulignent les limites
d’un tel modèle, qui n’a pris en considération que la topographie actuelle du site, sans prendre
en compte la dynamique du paysage qui se modifie d’année en année depuis l’abandon du site,
et qui, bien entendu, a joué un grand rôle dans le phénomène de dispersion des vestiges. Ainsi,
la modélisation n’a pas permis de reproduire une grosse concentration de vestiges découverte
dans la réalité, ce qui, du moins, a attesté l’existence soit d’un relief complètement érodé à
l’heure actuelle (par conséquent, les vestiges ont été pris au piège lors de leur déplacement),
soit d’une fosse (les vestiges sont dans ce cas en position primaire).
Ce type d’approche laisse présager de nouvelles interprétations aussi bien sur les sites
difficiles « à lire » que sur les sites très bien conservés : bien que ne prenant pas en compte
tous les paramètres de la réalité, la simulation arrive à des résultats intéressants et permet de
déterminer des processus dynamiques. Dans une perspective plus large, on peut très bien
imaginer que la simulation fournit des explications sur la modification du relief à partir des
observations faites par les spécialistes (géologues, géomorphologues, hydrologues) en
fonction de l’érosion et de certains phénomènes naturels.
4.1.1.2. Le site archéologique en 3D : le reflet virtueld’une réalité opaque
Les sites archéologiques, qu’il s’agisse de monuments plus ou moins délabrés ou de
vestiges enfouis, présentent la particularité d’être relativement difficiles à appréhender dans
leur ensemble. Lors des fouilles, l’archéologue est confronté à une quantité considérable de
données qu’il découvre au fur et à mesure et qu’il lui est par conséquent difficile de mettre en
81
relation les unes avec les autres, étant donné la nature destructrice de l’archéologie136. Dans le
cas de l’archéologie du bâti, la permanence de l’utilisation par des populations successives
d’un édifice encore en élévation génère beaucoup de confusion dans le travail de
l’archéologue, qui s’efforce d’en déterminer les différentes phases de construction en ayant
sous les yeux un édifice présentant la synthèse des nombreux remaniements dont il a fait
l’objet137. A l’extrême, c’est la presque totalité de l’édifice qui se trouve au sol et dont de
nombreuses pièces manquent : l’archéologue fait alors face à un vaste puzzle en trois
dimensions, qu’il a pour charge d’étudier, voire de remonter.
Par conséquent, la pertinence du discours archéologique est limitée par des difficultés
d’appréhension d’une réalité complexe et parfois éphémère, à la fois présentes chez
l’archéologue en charge de l’étude ne disposant que de sa compétence, de sa mémoire et de la
qualité des documents qu’il aura produit sur le terrain, mais aussi chez ses collègues, qui ne
pourront pas bénéficier des mêmes éléments, n’ayant pas eu une expérience directe de la
fouille138.
Aussi il s’agit de voir l’apport des modèles numériques dans ces pratiques
archéologiques.
4.1.1.2.1. la gestion et la représentation des donnéestridimensionnelles provenant des sites
Grâce aux logiciels de CAO, les archéologues disposent désormais d’un outil pour
conserver les vestiges archéologiques dans une logique tridimensionnelle. Ces vestiges
peuvent être de n’importe quelle nature (qu’il s’agisse de tessons de céramique, d’éléments
d’architecture ou bien encore de couches archéologiques) et contribuent à créer une réplique
virtuelle du site, fidèle à l’original jusque dans les proportions et les dimensions : les
coordonnées des points prélevés sur le terrain et indiquant la localisation et la forme des objets
136 Les vestiges enfouis appartiennent à une réalité tridimensionnelle plus que primordiale pour l’archéologue : denombreuses interprétations peuvent être émises à partir de l’observation de la position et des relationsqu’entretiennent certains objets dans leur milieu d’enfouissement. En outre, la réalité mise au jour est discontinuedans l’esprit d’un archéologue : pour connaître l’intégralité d’un site, il faut l’étudier couche par couche enpartant de la surface ; or, pour atteindre les couches inférieures, il faut retirer celles qui se trouvent au-dessus, etpar conséquent détruire les informations qu’elles recèlent, et notamment les relations existant entre des objetscontenus dans des couches différentes.137 C’est souvent le cas dans les édifices religieux construits pendant le Haut Moyen Age et modifiés ensuite parles architectes romans puis gothiques, ou bien encore dans les centres historiques de certaines villes, où il arriveque l’on découvre des maisons médiévales contenues à l’intérieur de maisons plus récentes. (cf. WATON (M.-D.)& WERLE (M.), « Une maison de musique à Strasbourg », Archéologia, n°327, octobre 1996, p.20-25).
82
peuvent être exprimées dans des unités de mesure universelles comme le mètre et ses sous-
multiples. Bien entendu, les dimensions de ces objets sont rigoureusement conformes à
l’original suivant le soin apporté à la saisie des coordonnées tridimensionnelles. Le site récréé
virtuellement bénéficie alors de nombreux avantages : la nature numérique des données le
composant permet des mises à jour illimitées en fonction de l’état d’avancement des fouilles,
ce qui est d’un véritable intérêt pour l’archéologue, qui n’a plus besoin de créer des dessins
successifs pour rendre compte des nombreuses informations prélevées chaque jour sur le
terrain. La logique tridimensionnelle du fichier permet aussi de produire une grande quantité
d’image, le logiciel calculant à chaque fois la vue correspondant au type de représentation
choisit par l’utilisateur : ainsi, il est possible d’obtenir très rapidement des dessins en deux
dimensions, créés par la projection du modèle sur un plan accompagné de l’annulation de la
dimension perpendiculaire au tableau de projection ou bien encore des vues en perspective
centrale.
4.1.1.2.1.1. Le fonctionnement par calque
Cependant, la véritable plus value inhérente au modèle numérique tient à la possibilité
de structurer et d’organiser les nombreuses informations contenues dans le fichier. En fait,
cette possibilité doit beaucoup à l’origine de la plupart des logiciels de CAO et de DAO, qui,
venant du monde des dessinateurs techniques et des architectes, ont transposé la pratique du
dessin sur plusieurs calques de la table à dessin vers l’informatique139. L’usage de calques
permettait alors de superposer plusieurs dessins du même objet de manière à créer
artificiellement un seul dessin composé de tous les calques. Cette pratique autorise alors à
placer sur chacun des calques des informations différentes, qu’il aurait été difficile de faire
coïncider sur une seule et même feuille. L’exemple reprit par Harrison Eiteljorg (cf. note 139)
est particulièrement significatif de l’avantage à tirer de cette pratique : l’architecte, lorsqu’il
doit dessiner le plan d’une maison moderne, peut disposer le plan du rez-de-chaussée sur le
dessin de base, et ensuite lui superposer d’autres calques comportant le réseau électrique, le
circuit de plomberie, le plan du premier étage, puis d’autres calques reproduisant les
installations électrique et sanitaire, le tout sans avoir à redessiner les éléments communs. En
138 A ce sujet, il existe également des problèmes de communication lorsque plusieurs archéologues participent àla même fouille, car il est parfois très difficile de faire partager à une autre personne sa propre façon de voircertaines relations n’étant présentes que dans notre esprit.139 Voir à ce sujet l’article du directeur du Centre pour l’étude de l’architecture (Center for the Study ofArchitecture, dont le but est de promouvoir l’utilisation des programmes de CAD dans l’architecture
83
fin de compte, l’utilisation de ces calques a permis de créer un plan complexe à partir d’un
même dessin, et les risques de confusion dus à la quantité d’informations peuvent être
contrôlés en retirant les calques dont l’architecte n’a pas l’usage. Ensuite, rien n’empêche de
replacer le calque voulu dans la pile et d’en retirer un autre, de façon à ne voir que ce qui est
intéressant. Par ce biais, l’architecte a une plus grande maîtrise des documents qu’il produit,
aussi complexes soient-ils ; néanmoins, il ne peut pas superposer une trop grande quantité de
calques, au risque de voir la transparence de l’ensemble s’amenuiser à chaque addition de
calque.
La transposition de cet usage dans les logiciels de CAO s’est accompagnée d’une
extension de ses possibilités : les calques, n’étant plus des supports physiques qui possèdent
un degré de transparence propre, peuvent désormais être superposés en quantité sans générer
de perte de qualité, ce qui a pour conséquence d’autoriser l’utilisation de nombreux calques.
Ensuite, leur manipulation est devenue beaucoup plus facile : il suffit de commander au
logiciel l’affichage ou le masquage d’un ou plusieurs calques pour instantanément en voir le
résultat. Mais la réelle nouveauté due à cette transposition concerne véritablement la logique
de fonctionnement des calques, qui s’apparente davantage à une commande de regroupement
d’objets : le calque informatique peut être défini par n’importe quelle association d’objets
appartenant au modèle numérique, quelles que soient leurs positions respectives. Il en découle
que le calque n’est pas contraint par des relations d’ordre hiérarchique : la logique
tridimensionnelle du modèle s’affranchit du fonctionnement des calques traditionnels qui
obligeait à indiquer, sur un même calque, des informations de même valeur, afin que
l’ensemble du document soit cohérent. En effet, la disposition, sur un même calque, du réseau
électrique avec le plan de l’étage inférieur, outre de ne présenter aucun intérêt, aurait pour
effet de masquer certaines informations situées sur des calques inférieurs, comme par exemple
le plan de l’étage où se trouve l’installation électrique. Dans un programme de CAO, la
possibilité d’associer des éléments distants dans l’espace, lorsqu’elle présente un intérêt, ne
génère pas de gêne ni de problème de visualisation, étant donné que les points de vue sont
modifiables à tout moment.
Aussi, l’usage de calques peut être d’une grande utilité pour les archéologues. H.
Eiteljorg, dans son article, évoque l’exemple de la porte de l’acropole d’Athènes140, dont les
monumentale, par les universitaires et les étudiants) de Bryn Maur : EITELJORG (H.), « Computer-AssistedDrafting and Design programs for use in archaeology and architectural history », BRISES, n°15, 1989, p.125-131.140 Cf. idem, p.126-127.
84
éléments d’architecture peuvent être disposés sur différents calques suivant leur nature (les
fondations, les murs, les remparts) ou leur matériau (marbre, poros, calcaire), ce principe
s’appliquant également aux différentes catégories de mobilier (céramiques, monnaies, outils,
armes). De la même manière, il est possible de disposer, dans le même fichier, des phases
successives du bâtiment placées sur différents calques, que l’archéologue peut faire apparaître
à sa guise, en même temps que le mobilier correspondant. Un autre usage de ce procédé
permet de faire figurer simultanément ou alternativement les vestiges et leur reconstitution
hypothétique, différenciée, au besoin, par une autre couleur.
Dans le cas des fouilles, les objets peuvent être placés sur différents calques
définissant leur appartenance à des groupes précis. Ainsi, le mobilier découvert dans une unité
stratigraphique est regroupé dans un même calque. Parallèlement, le mobilier céramique
contenu dans cette unité stratigraphique peut être disposé dans un autre calque regroupant tout
le matériel céramique de l’ensemble du site : l’archéologue peut alors l’afficher
indépendamment des unités stratigraphiques. Grâce aux calques, l’archéologue gère
l’intégralité de son site en classant le matériel suivant de nombreux critères : on peut très bien
imaginer qu’il affine la classification du mobilier céramique en le décomposant en plusieurs
calques suivant les datations. Les calques sont donc un moyen rapide d’interrogation et de
découverte du site : l’affichage ou le masquage (voir les fig. 40 et 41, planche XV) des
combinaisons de calques sont rapides, ce qui permet de multiplier sans surcoût (en terme de
temps de travail) les hypothèses de travail. En outre, la souplesse de traitement induite par ce
mode d’accès à l’information présente un réel intérêt pour les autres archéologues n’ayant pas
fouillé le site : la manipulation des calques et leur affichage instantané leur offrent des vues
synthétiques et thématiques du site, sans avoir à passer par la consultation d’une
documentation fastidieuse141.
Cependant, la quantité de calques nécessaire pour rendre compte du site et pour
permettre une telle utilisation ne va pas sans poser de problème : les calques sont seulement
identifiables par leur nom, qui correspond en fait à un champ alphanumérique de quelques
caractères. Par conséquent, les possibilités de gestion des données contenues dans les calques
141 Dans une même logique, l’utilisation de calque permet de structurer l’information en fonction du destinataire :la campagne d’étude menée sur l’église Saint-François de Lausanne a mobilisé le travail de différents spécialistesn’ayant pas les mêmes besoins d’information pour mener à bien leur tâche (archéologue, historien del’architecture, architecte, topographe, infographiste) ; aussi, l’utilisation du même fichier par l’ensemble del’équipe a permis une meilleure communication des apports de chacune des disciplines, dont les différents
85
sont limitées par la significativité de leur nom : il semble d’ailleurs très difficile de mémoriser
plusieurs centaines de noms de calque, même lorsqu’ils sont représentatifs de ce qu’ils
contiennent. Pour remédier à ce problème, H. Eiteljorg propose sa propre nomenclature de
calque qui consiste à remplir le champ alphanumérique par des lettres, chacune codant, en
fonction de sa position dans le nom, une caractéristique du calque142. Par exemple, la première
lettre indique la nature de l’information (objet 3D, dessin, légende), la seconde, l’état des
vestiges (en position primaire, secondaire...), la troisième, la nature de l’espace auxquels ils
font partis (cimetière, monument de spectacle, de culte, privé...) et ainsi de suite. Enfin, les
derniers caractères du champ sont des valeurs numériques indiquant la fourchette de datation
des vestiges143. La recherche des calques s’effectue alors grâce à des caractères « joker » à
placer dans le champ numérique : le « ? » s’insère dans la chaîne de caractère et indique à
l’ordinateur de rechercher toutes les occurrences reproduisant la même chaîne et comportant
une lettre à la place du caractère « joker ».
La limite de cette méthode tient au fait qu’elle exploite un outil très utile dans une
certaine mesure, mais dont la vocation première n’est pas de gérer de façon optimale une
grande quantité de données : les possibilités de recherche et d’interrogation du modèle
numérique sont véritablement limitées par la quasi-absence d’outil adéquat, qui ne peuvent
porter que sur les quelques caractères codés dans le nom du calque. Cependant, la nature
numérique des informations contenues dans le modèle permet de remédier à ce problème en
offrant la possibilité de gérer ces données à partir d’un logiciel extérieur au programme de
CAO, mettant ainsi à disposition toutes les fonctionnalités des Systèmes de Gestion de Base
de Données.
4.1.1.2.1.2. L’association avec des bases de données
Certains logiciels de CAO, comme Autocad, prévoient des possibilités d’ouverture
vers d’autres utilisations. Ainsi, en utilisant un langage de programmation, l’utilisateur peut
travaux ont été consignés sur des calques différents. Cf. DOEPPER (U.), FEIHL (O.) & HUGUENIN (C.),« L’église Saint-François de Lausanne » in Cahiers d’Archéologie Romande, n°73, 1998, p. 15-17.142 cf. EITELJORG (H.), « The CSA layer Naming Convention », texte disponible sur le site web du Center forthe Study of Architecture à l’URL=http://csaws.brynmaur.edu sous le nom de fichier csalnc.html, mis à jour enFévrier 1996 et consulté en Août 1999.143 Voici un exemple utilisant la convention d’H. Eiteljorg, repris dans DANIELS (R.), « The need for solidmodelling of structure in the archaeology of buildings », in Internet Archaeology, n°2, texte disponible sur le webà l’URL=http://intarch.ac.uk/journal/issue2/daniels/index.html, mis à jour le 01/05/1997 et consulté en mai 1999.
Ainsi, le calque PTPCWFXA-0489-0478 de l’entrée de l’Acropole d’Athènes code les informationssuivantes : P= structure dessinée en 2D ; T= roche taillée ; P= présente dans un lieu public ; C= plus précisément
86
définir de nouvelles fonctionnalités et ouvrir son logiciel à d’autres programmes : par
exemple, des informations provenant d’une base de données peuvent être reliées aux
différents éléments du modèle numérique. Par cette manipulation, l’étude du modèle
numérique bénéficie des propriétés et des fonctions plus précises fournies par les SGBD144.
Ce type d’association a été utilisé par une équipe de recherche travaillant sur le site
préhistorique de Runnymede, dans le Berkshire, en Grande Bretagne145.
Le site, particulièrement bien préservé, a fourni principalement du mobilier céramique,
des fragments d’os d’animaux et des témoins de structure en négatif (trous de poteaux,
fosses). L’intérêt de la recherche réside dans l’analyse spatiale des vestiges, dans le but de
préciser l’organisation du site : l’emplacement des habitations et les modalités de déposition
du mobilier146. Par conséquent, la prise en compte de l’ensemble des données a nécessité le
recours à une base de données reliée à un logiciel de représentation spatiale. Le mobilier est
entré dans le logiciel de CAO sous forme symbolique d’après ses coordonnées
tridimensionnelles. Ensuite, il est relié à la base de donnée renseignant sur sa nature et sur sa
position dans le site : coordonnées x, y, z et contexte stratigraphique. Un simple clic de souris
sur l’objet du modèle numérique renvoie à une boîte de dialogue où sont portés tous ses
renseignements : il est ainsi possible de consulter toutes les informations disponibles sur le
vestige en connaissant, de manière plus intuitive, sa position dans l’espace de la fouille.
Les possibilités données par l’association de ces deux types de logiciels ne s’arrêtent
pas là. Le contexte stratigraphique est également entré dans les deux systèmes, ce qui rend
envisageable des recherches multicritères plus fines que celles permises par l’usage de
calques :
4.1.1.2.2. Les reconstitutions
Les reconstitutions de sites en trois dimensions sont une des principales applications
de l’image de synthèse à l’archéologie, nous l’avons vu plus haut : elles permettent de donner
à voir à un large public l’état initial des sites archéologiques dont les vestiges ne sont pas
particulièrement éloquents. En réalité, les reconstitutions de sites n’ont pas simplement valeur
dans une cour ; W= utilisée dans un mur ; F= et plus précisément, en fondation ; X= en roche ; A= plusprécisément, en calcaire de l’Acropole; -0489= érigée en 489 av. J.C., -0478= retirée en 478 av. J.C.144 Systèmes de gestion de bases de données.145 cf. MAIN (P.L.), SPENCE (A.J.) & HIGGINS (T.), « Computer-aided design techniques for the graphicalmodelling of data from the prehistoric site of Runnymede, Berkshire », in in Computer applications andquantitative methods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, Tempus Reparatum,1995, p.235-243.
87
d’outil de communication et de diffusion de la connaissance, mais peuvent jouer également un
grand rôle dans le cadre du travail des archéologues.
En effet, jusqu’à présent, les dessins de restitutions, long et fastidieux à réaliser,
occupaient une place relativement marginale dans les publications archéologiques : leur
caractère hypothétique en faisait des documents de présentation dont l’aspect subjectif ne
permettait pas de les associer pleinement au processus de la recherche. En fait, les restitutions
archéologiques permettent de présenter à la fois une synthèse des informations recueillies par
les archéologues et en même temps une thèse témoignant de leur regard sur le site et de leur
interprétation des vestiges. Ce type de document arrive donc généralement en fin
d’argumentation, après l’analyse des documents davantage ancrés dans la réalité
archéologique ; parfois, lorsque la reconstitution proposée dispose d’un fort degré de fiabilité,
elle peut servir de base à la reconstruction réelle de l’édifice, ou, dans une plus faible mesure,
à sa restauration. L’utilisation de l’infographie a considérablement renouvelé l’apport des
essais de reconstitution dans une logique scientifique. En fait, les principales limites du dessin
de restitution tenaient au temps de travail nécessaire à sa réalisation et à son caractère
définitif : une fois réalisé, il n’est plus possible de modifier la structure du dessin, qu’il
s’agisse du point de vue choisit ou des éléments reconstitués. Cet aspect rigide peut expliquer
d’une certaine manière la rareté de tels documents dans les publications scientifiques, qui
généralement développent différentes hypothèses de restitutions, multipliant d’autant plus le
temps de travail nécessaire à la réalisation d’équivalents graphiques à leurs théories..
Aussi, l’utilisation des modèles numériques pour reconstituer les sites archéologiques
permet d’ouvrir de nouvelles perspectives éprouvant l’apport des restitutions non plus comme
outil de communication ou de présentation finale des vestiges, mais surtout comme outil de
recherche et auxiliaire de la démarche archéologique.
A travers la reconstitution des vestiges archéologiques, il existe différentes approches
qui mettent en équation le degré de conservation des vestiges et la finesse du résultat à
laquelle tend l’opération de restitution. En clair, l’outil informatique, suivant ce qui est
recherché, peut permettre, d’une part, de restituer au plus près des données lorsque celles-ci
existent encore, qu’il s’agisse de créer un double virtuel d’un site conservé intégralement mais
inaccessible ou bien encore qu’il s’agisse de reconstruire, tel un puzzle, un édifice
pratiquement conservé mais fortement démantelé, et, dans ces deux cas, les formes sont
146 Cf. idem, pp.237-238.
88
modélisées d’après le réel147. D’autre part, lorsque la connaissance directe du site fait défaut
(par exemple, lacune de blocs architecturaux pour un monument), le recours au modèle
numérique permet de recréer le vestige, ou, du moins, son idée, d’après l’ensemble de la
documentation disponible sur d’autres vestiges comparables. Dans le cas de l’architecture
monumentale, il résulte de cette dernière approche la création d’un vocabulaire de formes
architecturales articulées suivant un langage de construction menant à la représentation plus
ou moins précise du monument148. En fait, loin de s’opposer, ces deux alternatives sont très
souvent associées lors des opérations de reconstitution : il existe très peu de sites
intégralement conservés et les éléments survivants servent souvent de base à l’élaboration du
vocabulaire évoqué plus haut.
4.1.1.2.2.1. Quand les vestiges existent : la reconstructionassistée par ordinateur
Il arrive donc, que, dans certaines circonstances, les archéologues soient confrontés à
des monuments détruits mais dont les nombreux éléments de constructions sont encore
présents sur le site même ou en remploi dans d’autres monuments149. Le cas du mausolée
antique de Rouen est particulièrement caractéristique de ce genre de probabilité150 : plus de
deux cents blocs de construction ont été retrouvés en remploi dans la fondation d’une portion
du rempart du Rouen antique, lors de fouilles préventives menées au début des années 1990.
L’étude de ces blocs, dont certains pèsent plus d’une tonne, a révélé qu’ils appartenaient au
même monument (par des caractéristiques communes : méthode de taille et importance des
cavités de levage) et a permis, dans une certaine mesure, de retrouver la façon dont ils
s’organisaient. Au total, l’étude préliminaire a fourni la restitution d’un édifice de trente
mètres de hauteur, daté du IIIème s. ap. J.-C. L’importance du monument et la masse des blocs
qui le composent ont alors conduit les instances en charge du dossier151 à faire réaliser une
147 cf. 4.2 Les modalités d’acquisition des données p.97.148 L’architecture monumentale convient particulièrement à cette logique de construction par la sémantique desformes, car, qu’elle soit égyptienne, grecque ou romaine, elle facilement décomposable en éléments plus simple.149 cf. ADAM (J.-P.), « Les nouveaux regards de l’archéologie monumentale », Les Nouvelles de l’Archéologie,n°76, 1999, p.6-9. Comme le rappelle J.-P. Adam, cela a été fréquemment le cas « au Bas Empire, lorsque lesmonuments périphériques des cités furent détruits pour permettre l’édification des remparts »; à ce sujet, il donnedes exemples similaires à celui développé ci-dessous, mais qui ont fait l’objet d’anastyloses réelles.150 cf. DELESTRE (X.) & SCHULMANN (J.-L.), « Le mausolée antique de Rouen: une approche pluridisciplinairepour une hypothèse de restitution » in Patrimoine et multimédia, le rôle du conservateur: actes du colloqueorganisé à la Bibiothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentation française, 1997,p.48-51.151 Service Régional de l’Archéologie de Haute Normandie
89
anastylose virtuelle152, qui présentait l’avantage d’autoriser les manipulations des volumes
architecturaux sans faire courir aucun risque aux opérateurs et aux vestiges. Modélisés d’après
les études des architectes, le caractère immatériel de ces blocs architecturaux virtuels a permis
de tester avec efficacité différentes options de restitutions en modifiant à volonté la
disposition des blocs de manière à en retrouver le parti initial. La possibilité de déplacer en
temps réel ces blocs et de visualiser immédiatement le résultat a été d’un grand intérêt pour
les archéologues, qui ont pu essayer différentes combinaisons pour en conserver les plus
pertinentes.
Le problème de ces reconstructions réside néanmoins dans le caractère presque
toujours lacunaire de la documentation disponible : ce projet s’est notamment heurté à
l’absence d’indice laissant présager de la forme de la toiture et de certains éléments
conditionnant l’ensemble de l’édifice (la partie arrière de l’édifice n’est pas attestée par les
découvertes archéologiques). Il en résulte que le modèle numérique ainsi constitué donne une
vision partielle de ce à quoi pouvait ressembler le bâtiment : les responsables de la restitution
reconnaissent cette limite mais soulignent le caractère perfectible d’un modèle numérique, car
rien n’empêche de le mettre à jour en fonction de nouvelles découvertes153. Ce cas de figure
où la majorité des éléments constitutifs sont conservés est relativement rare : la plupart des
restitutions, qu’elles soient virtuelles ou réelles, ont recours à une autre démarche.
4.1.1.2.2.2. Quand les vestiges manquent : lareconstitution « hypothético-déductive »
L’alternative suivante se construit sur l’analyse d’une documentation hétérogène et
exogène. En fait, les données permettant de restituer un site connu dans une moindre mesure
sont de natures différentes : d’une part, celles-ci peuvent provenir directement du site en
question, et sont fournies par les études archéologiques – récentes ou anciennes – des vestiges
conservés et par la consultation des sources qui en font mention (littéraires, iconographiques
et épigraphiques). D’autre part, il peut être fait appel aux connaissances disponibles sur des
vestiges comparables présents sur d’autres sites. Dans ce cas, tout le travail du « restituteur »
réside dans sa capacité à se nourrir des éléments réellement intéressants pour la tâche qu’il a à
152 Réalisée par J.-L. Schulmann, de la société Image Digitale153 Cf. idem, p.50
90
réaliser : il s’agit pour lui d’extraire avec pertinence le contenu cognitif de tous ces
documents154.
L’exemple de la restitution de la tholos du sanctuaire d’Athéna à Marmaria est
caractéristique de cette démarche. Ce monument, connu par les nombreuses études menées par
l’Ecole Française d’Athènes depuis plus d’un siècle, a fait l’objet d’une reconstitution
virtuelle dans laquelle l’outil infographique a joué un rôle actif en tant qu’auxiliaire à la
validation ou à l’infirmation d’hypothèse155. Le soubassement de la tholos, connu par les
vestiges découverts in situ, a été modélisé sans problème. En fait, le premier écueil rencontré
dans cette opération concerne la polémique existant autour de la colonnade extérieure : il
s’agissait d’en déterminer la hauteur en fonction du nombre de tambour entrant dans la
composition d’une colonne. Le canon parthénonien avait conduit les archéologues du début du
siècle à préconiser une restitution à quatre tambours, choix qui s’est révélé caduque lors de
l’anastylose réelle menée sur trois colonnes en 1938, au cours de laquelle il est apparu que le
parti d’ensemble de chacune des colonnes nécessitait l’utilisation de cinq tambours pour
préserver la continuité des lignes le long des fûts156. Ce choix de restitution n’avait pas été
retenu avant cette date en raison du mauvais état de conservation des tambours, qui du coup
n’avaient pas permis des mesures fiables et significatives. Cependant, il n’a pas fait
l’unanimité dans l’ensemble de la communauté scientifique. Aussi, pour justifier cette
restitution encore contestée cinquante ans plus tard, l’utilisation de l’infographie couplée à un
système de mesure tridimensionnelle a permis de vérifier qu’il n’y avait pas d’incohérence
dans la restitution à cinq tambours157 : les mesures tridimensionnelles ont permis de comparer
les diamètres restitués par l’analyse des fragments de tambours avec ceux produits par le
travail de restauration lors de l’anastylose réelle158 ; il en a résulté que la restitution des
colonnes avec cinq tambours respectait sans équivoque la cohérence des colonnes, tandis
qu’une version à quatre tambours produisait inévitablement un décrochement entre les
différentes formes composant la colonne.
154 A ce sujet, cf. GOLVIN (J.-C.), « De Karnak aux problèmes fondamentaux de la modélisation », Les Nouvellesde l’Archéologie, n°76, 1999, p.20-21.155 Pour tout ce développement, cf. BOMMELAER (J.-F.) (DIR.), Marmaria, le sanctuaire d’Athéna à Delphes,Paris, de Boccard, 1997, p.59- 76 et 106-110.156 Cf. idem, p.59.157 Cf. idem, p.107.158 Cf. LAROCHE (D.), « Les apports des nouvelles techniques au relevé et à l’étude des monuments antiques »,Les Nouvelles de L’archéologie, n°76, 1999, p.10-13.
91
La suite des opérations de reconstitution a nécessité d’avoir recours à des processus
autres que l’analyse directe des vestiges : la porte, dont l’emplacement est connu par des
indices archéologiques, n’est pas conservée en hauteur. Celle-ci a été déterminée en fonction
du « découpage et de l’agencement des pierres » de construction et des « proportions
habituelles des portes de temple »159. Le parti fourni par cette hypothèse a ensuite été comparé
à la restitution initiale basée sur l’étude de 1925. Cette confrontation a permis de formuler une
nouvelle hypothèse de restitution de la colonnade intérieure, celle-ci ne pouvant pas
correspondre à la hauteur présumée de la porte. Aussi, en réduisant d’un tambour la hauteur
de cette colonnade, il est apparu que la partie supérieure des chapiteaux coïncidait avec la
surface inférieure du linteau de la porte. Cette avancée dans les travaux de restitution a
débouché sur la spéculation de l’existence d’un ordre supérieur dans la partie laissée vide par
la réduction de la colonnade intérieure, cette hypothèse étant corroborée par l’existence d’une
colonnade supérieure dans certains temples contemporains de la tholos160. Par la suite, la
présence dans les réserves du musée de Delphes de chapiteaux ioniques, dont les proportions
semblaient laisser croire qu’ils pouvaient appartenir à un ordre supérieur, a été à l’origine
d’une tentative de modélisation qui a permis de rendre plausible l’existence d’une colonnade
supérieure.
Ces postulats, établis de proche en proche, ont donc contribué à la création d’un
modèle cohérent de l’édifice, basé sur le croisement et sur la critique d’un certain nombre de
données. Cependant, comme le rappellent les responsables scientifiques de cette opération, la
modélisation numérique a permis de faire évoluer la restitution de la tholos vers une
conception probable mais non définitive de l’édifice tel qu’il fut construit à l’origine :
l’enchaînement logique des choix de restitution repose sur des hypothèses plus ou moins
plausibles, ce qui a pour effet de définir la modélisation numérique comme un outil de test et
de formulation d’hypothèses. Ces choix de restitutions, vérifiés visuellement, offrent un
exemple intéressant de l’utilisation de l’infographie à des fins scientifiques : le modèle
numérique a fourni de multiples représentations tridimensionnelles permettant aux architectes
et aux archéologues d’appréhender les volumes des éléments d’architecture et les espaces dans
lesquels ils s’organisent, sans pour autant avoir recours à des images photoréalistes. C’est
dans la représentation des volumes et dans la possibilité d’agir directement sur eux que se
159 Cf. BOMMELAER (J.-F.) (DIR.), Marmaria, le sanctuaire d’Athéna à Delphes, Paris, de Boccard, 1997,p.108. Les auteurs ne mentionnent pas les exemples précis desquels ils ont tirés les proportions « canoniques »des portes de temple.
92
trouve véritablement l’apport de l’infographie au monde de la recherche archéologique. Dans
cette même perspective, nous allons voir que l’association des logiciels de représentation
tridimensionnelle interactive avec d’autres programmes offre de nouveaux outils à
l’archéologue.
4.1.1.2.3. L’hybridation des logiciels : simulation despropriétés physiques et visualisation de l’invisible
Jusqu’ici, les principales applications de l’infographie à l’archéologie avaient un rôle
de retranscription virtuelle des informations déjà visibles dans la réalité, ou tout du moins
potentiellement (en rendant visible ce qui n’existe plus). L’exemple de la modification de
certaines données, comme le facteur d’altitude en topographie161, nous avait fait pressentir de
l’intérêt que pouvait présenter la représentation infographique de données cachées ou bien non
visuelles.
A ce titre, la modélisation permet d’intégrer les propriétés physiques des objets dans
des simulations de manière à mettre en évidence les contraintes de poussée supportées par
certains vestiges archéologiques. Par exemple, des ingénieurs de l’Ecole des Mines d’Alès162
ont procédé à une simulation qui visait à étudier les conditions de l’effondrement de l’aqueduc
romain de Barbegal163.
Dans cette perspective, les ingénieurs ont modélisé deux arches du pont-canal en
prenant compte des propriétés spécifiques à chacun des matériaux entrant dans la composition
de l’ouvrage. Les propriétés de ces matériaux ont d’abord été étudiées par l’analyse
d’échantillons comparables à ceux présents dans la construction : les géologues ont retrouvé
des pierres aux propriétés mécaniques similaires, les ingénieurs des matériaux ont reconstitué
les mortiers utilisés par les Romains et les physiciens ont étudié l’interface mécanique entre
ces deux matériaux. En plaçant l’échantillon dans une presse hydraulique et en le chargeant de
capteurs, il a été possible de mesurer les déformations subies par l’assemblage de pierre et de
mortier suivant différentes configurations. Ces mesures ont permis de déterminer le point de
rupture des assemblages composites en fonction de différents types de poussées, qu’elles
soient verticales, obliques ou horizontales. Ensuite, les résultats obtenus ont été intégrés dans
160 Cf. idem, p.109. Temple de Tégée et de Némée.161 cf. 4.1.1.1.4 la prospection virtuelle, p.76162 Marc Vinches, Patrick Lenny, Didier Nectoux (ingénieurs), Delphine Raffard (étudiante), Pierre Gaudon(géologue), Christian Buisson (technicien).163 cf. Retranscription du reportage « Modèle d’aqueduc » diffusé sur Arte, lors de l’émission Archimède du 9mars 1999, présent sur le site web de la chaîne à l’URL=http://www.arte.fr
93
le modèle de l’aqueduc et différents calculs ont été lancés en fonction de la nature du sol
présent sous les piles de l’ouvrage. Ces premiers essais ont permis de tester le modèle en
diminuant la dureté du sol présent sous la pile centrale : il en résulte un déplacement plus
important au niveau de la base de la pile qu’en haut, tandis que certains blocs de pierre se
désolidarisent de l’ouvrage pour venir tomber sur le sol. Par la suite, les poussées et les
contraintes jouant à l’intérieur de la construction ont été rendues visibles par des échelles de
couleur, montrant ainsi les zones davantage exposées à un risque de ruine en fonction de la
nature du sol sur lequel repose l’ouvrage.
En entrant dans le modèle numérique les données géologiques réelles, les ingénieurs
pourront dès lors présenter aux archéologues une vision plus précise de ce qui a causé la ruine
de l’édifice et l’ordre dans lequel l’effondrement s’est déroulé164. L’analyse des poussées et
des caractéristiques techniques des matériaux permet donc non seulement d’expliquer la ruine
d’un édifice, mais également d’en prédire la venue, offrant ainsi des observations utiles dans
le cadre de campagnes de restauration. En outre, nous allons voir que ce type de procédé à des
applications directes dans la présentation de vestiges monumentaux.
L’opération très médiatisée des anastyloses virtuelle puis réelle du colosse
d’Alexandrie illustre sans conteste l’efficacité des modèles numériques pour la reconstruction
de certains vestiges165. Nous ne reviendrons pas sur l’intérêt que présente la possibilité de
manipuler sans risque de nombreux blocs de pierre pesant chacun plusieurs tonnes dans la
réalité. En fait, outre lors de la campagne de remontage virtuel166, les données
tridimensionnelles du modèle numérique ont été exploitées dans le but de déterminer la
meilleure stratégie de remontage réel du monument, qui nécessitait alors la construction d’une
structure complétant les vides laissés par les pièces manquantes et suffisamment bien conçue
pour les réintégrer une fois retrouvées. Ces données, acquises directement sur les pièces
archéologiques167, ont fourni des estimations très précises sur les propriétés physiques des
différentes parties de la statue168. Ainsi, les volumes exacts ont été obtenus, et leur croisement
164 Cette phase du travail était encore en cours lors de la diffusion du reportage.165 A ce sujet, cf. COIGNARD (O.), (R.) & (B.), « La restauration du colosse d’Alexandrie », Archéologia, n°349,Octobre 1998, p.34-41 et le droit de réponse accordé à M. Albouy dans le même numéro, p.42-43. Rappelonsque ce projet est le fruit d’une collaboration entre l’atelier de restauration Coignard, le Centre Technique duBâtiment et des Travaux Publics et les laboratoires d’EDF (Direction des études et recherches – Société Mensi).166 qui avait servi, dans un premier temps, à vérifier que tous les blocs appartenaient bien à la même statue, puis,dans un second temps, à en préciser les modalités d’assemblage167 par capture des coordonnées tridimensionnelles par triangulation laser, cf. 4.2.2.1.2 Par balayage laser, p.112168 cf. PARAMYTHIOTI (M.), « Le colosse d’Alexandrie, remontage de la statue de Ptolémée », Revue XYZ, n°76,1998, pp.59-64.
94
avec la densité du granit a fourni à la fois leur masse précise ainsi que la position de leur
centre de gravité respectif. La connaissance de ces éléments a simplifié grandement le travail
d’assemblage réel mené par l’atelier de restauration : la simulation virtuelle des poussées et de
la résistance du matériau169 a permis de déterminer avec précision les meilleurs emplacements
pour réaliser les percements destinés à recevoir les broches d’assemblage. L’ensemble de la
structure consolidant et maintenant les différentes pièces entre elles a ensuite été contrôlé
avant de passer à la phase d’assemblage réel : ce dernier modèle a permis de tester les efforts
transitant dans le colosse, dans les prothèses qui remplacent les pièces faisant défaut et dans
l’ossature métallique complétant le tout (voir la fig. 1, planche XVII). Au total, la simulation
informatique a permis de préciser la stratégie à adopter pour le remontage effectif du colosse
en prenant en compte de nombreux paramètres : masse, centre de gravité, pression, résistance
des matériaux à la gravité, résistance de la structure au vent, aux vibrations, au défaut de
verticalité.
Dans une autre perspective, la visualisation d’éléments non visibles offre de nouvelles
applications en archéologie, notamment lorsqu’il est nécessaire de vérifier la structure interne
d’un vestige dont on désirerait, par ailleurs, préserver l’intégrité. Les technologies permettant
de voir à l’intérieur d’un objet sans avoir à l’altérer proviennent essentiellement du secteur
médical. En effet, c’est dans ce domaine que la majorité des efforts de « recherche et
développement » en imagerie ont été consentis, justifiés par les gains d’efficacité dus à la
possibilité de voir l’intérieur du corps humain sans avoir à intervenir physiquement dessus170.
L’appareillage nécessaire à la production de ce genre de documents, déjà très coûteux
dans le cadre médical, n’autorise pas, dans l’immédiat, des utilisations généralisées de cette
technologie dans un contexte de recherche archéologique. C’est pourquoi les applications
archéologiques sont actuellement très marginales et font essentiellement l’objet de recherches
expérimentales soutenues par des opérations de mécénat scientifique et technique171. Il est
néanmoins utile d’en exposer les mécanismes.
169 Cette phase a été rendue possible par la compression du modèle original, composé de plus d’un million defacettes en éléments finis tétraédriques totalisant 21000 triangles. Cette compression a été nécessaire pourréaliser les calculs de résistances des matériaux avec le logiciel Code-Aster (laboratoire d’EDF), cfPARAMYTHIOTI (M.), idem, p. 63170 cf. HURIET (CL.), « Rapport sur les Images de synthèse et monde virtuel : techniques et enjeux de société » inOffice parlementaire d’évaluation des choix scientifiques et technologiques, n°526, Paris, éd. Société Nouvellesdes Librairies, p.69-72.171 cf. KOUWENHOVEN (A.), « Projet Sensaos: comment reconstituer le visage d’une momie », Archéologia,n°349, Octobre 1998, pp.28-32. L’exemple qui suit a bénéficié de la collaboration de Philips Medical Center
95
Les techniques d’imagerie médicale sont nombreuses et relativement complémentaires,
ce n’est pas le propos de les exposer ici172. L’une d’entre elles, banalisée dans le langage
quotidien par l’appareil qu’elle requiert, le « scanner », fait appel aux technologies mettant en
œuvre la Résonance Magnétique Nucléaire (RMN), également connue sous l’appellation
d’Image par Résonance Magnétique (IRM). Dans les grandes lignes, cette technologie,
couplée à la tomographie173, permet de recomposer un modèle numérique de tout le corps
humain en différenciant chaque type de tissus, d’organe ou d’os connus par la quantité relative
d’atomes d’hydrogènes qu’ils contiennent174. L’application de cette technologie à
l’archéologie nécessite que le vestige à étudier soit composé d’éléments organiques, ce qui la
réserve pour l’heure à l’étude de cas particuliers tels que les momies175.
A ce titre, un projet initié par le musée national des antiquités de Leyde, aux Pays-Bas,
avait pour objet la reconstitution du visage d’une défunte momifiée au début du IIème s. ap. J.-
C., sans recourir à des interventions physiques qui auraient mutilé le vestige. Outre la création
d’un double réel du visage par la stéréolithographie176 du crâne et la restitution des chairs par
un spécialiste du modelage, le modèle numérique, recomposé à partir de plus de 700 coupes, a
fourni des indications sur la santé de la jeune fille à partir de l’observation des os et des dents
calculés en images tridimensionnelles (voir fig. 42 à 46, planche XVI). L’observation du
modèle a également permis d’étudier le mode de momification de la défunte, trahit par des
dommages causés sur le crâne, indiquant que le cerveau avait été extrait par le nez ; des yeux
factices en verre avaient été déposés sur les paupières et un paquet de lin était disposé à la
place du cœur. Par la suite, en jouant sur les facteurs de transparence permis par les matériaux
virtuels, il est possible de voir la position du squelette de la jeune fille par rapport à
172 Pour une synthèse rapide de ces différentes techniques, cf. SCHRYVER (J. DE), « Principes d’imageriemédicale », Pixel, n°22, p.49-52.173 Technique qui consiste à prendre une succession de clichés radiographiques ou magnétiques en coupe parrapport à un corps. L’assemblage informatique de ces « tranches » permet de restituer un modèle numérique ducorps, plus ou moins précis en fonction de la fréquence et de la finesse de ces clichés.174 La résonance magnétique fait vibrer les atomes d’hydrogène présents dans tout le corps humain. Le scannercouplé à l’ordinateur permet de mesurer l’intensité du signal renvoyés par les atomes. Connaissant leur quantitédans les différents constituants du corps humain, il est possible de déterminer, pour chaque point de l’espacetridimensionnel, à quel type d’organe, de tissus ou d’os il appartient.175 La radiographie associée à la tomographie devrait permettre, dans une moindre mesure, d’étudier des vestigesne contenant pas d’hydrogène, ce qui pourrait étendre le champs de l’imagerie médicale à des vestiges nonorganiques.176 Technique qui permet de créer, à partir d’un modèle numérique, un objet réel par dépôts progressifs degouttelettes de cire ou de résine. C’est un procédé provenant du monde industriel, utilisé principalement lors dela phase de prototypage d’un produit conçu initialement sur ordinateur.
96
l’ensemble de la momie, ce qui peut encore fournir des éléments de compréhension des
méthodes de momification177.
Les principes d’imagerie médicale, réservés à quelques cas particuliers de vestiges,
laissent présager des applications futures à la visualisation des vestiges cachés ou enfouis
grâce à l’utilisation d’autres méthodes d’analyse et de détection, comme celles qui furent
utilisées lors des campagnes de prospection géophysique autour de la pyramide de Pépi Ier, à
partir de 1988178. Cependant, il est encore trop tôt pour en parler et pour espérer une
application directe des méthodes de représentation tridimensionnelle dans ce domaine179.
4.1.2. Une grande souplesse dans les traitements mais quelqueslimites dues à l’idéalisation de la représentation
Nous avons vu que l’utilisation de modèles numériques renouvèle considérablement la
connaissance que les archéologues ont de l’objet de leur recherche. Il leur est désormais
possible de rassembler, dans un même fichier, une grande quantité d’informations traduisant,
sous forme numérique, l’ensemble des connaissances qu’ils ont acquises en étudiant la réalité
archéologique. A ce titre, les modèles numériques peuvent contenir des représentations
tridimensionnelles aussi bien basées sur l’analyse de la réalité, quelle qu’en soit l’échelle ou le
degré de précision180, que sur la projection de ce que pouvait être cette réalité à un moment
révolu.
La pertinence et l’étendue de leur raisonnement scientifique ne sont plus limitées par
leur capacité d’abstraction et de synthèse de ces multiples données. L’ordinateur se charge
désormais de cette tâche, laissant le champ libre à des processus plus intuitifs dans les
démarches d’analyse et d’explication des phénomènes archéologiques. A cet égard, nous
avons bien vu le rôle déterminant joué par les multiples possibilités de visualisation des
données, qu’il s’agisse des différents modes de représentation (projection orthogonale,
177 cf. illustrations de l’article et site web du musée à l’URL=http://www.rmo.nl. Le site est daté de 1998.178 cf. BERTAUX (CH.), (J.-P.), DELETIE (P.) & LEMOINE (Y.), « Géophysique et archéologie de Saqqara àGrand », Les Dossier d’Archéologie, n°153, Octobre 1990, p.32-39. Les méthodes de prospections géophysiques,basées sur des capteurs électrique, électromagnétique et magnétique ont permis de détecter, à huit mètres audessous du sol actuel, trois zones réduites contenant des vestiges, ce qui a épargné l’engagement de travaux defouille sur plusieurs années pour arriver au même résultat.179 Hormis dans de rares cas particuliers, où la visualisation tridimensionnelle des résultats est obtenue parl’exagération de certains signaux, à l’instar de notre exemple sur la modification de l’altitude dans les MNT. Pourplus de précisions sur les méthodes de prospection géophysique, cf. DABAS (M.), DELETANG (H.), FERDIERE
(A.), JUNG (C.) ET HAIO ZIMMERMANN (W.), La Prospection, Paris, éd. Errance, 1998, coll.« Archéologiques », p.161-206.180 Cette approche privilégie une connaissance globale de la problématique archéologique, où le mobilier, le sitearchéologique même et son environnement sont pris en compte dans le même fichier numérique.
97
perspective centrale) ou de la modification instantanée des points de vue. En outre, la nature
numérique des objets contenus dans le modèle permet aux archéologues d’intervenir sur les
paramètres qui les caractérisent, rendant de ce fait possible l’édition interactive du modèle par
la modification des attributs de forme (exagération de l’altitude dans les MNT), de position
(déplacement des éléments d’architecture) et d’apparence des objets (jeu sur la transparence
des bandelettes de la momie de Leyde). Au total, les modèles numériques présentent une
alternative à la réalité, sans en connaître les contraintes : fondamentalement immatériels, ils
n’ont pas de masse, ne sont pas composés de matières réelles et peuvent être dupliqués à
l’infini sans risque d’altération. Ces qualités font d’eux les supports idéaux des informations
archéologiques.
En contrepartie, la représentation tridimensionnelle des informations prélevées par les
archéologues pose de nouveaux problèmes dans la démarche d’acquisition de ces données. En
effet, nous avons vu que les méthodes de modélisation ex nihilo ne répondaient pas de
manière satisfaisante aux nouvelles exigences des archéologues en terme de précision et de
significativité. Les logiciels de modélisation conduisent invariablement à créer des formes
trop régulières qui contribuent à l’élaboration de modèles théoriques ne rendant absolument
pas compte des imperfections de la réalité. Par conséquent, ces modèles ne permettent pas
d’exprimer ce qui fait tout l’intérêt de l’enregistrement des vestiges sur le terrain : pour s’en
convaincre, il suffit d’imaginer le travail d’un dessinateur, qui, au lieu de relever
soigneusement les formes et la disposition des vestiges en prenant un certain nombre de
mesure, se contenterait d’en reproduire l’aspect général à l’aide de figures géométriques
régulières.
Pour remédier à cette faiblesse, la pratique de l’archéologie virtuelle impose le recours
à des méthodes d’enregistrement davantage en accord avec les données réelles. Cette nécessité
est d’autant plus importante que, jusqu’à présent, les méthodes d’acquisition des données
étaient essentiellement conçues dans une approche bidimensionnelle, déterminées par le
support de destination de l’information. Par conséquent, l’utilisation de l’infographie et des
modèles numériques comme outil de la recherche archéologique implique une véritable
réflexion sur l’acquisition tridimensionnelle des données observées par les archéologues.
4.2. Les modalités d’acquisition des donnéesL’utilisation des modèles numériques à des fins scientifiques impose aux archéologues
de nouveaux besoins et de nouvelles méthodes de travail. En effet, jusqu’à présent, les
98
vestiges découverts en fouille étaient conservés sous la forme de documents graphiques
comportant plus ou moins d’informations181, suivant qu’il s’agissait de photographie, de
dessins côtés etc.… Ces documents, destinés à être publiés sur des supports plans, ont été
essentiellement conçus dans une logique bidimensionnelle. Or, il s’avère que les données
archéologiques, comme nous l’avons montré, gagnent à être véritablement gérées dans une
logique tridimensionnelle. Cependant, les instruments de mesure dont disposent jusqu’à
présent les archéologues ne permettent pas de procéder à de vastes campagnes de mesures
tridimensionnelles, ou tout du moins, n’autorisent pas la précision des enregistrements
nécessaire à la production de modèles numériques scientifiques.
Par exemple, sur la plupart des chantiers de fouille, la saisie des coordonnées
tridimensionnelles ne concerne que certains vestiges caractéristiques et n’est réalisée que de
manière approximative : l’objet est d’abord replacé dans le plan du site, ses coordonnées (x, y)
étant obtenues par triangulation à partir de points connus, puis se voit attribuer une
coordonnée (z) grâce un instrument de nivellement qui permet d’en déterminer l’altitude par
rapport à un plan horizontal de référence182. Cette méthode, si elle permet de situer
approximativement un objet de faible volume, ne permet pas, en revanche, d’exprimer avec
beaucoup de pertinence d’autres vestiges plus importants : il en est ainsi des couches
stratigraphiques, qui ne sont connues dans l’espace que par leurs niveaux maximal et minimal,
ce qui présente l’inconvénient, par exemple, de favoriser l’idée d’une disposition horizontale
de la sédimentation archéologique. Le manque de précision de cette méthode combinant deux
types de mesure ne permet pas, en outre, de procéder à la saisie des formes des vestiges, alors
qu’il pourrait être utile, par ce moyen, d’en connaître l’orientation et la disposition. En fait, la
saisie des coordonnées tridimensionnelles en archéologie ne s’applique, pour l’instant, qu’à la
localisation de certains vestiges et au positionnement des relevés effectués au fur et à mesure
de la fouille.
Cet exemple souligne le décalage existant entre l’archéologie telle que pratiquée
aujourd’hui et les conditions à remplir pour que l’efficacité des modèles numériques soit
assurée. Il reste ainsi à étudier les différentes méthodes d’acquisition tridimensionnelle
palliant les limites de l’archéologie actuelle.
181 Cf. 1.2.2.2 Le dessin technique en deux dimensions, p.16182 Cette mesure, après calcul, est exprimée en mètre par rapport au niveau de la mer, et a été déterminée en1897. Cf. VINCENT (R.), « En 1897, le Zéro du Nivellement Général de la France était adopté grâce auMarégraphe totalisateur fondamental de Marseille », Revue XYZ, n°73, 1997, p.85-89.
99
4.2.1. Le transfert des méthodes traditionnelles de relevétridimensionnel des spécialistes vers les archéologues
4.2.1.1. Des instruments de métrologietridimensionnelle réservés aux spécialistes
Depuis de nombreuses années, les géomètres topographes et les cartographes disposent
de méthodes et d’instruments leur permettant de mesurer les coordonnées tridimensionnelles.
Cependant, leur coût ainsi que les compétences qu’ils requièrent constituaient des obstacles à
leur utilisation courante en archéologie, les réservant de ce fait à quelques circonstances
précises, comme par exemple l’implantation du quadrillage d’un chantier de fouille ou bien
encore le relevé d’une façade architecturale.
4.2.1.1.1. Le relevé au théodolite
Le théodolite est un instrument portable permettant de mesurer les angles verticaux et
horizontaux. Les calculs trigonométriques réalisés à partir de ces mesures permettent aux
géomètres de relever des objets à partir de leurs points significatifs. Par exemple, pour
attribuer des coordonnées tridimensionnelles aux différents points d’un objet, il suffit, pour
chaque point, de réaliser des mesures d’angles à partir d’au moins deux positions de visée
différentes (stations), celles-ci étant connues dans l’espace (en calculant leur position, par
exemple, à partir d’une borne géodésique exprimée en coordonnées x, y, z). Connaissant la
position respective des deux stations et, par conséquent, leur distance, ainsi que les angles
horizontaux et verticaux de chaque point en chaque station, il est possible, par un calcul
d’intersection, de déterminer la distance des points par rapport aux points de station. Il reste
ensuite aux géomètres, par des calculs dont ils ont le secret, de transformer les coordonnées
polaires obtenues par les mesures d’angles et de distances en coordonnées rectangulaires
exprimées par le triplet x, y, z.
L’inconvénient majeur de cette technique réside dans sa relative complexité due à la
quantité de calculs à réaliser pour obtenir les coordonnées d’un seul point. Seuls des
professionnels rompus à ces calculs sont en mesure de produire rapidement de bons résultats,
ce qui réduit d’autant plus leur portée en archéologie, les archéologues préférant remplacer les
mesures au théodolite par celles réalisées avec un niveau183 lorsqu’il s’agit de déterminer les
coordonnées d’un vestige mis au jour. Dans le cas de relevés plus précis, nécessitant la mesure
de nombreux points, l’application de cette technique n’est pas réellement effective, car la
183 cf. plus haut
100
quantité de mesures d’angles et de distance à consigner par écrit est une source d’erreurs non
négligeable. Par conséquent, le manque de rapidité de cette technique lié aux temps de mesure
et de calcul et le risque d’erreurs qu’elle génère sont des facteurs expliquant le peu d’intérêt
manifesté par les archéologues qui désirent disposer d’instruments leur permettant de relever
les vestiges rapidement. En effet, le caractère éphémère des dispositions in situ lors des
fouilles archéologiques rend nécessaire la mise en œuvre de méthodes permettant de
documenter la fouille sans pour autant la retarder. Les mesures au théodolite, par leur relative
lenteur, ne remplissent pas cette obligation ; d’autres méthodes permettent d’y remédier
4.2.1.1.2. Les relevés photogrammétriques
La photogrammétrie est une application dérivée de la photographie et bénéficie, de ce
fait, de sa capacité à enregistrer globalement et instantanément les informations situées dans le
champ de vision de l’appareil photographique. Le principe de la photogrammétrie repose sur
l’intersection des visées enregistrées par deux photographies du même objet prises sous deux
angles différents184. Les deux vues différentes permettent de restituer le relief de l’objet, et la
prise en compte des caractéristiques de l’appareil photographique, telles que la focale, donne
la possibilité de mesurer la position tridimensionnelle des points significatifs présent sur les
deux photographies.
Cette opération de mesure, réalisée dans un premier temps mécaniquement au début du
XXème siècle sur des « restituteurs » analogiques, était d’abord utilisée pour des opérations de
cartographie à partir des couples de photographies pris d’avion, le grand avantage des clichés
tenant au fait qu’ils peuvent couvrir de vastes portions de territoire. Le principe de
fonctionnement du restituteur, simple a priori, fait appel à des mécanismes et à une optique de
haute technicité qui explique son coût prohibitif, d’autant plus qu’il était produit en petite
série, et les seuls organismes qui pouvaient s’en porter acquéreurs devaient rentabiliser leur
investissement en produisant en grandes quantités : la cartographie, de ce fait, était une des
rares activités à justifier l’achat d’un tel matériel185.
L’opérateur, le photogrammètre, couchait les deux photographies sur des plateaux
supportés par un système opto-mécanique qui produisait une intersection optique des deux
images. En regardant dans la lunette stéréoscopique, il voyait une scène en relief
184 cf. SAINT AUBIN (J.-P.), « Architecture et images virtuelles: vers une nouvelle pensée visuelle » inPatrimoine et multimédia, le rôle du conservateur, La Documentation française, Paris, 1997, p.58
101
correspondant à une portion du photogramme186. Grâce à des systèmes mécaniques, il peut
jouer sur le défilement tridimensionnel de la scène, en réglant la position (x, y) et l’altitude
des points visés. Un curseur, le ballonnet, est placé au centre du champ de vision du
photogrammètre, immobile, et permet de détourer et de dessiner les formes caractéristiques en
faisant défiler la scène. La mise au point du ballonnet permet de déterminer l’altitude du
terrain en ce point précis du photogramme ; par ce moyen, le photogrammètre peut dessiner
les courbes de niveaux du terrain en recherchant tous les points d’altitude constante.
Les cartographes avaient ainsi à leur disposition des documents qui leur permettaient
de produire des cartes précises sur lesquelles étaient portées les courbes de niveau déterminées
par les mesures données par le restituteur. Ce n’est qu’à partir des années 1960 que les relevés
photogrammétriques furent appliqués au patrimoine archéologique et architectural : les
premières expériences furent réalisées par l’Institut Géographique National187 qui était l’un
des seuls, tout du moins en France, à disposer des moyens nécessaires et du savoir-faire acquis
depuis qu’il a pour mission de cartographier le territoire français. La photogrammétrie a été
détournée de son application première pour ensuite être appliquée au relevé architectural. Par
les mêmes principes, elle permet de créer des documents précis, qu’il s’agisse de plans, de
coupes ou de relevés d’élévation. Le photogrammètre, par l’observation stéréoscopique du
couple de photographie, procède en dessinant les formes caractéristiques de ce qu’il veut faire
figurer. La gestion de la profondeur lui permet de suivre, dans un espace en trois dimensions,
une forme architecturale qui ne serait pas parallèle au plan du dessin. Par cette possibilité, il
peut dessiner en profondeur, ce qui équivaut en quelque sorte à réaliser un plan en vue de
dessus de ce qu’il voit de face. Il peut donc, à partir du même couple de photographie, créer
différents documents graphiques.
Cependant, avant que l’informatique ne permette d’en élargir le champ de possibilité,
la restitution photogrammétrique ne pouvait produire que des dessins définitifs. La création de
nouveaux restituteurs (les restituteurs analytiques) combinant la vision analogique avec un
traitement informatique des données a permis de conserver les coordonnées
tridimensionnelles pour les exporter vers des logiciels gérant les informations
tridimensionnelles. Dès lors, les photogrammètres ont pu créer, à partir d’un photogramme, le
185 cf. EGELS (Y.), « La photogrammétrie numérique: vers une banalisation du métier de photogrammètre? » inBulletin de la Société Française de Photogrammétrie et de Topographie, N°149 (1998-1), p.8186 couple de photographies
102
modèle numérique de l’objet voulu, quelle que soit sa taille puisque la photographie permet de
saisir n’importe quel objet, qu’il s’agisse d’une portion de territoire, de la façade d’un édifice
ou d’une lampe à huile.
Le problème inhérent à cette technique de numérisation 3D tient au fait qu’elle met en
œuvre des moyens disproportionnés188 avec le financement de la plupart des fouilles
archéologiques. Seuls quelques organismes sont en mesure de proposer ces services, et les
principaux exemples de l’application de la photogrammétrie à l’archéologie ont été justement
réalisés avec leur collaboration. L’IGN a participé à de nombreuses campagnes d’étude
photogrammétrique de sites et de monuments archéologiques, qu’il s’agisse des plus
prestigieux du monde (cf. Abou Simbel, Angkor189) ou de France (Glanum). Pour ce qui est
du relevé architectural, l’atelier de photogrammétrie de l’Inventaire Général a réalisé les
principaux travaux sur les façades des édifices inventoriés, les sociétés privées de
photogrammétrie se chargeant des autres levées architecturales. Pour la photogrammétrie
proprement archéologique, le Centre de Recherches Archéologiques de Sophia Antipolis
(CNRS) est le principal producteur d’études photogrammétriques en France (ou, tout du
moins, dans le sud de la France), suivi par d’autres unités du CNRS comme le Laboratoire
d’Archéologie Médiévale d’Aix-en-Provence190.
Par conséquent, l’utilisation de la photogrammétrie comme outil de numérisation
tridimensionnelle semble réservée à quelques sites relativement importants ou bénéficiant
d’un programme de recherche suffisamment étoffé pour justifier le recours à de tels moyens.
Dans ce cas, les archéologues doivent céder leurs prérogatives de sélection des informations
aux photogrammètres sur lesquels repose le choix des éléments significatifs à numériser. Le
fait que les archéologues n’aient pas une maîtrise directe des instruments de sélection et
d’enregistrement des informations constitue un réel obstacle à la valeur de la documentation
élaborée : qui, mieux qu’un archéologue, peut savoir quelles sont les informations à conserver
et celles qui ne sont pas importantes ?
187 Lors de la grande campagne de sauvetage des monuments de Nubie, cf. ADAM (J-P.), « Les nouveaux regardsde l’archéologie monumentale », in Les Nouvelles de l’Archéologie, N°76 – 1er trimestre 1999, p.6.188 Les appareils photographiques utilisés sont spécialement conçus pour cet usage et sont onéreux, mais plusencore, le restituteur et son utilisation requièrent un investissement relativement élevé, puisqu’ils mobilisent unepersonne spécialisée pour cette activité.189 Entretien avec Y. Egels, Ingénieur en Chef, Atelier de Photogrammétrie de l’Ecole Nationale des SciencesGéographiques, IGN.190 cf. CARBONNELL (M.), Apports des méthodes photogrammétriques à la connaissance et à la conservationdes sites méditerranéens français, 1ère Rencontre internationale des responsables des sites historiques d’intérêtcommun méditerranéen, Marseille, 1989, p.12-16.
103
4.2.1.2. Des instruments désormais accessibles auxarchéologues
Qu’il s’agisse de la photogrammétrie ou du relevé au théodolite, les progrès liés à
l’informatique apportent de nouvelles possibilités aux archéologues.
L’intégration de circuits électroniques dans les théodolites permet de minimiser le
risque d’erreur lié à la lecture des mesures et à leur conservation : les angles, directement lus
par l’électronique embarquée, sont stockés sous forme numérique et peuvent être exportés
vers des logiciels de calcul tridimensionnel. « Le stockage sans faute des données »191 permet
non seulement de conserver les lectures sans risque d’erreur, mais aussi de multiplier les
mesures de point, l’opérateur étant désormais affranchi de la tâche fastidieuse de consignation
des résultats. Ensuite, l’exportation des données vers des logiciels spécialisés dans les calculs
d’intersection et dans la conversion des coordonnées polaires en coordonnées rectangulaires
débarrasse l’archéologue des calculs complexes, souvent sources d’erreur et consommateurs
en temps. Dans certains cas, l’adjonction d’un distancemètre192 transforme le théodolite en
station totale : l’archéologue connaît désormais les angles verticaux, horizontaux et la distance
entre l’appareil de mesure et l’objet visé, les mesures gagnent ainsi en précision. Ces
nouveautés se répercutent bien entendu dans le coût total du matériel, mais permettent, en
revanche, l’utilisation directe du matériel par les archéologues, qui peuvent désormais se
passer des spécialistes, tout du moins lorsqu’il s’agit d’obtenir, sur toute la durée des travaux
archéologiques, les nombreuses coordonnées tridimensionnelles nécessaires à l’établissement
d’une documentation précise.
Pour ce qui est de la photogrammétrie, de récentes recherches ont conduit à
l’élaboration de restituteurs intégralement numériques193. La principale limite des restituteurs
analogiques et analytiques tenait au fait qu’ils étaient composés de systèmes opto-mécaniques
pour les premiers et optoélectroniques pour les derniers très perfectionnés et par conséquent
relativement coûteux. Le développement et la démocratisation du matériel informatique
permettent aujourd’hui de reproduire intégralement le processus de restitution
photogrammétrique sur ordinateur.
191 cf. SAINT AUBIN, idem, p.57.192 Instrument de mesure électronique des distances. Le distancemètre se base sur la durée que met la lumièreémise par un laser pour aller de l’instrument jusqu’à l’objet visé (ou plus exactement jusqu’au réflecteur [prismepermettant de réfléchir le signal émis par le distancemètre] posé sur l’objet) et pour en revenir, afin d’en déduirela distance parcourue, à raison de 1 m en 1/299 792 458 de seconde (vitesse de la lumière dans le vide:299 792 458 m/s).
104
Les données de bases, à savoir le couple photographique, peuvent être obtenues par
deux moyens. Le premier repose sur l’amélioration à venir des appareils photographiques
numériques, qui devront prochainement atteindre des résolutions intéressantes pour ce genre
d’application194. Le second table sur la qualité actuelle des scanners à plat dont l’usage s’est
fortement répandu et dont les plus performants permettent d’obtenir, à partir des clichés
photographiques, des résolutions satisfaisantes (une information tous les 6 microns195).
Le système de restitution est ensuite intégralement numérique : l’utilisateur spécifie les
caractéristiques de l’appareil et fourni un certain nombre de points d’appui présents dans les
deux clichés pour caler les photographies ensembles. Pour reproduire l’effet de stéréoscopie
nécessaire à l’opération de restitution, les développeurs ont fait alterner l’affichage des deux
images à des fréquences imperceptibles par l’œil humain, couplé à des lunettes actives à
cristaux liquides : les verres s’obturent alternativement en synchronisation avec l’affichage
des deux images ; ainsi, chaque œil reçoit une image différente, et, la persistance rétinienne
faisant le reste, le cerveau recompose le relief à partir les signaux émis par l’écran.
L’affichage ne prend en compte qu’une partie des images, en raison de leur taille qui rend
particulièrement délicats les problèmes de gestion de mémoire de l’ordinateur. Aussi, le
système de défilement de l’image a été également reproduit pour permettre la consultation de
l’ensemble du photogramme. Les déplacements tridimensionnels des machines analogiques et
analytiques commandés par les manivelles (x, y) et la pédale (z) ont été simplement remplacés
par l’adjonction d’une seconde souris : la première s’occupe des déplacements en deux
dimensions tandis que la seconde est réservée au réglage de l’altitude. Ensuite, le pointage des
éléments caractéristiques du photogramme se réalise de la même manière qu’avec les
restituteurs traditionnels : le ballonnet, immobile, renseigne sur les coordonnées
tridimensionnelles, qui, d’un simple clic de souris, sont enregistrées dans une base de
données. Le fichier ainsi créé peut être directement employé par un logiciel de CAO, qui
pourra reconstituer, à partir des points numérisés, la surface de l’objet à modéliser.
193 cf. EGELS (Y.), « La photogrammétrie numérique: vers une banalisation du métier de photogrammètre? » inBulletin de la Société Française de Photogrammétrie et de Topographie, N°149 (1998-1), p.8-11.194 cf. EGELS, idem, p.9 et SAINT AUBIN, idem, p. 61. Des recherches actuellement en cours au laboratoired’optique, électronique et microinformatique de l’IGN portent sur le développement d’une caméra numériquepouvant atteindre une résolution de 4096x4096 pixels, soit plus de 16,7 millions d’informations, ce qui est encoreen dessous de ce que permet la photographie argentique, qui, à raison d’une information tous les 5 microns,propose des résolutions allant de 32 à 234 millions d’information par clichés. Néanmoins, il est à noter quel’ensemble de l’offre (numérique ou argentique) peut fournir des appareils convenant parfaitement à laphotogrammétrie numérique: il n’est pas nécessaire d’avoir recours à une caméra métrique, des logicielspermettent désormais de corriger les problèmes de distorsion par le calcul.
105
La restitution numérique, bien qu’existant depuis quelques années sur des stations
graphiques relativement coûteuses (Intergraph), est désormais possible sur du matériel
informatique standard. En effet, c’est dans le cadre de la formation en photogrammétrie de
l’Ecole Nationale des Sciences Géographiques qu’Yves Egels, ingénieur à l’IGN, a développé
le restituteur numérique Poivilliers E196. Ce logiciel, conçu pour fonctionner sur
environnement PC, ne requiert qu’un processeur Pentium réglé à 150 Mhz et disposant de 16
Mo de mémoire vive, ce qui, de toute évidence, met la restitution numérique à la portée de
tous, car la plupart des ordinateurs du marché dépasse aujourd’hui les performances
demandées par ce logiciel. L’investissement supplémentaire à concéder pour obtenir une
station de restitution est relativement modéré, étant donné que d’une part, les lunettes actives
à cristaux liquides sont aujourd’hui disponibles pour le grand public en raison de leur
utilisation dans les jeux vidéos, et que d’autre part, les périphériques de numérisation
(scanners à plat, photoscope197) tendent à être de plus en plus utilisés par le grand public et par
la communauté archéologique198.
Par conséquent, la faiblesse des moyens à engager pour obtenir un restituteur
numérique laisse présager des applications futures en archéologie : les archéologues disposent
désormais d’un outil de numérisation tridimensionnelle dont ils ont la totale maîtrise sans
recourir à des services spécialisés199.
Bien entendu, le transfert des méthodes de métrologie des spécialistes vers les
archéologues ne va pas sans poser de problème. Avant d’être de fournir des outils utiles aux
archéologues, ces méthodes nécessitaient de ceux qui les utilisaient un savoir-faire acquis par
l’apprentissage d’un métier : les géomètres topographes et les photogrammètres ont une pleine
195 cf. SAINT AUBIN, idem, p.62.196 cf. EGELS (Y.), « La photogrammétrie numérique: vers une banalisation du métier de photogrammètre? » inBulletin de la Société Française de Photogrammétrie et de Topographie, N°149 (1998-1), p.8-11. Le logicieln’est pas commercialisé par l’IGN: son développeur le distribue gratuitement (pour l’instant) aux universitairespar courrier électronique à l’adresse [email protected] Nouvelle dénomination en usage pour les appareils photographiques numériques198 L’investissement dans un scanner à plat est déjà souvent justifié par son utilisation comme outil denumérisation des documents réalisés directement sur le terrain, en vue de produire des plans, coupes, cartes dequalité professionnelle.199 A titre indicatif, il existe depuis peu quelques logiciels de modélisation s’inspirant de la photogrammétrienumérique et disponibles dans le commerce pour moins de 10 000 F. Pour l’heure, ils ne semblent pas offrir degrandes possibilités pour modéliser des objets complexes. Photo Modeler est développé par Eos System(http://www.photomodeler.com) et 3D Builder par 3D Construction. Cf. THORIN (H.) & TOMBEUR (J.), « Lessolutions de modélisation 3D », Pixel, n°41, Septembre – Octobre 1998, p.42.
106
connaissance des limites de leurs méthodes200 et ont conscience des incertitudes et des
nécessités liées à leur pratique. Par conséquent, l’utilisation de ces outils sans le contrôle des
professionnels sous-entend, de la part des archéologues, une certaine compétence que
l’informatique ne saurait remplacer, notamment sur la façon d’asseoir l’opération de saisie
tridimensionnelle dans un système de coordonnées plus général, ou bien encore sur le choix
de la méthodologie la plus efficace à adopter en fonction du matériel disponible. A ce titre, il
existe déjà une réflexion menée par certains archéologues sur l’efficience et la faisabilité de
ces méthodes dans le champ archéologique. Il est ressorti d’une de ces études que l’utilisation
du relevé topographique et du relevé photogrammétrique assistés par ordinateur apportait une
réelle plus value suivant les propriétés respectives de ces deux approches.
Les deux méthodes ont été utilisées successivement pour relever les mêmes points
connus dans l’espace201. Lors de ce test, différents paramètres ont été pris en compte pour
juger de l’efficacité des deux procédés : la précision des résultats, le temps de travail
nécessaire à leur production, la facilité de mise en place et de manipulation du matériel, le
coût global inhérent à chaque technique et le personnel requit pour mener à bien chaque
opération. Ces critères de jugements n’ont pas toujours été facilement comparables, étant
donné que certaines phases des opérations dépendaient de facteurs extérieurs non contrôlables
par les archéologues. Néanmoins, au terme de cette comparaison, il est apparu que les deux
techniques apportaient chacune leurs propres avantages.
Ainsi, en terme de précision, la station totale est apparue plus fiable que la restitution
photogrammétrique, toutes deux fournissant, cependant, des résultats plus que satisfaisants
pour une pratique archéologique, puisque la marge d’erreur ne dépasse pas les 5 mm202.
Pour ce qui est du temps de travail total, la saisie de 100 points prend trois heures de
plus avec une station totale qu’avec une solution photogrammétrique (7 heures contre 4, ce
qui revient, pour un seul point, à une moyenne de plus de 4 mn contre 2 mn 30 s).
200 Ne serait-ce qu’en formulant mathématiquement la marge d’erreur permise par les différentes méthodes demesure et en la répercutant sur les résultats obtenus (le calcul d’incertitude occupe une place non négligeabledans le travail des professionnels de la métrologie, à tel point qu’ils ont établi des normes pour l’exprimer, p. Ex.La norme XP X 07-020 Juin 1996: Guide pour l’expression de l’incertitude de mesure, cf. MARTIN-RABAUD
(A.), « Intercomparaison des méthodes de métrologie tridimensionnelle par procédés optique » in Bulletin de laSociété Française de Photogrammétrie et de Topographie, N°150 (1988-2), p.18-22).201 cf. EITELJORG (H.), « Surveying for Computer-Aided Drafting and Design – experiments in three-dimensionnal techniques », Center for the Study of Architecture, Bryn Mawr, 1996,
URL=http://csaws.brynmawr.edu/web1/srveybk.html
107
Au niveau de l’utilisation sur le terrain, la station totale est plus contraignante, car son
usage demande une certaine habitude et dépend du bon placement du réflecteur sur le point à
viser, ce qui, sur une longue durée, ne manque pas de générer des erreurs dues à la fatigue des
opérateurs. A l’inverse, la photogrammétrie permet d’enregistrer en une seule fois les points à
numériser, et ne requiert, du moins sur le terrain, que la compétence du photographe.
L’essentiel du travail est ensuite mené en laboratoire, ce qui implique qu’un soin particulier
soit apporté à la prise de vue sur le terrain. L’avantage de ce procédé tient au fait que le
photogramme constitue un enregistrement sur lequel il est possible de revenir à tout moment,
après l’achèvement de la fouille, alors que les mesures faites avec une station totale doivent
être réalisées sur le champ, sans possibilité de repentir. En outre, la photogrammétrie présente
une alternative au relevé topographique lorsqu’il s’agit de numériser des points difficilement
accessibles, tels que ceux présents en élévation, le placement du réflecteur étant dans ce cas
très problématique. D’un autre côté, le relevé avec une station totale peut être réellement
intéressant lorsque les points à saisir, en faible quantité, sont disséminés autour du point de
station, ce qui évite de multiplier les photogrammes ne présentant pas grand intérêt en raison
du faible nombre de points à prélever sur chacun des documents.
En terme de coût, le relevé topographique requiert l’appareil et le logiciel de calcul
tridimensionnel, qui peuvent atteindre tous deux des sommes relativement importantes : le
coût d’une station totale s’élève au moins à 60 000 F203, tandis que celui des logiciels est
variable. Le coût du relevé photogrammétrique est fonction du matériel utilisé : à celui de
l’appareil photographique204 s’ajoute celui des films et de leur développement, auxquels se
rajoute celui du matériel de restitution, dont nous avons vu qu’il commençait à devenir
accessible.
4.2.2. Les nouvelles méthodes de numérisation tridimensionnelleLa saisie de coordonnées tridimensionnelles est une activité qui, nous l’avons vu, est
relativement fastidieuse et contraignante : elle requiert davantage de temps, d’attention et de
lecture de mesure que n’en nécessite le relevé à finalité bidimensionnelle. En fait, le caractère
manuel du relevé rend souvent l’établissement d’une documentation bidimensionnelle plus
202 Rappelons que cette comparaison a été réalisée vers 1988 à partir du matériel et des logiciels du moment, cequi, en toute logique, ne fournit que des résultats à prendre à titre indicatif, étant donné l’amélioration de laqualité de l’offre aujourd’hui.203 Ordre de grandeur donné par M. J.-P. Saint Aubin lors d’un entretien.204 cf. EITELJORG (H.), idem. Pour un appareil à chambre métrique Rolleiflex, H. Eiteljorg, en 1989, proposaitun prix atteignant plus de 35 000 F (à partir de 7 000 $).
108
intéressant que celui d’une documentation tridimensionnelle : il est parfois plus avantageux de
se contenter de documents en deux dimensions complémentaires et complets plutôt que de
s’engager dans l’élaboration d’un modèle numérique qu’il faudra nourrir d’une quantité
considérable de saisies sur le terrain et qui sera, en raison du temps de travail qu’il demande,
moins complet, voire moins homogène que ce qui aurait pu être obtenu si les objectifs avaient
été moins ambitieux.
Nous avons vu que l’utilisation d’une documentation tridimensionnelle ne peut être
effective sans le recours à l’informatique et à ses capacités de traitement sans égal
aujourd’hui. Cette simple constatation, désormais évidente, démontre le rôle incontestable que
joue l’informatique non seulement dans le traitement, la gestion et la représentation de ces
informations, mais également dans leur acquisition. En effet, la nécessité de saisir une
multitude de coordonnées tridimensionnelles ne peut être réellement satisfaite qu’en ayant
recours à l’ordinateur et aux traitements automatiques qu’il permet. Aujourd’hui, il existe un
réel enjeu autour des méthodes de capture tridimensionnelle pilotée ou assistée par ordinateur
(la saisie tridimensionnelle ne pouvant se passer de l’outil informatique qui, d’une manière
générale, intervient fatalement à un moment ou à un autre de sa chaîne opératoire). En fait, cet
intérêt pour la numérisation tridimensionnelle, puisque c’est de cela qu’il s’agit, est motivé
par les nombreuses applications qui en découlent. A ce titre, les techniques de numérisation
3D intéressent aux plus haut point de nombreux secteurs d’activité qui, contrairement aux
archéologues, ont les moyens de financer le recours à ces technologies : à titre d’exemple, les
bureaux d’études des entreprises industrielles en tirent un réel bénéfice en terme de temps et
de précision en effectuant des prototypages rapides des pièces destinées à être usinées par le
biais de machines-outils à commande numérique.
Ces techniques de numérisation 3D sont pour l’instant réservées, en raison de leur
coût, à des applications qui se justifient « économiquement ». Par conséquent, leur transfert
vers le domaine de l’archéologie est relativement inégal et découle généralement des accords
de mécénats technologiques établis entre les détenteurs de ces technologies et les acteurs de
l’archéologie, l’exemple du mécénat technologique d’EDF étant particulièrement probant dans
le cas de l’archéologie française205. Néanmoins, il n’est pas à exclure que l’offre en matériel /
logiciel de numérisation 3D ne tende à devenir, dans quelques années, davantage accessible au
205 Il est à noter qu’une collaboration similaire, du moins au niveau du matériel impliqué et du savoir-faire mis enœuvre, a été établie entre une société française (qui possède d’ailleurs le même appareil de numérisation 3Dqu’EDF) et la société de travaux archéologiques Archéotech S.A., installée en Suisse.
109
budget des archéologues : aujourd’hui, le scanner à plat s’impose de plus en plus comme un
périphérique de numérisation grand public, alors qu’il y a encore quelques années, son prix le
réservait exclusivement à un usage professionnel. Cependant, certains projets archéologiques
n’ont pas attendu la démocratisation probable de la numérisation 3D pour tenter d’adapter ou
d’élaborer des méthodes d’acquisition des coordonnées tridimensionnelles au domaine de
l’archéologie. Il convient donc de présenter ces différentes initiatives sans pour autant oublier
de mentionner les méthodes déjà éprouvées par les utilisations dans le milieu industriel.
4.2.2.1. La saisie distanteSous le terme de saisie distante, nous avons choisit de regrouper les méthodes de
capture tridimensionnelle n’entretenant pas de contact physique avec l’objet à numériser. Ce
type d’approche semble être particulièrement adapté aux vestiges archéologiques, qui peuvent
parfois être difficilement accessibles ou bien encore particulièrement fragiles, et par
conséquent sensibles à n’importe quel type de contact.
4.2.2.1.1. Par l’analyse d’images
Certaines méthodes, à l’instar de la photogrammétrie, résultent de l’analyse d’une ou
de plusieurs images de l’objet à numériser. L’avantage de ces méthodes par rapport à la
photogrammétrie traditionnelle tient au fait que les coordonnées ne proviennent pas d’un
pointage manuel fastidieux mais sont issues d’une analyse automatique pilotée par
l’ordinateur via un logiciel spécifique.
Une équipe de chercheurs autrichiens206 a évalué l’apport de deux de ces méthodes en
les appliquant à la numérisation d’un tesson de céramique, et ce en vue de les généraliser en
les appliquant à l’ensemble d’une collection de mobilier céramique.
4.2.2.1.1.1. Acquisition de la forme d’après un couplestéréographique (Shape from stereo)207
Cette première méthode s’inspire fortement de la photogrammétrie traditionnelle, dont
elle reprend les principes de fonctionnement pour déterminer les coordonnées d’un point à
partir de deux photographies prises sous des angles sensiblement différents. En fait, les
chambres métriques sont remplacées par des appareils photographiques numériques orientés
206 Robert Sablatnig et Christian Menard, du « Department for Pattern Recognition and Image Processing,Institute for Automation, Technical University of Vienna ». Cf. MENARD (CH.) & SABLATNIG (R.), « Computerbased acquisition of archaeological finds : the first step towards automatic classification » in Archeologia &Calcolatori, n°7, 1996, p.429-446.
110
parallèlement et distants l’un de l’autre de 6,5 cm. Tous deux visent le tesson placé à 52 cm :
de cette manière, les clichés sont très proches et présentent une grande ressemblance. Pour
déterminer la forme du tesson, le logiciel va rechercher automatiquement en chaque point
d’une photo son homologue sur l’autre, en fondant les critères de correspondance de chaque
point homologue sur sa position relative dans les deux images ainsi que sur sa luminosité.
Connaissant la position d’un point particulier sur les deux images ainsi que les paramètres de
réglages et d’orientation des appareils numériques, le logiciel est capable d’en déterminer la
profondeur. Ensuite, il généralise cette procédure à l’ensemble des points homologues des
deux images de manière à obtenir pour chacun d’entre eux un triplet de coordonnées : au total,
la surface visible du tesson est connue et inscrite dans un espace tridimensionnel. En traitant
les différentes faces de l’objet de cette manière, il est possible d’obtenir, de proche en proche,
le modèle numérique du tesson sous forme d’un nuage de points. En outre, la correspondance
de deux points similaires sur les deux photos permet de créer et de déterminer l’emplacement
d’une texture sur le modèle numérique, élaborée à partir des deux images sources. Au total, ce
système permet de reproduire la forme et les propriétés de surface de l’objet, mais son
principal inconvénient tient au fait qu’il lui est difficile d’opérer lorsque l’objet présente sur
les photographies des zones sombres desquelles il est difficile d’extraire avec précision des
points remarquables. Par conséquent, le modèle obtenu manque de précision en certains
endroits, ce qui est relativement préjudiciable au vu des objectifs qui avaient été fixés208.
Aussi, afin de compléter cette expérience, une autre méthode a été testée.
4.2.2.1.1.2. Acquisition de la forme par lumièrestructurée (shape from structured light)209
Cette méthode d’acquisition utilise un appareil numérique couplé à un projecteur
dirigé par un ordinateur. Le principe consiste à projeter sur l’objet un motif de formes et de
couleurs connues, de manière à ce que les déformations se produisant à la surface de l’objet en
trahissent la forme, qu’il est ensuite facile, en théorie, de restituer. Généralement, le motif
projeté est simple et se compose de bandes verticales d’épaisseurs variées, alternant le noir et
207 cf. idem p.433-434.208 A titre indicatif, cette variante de la photogrammétrie numérique est plus connue sous le terme devidéogrammétrie. De nombreuses solutions reprenant ce principe sont aujourd’hui commercialisées et permettentd’obtenir presque instantanément le modèle numérique de l’objet saisit avec une résolution très intéressante. Parexemple, le système Digital Surface Photogrammetry de la société Tricorder permet d’atteindre une précision del’ordre de moins de 0,5 mm sur un sujet placé à moins de 1 m de distance (cf. le site web de la société Tricorder àl’URL=http://www.tricorder.co.uk)209 cf. idem p.434-436.
111
le blanc. En fait, le système de projection est composé d’un filtre à cristaux liquides qui peut
reproduire n’importe quel motif en noir et blanc, de sorte qu’il est possible de projeter
successivement plusieurs motifs, par exemple des bandeaux verticaux de plus en plus fins.
Les paramètres du motif, contrôlés par l’ordinateur, sont conservés et corrélés avec la prise de
vue correspondante lors de l’analyse, ce qui, au total, permet d’affiner l’étude de la forme du
tesson en privilégiant l’étude de telle ou telle zone en raison de sa finesse ou de la difficulté de
saisie qu’elle présente. L’ensemble des données renseignant sur la forme de l’objet sont
obtenues automatiquement par le croisement des différentes analyses successives. A partir de
la connaissance de la luminance de chacun des points de l’image, il a ensuite été possible
d’attribuer à l’objet une texture reproduisant avec réalisme l’aspect du tesson original.
L’inconvénient de cette méthode réside dans la persistance, après traitement, des lignes
verticales témoignant de la démarcation entre les bandes blanches et les bandes noires, ce qui,
au total, réduit la précision du modèle numérique.
Par la suite, ces deux méthodes ont été combinées afin de réduire les imprécisions que
chacune d’entre elles introduisait : cette association semble, aux dires des auteurs, fournir un
modèle tout à fait correct du tesson et a permis de constituer un système d’enregistrement
pertinent des informations relatives aux tessons, puisque le but recherché était d’établir une
typologie couplée à une base de donnée, dont la réalisation s’affranchissait des temps
traditionnellement longs alloués au dessin de céramique.
4.2.2.1.1.3. Acquisition de la forme par le mouvement(shape from motion)
Une variante de la reconstruction de forme à partir d’analyse d’image a été testée par
une équipe de chercheurs italiens210. La méthode utilise toujours le même principe de
correspondance entre des points analogues d’une image à l’autre. Cette fois, l’analyse n’est
pas limitée aux deux clichés du couple photographique mais s’étend sur toute une séquence
filmée. Le principe est simple en théorie : le film, après numérisation, est analysé par un
logiciel qui, avec l’aide d’un algorithme spécifique, va pouvoir retrouver le mouvement de la
caméra et déterminer la géométrie de la scène filmée en s’appuyant sur des points significatifs
de la scène qu’il peut suivre tout le long de la séquence. Cette méthode est encore plus
210 Scientifiques du CINECA (L. Calori, M. Forte, A. Guidazzoli), des universités de Bologne (F. Fraticelli) et deFerrare (S. Simani); en outre, ce projet a été mené en collaboration avec le California Institute of Technology. CfFORTE (M.) & GUIDAZZOLI (A.), « Shape from motion : dalle sequenze filmate alla modellazionetridimensionale. Projetto per l’elaborazione 3D di immagini video archeologiche » in Archeologia & Calcolatori,n°7, 1996, p.223-232.
112
efficace lorsque le parcours et les caractéristiques de la caméra sont connus : le logiciel peut
alors être davantage précis dans la reconstruction des formes géométriques de la scène.
L’équipe de chercheurs a testé l’efficacité de cette méthode dans des conditions différentes. La
première expérience a eu lieu in situ, dans la grotte préhistorique d’Altamura (Puglia) et il
s’agissait de numériser la forme d’un crâne humain accompagné de quelques restes osseux, le
tout étant recouvert d’une couche de concrétions calcaires211. Ce premier essai fut peu
concluant en raison des mauvaises conditions : l’inconstance de l’éclairage et le revêtement
calcaire ont atténué les possibilités d’identification de points significatifs d’une image à
l’autre, ce qui a grandement perturbé l’analyse du logiciel, qui a fourni, au total, un modèle
incomplet du vestige, comportant notamment de nombreuses lacunes. La seconde expérience
s’est déroulée en plein air sur le site de l’acropole étrusque de Marzabotto, l’objet de la
numérisation étant les vestiges du temple D. Les chercheurs avaient au préalable pris le soin
de disposer des marques de couleurs à des emplacements stratégiques, de manière à améliorer
la reconnaissance des points caractéristiques par le logiciel. De plus, le paramétrage de la
caméra a permis d’en préciser le parcours, ce qui a rendu les opérations de suivi de points
davantage précises212. Au final, le modèle numérique du site a pu être obtenu
automatiquement puis être intégré dans un logiciel de CAO.
4.2.2.1.2. Par balayage laser
D’autres méthodes de capture tridimensionnelle ont recours à des procédés plus
sophistiqués permettant de relever des projets plus ambitieux. L’exemple incontournable de ce
type de procédé est la désormais célèbre association du capteur Soisic avec le logiciel
3Dipsos. L’utilisation qu’en a fait le mécénat technologique et scientifique d’EDF lors des
numérisations de la grotte Cosquer, du Colosse d’Alexandrie et de certains éléments
architecturaux du sanctuaire d’Athéna à Marmaria a permis de démontrer qu’il était possible,
du moins dans une certaine mesure, de réaliser des campagnes de numérisation relativement
ambitieuses, visant à reproduire les vestiges archéologiques « au plus près du réel »213. Le
principal avantage de ce type de capteur réside dans le fait qu’il peut créer un réseau régulier
de points connus dans l’espace, et ce grâce à un système de pointage dépendant directement
du capteur et non du document intermédiaire analysé par le capteur. En effet, le système est
211 Cf. idem, p.229.212 Cf. idem, p.230.
113
équipé d’un émetteur laser produisant un faisceau lumineux destiné à balayer horizontalement
la surface de l’objet, marquée ainsi d’un point lumineux dont les coordonnées sont relevées à
intervalle régulier par une caméra vidéo214. Ce système de pointage « actif » permet de rendre
visible la surface de l’objet même lorsque celle-ci est noyée dans une zone d’ombre, alors que
s’il s’était limité à un pointage « passif » comme c’est le cas pour les procédés que nous avons
vu plus haut, l’efficacité de la capture aurait été fonction de la visibilité ou non des éléments
remarquables suivant l’incidence de la lumière éclairant l’objet.
Le gain de temps apporté par l’automatisation des calculs de mesure et par la
fréquence à laquelle ils sont menés (environ 100 par seconde) permet de garantir un nombre
considérable de mesures : Marc Albouy, le directeur du Mécénat Technologique d’EDF,
rappelle ainsi que un peu moins de 5 millions de points ont été saisis sur une durée de sept
jours dans la grotte Cosquer215. L’intégralité de la surface de la grotte n’a pas pu être saisie, en
raison de l’inaccessibilité optique de certains de ces recoins : en effet, à l’instar de la
photogrammétrie, la saisie tridimensionnelle par laser ne dispose que d’une largeur de champ
limitée ( dans son cas à 46°) et il est par conséquent nécessaire de multiplier les stations (28
au total lors de cette opération216) afin de couvrir le maximum de surface. Cette nécessité pose
parfois problème : ainsi, la numérisation des pièces composant le Colosse d’Alexandrie n’a pu
être entièrement menée à son terme en raison de l’impossibilité de les déplacer pour en rendre
accessibles les faces cachées217. De plus, l’automatisation du processus de saisie ne doit pas
faire oublier les limites actuelles de cette technique : Jean Clottes rappelle à ce propos que le
niveau de précision, d’un millimètre à une distance de 5 m, produit une marge d’erreur
suffisamment élevée pour gommer le détail d’une incision dont la section est bien souvent
inférieure au millimètre218. Ainsi, la saisie laser ne doit pas dispenser l’archéologue d’une
213 Cf. ALBOUY (M.), « Restitution en images de synthèse de la grotte Cosquer et du site de Marmaria àDelphes » in Patrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à la BibliothèqueNationale de France, 23-25 octobre 1996, Paris, La Documentation française, 1997, p.87-93.214 les coordonnées tridimensionnelles sont connues par un calcul de triangulation, le triangle étant formé parl’émetteur laser, le récépteur (caméra vidéo) et le point à mesuré. La fréquence de numérisation approche les 100points par seconde. (Cf BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, DeBoccard, 1997, p 112)215 cf ALBOUY (M.), « Restitution en images de synthèse de la grotte Cosquer et du site de Marmaria à Delphes »in Patrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à la Bibliothèque Nationale deFrance, 23-25 octobre 1996, Paris, La Documentation française, 1997, p.88.216 cf. CLOTTES (J.), COURTIN (J.) & LONG (L.), « La grotte Cosquer: une fouille en images? » in Patrimoine etmultimédia, le rôle du conservateur: actes du colloque organisé à la Bibliothèque Nationale de France, 23-25octobre 1996, Paris, La Documentation française, 1997, p.83.217 PARAMYTHIOTI (M.), « Le colosse d’Alexandrie, remontage de la statue de Ptolémée », Revue XYZ, n°76,1998, p.61.218 CLOTTES (J.), COURTIN (J.) & LONG (L.), idem, p.85.
114
analyse directe de la réalité : elle ne peut faire le tri dans les informations qu’elle prélève car
elle opère, à l’instar de la photographie, une saisie globale de la réalité, sans discrimination.
Aussi, certains détails risquent d’être atténués dans le fichier numérique, et les informations
dont ils étaient les vecteurs sont provisoirement perdues si la consultation directe du site est
compromise, comme cela a été le cas ici.
En fait, la seule variation intervenant dans le procédé d’acquisition tient à la densité
des points enregistrés : il est possible, en fonction de l’intérêt de la surface numérisée, d’en
moduler la précision. Au total, le modèle numérique peut se révéler être relativement
hétérogène, présentant des zones plus ou moins grossières lorsqu’elles ne comportent pas de
traces significatives et des zones plus soignées, plus denses en points de manière à retranscrire
avec plus de fidélité les états de surface des parois (sur les cinq millions de points que
comporte la grotte, un million a été concentré pour les zones numérisées le plus finement
possible). Par conséquent, de l’aveu des archéologues, cette technique est optimale, du moins
pour l’heure actuelle, lorsqu’elle est associée à des relevés photogrammétriques qui
permettent de conserver dans le fichier latent du stéréogramme à la fois les coordonnées pour
des relevés plus fins ainsi que les propriétés de surface, qui continuent, par la mention des
ombres, à indiquer les très faibles reliefs.
En outre, la prédominance, du moins médiatique, de ce système de numérisation ne
doit pas faire oublier qu’il existe d’autres capteurs laser comparables à celui commercialisé
par la société Mensi. A titre d’exemple, la société japonaise Minolta, spécialisée dans le
matériel d’acquisition optique, propose un système moins ambitieux, du moins dans son
champ d’action, puisque son scanner 3D à laser, de faibles dimensions, numérise un objet
distant seulement de 0,6 à 2,5 m219. Il reste à savoir dans quelle mesure ce type d’appareil peut
être appliqué couramment dans une pratique archéologique : son faible encombrement, sa
portabilité et son champ de numérisation limité pourrait le réserver à l’enregistrement
tridimensionnel du mobilier mis au jour ou bien encore à la sauvegarde de pièces relativement
instables après leur exhumation. Cependant, pour l’heure, ce genre de matériel reste hors de
219 cf. descriptif du produit sur le site web du constructeur àl’URL=http://www.minolta.com/japan/rio/vivid/index.htmlLe scanner offre l’avantage de pouvoir plaquer sur le modèle numérique la photographie de l’objet.
115
portée des budgets alloués à l’équipement de la recherche archéologique, puisqu’il avoisine la
somme de 200 000 Francs.220
Nous avions évoqué plus tôt dans une autre partie l’apport des techniques de
l’imagerie médicale. Bien entendu, celles-ci ont leur place dans cette partie sur les méthodes
d’acquisition à distance, mais étant donné qu’elles ont déjà été abordées plus haut, nous
estimons qu’il n’est pas nécessaire d’y revenir. Tout au plus pouvons-nous rappeler que
celles-ci sont exclusivement destinées à être utilisées en intérieur en raison de l’importance
des infrastructures qu’elles requièrent.
Au total, les méthodes de numérisation à distance sont relativement nombreuses, et
nous aurions pu également élargir notre présentation à d’autres types de documents qui, à
l’instar des photographies, peuvent receler, lorsqu’ils sont associés entre eux, de nombreuses
informations tridimensionnelles : à titre d’exemple, des clichés radar peuvent être associés par
couple de manière à permettre la pratique de la radargrammétrie, variante de la
photogrammétrie221.
4.2.2.2. La saisie directeFace à ces techniques de saisie tridimensionnelle opérant à distance se trouve un
ensemble de procédés permettant d’acquérir la forme des objets par contact physique. En
réalité, ces procédés de numérisation tridimensionnelle proviennent également du secteur
industriel et plus particulièrement du prototypage rapide et de la retro-conception (reverse
engineering). Ces outils de numérisation appartiennent à la catégorie des Machines à Mesurer
Tridimensionnelles (MMT) et font généralement partie d’une installation plus ou moins
complexe comprenant un bras mobile dans les trois dimensions pourvu à son extrémité d’un
senseur de haute précision avec lequel il peut palper la surface de l’objet. Ce dispositif, piloté
par ordinateur, permet de reconstituer toute la surface de l’objet en la parcourant de proche et
proche. A l’instar de la saisie distante, il en résulte un nuage de points de coordonnées x, y, z
qui, reliés entre eux trois à trois, forment une surface composée d’une multitude de facettes
220 L’offre matérielle / logicielle de systèmes de numérisation 3D basés sur l’association du laser et de la caméranumérique est relativement fournie. A ce propos, la manifestation Numérisation 3D / Moulage 3D permet chaqueannée de surveiller les évolutions de ce marché. Outre Mensi, on y retrouve d’autres sociétés françaises telles queKréon Industrie, Multistation, Cybernétix ainsi que des entreprises étrangères telles que 3D Scanners, Digibotics,Laser Design. Pour plus de renseignement sur la manifestation, cf. URL=http://www.numerisation3d.com221 cf. DOWMAN (I.), MARINELLI (T.) & TOUTIN (TH.), « Génération de MNT par radargrammétrie : état del’art et perspectives », Bulletin de la Société Française de Photogrammétrie et de Topographie, n°148, 1997,p.89-95.
116
triangulaires inscrites dans un système tridimensionnel. Ces installations sont couramment
utilisées afin de créer le modèle numérique du prototype d’une pièce, et ce dans le but de
réaliser le moule qui servira à la produire en série.
A l’heure actuelle, nous n’avons pas trouvé d’exemple illustrant l’application de ces
techniques de numérisation à des vestiges archéologiques : l’utilisation d’un tel matériel ne
peut se justifier que par des impératifs d’ordre économique. Il n’y a pas eu, à notre
connaissance, d’opération similaire à celles mises en œuvre par le mécénat technologique
d’EDF permettant de définir les modalités de transfert de l’utilisation du capteur
optoélectronique vers des thématiques archéologiques. En effet, l’utilisation des MMT en
archéologie ne semble pas apporter de réelle plus value, du moins en regard de l’importance
des moyens mis en œuvre : ce type d’installation est destiné à ne traiter que des objets
mobiles, à laquelle il faudra préférer le recours à des procédés de saisie distante dans le cas de
vestiges plus volumineux ou immobiliers. Néanmoins, nous estimions qu’il était important de
faire allusion à ce secteur de la numérisation 3D : à l’avenir, la miniaturisation et la
simplification de tels équipements pourraient amener ces machines encore réservées au monde
industriel vers le domaine de l’archéologie, où elles pourraient peut être offrir une alternative
aux protocoles de saisie distante.
En attendant le moment hypothétique de la diffusion de telles technologies dans le
domaine de l’archéologie, une initiative plus modeste a été menée il y a quelques années par
des archéologues italiens pour tenter de numériser des tessons de céramique à l’aide d’un
système mécanique relayé par un ordinateur. Ce projet, connu sur le nom de
« Ceramigrafo »222, prévoyait de numériser le profil du tesson à l’aide d’un pantographe, dont
l’un des bras parcourait verticalement la surface grâce à un pointeur en roulette qui
garantissait la continuité du mouvement, tandis que l’autre bras le reproduisait sur une tablette
à digitaliser qui enregistrait le profil vertical de l’objet sous la forme d’un dessin vectoriel en
deux dimensions. En fait, ce système avait pour but d’améliorer les temps impartis au dessin
de céramique en en automatisant plus ou moins le déroulement. Au total, le profil de l’objet
est directement entré dans l’ordinateur de manière à être ensuite exporter vers un logiciel de
CAO qui, à partir des indications relatives au profil et à la courbure horizontale du tesson, a
pu proposer une restitution de la forme complète du vase en trois dimensions. Ainsi dans cet
222 cf. FORTE (M.), « Il Ceramigrafo : un sistema integrato per il disegno della ceramica al calcolatore » inArcheologia & Calcolatori, n°5, 1994, p.317-332.
117
exemple, la numérisation de ces tessons, bien que n’étant pas à l’origine réalisée en trois
dimensions, a permis de mettre en évidence certaines des applications directes que peut
apporter un tel procédé : le vestige archéologique subit moins fortement la codification que lui
imposait le dessinateur, puisque désormais les formes sont pour ainsi dire directement
introduites dans l’ordinateur sans passer par une réelle phase de retranscription graphique (le
profil de l’objet est numérisé d’un seul tenant, tandis que les techniques traditionnelles de
dessin céramique avaient recours à un assemblage de plusieurs profils complémentaires
obtenus à l’aide du conformateur). Au total, cette méthode de numérisation a permis de
rationaliser la conservation et la production de documents relatifs au matériel céramique, en
améliorant les temps de traitement et en produisant un fonds homogène d’objets numériques,
qu’ils soient en 2D ou en 3D.
118
CONCLUSION
Nous avons vu tout au long de cette recherche que l’infographie constituait un outil
susceptible de répondre aux attentes des archéologues et de ceux pour qui ils travaillent.
Aux archéologues, l’outil infographique offre de nouvelles possibilités dans le
traitement des données toujours plus nombreuses qu’ils sont amenés à manipuler après les
avoir prélevées sur le terrain. A ce titre, l’élaboration de modèles numériques dans lesquels
sont reproduites ces informations leur permet par exemple d’avoir un meilleur contrôle sur
l’étendue des connaissances engrangées par leur activité. Aussi, l’utilisation d’un modèle
tridimensionnel où est conservé le double virtuel d’une campagne de fouille offre à
l’archéologue une vision générale de son travail depuis le début jusqu’à son achèvement :
comme nous l’avons évoqué, le modèle numérique permet de pallier le côté destructeur des
fouilles archéologiques en leur assurant d’une certaine manière une conservation
tridimensionnelle et dynamique. Ainsi, l’aspect dynamique est un autre argument plaidant en
faveur de l’infographie : le modèle numérique, en raison de sa nature informatique, peut être
remis à jour à volonté sans pour autant requérir une reprise de tous les autres travaux
antérieurs, ce qui constitue bien évidemment un gain considérable. Nous avons également vu
que les informations présentes dans le modèle numérique peuvent être exploitées dans le but
de rendre certains faits particulièrement évidents : il en est ainsi des faibles reliefs témoignant
de l’emplacement des vestiges que les archéologues ont pu détecter en accentuant le contraste
d’altitude de l’ensemble de la zone prise en compte dans le modèle numérique. En outre, la
nature informatique et tridimensionnelle des données autorise des traitements faisant appel à
d’autres logiciels : par exemple, le fameux colosse d’Alexandrie, n’a pu être remonté
réellement qu’après une évaluation des efforts transitant à l’intérieur de son équivalent virtuel
reconstitué, et ce à l’aide d’un logiciel spécialement dédié à ce genre de calcul.
Nous avons également étudié le rôle et la spécificité des documents produits par
l’infographie. Ces derniers, pour la plupart davantage destinés à un large public qu’aux seuls
archéologues, offrent autant de voies d’accès possibles vers la connaissance de l’archéologie.
En effet, nous avons vu que ces documents, qu’il s’agisse d’images fixes, de séquences
animées ou bien encore de séquences interactives, utilisent différentes ressources afin de
rendre plus tangibles les connaissances produites par les archéologues. A ce titre, il est
possible de constater dans certains cas une meilleure accessibilité de ces connaissances : nous
119
avions vu ainsi quelques exemples de sites archéologiques reconstitués et diffusés sur Internet
au travers desquels le visiteur pouvaient accéder à d’autres informations relevant directement
de la pratique archéologique, qu’il s’agisse de photographies et de descriptions de mobilier in
situ ou bien encore de plans et de relevés de la surface fouillée, parfois simplifiés pour ne
garder que leurs aspects significatifs. Ce nouveau type de document pose bien évidemment
des problèmes, qui, en fait, ont toujours été ceux de la présentation au public des données
issues de la recherche archéologique, à savoir : comment représenter une réalité que l’on ne
connaît que par fragment ?
Au total, l’infographie permet de rapprocher les archéologues de leur auditoire de
spécialistes et de non-spécialistes. En effet, l’utilisation de cette technique dans le cadre de la
recherche archéologique peut donner lieu, dans une certaine mesure, à la diffusion de ces
documents à destination de leurs confrères ou bien encore à leur réorientation vers le grand
public. Cette exploitation possible de l’infographie soulève ainsi le problème du support sur
lequel l’information archéologique est destinée à être publiée : qu’en est-il alors des
publications traditionnelles sur papier qui n’offrent pas autant de souplesse avec les
documents visuels, par ailleurs limités en raison des coûts supplémentaires qu’ils génèrent.
Néanmoins, avant d’envisager ce type de problématique, il resterait à étudier avec le
recul nécessaire la véritable efficience de l’infographie dans un programme de recherche
ambitieux, qui, mené à long terme, tenterait d’intégrer cette technique à tous les niveaux, par
conséquent aussi bien comme outil de recherche et de validation d’hypothèse que comme
interface de publication, en l’associant à des logiciels permettant d’autres types de traitements,
tels les systèmes de gestion de base de données. Dans cette perspective, l’utilisation de
l’infographie, à l’instar de toutes les applications informatiques menées sur le long terme,
posera nécessairement la question de la pérennité de ces informations : l’évolution
permanente des formats de fichier ainsi que du matériel informatique risque de compromettre
la viabilité de tout projet d’envergure.
120
BIBLIOGRAPHIE
Ouvrages et articlesADAM (J.-P.), « Les nouveaux regards de l’archéologie monumentale », Les Nouvelles del’archéologie, n°76, 1999, p.6-9.
ADRAIT (R.) & SOMMIER (D.), Guide du constructeur en bâtiment, Paris, éd. Hachette, 1987,239 p.
ALBOUY (M.), « Restitution en images de synthèse de la grotte Cosquer et du site deMarmaria à Delphes » in Patrimoine et multimédia, le rôle du conservateur: actes du colloqueorganisé à la Bibliothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentationfrançaise, 1997, p.87-93.
ANDREOU (S.), KOTSAKIS (K.), VARGAS (A.) & PAPOUDAS (D.), « Reconstructing a BronzeAge Site with CAD » in Computer applications and quantitative methods in archaeology1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, Tempus Reparatum, 1995, p.181-187.
ANTONINI (A.) & FEIHL (O.), « Hypersion – Hypogée, un système informatique pour lerelevé, la gestion et l’analyse de structures funéraires – l’exemple de la basilique de Sous-le-Scex à Sion (Suisse) » in Archeologia & Calcolatori, n°7, 1996, p.249-257.
AXELSSON (P.) & STERNER (H.), « Laser scanning », Revue XYZ, n°78, 1999, p.57-61.
BAILLARD (C.) & DISSARD (O.), « Analyse automatique d’images aériennes stéréoscopiquespour la restitution 3D des milieux urbains », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°149, 1998, p.28-41.
BESSAC (J.-CL), JOURNOT (F.), PRIGENT (D.), SAPIN (CH.) & SEIGNE (J.), La Construction,la pierre, Paris, éd. Errance, 1999, coll. « Archéologiques », 174 p.
BOCCON-GIBOD (H.) & GOLVIN (J.-C.), « Le grand temple d’Amon-Rê à Karnak reconstruitpar l’ordinateur », Les Dossier de l’archéologie, n°153, octobre 1990, p.8-17.
BOISMIER (W. A.) & REILLY (P.), “ Expanding the role of computer graphics in the analysisof survey data ” in Computer and quantitative methods in archaeology 1987, éd. par Ruggleset Rahtz, Oxford, B.A.R., 1988, p.221-225.
BOMMELAER (J.-F.) [dir.], Marmaria, le Sanctuaire d’Athéna à Delphes, Paris, De Boccard,1997, 144 p.
BONDIOLI (L.), PACELLI (A.) & VIDALE (M.), « The labours of Sisyphus : computersimulation of downslope movement of artefacts » in Aplicaciones Informaticas enArqueologia : teorias y sistemas, Tome 1, Bilbao, 1995, p. 77-90.
BRETON (C.), « Conférence CAA 98 : vers une archéologie assistée par ordinateur… »,Archéologia, n°346, juin 1999, p.8-10.
BRETON (C.), « Multimédia et image de synthèse : de futurs outils au service du passé ? »,Archéologia, n°342, février 1998, p.4-5.
121
BRUNET (J.) & VOUVET (J.), La Conservation des grottes ornées, Paris, éd. CNRS, 1996,264 p.
BUCHSENSCHUTZ (O.) & GRUEL (K.), « Arkéoplan, premiers tests sur le chantier de fouillesde Ribemont-sur-Ancre », Les Nouvelles de l’archéologie, n°46, 1991, p.18-19.
BUCHSENSCHUTZ (O.) & GRUEL (K.), « De l’usage d’Arkéoplan pour l’enregistrementd’éléments en élévation: étude d’un mur du couvent du Mont Beuvray », Le Médiéviste etl’ordinateur, n°29, 1994, p.12-18.
BUCHSENSCHUTZ (O.), « Image, mesure et électronique sur le terrain » in Patrimoine etmultimédia, le rôle du conservateur: actes du colloque organisé à la Bibliothèque Nationale deFrance, 23-25 octobre 1996, Paris, La Documentation française, 1997, p.94-99.
CADOZ (C.), Les Réalités Virtuelles, Paris, Flammarion, 1994, coll. « Dominos », 128 p.
CAMIRUAGA (I.), IGLESIA (M. A. DE LA) & SUBIAS (E.), « Sistemas de medicion nauticaaplicado al Hipogeo de Via Latina, Roma » in Aplicaciones informaticas en arqueologia:teorias y sistemas, 2, Bilbao, Denborarem Argia, 1995, p.180-193.
CAMPAGNOLLE (L.), « Du vestige au virtuel : Cluny », Pixel, n°18, p.55.
CARBONNELL (M.), Apport des Méthodes photogrammétriques à la connaissance et à laconservation des sites méditerranéens français, Marseille, 1989, 17 p.
CARBONNELL (M.), Documentation, relevés, inventaires pour la connaissance, lasauvegarde, la planification et la gestion des sites historiques méditerranéens, Marseille,1989, 9 p.
CHALMERS (A.), MILES (R.), STODDART (S.) & TIDMUS (J.), « Insite: an interactivevisualisation system for archaeological sites » in Computer applications and quantitativemethods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford, TempusReparatum, 1995, p.225-234.
CHAPMAN (G.) & WOOD (J.), « Three-Dimensional computer visualization of historicbuildings – with particular reference to reconstruction modelling » in Archaeology and theinformation age, a global perspective, London & New York, éd. Routledge, 1992, p.123-146.
CHAPMAN (G.), « Do-it yourself reconstructing modelling » in Computer Applications andQuantitative Methods in Archaeology 1991, éd. Par Gary Lock et Jonathan Moffet, Oxford,Tempus Reparatum, 1992, p.213-218.
CLOTTES (J.), COURTIN (J.) & LONG (L.), « La grotte Cosquer: une fouille en images? » inPatrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à laBibliothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentation française,1997, p.78-86.
CORNFORTH (J.), DAVIDSON (C.), DALLAS (C. J.) & LOCK (G. R.), « Visualising ancientGreece: computer graphics in the Sacred Way Project » in Computer applications andquantitative methods in archaeology 1991, éd. Par Gary Lock et Jonathan Moffet, Oxford,Tempus Reparatum, 1992, p.219-225.
COUWENBERGH (J.-P.), La synthèse d’images, Alleur, éd. Marabout, 1998, 576 p.
122
CREMASCHI (M.), FERRETTI (A.) & FORTE (M.), « Tecniche digitali e di visualizzazzione ingeoarcheologia : il caso di studio della Terramara S. Rosa di Poviglio (Re) » in Archeologia &Calcolatori, n°5, 1994, p.305-316.
DABAS (M.), DELETANG (H.), FERDIERE (A.), JUNG (C.) ET HAIO ZIMMERMANN (W.), LaProspection, Paris, éd. Errance, 1998, coll. « Archéologiques », 223 p.
DEABAQUE (B.) & JULES (S.), « Visualisation réaliste 3D d’un site par photogrammétrieterrestre et aérienne », Bulletin de la Société Française de Photogrammétrie et deTopographie, n°146, 1997, p.33-36.
DELESTRE (X.) & SCHULMANN (J.-L.), « Le mausolée antique de Rouen: une approchepluridisciplinaire pour une hypothèse de restitution » in Patrimoine et multimédia, le rôle duconservateur: actes du colloque organisé à la Bibliothèque Nationale de France, 23-25 octobre1996, Paris, La Documentation française, 1997, p.48-51.
DELESTRE (X.), « Rouen des origines à la fin de l’Antiquité », Archéologia, n°322, avril 1996,p.50-57.
DELOOZE (K.) & WOOD (J.), « Furness Abbey survey project- the application of computergraphic and data visualisation to reconstruction modelling of an historic monument » inComputer and quantitative methods in archaeology 1990, éd. par Kris Lockyear et SebastianRahtz, Oxford, Tempus Reparatum, 1991, p.141-148.
DIAZ SANZ (M. A.), MEDRANO MARQUES (M.) & TRAMULLAS SAZ (J.), « Reconstitucionasistada por ordenador de la estructuras del alfar de terra sigillata hispanica de Villaroya de laSierra (Zaragoza, Espana) » in Aplicaciones informaticas en arqueologia: teorias y sistemas,1, Bilbao, Denborarem Argia, 1995, p.175-182.
DIAZ SANZ (M. A.), MEDRANO MARQUES (M.) & TRAMULLAS SAZ (J.), « Reconsitucionasistida por ordenador de las instalaciones de tenerias de Contrebia Belaisca (Botorrita,Zaragoza) » in Aplicaciones informaticas en arqueologia: teorias y sistemas, 2, Bilbao,Denborarem Argia, 1995, p.248-255.
DJINDJIAN (E.), IAKOVLEVA (L.) & PIROT (F.), « Résultats préliminaires d’un projet dereconstitution 2D et 3D de structures d’habitats préhistoriques par le logiciel de gestiond’objets graphiques ArcInfo » in Archeologia & Calcolatori, n°7, 1996, p.215-222.
DOEPPER (U.), FEIHL (O.) & HUGUENIN (C.), « L’église Saint-François de Lausanne » inCahiers d’Archéologie Romande, n°73, Lausanne, 1998, p.15-17.
DORRELL (P. G.), Photography in archaeology and conservation, Cambridge, CambridgeUniversity Press, 1989, 266 p.
DOWMAN (I.), MARINELLI (T.) & TOUTIN (TH.), « Génération de MNT parradargrammétrie : état de l’art et perspectives », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°148, 1997, p.89-95.
DRIESSCHE (B. VAN DEN), Le Dessin au service de l’archéologie, Louvain, 1975, 100 p.
DUPONT (S.), NONIN (PH.) & RENOUARD (L.), « Production de modèles numériques deterrain par interférométrie et radargrammétrie », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°148, 1997, p.97-104.
123
EGELS (Y.), « La photogrammétrie numérique : vers une banalisation du métier dephotogrammètre ? », Bulletin de la Société Française de Photogrammétrie et de Topographie,n°149, 1998, p.8-11.
EITELJORG (H.), « Computer-Assisted Drafting and Design programs for use in archaeologyand architectural history », BRISES, n°15, 1989, p.125-131
FEIHL (O.), « Utilisation de l’informatique dans la gestion documentaire des chantiers derestauration des châteaux de Valère et Chillon » in Aplicaciones informaticas en arqueologia:teorias y sistemas, 2, Bilbao, Denborarem Argia, 1995, p.273-286.
FINCKER (M.), « Du relevé à la restitution des édifices antiques: l’informatisation de l’institutde recherche sur l’architecture », Les Nouvelles de l’archéologie, n°76, 1999, p.14-17.
FLETCHER (M.) & SPICER (D.), « The Display and analysis of ridge-and-furrow fromtopographically surveyed data » in Archaeology and the Information age, a globalperspective, London & New York, éd. Routledge, 1992, p.98-122.
FLORENZANO (M.) & QUINTRAND (P.), « Les envois de Marseille, mémoire du port antique »in Aplicaciones informaticas en arqueologia: teorias y sistemas, 1, Bilbao, DenboraremArgia, 1995, p.409-413.
FORTE (M.) & GUIDAZZOLI (A.), « Archaeology and computer image processing:applications in the aerial photographs analysis and the perspectives in the landscapenavigation » in Aplicaciones informaticas en arqueologia: teorias y sistemas, 1, Bilbao,Denborarem Argia, 1995, p.210-230.
FORTE (M.) & GUIDAZZOLI (A.), « Archeologia e tecniche di eidologia informatica » inArcheologia & Calcolatori, n°3, 1992, p.37-75.
FORTE (M.) & GUIDAZZOLI (A.), « Shape from motion : dalle sequenze filmate allamodellazione tridimensionale. Projetto per l’elaborazione 3D di immagini videoarcheologiche » in Archeologia & Calcolatori, n°7, 1996, p.223-232.
FORTE (M.) & SARTI (A.), « Tra archeologia e realtà virtuale : verso l’archeologia virtuale »in Archeologia & Calcolatori, n°6, 1995, p.105-118.
FORTE (M.) [dir.], Archéologie Virtuelle, le passé retrouvé, Paris, éd. Arthaud, 1996, 293 p.
FORTE (M.), « Il Ceramigrafo : un sistema integrato per il disegno della ceramica alcalcolatore » in Archeologia & Calcolatori, n°5, 1994, p.317-332.
FORTE (M.), « Il progetto Arctos : verso un GIS multimediale » in Archeologia & Calcolatori,n°7, 1996, p.179-192.
FORTE (M.), « Un esperimento di visualizzazione scientifica per l’archeologia del paesaggio :la navigazione nel paesaggio virtuale » in Archeologia & Calcolatore, n°4, 1993, p.137-152.
FORTE (M.), MONTEBELLI (M.) & TUSA (S.), « Il projetto valle del Belice : applicazioni GISe di remote sensing su dati archeologici » in Archeologia & Calcolatori, n°9, 1998, p.291-304.
124
FORTE (M.), MOZZI (P.) & ZOCCHI (M.), « Immagini satellitari e modellivirtuali :interpretazione geoarcheologiche della regione del Sistan meridionale » inArcheologia & Calcolatori, n°9, 1998, p.271-290.
FRACCHIA (F. D.), HAYDEN (B.) & PETERSON (PH.), « A virtual computer imaging techniquefor archaeological research », Society for American Archaeology, Vol. 13, n°4, septembre /octobre 1995, p.30-33.
FRANTZ (D.), « La modélisation du Colisée : quelques aperçus de méthode générale » inCahiers de la Maison de la Recherche en Sciences Humaines, n°14, avril 1998, p.33-36.
GARCIA (D.), "Urbanisme et architecture de la ville de Lattara aux IIIème – Ier s. av. n. è.,premières observations" in Lattara 3, 1990, p.303-315.
GASSEND (J.-M.) & GOLVIN (J.-CL.), « Les restitutions graphiques : pourquoi ?comment ? », l’Archéologue – Archéologie Nouvelle, n°23, juillet - août 1996, p.48-50.
GOLVIN (J.-C.), « De Karnak aux problèmes fondamentaux de la modélisation », LesNouvelles de l’archéologie, n°76, 1999, p.18-22.
GOODWIN (C. M.) & HRAWARD (V. J.), « Multimedia computing in archaeology », BRISES,n°15, 1989, p.103-110.
GOTTARELLI (A.), « La modelazzione tridimensionnale del documento archeologico : livellidescrittivi e processamento digitale » in Archeologia & Calcolatori, n°6, 1995, p.75-103.
GOTTARELLI (A.), « La video documentazione elettronica dello scavo archeologico modelliinterpretativi e processamento digitale », Le Médiéviste et l’ordinateur, n°29, 1994, p.19-25.
GOTTARELLI (A.), « Museografia e informatica : la riconstruzione virtuale della tombamenfita del generale Horemheb » in Archeologia & Calcolatori, n°7, 1996, p.1091-1099.
GRADIAS (M.), Grand Livre, Adobe Photoshop 4.0, Paris, Micro Application, 1997, 1159 p.
GROS (P.), L’architecture romaine, I. les monuments publics, Paris, éd. Picard, 1996, coll."les Manuels d’art et d’archéologie antiques", 503 p.
HARRIS (T.) & LOCK (G.), « Visualizing spatial data : the importance of GeographicInformation Systems » in Archaeology and the Information age, a global perspective, London& New York, éd. Routledge, 1992, p.81-96.
HARRIS (T.), « Digital terrain modelling and three-dimensional surface graphics for landscapeand site analysis in archaeology and regional planning » in Computer and quantitativemethods in archaeology 1987, éd. par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.161-170.
HUNT (P.), « Summus Poeninus on the Grand St Bernard pass », Journal of RomanArchaeology, vol. 11, 1998, p.265-274.
HURIET (CL.), « Rapport sur les Images de synthèse et monde virtuel : techniques et enjeux desociété » in Office parlementaire d’évaluation des choix scientifiques et technologiques,n°526, Paris, éd. Société Nouvelles des Librairies, 1997, 198 p.
IMMLER (CH.), Grand Livre, 3D Studio Max 2-2.5, Paris, Micro Application, 1998, 1278 p.
125
JAMES (S.), « Drawing inferences. Visual reconstructions in theory and practice » in TheCultural life of images, visual representation in archaeology, éd. par Brian Leigh Molyneaux,Londres, Routledge, 1997, p.23-48.
JUFFARD (O.), « Relevés architecturaux assistés par ordinateur », Le Médiéviste etl’ordinateur, n°29, 1994, p.2-6.
JUILLIER (L.), Les Images de synthèse, Paris, éd. Nathan, 1998, 128 p.
JULIEN (P.), LE GOFF (F.) & TANNOUS (I.), « Méthodologie de production de MNT parfusion de données mixtes radar / optique », Bulletin de la Société Française dePhotogrammétrie et de Topographie, n°148, 1997, p.105-113.
LAROCHE (D.), « Les apports des nouvelles techniques au relevé et à l’étude des monumentsantiques », Les Nouvelles de l’archéologie, n°76, 1999, p.10-13.
LEYGE (F.), « Le musée de Saint-Romain-en-Gal », Archéologia, n°327, octobre 1996, p.26-35.
LOSA (A. DE LA), « Gestion tridimensionnelle de données géographiques », JournéeRecherche de l’IGN, 23 Mars 1999, p.7-14.
LUCET (G. L.), « The virtual restitution of the mesoamerican site of Cacaxtla : amethodological point of view » in Archeologia & Calcolatori, n°8, 1997, p.129-138.
MAESTRO ZALDIVAR (E. M.) & TRAMULLAS SAZ (J.), « Herramientas informaticas en lainvestigacion arqueologica: bases de datos y CAD. La experiencia de Mediana de Aragon » inAplicaciones informaticas en arqueologia: teorias y sistemas, 1, Bilbao, Denborarem Argia,1995, p.289-297.
MAIN (P.L.), SPENCE (A.J.) & HIGGINS (T.), « Computer-aided design techniques for thegraphical modelling of data from the prehistoric site of Runnymede, Berkshire » in Computerapplications and quantitative methods in archaeology 1994, éd. par Jeremy Hugget et NickRyan, Oxford, Tempus Reparatum, 1995, p.235-243.
MARTIN-BUENO (M.) & TRAMULLAS SAZ (J.), « Forum Augusta Bilbilis: application de lareconstitution assistée par ordinateur pour un forum romain » in Aplicaciones informaticas enarqueologia: teorias y sistemas, 1, Bilbao, Denborarem Argia, 1995, p.298-307.
MARTINEZ (I. M.), PUJANA (I.) & VALDES (L.), « Archeograf : agility for the documentationof archaeological excavations » in Archeologia & Calcolatori, n°7, 1996, p.887-899.
MARTIN-RABAUD (A.), « Intercomparaison des méthodes de métrologie tridimensionnelle parprocédés optiques » in Bulletin de la Société Française de Photogrammétrie et deTopographie, n°150, 1998, p.19-22.
MENARD (CH.) & SABLATNIG (R.), « Computer based acquisition of archaeological finds :the first step towards automatic classification » in Archeologia & Calcolatori, n°7, 1996,p.429-446.
MILLER (P.) & RICHARDS (J.), « The good, the bad, and the downright misleading:archaeological adoption of computer visualization » in Computer applications and
126
quantitative methods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford,Tempus Reparatum, 1995, p.19-22.
Observation de la Terre & Environnement, N°5, février 1999, 31 p
PARAMYTHIOTI (M.), « Le colosse d’Alexandrie, remontage de la statue de Ptolémée », RevueXYZ, n°76, 1998, pp.59-64.
POINSAC (B.), L’infographie, Paris, Presses Universitaires de France, 1994, coll. « Que sais-je ? », 127 p.
PORADA (S.), « Visualiser les réminiscences d’un lointain passé », De Lascaux au virtuel,patrimoine et nouvelles images, séminaire des 14 et 15 octobre 1994, Périgueux, 1994, p.27-33.
PY (M.), « Le module “données de terrain” » in Lattara 4, 1991, p.123-132.
PY (M.), « Les maisons protohistoriques de Lattara (IVème – Ier s. av. n. è.), approchetypologique fonctionnelle » in Lattara 9, 1996, 141-213.
REILLY (P.) & RICHARDS (J.), « New perspectives on Sutton Hoo : the potential of 3-Dgraphics » in Computer and quantitative methods in archaeology 1987, éd. par Ruggles etRahtz, Oxford, B.A.R., 1988, p. 173-185.
REILLY (P.), « Three-dimensional modelling and primary archaeological data » inArchaeology and the information age, a global perspective, London & New York, éd.Routledge, 1992, p.145-173.
REILLY (P.), « Towards a virtual archaeology » in Computer and quantitative methods inarchaeology 1990, éd. par Kris Lockyear et Sebastian Rahtz, Oxford, Tempus Reparatum,1991, p.133-139.
RIGOIR (Y.), Le Dessin technique en céramique, Lambesc, 1975, 96 p.
ROMANO (D. G.) & TOLBA (O.), « Remote sensing, GIS and electronic surveying :reconstructing the city plan and landscape of Roman Corinth » in Computer applications andquantitative methods in archaeology 1994, éd. par Jeremy Hugget et Nick Ryan, Oxford,Tempus Reparatum, 1995, p.163-174.
ROUGER (E.), « Image numérique et archéologie », Le Médiéviste et l’ordinateur, n°29, 1994,p.7-11.
ROUVERET (A.), Histoire et Imaginaire de la peinture ancienne (Ve siècle av. J.-C. – Ier siècleap. J.-C.), Rome, BEFAR 274, 1989
SAINT-AUBIN (J.-P.) [dir.], L’Architecture en représentation, Malesherbes, Ministère de laCulture, Inventaire Général des Monuments Historiques, 1985
SAINT-AUBIN (J.-P.), « Architecture et images virtuelles: vers une nouvelle pensée visuelle »in Patrimoine et multimédia, le rôle du conservateur: actes du colloque organisé à laBibliothèque Nationale de France, 23-25 octobre 1996, Paris, La Documentation française,1997, p.54-74.
127
SAINT-AUBIN (J.-P.), « L’image de synthèse, un outil pour l’étude et la conservation dupatrimoine », De Lascaux au virtuel, patrimoine et nouvelles images, séminaire des 14 et 15octobre 1994, Périgueux, 1994, p.38-43.
SAINT-AUBIN (J.-P.), Le Relevé et la représentation de l’architecture, relevés, dessins etphotographies, Paris, Service de l’Inventaire Général, 1992, 232 p.
SAPIN (CHR.), « L’archéologie face aux images de synthèse », Le Médiéviste et l’ordinateur,n°29, 1994, p.53-57.
SHANKS (M.), « Photography and archaeology » in The Cultural life of images, visualrepresentation in archaeology, Londres, Routledge, 1997
SOIROT (C.), « Archéologie et modélisation », Archéologia, n°337, septembre 1997, p.8.
SPICER (D.), « Computer graphics and the perception of archaeological information: lies,damned statistics and…graphics! » in Computer and quantitative methods in archaeology1987, éd. par Ruggles et Rahtz, Oxford, B.A.R., 1988, p.187-200.
STECKNER (C.), « Archaeological buildings reconstruction and the physical analysis ofexcavation documents » in Archeologia & Calcolatori, n°7, 1996, p.923-938.
THIBAULT (G.), « Fac-similés virtuels au plus près du réel », De Lascaux au virtuel,patrimoine et nouvelles images, séminaire des 14 et 15 octobre 1994, Périgueux, 1994, p.44-51.
VALENTI (M.), « La gestione informatica del dato. Precorsi ed evoluzioni nell’attività dellacattedra di archeologia medievale del dipartimento di archeologia e storia delle arti – sezionearcheologica dell’Università di Siena » in Archeologia & Calcolatori, n°9, 1998, p.305-329.
VERGNIEUX (R.), « La Réalité Virtuelle au coeur de la stratégie des données en archéologie »,Les Nouvelles de l’archéologie, n°76, 1999, p.23-25.
WATON (M.-D.) & WERLE (M.), « Une maison de musique à Strasbourg » Archéologia,n°327, octobre 1996, p.20-25.
CédéromsEgypte, 1156 av. J.-C., l’énigme de la tombe royale, Réunion des Musées Nationaux, Canal +Multimédia, Cryo Interactive Entertainment, 1997, France
Viaggo virtuale nell’antico Egitto, sulle orme della spedizione napoleonica, Altair 4Multimedia, Mondadori New Media, 1997, Italie
Viaggo virtuale nella antica Roma, Altair 4 Multimedia, Mondadori New Media, 1998, Italie
Vikings, Index +, France Télécom Multimédia, 1998, France.
Architectus, Eurêcad, 1997, Suisse.
Le Château des Cars, Ultime, ArchéA, 1997, France
The Castle of Ferrara, Archè, Soprintendenza ai Beni Storici e Artistici di Ferrara-Bologna,1997, Italie.
128
Ramsès II, Syrinx, 1998, France.
Articles sur InternetBELCHER (M.), CHALMERS (A.), DAY (M.) & STODDART (S.), « An interactive photo-realistic visualisation system for archaeological sites », University of Bristol, Department ofArchaeology, daté du 3/11/96,
URL=http://www.bris.ac.uk/Depts/Archaeology/html
DANIELS (R.), « The need for the solid modelling of structure in the archaeolgy of thebuildings », Internet Archaeology, n°2, 1997
URL=http://intarch.ac.uk/journal/issue2/daniels/index.html
EITELJORG (H.), « The CSA layer Naming Convention », Center for the Study ofArchitecture, Bryn Mawr, daté de février 1996,
URL=http://csaws.brynmawr.edu:443/web1/csalnc.html
EITELJORG (H.), « Computer-assisted drafting and design : new technologies for oldproblems », Center for the Study of Architecture, Bryn Mawr, daté d’avril 1996,
URL=http://csaws.brynmawr.edu:443/web1/cadbklt.html
EITELJORG (H.), « Surveying for Computer-Aided Drafting and Design – experiments inthree-dimensionnal techniques », Center for the Study of Architecture, Bryn Mawr, 1996,
URL= http://csaws.brynmawr.edu/web1/srveybk.html
GILLINGS (M.) & GOODRICK (G. T.), « Sensuous and reflexive GIS: exploring visualisationand VRML », Internet Archaeology, n°1, 1996
URL=http://intarch.ac.uk/journal/issue1/gillings/index.html
MATHUR (S.), « Three-dimensional representation of archaeological data in americanarchaeology », University of Iowa, Department of Anthropology, daté du 17/02/1997,
URL=http://www.uiowa.edu/~anthro/plains/Termppr.htm