35
Hen L I n t e l l i g e n c e A r t i f i c i e l l e , mais enfin de quoi s’agit-il?

L'Intelligence Artificielle mais enfin de quoi s'agit-il

Embed Size (px)

Citation preview

Page 1: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Hen

L’IntelligenceArtificielle,

mais enfinde quoi s’agit-il?

Page 2: L'Intelligence Artificielle mais enfin de quoi s'agit-il

L’Intelligence Artificielle,

mais enfin

de quoi s’agit-il?

Des chercheurs de l’IRIT*répondent ...

* Institut de Rechercheen Informatique de Toulouse

Les livrets du Service Culture UPS n°3

Avant-Propos

Petit historique des débuts de l’IA

Dix grands paradigmes de recherche

Représenter l'information, acquérir desconnaissances

Algorithmes généraux de résolution deproblèmes

Intelligence artificielle collective

Formaliser et mécaniser différents types deraisonnement

Evaluer des situations, décider, planifier

Raisonner sur le changement, le temps, etl'espace

Résumer, apprendre, découvrir

Langue et IA: des interrelations étroites

Indexation multimédia et IA

La réalité virtuelle et l'IA

La place de l’IA dans les sciences

IA et mathématiques

IA et informatique

L'IA et les sciences du traitement del'information

Sciences de la cognition et IA

L'IA et la théorie des systèmes symboliques

L’IA, un voyage dans notre culture

Pour conclure… sur une ouverture

Quelques références

Intervenants

Page 3: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Avant-propos

L’usage de l’expression IntelligenceArtificielle (on utilisera le plus souventl’abréviation IA dans la suite) s’estlargement répandu dans le public, au fur età mesure des progrès de la technologieinformatique et de sa propagation dans lesactivités humaines. L’IA fait maintenantpartie de notre culture comme en témoignel’existence de nombreux articles, livres, oufilms s’y rapportant plus ou moinsdirectement.

Il est vrai que le terme IntelligenceArtificielle a pu causer quelques malen-tendus, voire déplaire, et peut assurémentêtre interprété de diverses manières. Eneffet, si chacun peut apprécier les capa-cités toujours plus grandes des machinespour effectuer des calculs numériques oudes opérations symboliques, ou traiter desdocuments, l’idée que la machine pourraitdétenir ne serait-ce que quelques oncesd’intelligence provoque bien naturellementdes questions, des craintes et desfantasmes.

Comme le suggère le rapprochement, qui apu sembler provocateur à certains, desmots "intelligence" et "artificiel", il s'agit deréussir à donner à des machines descapacités leur permettant d'effectuer destâches ou des activités réputées intelligen-tes (car jusqu'à présent uniquement réali-sées par des humains). Une telle définitionreste cependant assez vague car elle nedonne ni une définition de l'intelligence, nimême ne précise la nature des capacitésdont il convient de doter la machine. Ainsi,une machine capable de reclasser dansl'ordre croissant des nombres donnés envrac, ou de résoudre des équations, n'estpas considérée comme intelligente pourautant (même si seulement un petit nom-bre de mathématiciens savent résoudre leséquations considérées !).

Les recherches en IA tendent à rendre lamachine capable d'acquérir de l'informa-tion, de raisonner sur une situation statiqueou dynamique, de résoudre des problèmescombinatoires, de faire un diagnostic, deproposer une décision, un plan d'action,d'expliquer et de communiquer les conclu-

sions qu'elle obtient, de comprendre untexte ou un dialogue en langage naturel, derésumer, d'apprendre, de découvrir. Pource faire, la machine doit être munie deméthodes génériques susceptibles des’adapter à de larges classes de situations.

Même si sur toutes ces questions degrands progrès restent certainement àfaire, de nombreux résultats ont déjà étéobtenus montrant qu'au moins, dans unecertaine mesure, ce programme estréalisable.

Cependant, une machine dotée del'ensemble des fonctionnalités citées plushaut, ces fonctionnalités ayant atteint leurmeilleur niveau d'efficience, serait encoreassez loin de posséder les capacités depenser d'un être humain (même si lamachine s'avérera bien plus performantesur certains registres de tâches qu'un êtrehumain). On pourra consulter l’opuscule dela même série « Les machines pensent-elles » pour une discussion autour de cettequestion.

Par ailleurs, l'IA entretient des échangesfructueux avec les sciences cognitives, car,d'une part elle fournit de nouveaux repères,points de comparaison pour la compré-hension de l'intelligence, et d'autre part ellepeut s'inspirer de ce que l’on sait dufonctionnement du cerveau et de la façondont l'homme raisonne, même si rien ne ditque l'IA doive copier l'intelligence humainedans toutes ses manières de procéder(ainsi les avions volent, quoiquedifféremment des oiseaux !). De plus,puisque la machine doit échanger sesconclusions avec des usagers, il importequ'elle puisse s'exprimer en termescognitivement significatifs pour eux.

L’ambition de ce livret est d’apporter uneimage relativement structurée, concisequoique précise, des préoccupations de larecherche en Intelligence Artificielleaujourd’hui, au travers de la présentationdes principaux paradigmes (de base ouapplicatifs) qu’elle étudie, et d'indiquer saplace vis-à-vis des autres disciplinesscientifiques, et l’évolution de sa présencedans les productions culturelles.

Henri Prade

Page 4: L'Intelligence Artificielle mais enfin de quoi s'agit-il
Page 5: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Petit historique

des débuts de l’IA

L’acte de naissance de l’IntelligenceArtificielle (IA) correspond à un programmede rencontres organisées à DartmouthCollege (Hanover, New Hampshire, USA)pendant l'été 1956, à l'initiative notammentde deux jeunes chercheurs qui, dans desregistres différents, allaient fortement mar-quer le développement de la discipline :John McCarthy et Marvin Minsky, le pre-mier défendant une vision purementlogique de la représentation des connais-sances, le second privilégiant l'usage dereprésentations structurées (appelées enanglais 'frames') de stéréotypes de situa-tions pouvant inclure différents typesd'information. C'est à cette occasion quel'expression 'Artificial Intelligence' (choisiepar McCarthy) fut utilisée pour la premièrefois de manière systématique pour dési-gner le nouveau champ de recherche ; elleétait cependant loin de faire l'unanimitéparmi les chercheurs présents, certains nevoyant là que du traitement complexed'informations. D'autres participants à cesrencontres, Alan Newell et Herbert Simon,allaient aussi avoir un impact particu-lièrement important sur le développementde l'IA.

Bien sûr, les rencontres de Dartmouthétaient le résultat d'une effervescence quiavait débuté un peu avant 1950 autour dequestions liées d’une part à la possibilité deconstruire des "machines à penser", voiredes "machines pensantes" ('thinking machi-nes'), et d’autre part à la comparaison dufonctionnement du cerveau humain avecles premiers ordinateurs qui venaientd'apparaître (et qui étaient essentiellementtournés vers le calcul numérique). Lanaissance de l'IA a été ainsi plus ou moinsdirectement influencée par différentstravaux : notamment ceux de WarrenMcCulloch et Walter Pitts qui, inspirés parla neurophysiologie, proposaient les toutpremiers modèles de réseaux de neuronesartificiels, ceux de Norbert Wiener sur lacybernétique (science centrée sur l'étudedes mécanismes de communication et decontrôle des machines et des êtresvivants), ceux de Claude Shannon enthéorie de l'information, ceux de John vonNeumann sur l'architecture des calcula-teurs, et ceux d'Alan Turing sur lesfonctions calculables par machine.

Page 6: L'Intelligence Artificielle mais enfin de quoi s'agit-il

C’est aussi en 1956 que Newell et Simon(en collaboration avec J. Cliff Shaw),proposèrent un premier programmed'ordinateur capable de démontrer desthéorèmes en logique, avant de bientôtprésenter un "résolveur de problèmegénéral' ('General Problem Solver'), basésur l'évaluation de la différence entre lasituation à laquelle le résolveur est arrivé etle but qu'il a à atteindre.

L’IA s’intéresse dès ses débuts au déve-loppement de programmes capables dejouer aux échecs (C. Shannon discute leproblème dans plusieurs articles dès 1950).Les premiers programmes, notammentceux de Arthur Samuel et Alex Bernstein,apparaissent au début des années 60, etau fil des décennies arrivent à battre desjoueurs de niveaux de plus en plus élevés,comme déjà MacHack celui de RichardGreenblatt à la fin des années 60. Larecherche des années 70 dans ce domaineest marquée par l’idée de doter la machinede capacités de mise en œuvre destratégies sophistiquées évoluant dyna-miquement avec le jeu (comme dans lestravaux de Hans Berliner). C’est cependantd’abord la puissance calculatoire del’ordinateur capable d’explorer de gigan-tesques espaces combinatoires qui viendraà bout du champion du monde de ladiscipline (victoire de l'ordinateur “DeepBlue” sur Gary Kasparov, en 1997).

Parmi les travaux variés qui marquèrent lesdébuts de l’IA, mentionnons encore leprogramme de Thomas G. Evans (1963)capable, comme dans un test d'intelli-gence, de trouver par analogie la quatrièmefigure géométrique complétant une série detrois ( ce qui nécessitait aussi unereprésentation conceptuelle des figures),ou les systèmes exploitant des contraintesen les propageant, comme dans l'approchede David Waltz (1975) pour reconnaîtredans une image les lignes correspondantaux arêtes de solides et leurs positionsrelatives, approche qui devait s'étendre parla suite à beaucoup d'autres domaines oùla représentation par contraintes s'imposenaturellement.

Le traitement de textes ou de dialogues enlangage naturel, tant au plan de leurcompréhension qu'au plan de leur produc-

tion automatique, a préoccupé égalementl'IA très tôt. Le système ELIZA (de JosephWeizenbaum) en repérant des expressionsclés dans des phrases et en reconstruisantà partir d’elles des phrases toutes faites,était capable dès 1965, de dialoguer enlangage naturel en trompant un momentdes interlocuteurs humains qui croyaientavoir affaire à un interlocuteur humain !Pourtant ELIZA ne construisait aucunereprésentation des phrases du dialogue etdonc n'en détenait aucune compréhension.C'est sans doute le système SHRDLU deTerry Winograd qui en 1971 fut le premier àconstruire de telles représentations et à lesexploiter dans des dialogues qui portaientsur un monde simplifié fait de blocs, et oùon s'intéressait à leurs positions relatives.

Les années 70 et le début des années 80furent marqués par la réalisation de nom-breux systèmes experts (DENDRAL enchimie, MYCIN en médecine, HEARSAY-IIen compréhension de la parole,PROSPECTOR en géologie), où uneconnaissance experte dans un domainespécialisé est exprimée sous forme derègles "si...alors..." et est appliquée à unensemble de faits décrivant la situation surlaquelle le système doit produire desconclusions.

Les années 70 en IA furent aussi celles despremières expérimentations avec desrobots mobiles (comme par exemple lerobot Shakey du SRI à Menlo Park enCalifornie), qui posaient conjointement desproblèmes de vision par ordinateur, dereprésentation des connaissances, et deplanification d’activités et de trajectoires.Une dizaine d’années plus tard, RodneyBrooks, au MIT, s’intéressera à dessociétés de robots réactifs à leur environ-nement immédiat, mais agissant sansreprésentation construite du monde danslequel ils évoluent.

Comme le montre ce bref aperçuhistorique, l'IA s'est largement développéetout d'abord aux Etats-Unis, avant, à partirdu milieu des années 70, d'intéresser deschercheurs en Europe puis en Asie. Pource qui est de la France, si l’on excepte despionniers de la cybernétique (LouisCouffignal, Paul Braffort), et si l'on ne s'entient qu'à des recherches se réclamant

Page 7: L'Intelligence Artificielle mais enfin de quoi s'agit-il

explicitement de l'IA, les premières équipesfrançaises dans ce domaine, furent crééesà Paris, puis à Marseille sous les impul-sions respectives de Jacques Pitrat (qui aen particulier mis en lumière le rôle desmétaconnaissances dans les processus derésolution de problèmes et d'apprentis-sage), et d'Alain Colmerauer (père d'unlangage de programmation, PROLOG,basé sur la logique et très utilisé en IA).Des équipes d’IA devaient ensuite bientôtnaitre dans d’autres grands centres :Toulouse, Grenoble, Nancy, … Aujourd’hui,presque tous les laboratoires d’informa-tique comptent des chercheurs en IA.

Henri Prade

Dix

grands paradigmes

de recherche

Page 8: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Représenter l’information,acquérir des connaissances

Avec le système expert d'aide au diagnosticmédical MYCIN conçu en 1975l'architecture des systèmes de résolution deproblèmes répondait aux exigencesfondatrices de l'IA, en séparant d'un côté unprogramme (le moteur) ayant des capa-cités générales de raisonnement (capa-cités d'inférence), et d'autre part desconnaissances spécifiques à l'application(la base de connaissances), représentéesle plus souvent sous la forme d'affirmationset de règles "SI conditions ALORSconclusions". Des représentations, baséessur la logique, ou structurées comme les« frames » (assemblages d’objetsdéfinissant un contexte, proposés parMinsky pour représenter initialement desconcepts visuels), les scripts (décrivant uneséquence d’événements), et autresreprésentations de ce type, comme lesréseaux sémantiques (réseaux de conceptsliés par des associations) ont égalementété introduites en IA et ont par la suite étédéveloppées dans des applicationsinformatiques classiques comme la« programmation objet », qui reprend leconcept de frame en représentant desentités auxquelles sont associés descomportements, ou comme les bases dedonnées. Ces systèmes ont séduit par leurstructure modulaire, laissant envisager ledéveloppement simple d'applicationsà base de connaissances dans desdomaines aussi variés que la mécanique, lamédecine, la chimie, ... et pour des tâchesdifférentes : diagnostic et réparation depannes, agencement, etc.

La seule difficulté était de renseigner labase à l'aide des notions et des règles dudomaine concerné, en tenant compte deleur utilisation dans le raisonnement. Orcette difficulté a été rendue responsable dela non-utilisation de plusieurs systèmespourtant techniquement valides : ils necontenaient pas les bonnes connaissan-ces ! Ce fut donc l'enjeu essentiel del'acquisition des connaissances, devenuevéritable champ de recherches, de contri-buer à définir des systèmes d'aide àl'usager qui soient utilisés et utilisablesparce qu'ils traitent correctement les bons

problèmes. Ce domaine de l’informatiquefait appel à la psychologie (pour étudier etrecueillir les modes de raisonnementdes individus), ainsi qu'à l'ergonomie et auxsciences sociales (pour spécifier desconnaissances adaptées aux besoins desutilisateurs dans le cadre de travail), ouencore à la linguistique dès lors que l'onsouhaite extraire de textes les savoirs déjàexplicités.

La problématique d'origine s’est aujourd'huiélargie. Sous le nom "d'ingénierie desconnaissances", elle englobe désormais laconception d'applications d'aide "intelli-gente" à l'utilisateur. En tant qu'ingénierie,elle cherche à définir des principes, desméthodes et outils pour guider le recueil,l'analyse et la structuration des connais-sances et informations nécessaires dansl'application finale. Le courant majoritairedes recherches s'appuie sur la notion cléde modèle conceptuel. Un modèle est vucomme une représentation simplificatricedu monde, justifiée par les besoins del'application. Il est conceptuel car inter-prétable par les individus impliqués dans leprojet et traduisible dans un langageopérationnel, qui, lui, est interprété par lamachine. Le modèle assure donc, entre lesindividus et le système artificiel, un conti-nuum dans le sens donné aux concepts,règles et raisonnements utilisés pour traiterune tâche donnée. Il doit garantir ausystème un comportement rationnel (moti-vé par des buts), efficace et perti-nent, éventuellement adaptable, face auxutilisateurs et aux experts du domaine.

Les difficultés essentielles de cetteapproche sont liées aux caractéristiquesdes connaissances. Elles sont implicites etnécessitent donc de définir des méthodesd’analyse de l’activité pour y accéder. Ellessont évolutives et les modèles doiventpouvoir être mis à jour simplement. Ellessont contextualisées, ce qui implique deprendre en compte les conditions danslesquelles elles sont utilisées.

On sait aujourd’hui construire des« ontologies », structures de donnéescontenant les concepts d’un domaine etleurs liens sémantiques, à partir de textes àl'aide de logiciels de traitement auto-matique du langage. On sait également

Page 9: L'Intelligence Artificielle mais enfin de quoi s'agit-il

évaluer l’impact de l'application sur lecontenu du modèle, les limites de laréutilisation directe des composants deconnaissances, et on dispose de méthodespour l'adaptation et la spécialisation decomposants.

Des applications significatives ont étéréalisées dans divers domaines :- informatisation du dossier médical dansles hôpitaux ;- diagnostic de pannes dans le fonction-nement des hauts fourneaux ;- recherche intelligente d'information dansdes sources de données hétérogènes surInternet (avec des ontologies).

Les échanges de savoir, le partage maissurtout la localisation des connaissancesou l'identification de compétences sontprésentés comme étant à la portée dechacun et de toute entreprise. Loin decéder aux charmes de discours séduisantsliés à la gestion des connaissances dansles entreprises, l'ingénierie des connais-sances étudie de près, en collaborationétroite avec des gestionnaires, des spécia-listes des systèmes d'information ou desciences humaines, les enjeux scienti-fiques et théoriques de cette facilitétrompeuse. Il s'agit d'alimenter de manièrepertinente les ressources technologiques,de faciliter une utilisation finalisée qui aideà filtrer, retrouver, organiser les connais-sances dont chacun a besoin, dans uneforme plus ou moins opérationnelle. Ainsi,en se tournant vers les systèmes d'infor-mation des entreprises et vers lestechnologies de l'information, l'ingénieriedes connaissances continue de traiter,dans des cadres applicatifs nouveaux, leproblème récurrent de l'accès au sens etaux connaissances.

Nathalie Aussenac et Jean-Luc Soubie

Algorithmes généraux derésolution de problèmes

Pour attaquer un problème il arrive qu’onpuisse le décomposer en sous-problèmespuis décomposer ceux-ci, etc., jusqu’àn’avoir plus que des problèmes dont lasolution est considérée comme immé-diatement accessible sans qu’il soitnécessaire de les décomposer à leur tour.L’ensemble des décompositions possiblespeut être représenté par un “ graphe dessous-problèmes ”. Certains sommetsmarquent une conjonction de sous-problèmes dont la résolution implique celledu problème décomposé. D’autressommets marquent une disjonction dedécompositions possibles. La résolutiond’un problème est alors ramenée à larecherche d’un certain sous-graphe dugraphe des sous-problèmes.

Remplacer un problème par un problèmeéquivalent peut être vu comme une formeparticulière de décomposition. Dans ce cas,on cherche une suite d’opérations d’équi-valence qui conduise à un problème déjàrésolu. En figurant les problèmes par dessommets et les opérations d’équivalencepar des arêtes, on se ramène à larecherche d’un parcours, éventuellementoptimal ou voisin de l’optimum, dans un“ graphe des états ”.

En général, les possibilités de parcourssont si nombreuses qu’on ne peut examinertoutes les alternatives. En revanche, ilarrive que la recherche puisse être guidéepar des connaissances d’origine plus oumoins analytique ou expérimentale ouempirique qu’on appelle des“ heuristiques ” : on parle alors de“ Résolution Heuristiquement Ordonnée ”.Ainsi pour construire un itinéraire, chercherà réduire la distance à vol d’oiseau quisépare de l’objectif est une heuristiquefamilière et souvent efficace. Lesheuristiques et les divers algorithmes quisont capables de les exploiter sontintéressants s’ils favorisent la découvertede solutions satisfaisantes, voire optimales,par rapport à la difficulté du problème etaux ressources mobilisées.

Page 10: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Après les succès de programmes jouant aubackgammon ou aux dames, la victoire dusystème joueur d’échecs Deep Blue, en1997, contre Gary Kasparov, champion dumonde en titre, témoigne spectaculai-rement des progrès accomplis depuis undemi-siècle pour explorer de vastesgraphes de sous-problèmes.

On peut aussi attaquer certains problèmesen essayant systématiquement de donnerdes valeurs, prises dans des domainesfinis, à un ensemble fini d’inconnues, desorte qu’elles satisfassent une collectionfinie de contraintes. Différents algorithmesde “ Résolution par Satisfaction deContraintes ” à vocation générale ont étéproposés et partiellement comparés. Unproblème de référence souvent abordédans ce cadre est le “ problème desatisfiabilité ” ou “ problème SAT ” : il s’agitde trouver des valeurs (soit “ vrai ” soit“ faux ”) pour les variables d’un ensembled’expressions logiques (disjonctions,conjonctions, négations de variables) desorte que les expressions prennentsimultanément la valeur “ vrai ”. Desheuristiques sont étudiées en vue derenforcer l’efficacité, prédite et/ou obser-vée, des algorithmes de ce type.

Résolution Heuristiquement Ordonnée etRésolution par Satisfaction de Contraintespeuvent servir, éventuellement ensemble,dans des contextes variés : identification,diagnostic, décision, planification, démons-tration, compréhension, apprentissage…Ces approches sont aujourd’hui en mesured’aborder des problèmes de plus grandetaille ou plus complexes, éventuellementdans des environnements dynamiquesavec informations incomplètes ouincertaines. Leur développement va de pairavec les avancées de la puissance dessystèmes informatiques.

Henri Farreny

Intelligence Artificiellecollective

Depuis ses débuts, l'IA s'estessentiellement focalisée sur les théories ettechniques permettant la réalisationd'intelligences individuelles. Mais dans lanature, il existe une autre forme d'intelli-gence – collective celle-là - comme lesêtres multi-cellulaires simples, les coloniesd'insectes sociaux, les sociétés humaines.Ces sources d'inspiration montrent qu'uneforme d'intelligence supérieure peut résul-ter de l'activité corrélée d'entités plussimples. Dans les systèmes artificiels, cechamp porte le nom d'IA Distribuée ou deSystèmes Multi-Agents, que nous englo-bons ici dans le terme d'IntelligenceArtificielle Collective (IAC).

Vers le milieu des années 1970, une partiede l'IA explorait les potentialités de ladistribution des connaissances conduisantà la résolution distribuée de problèmes. Ladistribution du contrôle est la principalecaractéristique d'une deuxième générationde systèmes dans lesquels une seule entitén'a pas le contrôle des autres et nepossède pas une vue globale du système.Mais dès lors, il ne suffit pas d'avoir un tasd'agents pour obtenir un système du mêmenom ; au même titre qu'un tas de briquesn'est pas une maison. Ainsi, le champd'étude porte actuellement sur les théorieset techniques permettant la réalisationd'une activité collective cohérente, pour desagents qui sont par nature autonomes etqui poursuivent des objectifs individuelsdans un environnement dont ils n'ontqu'une perception partielle.

Ces agents sont dotés de capacitésd'interaction avec les autres agents et leurenvironnement. Ils sont sociaux dans lesens où ils peuvent communiquer avec lesautres. Quand ils réagissent aux événe-ments perçus, ils sont qualifiés de réactifs.Ils sont proactifs s'ils ont la capacité de sedéfinir des objectifs, de prendre desinitiatives… Aujourd'hui, les conceptsd'autonomie, d'interaction, de dynamique etd'émergence sont de plus en plus pris encompte pour la spécification de cessystèmes, conduisant à des méthodologiesde conception spécifiques.

Page 11: L'Intelligence Artificielle mais enfin de quoi s'agit-il

À l’évidence, tout agent qui nécessite une'intelligence' peut bénéficier de l'apport desautres techniques d'IA présentées dans cedocument. Toutefois la spécificité dudomaine porte d'une part sur les théoriesorganisationnelles permettant la réalisationd'une 'intelligence collective' sous lescontraintes précédentes, et d'autre part lestechniques d'interactions entre agents pourgérer tous les imprévus (conflit, concur-rence, incompréhension, inutilité, …)survenant nécessairement dans unsystème ouvert ou dans un environnementdynamique.

L'IAC s'est notamment développée pourfaciliter la simulation d'applications distri-buées géographiquement, logiquement,sémantiquement ou temporellement. Lesplates-formes multi-agents sont des outilsprivilégiés pour simuler des sociétésd’individus plongés dans un environnementcommun, telle une équipe de robotsfootballeurs. C’est notamment le cas dessimulations environnementales où l’onsouhaite observer l’influence de compor-tements individuels sur des phénomènesglobaux (pollution, prévision de crues, …).

De plus, l'IAC s'adresse à des applicationspour lesquelles il est difficile de concevoiret de valider des logiciels de grande tailleavec les techniques classiques dedéveloppement. Ainsi, l'IAC est concernéeaussi par la conception de composantslogiciels qui auront vocation à êtreréutilisés. L’"agentification" des logicielsdevrait permettre - à terme - de lesassembler à partir d’une bibliothèque sansconnaître finement leur spécification : à leurcharge d’ajuster leurs comportementsindividuels dans le cadre préalable de latâche définie par l’application. Latechnologie agent et multi-agent a vocationà devenir un nouveau paradigme deprogrammation dans les années à venir.

Ce domaine est aussi motivé par l'évolutiondes outils informatiques : coût des machi-nes, réseaux de machines, Internet… Eneffet, Internet est aujourd’hui un autrechamp d’investigation privilégié de l’IAC oùdes agents collaborent dans une activitécommune (commerce électronique, recher-che d’information, …) sans algorithme decontrôle global. Ce sont souvent desapplications appelées systèmes ouverts car

le nombre d’agents du système évolue aucours du temps. Cette problématique seretrouve aussi dans le champ de la robo-tique collective.

Les domaines d'application précédents onten commun qu'ils situent les agentsindividuels mais aussi le collectif dans desenvironnements dynamiques où il faudrafaire face à l’imprévu et donc où il faudras’adapter. Ainsi, les agents doivent avoir lapossibilité d'échanger sur leurs problèmesrespectifs qu'ils vont nécessairementrencontrer dans leur activité, d’autant qu’ilsn'ont qu'une connaissance partielle dumonde dans lequel le système évolue. Siles agents n'ont jamais à faire face à desimprévus, alors la technique multi-agentn'est pas requise. Les travaux sur lesagents portant principalement sur lesinteractions, ils se sont inspirés de recher-che sur le dialogue humain, notamment lestravaux de J.L. Austin et J.R. Searle. Ils'ensuit des tentatives de formalisation desactes de communication et de standar-disation (voir FIPA dans la bibliographie).

Un autre axe important de recherches portesur le modèle d’organisation adéquat à laréalisation de la tâche collective. Il estavéré depuis longtemps qu’il n’existe pasd’organisation idéale et que le changementd’organisation est un moyen de transfor-mer la fonction du système. La questions’aborde ainsi dans trois directions selonles présupposés adoptés :

- Soit l'organisation est un élémentmaîtrisable du système et alors lesystème multi-agent apporte desconcepts et techniques issus de lathéorie des organisations, conduisant àdes spécifications de modèlesorganisationnels.

- Soit l'organisation est un élément nonconnaissable et il faut donner auxagents des stratégies pour participer àune activité collective cohérente. Lesmodèles "Beliefs Desires Intentions", oules réseaux de dépendances entreagents ont été définis pour permettre lamise en œuvre de telles organisations.

- Lorsque les travaux considèrent simulta-nément que l'organisation n'est pasconnaissable et les protocoles de sortiede crise ne le sont pas non plus, alorsc'est du domaine de l'émergence de

Page 12: L'Intelligence Artificielle mais enfin de quoi s'agit-il

fonctions collectives cohérentes à partird'entités ayant des comportementsélémentaires, tels les travaux en"emergent computation".

Marie-Pierre Gleizes et Pierre Glize

Formaliser et mécaniser différentstypes de raisonnement

Les raisonnements de sens commun, quel’homme effectue au quotidien, s’accom-modent d’informations incomplètes, incer-taines, voire incohérentes. Ils lui permettentde rapprocher des situations et detransposer des solutions, de tirer parti à lafois de faits généraux et d’exemples, ouencore d'appréhender de manièrequalitative des informations quantitatives.

De tels processus de raisonnementexcèdent les capacités de représentation etd’inférence de la logique classique (surtoutdéveloppée au XXième siècle en relationavec la question des fondements desmathématiques), et de la théorie desprobabilités en ce qui concerne certainsaspects de l'incertitude. Ceci ne signifie paspour autant que les raisonnements que faitl’homme en dehors de la déductionmathématique soient totalement dénués derigueur, ou de valeur pratique. Ainsi l’IAs’intéresse à formaliser différentes formesde raisonnement étudiées depuis long-temps par les philosophes : le raison-nement déductif (utilisé par exemple dansles syllogismes), le raisonnement inductif(ou de généralisation, exploité enapprentissage), ou le raisonnementabductif (qui cherche à expliquer, entermes de causes, une situation observéeet qui est à l’œuvre pour établir desdiagnostics), ou encore le raisonnementpar analogie. Ce dernier permet à partird’un répertoire de cas observés,d’extrapoler une conclusion plausible pourune situation rencontrée présentant dessimilarités avec des cas connus – parexemple deviner le prix possible d’unproduit à partir des caractéristiquesconnues de produits plus ou moinssemblables.

L’IA a également formalisé diverses exten-sions ou affaiblissements du raisonnementdéductif, que cela soit pour propagerl’incertitude (probabiliste ou non) associéeà des informations, ou pour pouvoirproduire des conclusions plausibles, en casd’information incomplète. Ces conclusionsplausibles peuvent êtres révisées à l’arrivéed'une nouvelle information. On conclura,

Page 13: L'Intelligence Artificielle mais enfin de quoi s'agit-il

par exemple, qu’un animal qu’on saitseulement être un oiseau, vole, car on saitqu’en général les oiseaux volent (tout ensachant aussi que les autruches et lesmanchots, qui sont des exceptions, nevolent pas). Apprenant ensuite que l’oiseauen question est une autruche, on seraamené à remettre en cause la conclusionprécédente. De fait, les règles “ si…alors… ” qui constituent un formatcommode pour exprimer des connais-sances (même spécialisées), ne spécifientpas toujours explicitement toutes lesexceptions des règles. Sinon elles seraienttrop lourdes à décrire et requerraientsouvent, pour être appliquées, plusd’informations qu’il n’en est de disponible.Un autre dépassement de la déductionclassique s’appuie sur l'idée de proximité(une conclusion, fausse à strictementparler, mais proche d’une autre conclusion,avérée quant à elle, sera considéréecomme presque vraie), et permet alorsd’obtenir davantage de conclusions parinterpolation entre conclusions avérées.

On peut aussi vouloir étendre l'inférencedéductive à la prise en compted'informations contradictoires. En effet, lesinformations dont on dispose viennentsouvent de sources multiples, de fiabilitésinégales, et leur mise en commun conduitsouvent à des incohérences qu’il convient,soit d’éliminer dans des processus de“ fusion ” d’informations, soit de prendre encompte si on cherche à développer dessystèmes capables de proposer desarguments et des contre-arguments enfaveur ou à l’encontre d’un même énoncé.Ceci peut se rencontrer notamment dansdes situations de dialogue, où chacun nedispose pas des mêmes informations etcherche à préciser ses informations, etaussi éventuellement à comprendre lesintentions de l'autre.

On perçoit la grande variété des problèmesde raisonnement auxquels l’IA s’intéressedepuis un quart de siècle. Parallèlement àdes recherches théoriques, de nombreux“ systèmes experts ” (c.à.d. exploitant desconnaissances fournies par des experts),de plus en plus puissants et sophistiqués,susceptibles de proposer des avis, dessolutions, des diagnostics, des pronostics,sont développés en pratique. De telssystèmes posent bien sûr des problèmes

d’interface avec l’homme (utilisateur,expert, concepteur) pour ce qui est de lareprésentation et de l’acquisition del’information. Il faut aussi les doter d’uneaptitude à fournir des explications, de façonà pouvoir éclairer les conclusions obtenuespar le calcul. Enfin la façon dontl’incertitude est appréhendée, et estrestituée à l’utilisateur, doit également êtreétudiée du point de vue de la psychologiecognitive.

Salem Benferhat, Claudette Cayrol,Didier Dubois et Henri Prade

Page 14: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Evaluer des situations, décider,planifier

La théorie de la décision (décision multi-critère, décision dans l'incertain, décisionde groupe) a été étudiée depuis plus decinquante ans par des économistes et deschercheurs en Recherche Opérationnelle. Ils'agit pour les premiers de modéliser laprise de décision chez des décideurs"rationnels", c'est-à-dire des agentséconomiques dont le comportement est enpermanence en accord avec des postulats,tandis que les seconds considèrent ladécision davantage dans une perspectivede problèmes d'optimisation où, parexemple, plusieurs critères interviennent.

Les modèles de la décision ainsidéveloppés, ont pour but le classement desdécisions possibles, souvent à l'aided'évaluations numériques (dont l'usage estjustifié par des postulats). Ces méthodesne permettent pas de remonter aisémentaux raisons qui font qu'une décision estmeilleure qu'une autre. Par ailleurs, cesmodèles supposent souvent la connais-sance de fonctions numériques pourévaluer les choix, et de distributions deprobabilité pour décrire l'incertitude sur lerésultat des actions. Cependant lespréférences des agents ne sont pastoujours connues de manière complète (etcohérente !) sous la forme de fonctionsd'évaluation. De même, ce qui est connudes résultats possibles des actions peutêtre de nature qualitative, et ne pas semettre aisément sous la forme deprobabilités précises.

La problématique de la décision n'a pas faitpartie des préoccupations centrales de l'IAjusqu'au début des années 90 : l'IA, étanttournée vers la modélisation symbolique etlogique du raisonnement, était en effetassez loin des opérations numériques decompromis utilisées en décision. Et ce,même si l'un des pionniers de l'IA n'étaitautre que le prix Nobel d'économie H. A.Simon. Il apparaît cependant depuisquelques années que l'IA peut apporter à laproblématique de la décision des outilspermettant une représentation plus soupleet plus qualitative de l'information, despréférences, et des buts poursuivis, et

propose des formulations qui se prêtentensuite plus facilement à des possibilitésd'explications des décisions proposées. Detelles approches s'avèrent utiles pourguider un usager dans ses choix, en luiproposant des solutions répondant à sespréférences, qu'il peut faire évoluer sinécessaire. Un système d'aide à la décisionpeut aussi s'appuyer sur les résultatsconnus de décisions prises antérieurementdans des situations similaires à celle oùune décision doit être proposée : cettefaçon d'envisager la décision est trèsproche du raisonnement à partir de casdéveloppé en IA.

Enfin la planification (qui inclut le suivid'exécution de tâches) est un problème dedécision étudié depuis une trentained'années en IA. Il s'agit de déterminer unenchaînement d'actions (le plus simplepossible) qui permette d'atteindre un but àpartir d'une situation donnée. Laplanification d'opérations élémentaires pourun robot (ou plus généralement unensemble de robots) en vue de réaliser unetâche plus globale est l'exemple classiqueen IA de ce problème, qui peut aussi serencontrer plus généralement dansl’organisation d’activités complexes. Unedes difficultés réside dans le fait qu'unesous-suite d'actions menant à lasatisfaction partielle du but recherché peutne pas constituer un morceau d'unesolution permettant de réaliser le butcomplètement. Depuis le début des années90, l'utilisation des probabilités ou d'autresmodèles de représentation, ont permisd'étendre cette problématique à desenvironnements incertains (où par exempleune action peut échouer), en prenant encompte des fonctions de coût et lapossibilité d’inclure des actions informa-tives (qui renseignent sur l’état du monde)à chaque étape décisionnelle.

Les situations précédentes ne concer-naient qu'un agent isolé (face à unenvironnement éventuellement incertain).Depuis une dizaine d'années, les cher-cheurs en IA se préoccupent également dela prise de décision concernant un grouped'individus. Il faut noter qu'il s'agit dedécision centralisée (par opposition à lasection ``Intelligence Artificielle collective''où il s'agit de décision distribuée) : ungroupe d'agents, ayant chacun ses

Page 15: L'Intelligence Artificielle mais enfin de quoi s'agit-il

préférences propres, doit parvenir à unedécision commune. Le critère de qualité decette décision commune dépend du typed'application considéré : ainsi, pour desproblèmes de vote ou plus généralementde recherche de compromis, il est importantd'obtenir une solution équitable; alors quepour des problèmes dits d'enchèrescombinatoires (de plus en plus utilisées encommerce électronique) il s'agit demaximiser le gain total d'un ensemble devendeurs (centralisés en un ``commissaire-priseur électronique''), en déterminant uneattribution optimale de biens aux agents(acheteurs), sachant que chaque agent aau préalable exprimé la somme d'argentqu'il est prêt à payer pour chaquecombinaison possible de biens.

Didier Dubois, Hélène Fargier, Jérôme Lang et Henri Prade.

Raisonner sur le changement,le temps et l’espace

Un système intelligent possède deuxcapacités fondamentales. Il s'agit d'une partde la possibilité de percevoir le mondeextérieur, et d'autre part de la faculté d'agirsur celui-ci. La perception s'effectue àtravers des capteurs, tandis qu'une actionest accomplie à travers le contrôle moteur(les effecteurs d'un robot). Dans le langageinformatique et dans la théorie du contrôle,ce sont ces capteurs qui fournissent lesentrées, tandis que les effecteurs fournis-sent les sorties. Une instance de ceschéma perception/action est par exemplela communication entre agents. A partir decette analyse, on obtient l'architecture debase d'un système intelligent si on ajoutecomme troisième composante l'état internedans lequel l'agent se trouve à un instantdonné. Les actions entreprises par l'agentsont alors fonction de cet état interne, quiest modifié en fonction des perceptions.

Pour être considéré comme intelligent,l'état interne de ce système doit luipermettre de raisonner. C'est pour cela quedans l'approche standard, cet état internerepose sur une représentation symboliquedu monde extérieur, constituée de "faits",c'est-à-dire d'assertions correspondant à ceque l'agent croit être vrai dans le monde.On appelle souvent ces faits internes lescroyances de l'agent. Bien sûr, cescroyances sont en général imparfaites(incomplètes, erronées), et de nouvellesperceptions mènent fréquemment à unchangement, ou mise à jour, de croyances.A un niveau élémentaire, un agent exécuteune action, le plus souvent au sein d'unesuite d'actions, que l'on appelle aussi plan.À un niveau plus élevé, l'agent qui exécuteune action cherche à atteindre un but,auquel il croit parvenir en exécutant un plangénéré préalablement. Ce sont donc sescroyances qui interviennent lorsqu'ilplanifie, c'est-à-dire qu'il raisonne pourgénérer un plan d'actions élémentaires àexécuter. Notons qu'un plan peut aussifaire appel aux capacités perceptives àtravers des actions communicatives ou desactions de test.

Page 16: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Les formalismes qui ont été proposésdans la littérature pour prendre en comptel'évolution des bases de connaissances (lesformalismes de mise à jour et deraisonnement sur les actions) se heurtent àplusieurs difficultés. La plus connue est lefameux problème de la persistance desinformations lors d'un changement (problè-me du "décor") : comment éviter de décrireles non-effets d’un changement ? Aussisurprenant que cela puisse paraître,beaucoup de formalismes nous forcent àpréciser que d’allumer mon ordinateur nemodifiera pas l’état de celui de mon voisin.Aujourd’hui on considère généralement quele problème du décor a été résolu dans saversion simple, à savoir que les actionsn’ont pas d’"effets de bord" : allumer l’unitécentrale de mon PC n’allumera pas sonécran. C’est donc l’interaction de ce dernierproblème dit "de la ramification" et duproblème du décor dans toute sa généralitéqui constitue un défi redoutable non encorerésolu à ce jour.

L’évolution d'un agent est rythmée parla perception d'objets, événements et faits,et par l'exécution d'actions, les actionsn'étant que des événements particuliers.D'autre part, générer un plan signifiedéterminer des actions à réaliser ainsi quela suite qu'elles constituent, c'est-à-dire leurordonnancement temporel. Le temps,paramètre fondamental dans le raison-nement des agents, doit donc êtrereprésenté. Comme pour tant de domaines,la nature ontologique du temps ne s'imposepas à nous de façon indiscutable, etdifférentes approches de la représentationdu temps ont été proposées dans lalittérature. Un facteur ayant motivé denombreux développements théoriquesconcerne la notion de durée des entitéstemporelles. Soit on fait l'hypothèse que lesdifférents événements (actions etperceptions) sont instantanés (ou que leurcomposante temporelle peut s'exprimer entermes d'instants), soit on considère leurétendue temporelle comme étant non nulleet irréductible. Cette seconde approche estla seule valable en général si l'agent nedispose pas d'une horloge internedéterminant un temps "absolu", et ne peutque situer temporellement les uns parrapport aux autres des événements diverscomme l'ouverture du robinet, l'eau qui

coule, le remplissage du verre et la noyadede la mouche. Les travaux ont montré queles systèmes de raisonnement temporeldits de "calcul d'intervalles" (bien que leterme "intervalle" désigne en mathéma-tique des ensembles convexes d'instants, ils'agit ici d'entités temporelles primitivesétendues) sont malheureusement pluscomplexes que ceux basés sur desinstants. Tous les problèmes d'ordonnan-cement exprimés en termes d'intervalles etqui sont "calculables" ne sont pas à ce jouridentifiés et classifiés.

On distingue les actions épistémiques(à effet sur les connaissances) et ontiques(à effet sur le monde physique), enconsidérant que les premières ont effetuniquement sur les états internes, tandisque les secondes ont des effets sur l’étatdu monde et s’inscrivent donc dansl’espace environnant le système. Pouvoirraisonner sur ces dernières actionsnécessite donc une modélisation del’espace. Comme pour le temps, on estconfronté alors à des choix dereprésentation. Bien qu’il soit possible derecourir à l’analyse mathématique classique(espace euclidien, coordonnéescartésiennes), beaucoup d’approches ontpréféré une modélisation qui soit nonseulement plus proche de la cognitionhumaine mais également plus robuste enprésence d'informations incomplètes ouimprécises. C'est pourquoi le raisonnementspatial dit "qualitatif" se base le plussouvent sur un espace à base d'objets,corps ou volumes ayant une extensionspatiale perceptible, plutôt que sur lesentités primitives abstraites que sont lespoints et les figures de la géométrieclassique. Si les travaux ont beaucoupavancé en ce qui concerne la modélisationdes concepts méréotopologiques (inclu-sion, contact) sur les objets ou les corps, àl'heure actuelle, raisonner de façonqualitative sur des concepts géométriques(distance, alignement, forme...) avec desentités étendues reste un problème difficile.

Andreas Herzig et Laure Vieu

Page 17: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Résumer, apprendre, découvrir

Lorsque l'on s'intéresse à la simulation ducomportement intelligent de l'homme parune machine, on peut distinguer l'aptitude àcomprendre et l'aptitude à apprendre, ensupposant que cela soit possible. Ledomaine de l'Apprentissage en IntelligenceArtificielle est simplement une tentative desimuler avec une machine cetteremarquable aptitude à apprendre dontl'homme fait preuve.

D'où les robots qui, après plusieurstentatives infructueuses pour suivre unepiste, apprennent qu'une porte s'est ferméeet qu'il faut trouver une autre solution, d'oùles logiciels qui induisent, à partir del'historique des connexions Internet d'unindividu, un profil psychologique (MonsieurUntel est un passionné de football, nes'intéresse que peu à l'actualité inter-nationale et semble rechercher unenouvelle voiture), d'où les programmes quiutilisent l'immense base de données dugénome humain, mettent en correspon-dance différentes observations etfinalement "découvrent" que tel gène estresponsable de telle maladie.

Nous sommes au cœur de la problématiquede l'apprentissage. Reste à savoir le sensprécis que nous donnons au mot"apprendre" et c'est le premier challenge del'informaticien dans ce domaine. D'oùl'importance des travaux théoriquesfondateurs qui tentent de donner un cadreformel à l'apprentissage par machine. Ondistingue alors des concepts qui peuventêtre appris d'autres qui ne le peuvent pas.Un peu à la manière dont les travaux deAlan Turing distinguent ce qui estcalculable de ce qui ne l'est pas ! Ons'aperçoit alors, que pour qu'un conceptsoit « apprenable » il faut qu'il puisse êtrerésumé (un informaticien dirait"compressé") mais évidemment cela n'estpas suffisant. "Apprendre" ce n'est passeulement "résumer", c'est plus que cela !En effet, il faut aussi que ce que l'on aappris permette de donner des réponses àdes questions autres que celles utiliséesdans le processus d'apprentissage : end'autres termes, "Apprendre" c'est aussi"Généraliser".

Dès lors, il est possible de chercher desalgorithmes et donc de construire desprogrammes qui "apprennent"... Leurexécution sur une machine donne alorsl'idée que la machine est à l'école. Surgitalors une nouvelle question : apprendre,oui mais à partir de quoi ? De quellesinformations dispose-t-on ? En général, leprocessus d'apprentissage suppose deuxagents au moins : un apprenti et unprofesseur. Là encore, on s'inspire dumodèle humain. Et un processus question-réponse s'engage. En simplifiant un peu, onapprend à partir d'exemples et de contre-exemples. Une large palette de techniquesont alors été développées pour apprendre àpartir d'exemples. Les méthodesstatistiques, historiquement les plusanciennes, sont très efficaces. Mais destechniques spécifiques à l'Informatique ontété développées à partir des années 80 :les réseaux de neurones qui simulentl'architecture du cerveau humain, lesalgorithmes génétiques qui simulent leprocessus de sélection naturelle des indi-vidus, la programmation logique inductivequi fait "marcher à l'envers" le processushabituel de déduction, les réseauxbayésiens qui se fondent sur la théorie desprobabilités pour choisir, parmi plusieurshypothèses, la plus satisfaisante.

Et si le professeur est absent ? Et c'estsouvent le cas quand on dispose degrandes quantités d'information (parexemple une base de données despersonnes atteintes de migraines sur les 5dernières années) et que l'on cherche àextraire des relations entre ces informa-tions. Par exemple, y a-t-il un rapport entrele fait d'être migraineux et le fait deposséder un téléphone portable ? Et si oui,quel est ce rapport ?

Dans ce cas, où personne ne guidel'apprenti, on parle de fouilles de données,de découverte de lois aussi. Il faut alorsadapter les méthodes évoquées plus hautpour tenir compte de l'absence d'exemplesqui pourraient nous guider. On peut utiliserdes techniques statistiques, mais si l'ondispose d'un nombre insuffisant dedonnées, on se tourne vers des méthodesfondées sur la logique.

Page 18: L'Intelligence Artificielle mais enfin de quoi s'agit-il

On voit qu’il n’y a aucun rapport entreconcevoir des machines qui apprennent etutiliser des ordinateurs pour faire del'enseignement (ceci relève del'Enseignement Assisté par Ordinateur ouEAO). Aujourd'hui, les machines commen-cent à apprendre mais les résultats, bienque souvent remarquables, sont encoreloin des performances d'un enfant del'école primaire qui apprend énormémentde choses sans que l'on comprenne biencomment. Ce qui signifie qu'il y a encore dutravail pour cloner l'homme par unemachine. Heureusement !

Gilles Richard

Langue et IA :des interrelations étroites

Les êtres humains sont capables decomprendre et de parler une ou plusieurslangues. Cette capacité langagière estindissociable de l'intelligence humaine. Ilest donc légitime de se poser la questiondes rapports qui unissent IA et langue.

Les textes de ce livret soulignent qu'unetâche centrale de l'IA est de formaliser lesconnaissances et les raisonnementshumains. Or la langue est le principalmoyen dont nous disposons pour exprimernos raisonnements et véhiculer nosconnaissances. Les messages ou échan-ges en langue naturelle représentent donc,pour certains chercheurs en IA, un terraind'observation privilégié. Ainsi, par exemple,l'étude de l'expression de l'espace (àtravers les prépositions, les verbes, lesnoms de localisation, ...) dans la languepermet-elle de faire avancer les études surle raisonnement spatial, ou bien l'étudesystématique de corpus de textesspécialisés permet-elle d'acquérir laconnaissance spécifique à un domaine àtravers l'étude de l'organisation du lexiquespécialisé de ce domaine.

D'un autre côté, si l'on cherche à doterl'ordinateur de capacités ressemblant àcelles de l'homme, il est naturel d'envi-sager de rendre l'ordinateur capable decomprendre, ou en tout cas de traiterautomatiquement des informations enlangue naturelle, et de le rendre capable degénérer des messages en langue naturelleà bon escient. C'est là que l'IA etl'informatique linguistique se rejoignent.

L'analyse automatique du langage est uneentreprise difficile qui met en jeu une trèsgrande diversité de modes de raison-nements et de connaissances. En effet,outre le vocabulaire très vaste et enévolution constante et le très grand nombrede constructions grammaticales, le langageabonde en éléments et structures ambigus,en données implicites qu'il faut recons-truire, ainsi qu'en une proportion élevéed'énoncés incorrects grammaticalementmais qui demeurent néanmoins tout à faitcompréhensibles.

Page 19: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Pour illustrer la fécondation mutuelle de l’IAet de l’informatique linguistique, prenonsles champs de la sémantique et de lapragmatique. Il s’agit de construire unereprésentation de messages en languenaturelle qui soit manipulable par lamachine. Ceci implique la modélisationd’un très grand nombre de phénomènessémantiques, comme les mécanismes deréférence (pronominale, spatiale, tempo-relle : de là, je te voyais avec ses jumelles),la quantification, les opérateurs complexes(négation, modalités, opérateurs épistémi-ques, argumentatifs parce que, à causede), la dynamique générative du langage(production de métaphores, métonymies,glissements ou fluctuations sur les sensétablis: des idées rouillées, vendre unPicasso, etc.). En plus des phénomènesliés au sens et aux rapports que lesénoncés établissent avec le monde, il estnécessaire de s’intéresser à desphénomènes concernant la mise encontexte de l’énoncé dans une situation decommunication. Ainsi, pour le dialoguehomme-machine, on cherche à formaliserles actes de langage, à prendre en comptele modèle de l'usager, locuteur ou auditeur,à représenter l’évolution des connais-sances et croyances au cours du dialogue,et pour pouvoir générer des réponses, àmodéliser la façon de présenter,d'argumenter et d'être coopératif vis-à-visd'un usager.

Une part croissante de l'informatiquelinguistique devient une discipline techno-logique, avec des enjeux majeurs dansl'industrie et dans la société. Elle imposedes exigences d'efficacité, de simplicité etd'expressivité dans les mécanismes etdans la représentation de volumesconsidérables de données. De ce point devue, les techniques d'acquisition et demodélisation automatique de la connais-sance sont précieuses. Tandis que lesapplications qui gravitent autour del'indexation automatique, la recherched'informations, voire la traduction auto-matique, font un usage encore modéré destechniques de l'IA, d'autres champs telsque le dialogue, le résumé automatique oules interfaces homme-machine coopé-ratives doivent et font massivement appel

aux travaux de l’IA en matière deformalisation du raisonnement.

D'un point de vue fondamental, l'analyse dulangage et l'informatique linguistique sesont repositionnées. Partant de repré-sentations et de raisonnements idéalisés,dans la tradition de pensée cartésienne oude l'esprit - logique pure, de nombreuxtravaux, s'inscrivant dans une doubleperspective cognitive et anthropologique,ont montré que nos concepts, mêmes lesplus abstraits, sont largement méta-phoriques, c’est-à-dire construits parabstraction à partir de représentationsconcrètes. D'autres travaux, en particuliergénérativistes, ont montré que le langageapparaît davantage comme une compo-sante instinctuelle qu'une aptitude acquise.Les relations IA - informatique linguistiquesont donc en pleine évolution. Un axe quiinclut les paradigmes proposés, entreautres, par Darwin, Turing et Chomsky seconstruit et se trouve singulièrement mis enlumière : évolution et dynamique créativedu langage, calcul, et modélisation parprincipes et paramètres postulés êtreinstinctuels, implémentés par descontraintes aux dépens de lourds systèmesde règles, postulées acquises.

Myriam Bras et Patrick Saint-Dizier

Page 20: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Indexation multimédia et IA

Si les ressources multimédia disponiblesaujourd'hui sur ordinateur sont à la foisnombreuses et volumineuses, elles restentsouvent d'un accès difficile en raison del'absence d'index systématique recensantles informations pertinentes sur leurcontenu. Il n'est pas toujours possibled'associer manuellement une descriptiontextuelle ou quelques mots clés à uncontenu multimédia pour faire desrecherches ultérieures sur ces infor-mations. Dans ce cas, l'indexation auto-matique doit prendre le relais.

Les chercheurs impliqués dans le domainetravaillent sur l'ensemble des points de lachaîne qui relie la production du documentà la consultation de celui-ci en passant parson encodage et son stockage. Que ce soitpour l'extraction de connaissances sur lecontenu des documents, la gestion et lastructuration des données produites et leurmise à disposition auprès des utilisateurs,l’IA est de plus en plus fortement impliquéedans la chaîne d'indexation automatiquemultimédia.

Pour les documents déjà existants qu'ils'agit d'indexer automatiquement, une desétapes les plus importantes consiste àextraire les données descriptives appeléesmétadonnées. Ces métadonnées sont, parexemple, les segments temporels ou lesrégions correspondant à un objet importantou pour le moins structurant du document.Cette extraction automatique des méta-données demande la mise en oeuvred'outils de reconnaissance des formes, oul'apprentissage de modèles des documentsà analyser. On peut ainsi utiliser desmodèles dits "stochastiques" qui carac-térisent l'évolution dans le temps ou dansl'espace du contenu : en parole, unelocution s'exprime par une succession deréalisations de phonèmes ; dans uneémission de télévision, telle séquence atoujours lieu avant telle autre. Cesmodèles, appris a priori en fonction desobjets à reconnaître, permettent ainsi à lamachine de localiser tel ou tel évènement.D'autres techniques consistent à exploiterune connaissance experte transcrite àtravers une base d'heuristiques. On peut

ainsi signaler à la machine que la présenced'un objet dans une image se caractérisepar la présence d'une région de telle forme,telle couleur et telle texture. Parfois, cettecombinaison entre plusieurs descripteursde bas niveau ne peut pas être formulée defaçon précise et catégorique. On utilisealors les outils de la logique floue pourappréhender des spécifications référant àdes propriétés non-tranchées. Parexemple, pour détecter une page depublicité diffusée à la télévision, on peut lacaractériser comme étant un segmentayant un montage assez rapide, desmouvements d'objets ou de caméraimportants, et présentant visuellement denombreuses couleurs vives et contrastées.

L'indexation multimédia pose également lesproblèmes de la représentation, de lastructuration et de l'exploitation desmétadonnées dans un même système, ouentre systèmes différents. Des choixjudicieux et des technologies spécifiquess'imposent afin de gérer une connaissanceextraite pas toujours fiable et précise, deconstruire des index et de définir desdistances pour optimiser le temps et laqualité de la recherche d'une information,de traduire ces index en élargissant leurcontenu sémantique, d'établir des liensentre eux, d'étudier la nature des structureset des liens pour améliorer l'exploitation desdonnées.

L'exploitation "intelligente" des données vade pair avec l'élaboration d'outils deconsultation "savants" susceptibles des'adapter à différents modes d'accès et àdifférents types d'usage. De nombreuxtravaux de recherche ont été ainsi menés,visant à modéliser les intérêts desutilisateurs et à comprendre leur démar-che. Ce type d'information, couplé à unmode de représentation symbolique ducontenu, peut permettre par exemple deconstruire dynamiquement des cheminsoptimaux vers les données recherchées enprenant en compte des considérationsergonomiques et cognitives.

Le domaine d'application de l'indexationmultimédia est vaste : il relève aussi biende l'aide à la production que de l'aide àl'analyse, de la conception d'outils d'archi-vage que d'outils d'encodage. Même si des

Page 21: L'Intelligence Artificielle mais enfin de quoi s'agit-il

solutions ont dû être trouvées dans chaquedomaine pour combler des besoinsévidents, aucune approche homogènen'avait été jusqu'alors proposée. Il est doncbien ici question de convergence destechnologies parmi lesquelles l’IA a un rôleimportant à jouer.

Régine André-Obrecht et Philippe Joly

La Réalité Virtuelle et l'IA

La Réalité Virtuelle propose de nouvellesformes d'interaction entre l'homme et lessystèmes. L'avènement de stations detravail en réseau dotées de très fortescapacités graphiques 3D couplées à denouveaux périphériques de visualisation etd'interaction dont l'usage est intuitif(casque, gant...) permet de fournir àplusieurs utilisateurs les informationssensorielles nécessaires pour lesconvaincre de leur présence dans unmonde synthétique. De plus, la possibilitéde manipuler certains aspects de cesmondes virtuels quasiment comme dans lavie réelle offre aux intervenants lapossibilité d'utiliser leur expérience et leurscapacités naturelles pour travailler de façoncoopérative. Les mondes synthétiquescréés et gérés par un système de RéalitéVirtuelle Distribuée peuvent donc êtrevirtuellement peuplés par de nombreuxutilisateurs qui interagissent, à travers despériphériques spécialisés, avec cesmondes virtuels et en particulier avec desentités autonomes, animées et dotées decomportements complexes : descomportements collaboratifs, mais aussiadaptatifs et pas uniquement réactifs, c'est-à-dire avec la capacité de raisonner etd'apprendre, ou encore cherchant àanticiper la dynamique du monde danslesquelles elles se trouvent, voire decomportement émergent. Les travaux enréalité virtuelle sont ainsi à la frontière denombreux domaines : les systèmes (etapplications) distribués, les réseaux, lamodélisation géométrique et la synthèsed'images, l'interaction homme-système,pour les systèmes en eux-mêmes, maisaussi, les techniques issues de l'intelli-gence artificielle classique ou de la vieartificielle, pour la gestion des entités(agents) autonomes ou semi-autonomesdotées de comportements.

Un aspect important des travaux ensynthèse d'image, en CAO et donc enréalité virtuelle, concerne la modélisationde l'univers virtuel. Le but de cette premièreétape, cruciale pour la création de mondes3D complexes, est de fournir unedescription géométrique 3D de l'univers.Pour faciliter et automatiser cette tâche

Page 22: L'Intelligence Artificielle mais enfin de quoi s'agit-il

complexe, mais aussi pour la contrôler, ilest nécessaire de gérer des contraintes oude vérifier des propriétés sur les objets ousur la scène. Ainsi, la modélisationdéclarative et la modélisation par contraintes'intéressent à des problématiques del'Intelligence Artificielle, comme le langagenaturel et la sémantique des propriétésspatiales et à leur traduction en unensemble de grande taille de contraintescomplexes alimentant des résolveurspouvant utiliser une exploration de l'espacedes solutions soit exhaustive soitstochastique.

Pour la simulation des acteurs comporte-mentaux peuplant les univers virtuels, laproblématique est la même pour desapplications industrielles de simulation quepour ce qui existe dans les jeux vidéos ouen animation de synthèse pour le cinéma.Des techniques de l'animation de synthèse,de l'intelligence artificielle, de la robotiqueet de la vie artificielle sont donc utilisées, àtravers des systèmes hybrides (à la foisréactifs et délibératifs), pour donner descapacités d'autonomie aux entités compor-tementales et les doter de facultésd'apprentissage, de réaction, de dialogue(la communication entre agents et avec desavatars), de planification de leurs tâches (etde leurs trajectoires). Les premierssystèmes comportementaux utilisaient dessystèmes à base de règles et de moteursd'inférence, mais actuellement, ilsemploient des réseaux de neurones, dessystèmes de classifieurs, des algorithmesgénétiques et des systèmes multi-agents.

Une des motivations actuelles les plusprometteuses pour la modélisation de cesacteurs de synthèse est de reproduireartificiellement des propriétés du vivantliées à l'adaptation. La première formed'adaptation considère un point de vueplutôt centré sur l'individu et sur la manièredont celui-ci peut apprendre au cours de savie, en fonction de ses différentesconditions environnementales. La secondeest plus axée sur l'espèce et descaractéristiques génétiques qui la compo-sent, et se concentre sur la modélisationdes théories de l'évolution et sur la manièredont elles peuvent améliorer lesperformances des individus en les faisantévoluer. Finalement, la dernière met

l'accent sur les phénomènes collectifs etsociaux pouvant apparaître dans desgroupes d'individus, tels que les processusde communication ou encore de coopé-ration. Certaines de ces préoccupationssont aussi au cœur de recherches actuellesmenées en Intelligence Artificielle.

Les études et les développements autourde la Réalité Virtuelle apportent doncsouvent des contributions significatives etoriginales aux différents domainesévoqués, à travers toutes ces nombreusesinteractions.

Yves Duthen et Jean-Pierre Jessel

Page 23: L'Intelligence Artificielle mais enfin de quoi s'agit-il

La place de l’IA

dans

les sciences

IA et mathématiques

Le besoin d'appréhender et de manipulerde manière formelle cette nouvelle entitéqu'est l'information dans ses différentsaspects, a accru l'intérêt pour certains outilsde modélisation mathématique, conduisantquelquefois à de nouveaux usages denotions anciennes, voire audéveloppement, d'abord empirique, denouveaux outils de formalisation. Cela estvrai pour les sciences du traitement del'information en général, et pour l'IA enparticulier.

Il en est ainsi de la logique. La logiques'intéresse traditionnellement à la formali-sation du raisonnement. L'étude duraisonnement mathématique a été à labase du développement de la logique dansla première moitié du XXième siècle. Cela apermis de donner une définition précise dela notion de calcul effectif, constituant ainsile point de départ de l'informatique. Avecl'IA, d'autres types de raisonnement quecelui de mathématiciens sont devenus dessujets importants d'étude. Ainsi, sontapparues de nouvelles techniques permet-tant l'étude systématique de logiques ditesnon-classiques, dans lesquelles- des concepts comme la connaissance, letemps, l’incertitude, ou la croyance sontformalisés,- des méthodes automatiques de preuvepour ces logiques sont définies,- ainsi que de nouvelles applications à desdomaines aussi variés que la synthèse deprogrammes et la construction de logicielssûrs, ou la formalisation de la notiond'agents (également en relation avec lathéorie des jeux).

Les probabilités, avec le développementdes "réseaux Bayésiens" pour le traitementd'inférences incertaines, ont conduit à unimportant renouveau des préoccupationsalgorithmiques dans ce domaine. Lesmathématiques concernant les structuresdiscrètes (c’est-à-dire à caractère "disconti-nu"), les représentations par graphes, lesmodèles à base du calcul des relations sonttrès employées.

Le besoin de modèles qualitatifs, a conduità l'usage de structures algébriques exoti-

Page 24: L'Intelligence Artificielle mais enfin de quoi s'agit-il

ques, où les opérations maximum, ouminimum, remplacent la somme ou leproduit de l'algèbre linéaire. A coté desprobabilités, de nouveaux cadres demodélisation de l'incertitude sont apparuscomme les fonctions de croyance (quientretiennent des relations avec lesensembles aléatoires), ou la théorie desfonctions de possibilité et de nécessité, quiutilise largement les opérations maximumet minimum, tout comme la théorie desensembles flous (qui traite de classes et depropriétés aux frontières non-tranchées, oùon peut passer graduellement del'appartenance à la non-appartenance).

Didier Dubois, Luis Fariñas del Cerro et Henri Prade

IA et informatique

Le catalyseur qui a conduit à la naissancede l'IA a été l'apparition des premiersordinateurs, qui fut elle-même précédée parune période florissante pour ledéveloppement des fondements logiquesdes mathématiques, de la théorie de lacalculabilité et des automates. L'IA est ainsiapparue en tant que discipline à l'intérieurde l'informatique dans le but de donner àl'ordinateur une nouvelle fonctionnalité cellede "penser".

Les caractéristiques essentielles de l'IAapparaissent plus "nettement" dans lanature même des informations (respective-ment des problèmes) et dans la manière deles représenter (respectivement de lesrésoudre). En effet, les systèmes d'IA ontbesoin d'intégrer et de manipuleravantageusement à la fois les informationsde type symbolique mais aussi numérique.Ils doivent aussi pouvoir s'accommoder dessituations où les informations traitées sontincomplètes, inexactes, voire conflictuelles.Une autre caractéristique de la rechercheen IA concerne le développement d'unealgorithmique nouvelle pour résoudre desproblèmes, comme la planification parexemple.

Sans entrer plus avant dans desconsidérations théoriques, nous adoptonsdans la suite, un point de vue pratique, endonnant quelques exemples des apportsréciproques de l'informatique et de l'IA.

Cette nouvelle problématique a permis dedévelopper de nouveaux domaines eninformatique comme par exemple, la miseau point de méthodes permettant lamécanisation du raisonnement, ainsi que ledéveloppement de méthodes de déductionpermettant la preuve automatique dethéorèmes, ou encore les nouvellestechnologies de l'information (bases dedonnées et Internet), la formalisation de lacommunication entre l'homme et lamachine, le traitement automatique dulangage naturel.

Ce type de recherche a permis aussi d'unepart, la définition de nouveaux langages deprogrammation comme les langages objets

Page 25: L'Intelligence Artificielle mais enfin de quoi s'agit-il

(qui sont liés aux réseaux sémantiques etdistinguent les objets et classes d'objets),les langages fonctionnels (ex. LISP), ou leslangages basés sur la logique (commePROLOG), et d'autre part, d'aborder desproblèmes au cœur de l'informatique,comme par exemple, déterminer si unprogramme est correct, ou en faire lasynthèse, sans oublier les systèmes d'aideà la configuration, à l'exploitation et à lamaintenance des systèmes informatiques.

Luis Fariñas del Cerro et Lakhdar Saïs

L’IA et les sciences dutraitement de l’information

Les Sciences du Traitement del’Information et de la Communication (STIC)sont quelquefois confondues avecl'Informatique, science du calcul, numéri-que ou symbolique, sur ordinateur (tantdans ses aspects algorithmiques, quelogiciels ou matériels). Les STIC, qui certesbénéficient de la puissance calculatoire desmachines informatiques, concernent tousles problèmes posés par la manipulationd'un "matériau" dont la spécificité etl'importance se sont affirmées depuis undemi-siècle : l'information.

En effet, l'information existe sousdifférentes formes (tableaux de données,textes, images, sons,...) et requiert denombreux traitements de diverses sortespour être utilisée par l'homme à différentesfins. Ainsi, très schématiquement, on peutdistinguer trois grandes familles detraitements qu'on peut souhaiter faire surl'information :

- i) ceux ayant pour but de l'élaborer, del’interpréter, c.à.d. de la mettre dans uncertain cadre représentationnel afin depouvoir la communiquer, soit à un usager,soit à un nouveau module de traitement ; ils'agit alors de la "débruiter", de la "lisser",c.à.d. de l'épurer, mais aussi de classifier,de structurer, de résumer l'information, dela présenter sous forme synthétique ;

- ii) ceux ayant pour fonction de la stocker,de la retrouver et de l'expliciter; il s'agit icinotamment de techniques de compressiond'information, de langages d'interrogationayant éventuellement des capacitésd'inférence pour pouvoir produire denouvelles conclusions à partir desinformations disponibles, et les expliquer ;ceci suppose de concevoir des interfacessatisfaisantes pour les usagers. Il convientégalement de sécuriser l'information et d'enréglementer l'accès, ou encore de la"banaliser" si on doit protéger l'anonymatde personnes auxquelles elle réfère ;

- iii) enfin les traitements visant à exploiterl’information dans des environnementsstatiques ou dynamiques, en général dans

Page 26: L'Intelligence Artificielle mais enfin de quoi s'agit-il

une perspective de décision et d'action ; ilest alors question de trouver des solutions,éventuellement optimales, à des problè-mes exprimés sous forme de contraintes,d'évaluer des situations selon de multiplescritères, de proposer des décisions enprenant en compte l'incertitude sur leursrésultats, de piloter automatiquement dessystèmes dynamiques, de prédire lecomportement de systèmes, d'évaluer leurfiabilité.

Ces différentes préoccupations ont donnénaissance depuis les années 40-50 à denombreuses spécialités, aux noms plus oumoins explicites, qui toutes participentd'une façon ou d'une autre à laproblématique des STIC : le Traitement duSignal, l'Analyse de Données, la Recon-naissance des Formes, l'InteractionHomme-Machine, les Bases de Données,la Recherche d'Information, l'IntelligenceArtificielle, l'Automatique, la RechercheOpérationnelle, ici grossièrement ordon-nées selon leur implication dans les troisfamilles de traitements qu'on vient dedécrire à grands traits. A côté de cesdisciplines focalisées sur des questionsspécifiques que nous ne préciserons pasdavantage ici, il existe aussi desthématiques de recherche transversales,centrées sur le type d'informationconsidéré, comme le Traitement d'Imageset la Vision par Ordinateur, ou comme leTraitement du Langage Naturel (paropposition aux langages artificiels del'informatique), ainsi que la LinguistiqueComputationnelle.

Signalons enfin des problématiques derecherche qui sont plus centrées sur ledéveloppement d’un type d’outils que surune classe de traitements, mais quipeuvent réunir aussi des communautés dechercheurs : citons par exemple, lesRéseaux de Neurones artificiels (pour laclassification et l’apprentissage), lesAlgorithmes Génétiques (une classe deméta-heuristiques utilisée en optimisation),ou la Logique Floue (orientée vers lamanipulation de catégories aux frontièresmal définies mais plus flexible pourappréhender la réalité). Notons que d’unemanière ou d’une autre ces trois exemplestirent leur idée première de paradigmesinspirés du vivant ou de l’humain.

L'IA, comme le suggèrent ses différentsparadigmes de recherche, présentés dansce livret, opère à la confluence des troisfamilles d'opérations citées plus haut et setrouve ainsi au coeur des STIC. En effet,elle se préoccupe de la manipulationd'informations pour l'essentiel non-numériques, de mécanismes généraux deraisonnement, de résolution de problèmeset d'outils pour l'explication des résultats.Ainsi, l'IA propose-t-elle des outils pour la"fouille" de bases de données afin d'enextraire des connaissances synthétiques oud'y découvrir des informations cachées, dediagnostiquer des situations, ou d'aider àsuperviser la conduite de systèmes.Clairement, dans la plupart des applica-tions, l'IA, même quand elle en est unecomposante prépondérante, n'intervientpas de manière isolée, mais au contraire enrelation étroite avec d'autres disciplines desSTIC.

La Robotique est un bon exemple dedomaine spécialisé où les STIC, et notam-ment l'IA, ont une place importante. L'IA yest utilisée pour maintenir des représenta-tions dynamiques de l'environnement desrobots, les munir de capacités deplanification d'actions ou de génération detrajectoires évitant les obstacles, d'inter-prétation d'images, et éventuellement decommunication en langage naturel. Maisles robots sont en général plus que de"simples cerveaux" (spécialisés), puisqu'ilsdisposent de capteurs et d'effecteurs pourla locomotion et la préhension dont lamaîtrise pose aussi de nombreuxproblèmes de mécanique, d'ingénierie etd'informatique. A la jonction de laRobotique, de l’IA Multi-Agents et de laRéalité Virtuelle, la Vie Artificielles’intéresse, elle, à l’étude, la simulation oula réalisation d’êtres animés artificielscapables d’effectuer de manière adaptativedes tâches spécialisées.

Didier Dubois et Henri Prade

Page 27: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Sciences de la cognition et IAVisages multiples

d’un projet (presque) unique

Quelques mots de présentation sontnécessaires, même si on ne tentera pas icide cerner complètement l’univers multipledes sciences de la cognition, d’autantqu’elles peuvent recevoir des définitionsconcurrentes qui trahissent à la fois leurjeunesse et la multiplicité de leurs objectifs.Une définition minimale serait de direqu’elles ont pour objet de décrire,d’expliquer et le cas échéant de simuler lesprincipales dispositions et capacités del’esprit humain - langage, raisonnement,perception, coordination motrice,planification...“ (Daniel Andler, Encyclop.Universalis, 1989). Même une esquisseaussi ténue suffit à indiquer qu’une telleambition est fondamentalement transdisci-plinaire et qu’elle exige la collaboration dedisciplines aussi diverses que laneurophysiologie et la neuropsychologie, lapsychologie, la linguistique et lapragmatique, la philosophie de l’esprit,l’anthropologie culturelle... ceci pour laphase de description empirique desphénomènes cognitifs et leur interprétation,la mathématique et la logique pour leurreprésentation formelle et leur modélisa-tion, enfin l’informatique théorique quifournit le paradigme fondamentalementcomputationnel de la cognition et qui de cefait ouvre la voie à la simulation de certainscomportements cognitifs. C'est dans larésolution des problèmes formels etcalculatoires que soulève la mise en œuvrede cette simulation de comportementscognitifs par une machine que résidel'essentiel des tâches de l'IA.

Vu de plus près, ce cadre général révèlepourtant un clivage théorique importantentre les deux grandes orientations de larecherche cognitive. On distinguera lecognitivisme "classique", construit autourde la notion de processus mental, dont lareprésentation s'exprime dans deslangages symboliques discrets (comme lalogique), et dont la "dynamique" met en jeules concepts de mémorisation et detraitement de l'information. Les calculs quiréalisent ces processus s’effectuent

idéalement dans des architecturescomputationnelles séquentielles, c’est àdire isomorphes à celle des ordinateurs detype Von Neumann classiques. Sonprogramme porte sur la description desactivités mentales caractéristiques decomportements psychologiques et linguisti-ques aussi divers que la reconnaissance deformes, la compréhension et la productiondu langage, l’acquisition de connaissances,la conduite de raisonnements et la prise dedécisions ou même la manifestation d’étatsémotionnels.

La conception complémentaire de laprécédente, dite "sub-symbolique", estfondée sur un paradigme biologique,attaché comme son nom l’indique à ladescription des structures et des fonctionsneuronales sous-jacentes aux phénomè-nes mentaux évoqués plus haut, mais aussià d’autres phénomènes n’accédant pasnécessairement au niveau mental maisnéanmoins très importants, par exemple lecontrôle du comportement sensori-moteur.Les modèles dans cette approche s’expri-meront surtout au moyen de formalismesdu continu comme l’analyse non-linéaire oules processus markoviens, et leurtraitement s’effectuera dans des archi-tectures hautement parallèles du type"réseaux de neurones" ou automatescellulaires.

Une seconde distinction doit être faite selonla conception, en quelque sorte "sociale",dont on affecte l'exercice de l'intelligence.Dans la première, qui a donné naissance àl’IA classique, celle-ci est l'apanage d'unagent cognitif individuel. La secondearchitecture cognitive pourrait être qualifiéede "collective" ou "distribuée", puisqu'elledéveloppe de manière plus spécifique unesérie de recherches sur les techniques derésolution collective de problèmes par desentités appelées "agents" coopérant ausein d'un même système. Ces systèmes,dans lesquels les connaissances, lestraitements et le contrôle sont distribués,réalisent une fonction globale qui est parexemple mise en œuvre pour simuler lecomportement de collectivités naturellesaussi diverses que des organismescellulaires (neuronaux) ou des coloniesd'insectes.

Page 28: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Ensemble, ces approches affichent uneambition qui ouvre des territoires nouveauxet assez bouleversants à la penséescientifique. Il y aurait bien entendu unedémesure inquiétante dans cette ambitionsi elle était prise au pied de la lettre, c’est-à-dire sans les restrictions inséparables detoute démarche scientifique. Le sens desmots varie subrepticement selon qu’ils sontemployés dans le langage courant ou danscelui du projet scientifique. Vues de plusprès, quelles sont les contraintes associéesaux objectifs du projet cognitif? La premièreexigence porte sur la délimitation au niveauempirique du domaine de l’analyse - lelangage, la perception, le raisonnement… -ce qui restreint immédiatement la portéedes résultats éventuels à une classe dephénomènes cognitifs. Leur extrêmediversité ne permet certainement pas detirer de conclusions quant à la cognition engénéral. En outre, il ne faut pas oublier qu'àcette "segmentation" sur des critèresempiriques vient se superposer en quelquesorte, pour la plupart des phénomènescognitifs, la diversité des options théoriqueset méthodologiques évoquées plus haut.

Il s’ensuit que la connaissance éventuellesera doublement circonscrite: par lesdélimitations a priori et par les choixthéoriques selon lesquels est conduitel'étude. On a pu dire que la toile de fond del'"IA classique" est mentale. Si l’on voulait,comme le fait parfois l'IAD, descendrejusqu’au niveau neuronal, il faudrait êtrecapable de décrire les structures etfonctions cérébrales impliquées dans lesprocessus mentaux considérés, ce quisuppose pour le moins des recherchesneuro-psychologiques importantes.

Les formes de l’activité de l’esprit sontconfrontées aux formes de la viesensorielle et cérébrale, mais il ne s’agitplus ici de corrélations behaviouristes sansprincipes. La révolution conceptuelleapportée par les sciences cognitives tientpour l’essentiel à la nature de la médiationque la théorie de la computation effective(sous ses diverses formes) a permisd’établir entre la sémantique des systèmessymboliques et les opérations program-mées sur ces symboles d’une part,l’architecture matérielle des machines et ladynamique des transformations réglées de

leurs états internes d’autre part. Entre lesoftware et le hardware, transposés auxstructures de l'univers mental et auxprocessus biologiques associés, l’informati-que fondamentale a défini un cadreconceptuel qui permet pour la première foisd’articuler avec rigueur les différentsavatars de la cognition et par conséquentde lancer un programme cohérent derecherches expérimentales aussi bien queformelles.

Encore faut-il ne pas faire de confusion : ilne s’agit pas d’assimiler le fonctionnementdes machines à celui de notre pensée,mais plutôt, sur la base d’un certain nombred’hypothèses théoriques, de voir dansquelle mesure la référence aux machinespermet, au prix de travaux originaux surnous-mêmes, d’éclairer le fonctionnementde notre pensée. On se situe là au coeurdu débat philosophique très vif sur lesrelations entre le physique, le biologique etle mental que ces recherches ont contribuéà renouveler. Un enjeu majeur pour l'avenirdu savoir sur nous-mêmes.

Mario Borillo

Page 29: L'Intelligence Artificielle mais enfin de quoi s'agit-il

L’IA et la théorie des systèmessymboliques

Quelles relations entretiennent exactementmadame Laetitia Casta, les milliers destatuettes censées représenter une partiede son anatomie, le prénom de“ Marianne ”, et l’objet ainsi dénommé, lui-même censé représenter la RépubliqueFrançaise ? Ces relations sont-ellestributaires de propriétés esthétiques de cesstatuettes, ou (et) de leur ressemblanceréussie avec le “ modèle ” ? La localisationde ces dernières joue-t-elle un rôle (dansune mairie vs chez un particulier vs dans unentrepôt) ? — Quelles relations précisesexistent entre une partition musicale et uneexécution, et entre de multiples exécutions,de cette partition ? Et entre un tel type denotation et d’autres (chorégraphiques,gymniques, etc.) ? — Comment fonctionneexactement un diagramme, un graphique,un schéma, un plan d’architecte, une cartegéographique ? Appellent-ils un modespécifique de raisonnement à côté duraisonnement de type propositionnel ouvisuel ?

“ Une enquête systématique sur lesvariétés et les fonctions des symboles ararement été entreprise ” note N. Goodmandans l’Introduction des Langages de l’artqui constituent justement une telle enquêtesystématique. Il précise que le termesymbole “ recouvre les lettres, les mots, lestextes, les images, les diagrammes, lescartes, les modèles, et bien d’autreschoses ”, et un programme tel que FoR(Forms of Representation, cf. Peterson)comporte effectivement “ bien d’autreschoses ” encore. Et l’on peut être saisi dudoute de la pertinence scientifique dugroupement des questions indiquées pourcommencer, comme de l’homogénéité decet ensemble de dispositifs notationnels quisemble par exemple hors de portée d’uneapproche sémiologique post-saussurienne.N. Goodman a initié une problématiquesémiologique nouvelle en instituant cettelégitimité et cette homogénéité au niveauabstrait des formes de référence etd’identification opérées par les systèmessymboliques, et c’est principalement à ceniveau que l’IA peut être intéressée par, etintéresser, cette discipline puisqu’il met en

jeu des modes de représentation, deréférence et de raisonnement. Troisaspects illustratifs peuvent être signalés.

Sur le plan de la théorie de la référence, lesnotations issues de systèmes symboliquesdoivent satisfaire, pour qu’elles remplissentcorrectement les fonctions indiquées, desprérequis et contraintes qui garantissentleur univocité et leur efficacité : ne noterque ce qui est constitutif en laissant tout cequi n’est pas déterminant hors de lanotation ; être complètes (tous les cas sontprévus), consistantes (il n’y a pas decontradiction), compactes (il n’y a pas deredondance inutile), etc. Les recherchessur ces points conduisent à identifier etdéfinir formellement des formes originalesde référence telle que ressemblance,exemplification, expression, illustration,légendage, ou à redéfinir la relationmétaphorique.

En second lieu, les notations symboliquesconstituent, parmi tous les objets (au sensle plus large du mot) fabriqués parl’homme, des supports de l’exercice defacultés ou capacités cognitives, telles lamémorisation ou l’action. Il s’agit alors dereprésentations externes (RE) si on lesconfronte aux représentations internes (RI)à l’esprit/cerveau qui résultent du traitementcognitif de l’information par les êtresvivants. Quelles sont alors les relations denature logique entre ces deux types dereprésentations ? Les RI ne sontappréhendables indirectement qu’à traversdes hypothèses où les RE peuvent jouer unrôle décisif, bien qu’il soit avéré que les REne sont en aucune manière une copie ouune image des RI ; mais par ailleurs, les REpeuvent servir de base à la constitution desreprésentations des connaissancesnécessaires à la mise en œuvre desraisonnements reconstruits par l’IA ; deplus, les RE, en tant qu’objets physiques,appréhendables sensoriellement, induisentelles-mêmes des RI ...

Enfin, à l’occasion de telles recherches, quiconcernent aussi bien les représentationsscientifiques que pratiques (en vue deguider l’action) ou encore les productionsartistiques, des domaines de l’informatiqueconstituent des champs d’applicationoriginaux pour l’IA, comme par exemple la

Page 30: L'Intelligence Artificielle mais enfin de quoi s'agit-il

conception de systèmes de visualisation de(structures de) données, de traitements, derésultats, — par exemple sur le web —, euxmêmes éléments d’interfaces“ intelligentes ” dont les NTIC ont besoin.L’histoire des progrès décisifs enmathématiques ou en chimie induits pardes progrès dans les systèmesnotationnels eux-mêmes (cf. Dagognet)signalent l’intérêt du sujet.

Jacques Virbel

L’Intelligence Artificielle,

un voyage dans notre culture

Page 31: L'Intelligence Artificielle mais enfin de quoi s'agit-il

L’édition de ce livret sur la recherche en IAoffre l’occasion d’ajouter une note surl’évolution de ses représentations dansnotre imaginaire. Les premiers signesapparaissent dans la culture occidentaleavec la construction des premiersautomates.

Le mythe de l’homme ingénieux au pointd’inventer une machine douéed’intelligence hante semble-t-il notre espritdès le XVIIIème siècle avec Vaucanson(1709-1782), homme des Lumières etpremier ingénieur de l’ère industrielle. Deuxpassions l’animent : la mécanique et lamédecine. Il construit ses premiersautomates, le joueur de flûte, le canardexposés aujourd’hui au Conservatoire desArts et Métiers à Paris. A l’époque, sescréations intriguent, fascinent, commentpouvait-il dans son projet d’homme artificieldoter sa machine d’intelligence ?

En 1747 Julien Offroy de La Mettriepropose une réponse dans son livre“L’homme-machine”, oeuvre interdite quisera brûlée et obligera l’auteur à quitter lesPays Bas où il s’était réfugié. “S’il fallut plusd’instruments, plus de rouages, plus deressorts pour marquer les mouvements desplanètes que pour marquer les heures oules répéter ; s’il a fallu plus d’art àVaucanson pour faire son flûteur que pourson canard, il eût dû en employer encoredavantage pour faire un parleur : machinequi ne peut plus être regardée commeimpossible, surtout entre les mains d’unnouveau Prométhée”. L’idée d’un homme-machine agite le monde des Lumières etoppose violemment ceux qui croient en lapart d’immatérialité de l'homme, à sonesprit, à son âme.

Un nouveau pas est franchi en 1818 avecle roman “Frankenstein ou le Prométhéemoderne” de Mary Godwin Shelley oùl’autonomie de la machine, sa capacité àexercer son libre-arbitre, vont inspirer touteune lignée de romans d’anticipation. Danscet esprit s’imaginent aussi “l’Eve future” deVilliers de l’Isle d’Adam en 1886, et un peuplus tard “Le surmâle” d’Alfred Jarry 1902,“Locus Solus” de Raymond Roussel 1914.Le cinéma entre dans l’aventure avec “Lecabinet du Docteur Galigari” de RobertWeine 1919.

Les années 20 connaissent de nouvellesprogressions scientifiques dont on retrouvela trace dans la culture. Carel Capek écritune comédie utopique “R.U.R” où apparaîtpour la première fois le mot robot. “[…] Ilarrive quelquefois qu’un Robots’endommage lui-même, parce que cela nelui fait pas mal ; il fourre la main dans unemachine, il se casse un doigt ou la tête…çalui est égal. Il faut leur donner la douleur :c’est une prophylaxie automatique contreles accidents. […]. Pourquoi ne leurdonnez-vous pas une âme ? […] Ce n’estpas en notre pouvoir. […] Cela rendrait lafabrication plus coûteuse.”

Mais peut-on mécaniser la pensée et laconscience - serait-ce l'âme ? - au point deles implanter dans une machine ? Qu’est-ce que l’intelligence : de la pensée, de laconscience, du raisonnement, du juge-ment, de la décision, de l’expérience, dulangage, des sentiments, des perceptions,du savoir, du discernement… ? Autant dequestions complexes, qui paraissentimpossibles à résoudre. Pourtant, en 1950,Turing considéré comme le père fondateurde l’informatique, fait l’hypothèse qu’ " à lafin du siècle, l’on pourra parler de machinespensantes sans craindre d’être contredit".Avec le concept de machine de Turing,l’arrivée des premiers ordinateurs, notreintelligence pourrait-elle se ramener à desimples calculs ?

Le film de Stanley Kubrick “2001 l’Odysséede l’espace” réalisé en 1968 d’après unenouvelle de Arthur Charles Clarke nous faitdécouvrir un ordinateur, “Carl”, cerveau duvaisseau spatial. Il n’a pas l’autonomie demouvement des humains, mais il est douéde connaissances encyclopédiques et gèretoutes les communications. Il prendra lepouvoir (sur les hommes) grâce à sonaptitude à mettre en relation des savoirsdifférents et il décidera seul de ce qui estbon ou mauvais pour lui et les autres. Lesinterrogations que suscitaient lesautomates de Vaucanson sont toujoursd'actualité. “Le problème de Turing”, romande science-fiction de Harry Harrison etMarvin Minsky (un des fondateurs del’Intelligence Artificielle), édité en 1992,pose clairement la question de l’humanitéchez l’homme et la machine. Il est notable

Page 32: L'Intelligence Artificielle mais enfin de quoi s'agit-il

que dans ce roman, la machine devienneplus humaine que son créateur.

Les univers oniriques proposés par lecinéma, la littérature et l’art alimentent nosopinions sur la science et notre devenir.Dans la lignée de Frankenstein, les romansd’anticipations sont peuplés d’hommes-machines, d’hommes bioniques et derobots qui dirigent le monde. L’homme n’aplus de raison d’être, sinon de servir cenouveau monde ou de tenter de s’enextraire. L’Intelligence Artificielle peut aussiapparaître sous des formes pluscomplexes, comme la logique froide d’unsystème d’organisation produit par l’hommeet dont il est devenu l’instrument. Undernier genre renverse le sujet. Le cinémacomme la littérature et l’art deviennent dece fait des machines à explorer notrepropre logique. L’Intelligence Artificielledevient le langage, l’écriture, le scénario.La logique de la pensée et la constructiond’arborescences sont autant d’états denotre esprit qui oscille entre perte de senset organisation de l’image de nous-même.

Le jeu nous met en abîme. Les artefactssont si rapides, si efficaces, si autonomes…Serions-nous ordonnés, maîtrisés,commercialisés, chosifiés ? Se pose ainsil’ultime question de notre propre nature etde notre aptitude à dépasser ce que l’oninvente. La mécanisation de la penséeouvre un monde que l’on invente à notreguise, un peu comme dans les livres àparcours multiples “ dont vous êtes lehéros ”.

Charlie Chaplin dans “Les TempsModernes” pose la question de l’hommeréduit à l’appendice de la machine. Lalittérature contemporaine et l’industrie duspectacle esquissent discrètement l’idéeque nous pourrions être nous-mêmes desintelligences artificielles au service d’unecause encore inconnue et inaccessible.

Mais toujours est-il vrai que l’imaginationseule aperçoit que c’est elle qui sereprésente tous les objets, avec les mots etles figures qui les caractérisent ; et qu’ainsic’est elle encore une fois qui est l’âme,puisqu’elle en fait tous les rôles.[…] Parelle, les sciences fleurissent, les artsembellissent, les bois parlent, les échos

soupirent, les rochers pleurent, le marbrerespire, tout prend vie parmi les corpsinanimés (Julien Offroy de La Mettrie).

Catherine GadonResponsable du Service Culture de l’UPS

Page 33: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Pour conclure…

sur une ouverture

Ce livret veut offrir un panorama desgrandes problématiques de l'IA aujourd'hui.Comme on peut s'en rendre compte, lesrecherches en IA depuis près de cinquanteans ont permis de mieux comprendre, deformaliser, de faire exécuter à desmachines des tâches qui semblaient êtrel'apanage de l'intelligence humaine, commedes tâches de raisonnement, d’explicationet de résolution de problèmes, comme pourle diagnostic, la planification, l'aide à laconception, à la prévision ou à la décision,l'analyse ou la génération de textes ou dedialogues en langage naturel ... Cette liste,on le voit, est longue et diverse, et il estremarquable que les machines utilisentsouvent des méthodes génériques pouratteindre leurs objectifs.

La puissance multipliée des ordinateurs, ledéveloppement de nouvelles architecturesmatérielles, par exemple, rendentenvisageables le traitement et la résolutionpratique de problèmes toujours plusdifficiles. L'émergence de nouveauxdomaines pour l'informatique et lessciences du traitement de l'information,ouvre de nouveaux défis à la recherche enIA. On peut citer par exemple, la sphèreInternet, le web, le commerce électronique,etc... Qui a utilisé un moteur de recherchese rend compte de la nécessité d'une"recherche intelligente" de l'information.Comment organiser et traiter cesgigantesques masses d'informations?Comment en extraire les connaissancespertinentes pour les problèmes posés ?C'est à l’évidence un domaine où lesrecherches en IA trouvent un importantchamp d'applications. Notons aussi que parleurs retombées dans des domaines aussidivers que l'aéronautique et l'espace,l'agriculture, la production industrielle, labanque et la finance..., l'informatique aréussi à élargir considérablement sonimpact dans la transformation enprofondeur des activités humaines.

On peut dire que l’IA, en modélisant et ensimulant des fonctions cognitives parti-

culières, permet de faire effectuer destâches réputées intelligentes à desmachines, de manière généralement à lafois plus fiable et plus rapide que ne leferait l'homme, en exploitant généralementde grandes quantités d'informations. Celadonne lieu à des réalisations qui peuventêtre spectaculaires, mais qui peuvent aussiperturber l'idée qu'on se fait de notreintelligence.

Bien sûr de grands progrès restent encoreà faire en IA pour créer des systèmesdisposant de gammes plus étendues decapacités cognitives et aussi plusconviviaux pour les usagers. Sans doute,est-il parfaitement envisageable que l'IAréalise des systèmes capables d'unecertaine introspection (c. à d. de s'observerdans des tâches de raisonnement etd'acquérir ainsi des méta-connaissances),d'analyser ou de simuler des émotions, oumême d'écrire des poèmes ou de réaliserdes oeuvres graphiques obéissant àcertaines contraintes ou principes. Maistout ceci restera encore assez loin d'unepensée autonome, consciente d'elle-même,capable de jongler avec les représentationsqu'elle se fait du monde, de se comporterde manière ludique, non purement réactive,de créer de manière non dirigée, de rêver.

Mario Borillo, Luis Fariñas del Cerro et Henri Prade

Page 34: L'Intelligence Artificielle mais enfin de quoi s'agit-il

Quelques références

P. Balbiani, V. Dugat, L. Fariñas del Cerro& A. Lopez. Eléments de GéométrieMécanique. Paris : Hermès, 1994.

R. Bellman. Artificial Intelligence. CanComputers Think ? Boyd & Fraser Pub.Comp., Boston, 1978.

H. Bestougeff, et G. Ligozat. Outils logiquespour le traitement du Temps. Masson,Paris, 1989.

E. Bonabeau, G. Theraulaz. IntelligenceCollective, Hermès, 1994.

M. Borillo. Informatique pour les Sciencesde l’Homme. Limites de la formalisation duRaisonnement ; Mardaga Editeur,Bruxelles, 1984.

M. Borillo, H. Prade, J.-L. Soubie. LesMachines Pensent-elles? (autour d’unspectacle de J.-F. Peyret). Livret n°1 duService Culture de l'Univ. P. Sabatier,Toulouse, 2000.

P. Braffort. L’Intelligence Artificielle.Collection La Science Vivante, P. U. F.,Paris, 1968.

J. Charlet, M. Zacklad, G. Kassel, D.Bourigault (Coordinateurs). Ingénierie desConnaissances : évolutions récentes etnouveaux défis. Eyrolles, Paris, 2000.

L. Couffignal. Les Machines à Penser. LesEditions de Minuit, 1952; 2nde éditionrefondue et corrigée, 1964.

F. Dagognet. Écriture et Iconographie. Vrin,1973.

E. Diday, Y. Kodratoff, T. Brito, et M.Moulet. Induction symbolique-numérique àpartir de données. Editions Cépadues,2000.

D. Dubois, H. Prade. Théorie desPossibilités. Application à la Représentationdes Connaissances en Informatique.Masson, Paris, 1987.

H. Farreny. Recherche HeuristiquementOrdonnée. Algorithmes et Propriétés.Masson, 1995.

H. Farreny, M. Ghallab. Elémentsd’Intelligence Artificielle. Hermès, 1985.

E. A. Feigenbaum and J. Feldman.Computers and Thought, McGraw-Hill BookCompany, New York, 1963.

Foundation for Intelligent Physical AgentsFIPA: Specification – http://www.fipa.org.

D.M. Gabbay, P. Smets (eds.) Handbook ofDeafeasible Reasoning and UncertaintyManagement Systems. (6 vol.), KluwerAcad. Pub., 1998-2000.

N. Goodman. Les Langages de l’Art (trad. :J. Morizot), Jacqueline Chambon, 1990[1968].

H. Harrison, M. Minsky. Le Problème deTuring, Livre de Poche, 1994, Traductionde The Turing Option, 1992.

J.-P. Haton, N. Bouzid, F. Charpillet, M.-C.Haton, B. et H. Lâasri, P. Marquis, T.Mondot, A. Napoli. Le Raisonnement enIntelligence Artificielle - Modèles,Techniques et Architectures pour lesSystèmes à Bases de Connaissances.InterEditions, 1991.

L. Iturrioz, A. Dussauchoy (coordonnateurs)Modèles Logiques et Systèmesd'Intelligence Artificielle. Hermès, 1990.

Knowledge Engineering and Management:The CommonKADS methodology. MITPress, December 1999.

J.-L. Laurière. Intelligence Artificielle :Résolution de Problèmes par l’Homme et laMachine. Eyrolles, Paris, 1986.

Léa Sombé (collectif). Reasoning UnderIncomplete Information in ArtificialIntelligence. John Wiley and Sons, 1990.Version française, Teknéa, Toulouse, 1989.

Léa Sombé (collectif). Revision andUpdating in Knowledge Bases. John Wileyand Sons, 1994.

Page 35: L'Intelligence Artificielle mais enfin de quoi s'agit-il

P. McCorduck. Machines who think. W. H.Freeman and Company, San Francisco,1979.

M. Minsky. La Société de l’Esprit.Traduction de The Society of Mind, Simon& Schuster, 1987, InterEditions, 1988.

T. Mitchell. Machine Learning. McGraw-Hill,1997.

N.J. Nilsson. Artificial Intelligence : A NewSynthesis, Morgan Kaufmann, 1998.

G.M.P. O’Hoare, N.R. Jennings.Foundations of Distributed ArtificialIntelligence. J.Wiley & Sons, 1996.

O. Peterson (ed.) Forms of Representation.Intellect, 1996.

J. Pitrat. Métaconnaissance. Futur del'Intelligence Artificielle. Hermès, 1990.

B. Raphael. The Thinking Computer, W.H.Freeman, San Francisco, 1976.

H. Simon. The Sciences of the Artificial,MIT Press 1969 & 1981.

W. Skyvington. Machina Sapiens. Essai surl’Intelligence Artificielle. Le Seuil, 1976.

O. Stock, (ed.). Spatial and TemporalReasoning. Kluwer, Dordrecht, 1997.

G. Tisseau. Intelligence Artificielle.Problèmes et Méthodes. PUF, Paris, 1996.

G. Weiss (ed.) Multiagent Systems. TheMIT Press, 1999.

P. H. Winston. Artificial Intelligence.Addison-Wesley Pub. Comp., 1977.

Intervenants

Régine André-Obrecht, UPS

Nathalie Aussenac, UPS

Salem Benferhat, CNRS

Mario Borillo, CNRS

Myriam Bras, UPS

Claudette Cayrol, UPS

Didier Dubois, CNRS

Yves Duthen, UPS

Luis Fariñas del Cerro, CNRS

Hélène Fargier, CNRS

Henri Farreny, INPT

Catherine Gadon, Culture, UPS

Marie-Pierre Gleizes, UPS

Pierre Glize, CNRS

Andreas Herzig, CNRS

Jean-Pierre Jessel, UPS

Philippe Joly, UPS

Jérôme Lang, CNRS

Henri Prade, CNRS

Gilles Richard, UPS

Patrick Saint-Dizier, CNRS

Lakdhar Saïs, UPS

Jean-Luc Soubie, INRIA

Laure Vieu, CNRS

Jacques Virbel, CNRS

UPS Université Paul SabatierCNRS Centre National de la Recherche Scientifique

INPT Institut National Polytechnique de ToulouseINRIA Institut National de Recherche en

Informatique et Automatique