31
Histoire de l'Intelligence Artificielle 5- la crise de l'IA Frédéric Fürst - www.u-picardie.fr/~furst

Histoire de l'Intelligence Artificielle 5- la crise de l'IAfurst/docs/5-Crise_IA.pdf · L'ambiguïté peut venir de la catégorie des mots : le visiteur illustre le livre. ... sous

  • Upload
    trannhu

  • View
    216

  • Download
    1

Embed Size (px)

Citation preview

Histoire de l'Intelligence Artificielle

5- la crise de l'IA

Frédéric Fürst - www.u-picardie.fr/~furst

De la fin des années 60 à la fin des années 70, l'Intelligence Artificielle va connaître une crise à tous les points de vue :

- crise scientifique : les avancées réalisées, finalement assez maigres, vont en outre être en partie bloquées par certains problèmes de fond.

- crise financière : les gouvernements et les entreprises qui avaient beaucoup investi dans l'IA s'en détournent face au peu de retombées applicatives.

- crise morale, à tous les sens du terme : plusieurs philosophes, et même certains chercheurs en IA, critiquent la faisabilité du projet de Dartmouth ou s'élèvent au nom de l'éthique contre les travaux menés.

Cette crise peut être considérée comme une crise de jeunesse de la discipline, mais elle révèle aussi des problèmes fondamentaux qui sont très loin d'être résolus.

Histoire de l'Intelligence Artificielle

5- la crise de l'IA

5.1- les déboires scientifiques

En 1969, Marvin Minsky et Seymour Papert publient Perceptrons; an introduction to computational geometry, livre consacré aux réseaux de type Perceptron.

Ils y montrent que les neurones formels ne peuvent enregistrer que des données linéairement séparables. En particulier, un neurone formel ne peut simuler la fonction OU exclusif (XOR).

Dans le domaine du connexionisme, la crise du XOR va donner un coup d'arrêt aux recherches sur les réseaux de neurones.

Les travaux sur les réseaux de neurones s'arrêtent quasi totalement. Ceux qui étaient engagés dans cette branche se recyclent dans l'IA symbolique ou même abandonnent l'IA.

L'utilisation des grammaire formelles pour modéliser le langage apparaît très largement insuffisante pour rendre compte des ambiguïtés des langues naturelles.

L'ambiguïté peut venir de la catégorie des mots : le visiteur illustre le livre.

La place des mots dans la phrase peut être source d'ambiguïté : il aime l’étudiante de linguistique anglaise ou Léo regarde manger les poulets ou le professeur a envoyé l'élève chez le directeur parce qu'il le demandait.

Les figures de style introduisent également des difficultés d'interprétation : je suis dévoré par le remord (métaphore), c'est loin d'être faux (litote), cette obscure clarté qui tombe des étoiles (oxymore), il remarqua qu’en effet presque tous les cadavres étaient vêtus de rouge [...] il remarqua que beaucoup de ces malheureux habits rouges vivaient encore (métonymie).

Il semble bien que les humains ne maitrisent pas le langage via des règles formelles : sleon une édtue de l'Uvinertisé de Cmabrigde, l'odrre des ltteers dnas un mot n'a pas d'ipmrotncae, la suele coshe ipmrotnate est que la pmeirère et la drenèire lteetrs sinoet à la bnnoe pclae.

Les langues humaines ne sont pas des codes de communication au sens de Shannon, où l'information véhiculée par un message est tout entière incluse dans le message.

La communication humaine est inférentielle selon Paul Grice (1913-1988), c'est-à-dire que tout énoncé déclenche un raisonnement permettant au récepteur de comprendre ce que veut lui signifier l'émetteur.

La pragmatique, discipline introduite par Charles Morris (1903-1979), est une branche de la linguistique qui s'est développée pour étudier la compréhension des énoncés par rapport au contexte, indispensable à l'interprétation.

Représenter ce contexte dans une machine, et utiliser ces connaissances pour l'interprétation du langage reste un problème de recherche ouvert.

Les travaux sur le raisonnement symbolique se poursuivent dans le domaine mathématique.

SAINT est étendu en 1967 par Joel Moses (né en 1941) qui développe SIN (Symbolic Integrator) sous la direction de Minsky. En 1969, toujours au MIT, Engelman, Martin et Moses reprennent les idées de SIN et créent MACSYMA (MAC Symbolic Mathematics).

Mais la démonstration automatique va peu à peu être abandonnée face aux problèmes d'explosion combinatoire.

La découverte de nouveaux théorèmes, prédite par Newell et Simon en 1958 n'est jamais venue ...

Ces premiers programmes visant à faire faire des mathématiques aux machines vont cependant donner naissance aux logiciels de calcul formel du type MAPLE ou MATHEMATICA.

Les travaux vont s'orienter vers les assistants de preuve, qui apportent une aide aux mathématiciens, mais ne les remplacent aucunement.

Ils vont aussi déboucher sur des outils de raisonnement logique pour la vérification des programmes.

Histoire de l'Intelligence Artificielle

5- la crise de l'IA

5.2- le désintérêt des bailleurs de fond

Newell et Simon avaient prédit en 1958 dans leur article Heuristic Problem Solving qu'avant 10 ans :

1- un ordinateur deviendra champion du monde d'échecs, sauf si les règles l'empêchent de participer à la compétition.

2- un ordinateur découvrira et prouvera un important nouveau théorème mathématique.

3- un ordinateur écrira de la musique qui sera considérée comme esthétique par les critiques.

4- la plupart des théories psychologiques auront la forme de programmes d’ordinateur.

Seule la première prédiction s'est vérifiée, mais en 1997, lors du match Kasparov-Deep Blue.

Cette foi aveugle ne correspond pas au doute et à l'humilité attendus de scientifiques et décrédibilise l'IA.

L'informatique en général est une discipline tellement nouvelle dans les années 50 que les prédictions sur son développement vont systématiquement se révéler fausses, dans un sens ou dans l'autre.

Voici par exemple une maquette d'ordinateur réalisée par la RAND en 1954 et censée représenter un ordinateur de 2004.

Au milieu des années 60, aux USA, la NRC (National Research Council) a déjà dépensé 20 millions de dollars pour financer les travaux sur la traduction automatique. En 1964, l'ALPAC (Automatic Language Processing Advisory Committee) juge sans issu les travaux en cours. Tous les crédits sont supprimés.

La DARPA (Defense Advanced Research Projects Agency) coupe également les fonds qu'elle allouait à l'Université Carnegie-Mellon pour la reconnaissance vocale dans le cadre du programme Speech Understanding Research.

En 1973, le rapport Lighthill commandé par le British Science Research Council conduit également à la suppression des budgets. Le laboratoire d'Edinburgh, à la pointe des recherches en IA en Europe, est en partie démantelé.

A la même date, aux USA, la DARPA met fin à tous ses financements dans le domaine de l'intelligence artificielle.

Histoire de l'Intelligence Artificielle

5- la crise de l'IA

5.3- les critiques des philosophes

Face aux difficultés, les scientifiques, mais aussi les philosophes se posent des questions sur la pertinence du projet lancé par la conférence de Dartmouth.

La première question posée par le projet de l'IA est celui de son intérêt.

Est il pertinent de doter les machines d'une intelligence ?

« Si chaque instrument pouvait, par ordre ou par pressentiment, accomplir son oeuvre propre, et si les navettes tissaient d'elles mêmes et les plectres jouaient de la cythare, alors les maitres d'oeuvre n'auraient plus besoin de manoeuvres, ni les maitres d'esclaves. Les vrais hommes abandonneraient alors les taches viles, si indignes d'eux, pour ne plus se consacrer qu'aux activités de citoyens et à la recherche du savoir et de la sagesse qu'il procure. ». (Aristote, La Politique, chapitre 4).

Weizenbaum considère que si on arrive un jour à rendre une machine intelligente, son intelligence sera forcément différente de l'intelligence humaine.

« Se demander si un ordinateur sait penser est aussi intéressant que se demander si un sous-marin sait nager » (Edsger Dijkstra)

Est il pertinent de doter les machines d'une intelligence humaine?

« Nous pourrions produire des modèles électriques assez précis imitant le comportement des nerfs, mais il ne semble pas y avoir grand intérêt à le faire. Ce serait comme consacrer beaucoup de travail à fabriquer des voitures avançant sur des jambes au lieu de continuer à se servir de roues. » (A. Turing).

Weizenbaum met en garde contre l'utilisation inconsidérée de futures machines intelligentes (Computer Power and Human Reason: From Judgment To Calculation, 1976).

Il considère comme moralement inacceptable de construire des machines intelligentes susceptibles de réaliser des tâches profondément humaines comme juger, aimer, soigner, enseigner, etc.

Finalement, la dangerosité de l'IA est soulignée, et pas seulement dans les œuvres de fiction.

Et si la machine voulait devenir humaine à la place de l'humain ?

Hubert Dreyfus (né en 1929), philosophe, publie les premières critiques des travaux réalisés en IA dans Alchemy and Artificial Intelligence (1964) puis What computers can't do (1972, traduit en français sous le titre Intelligence Artificielle, mythes et limites).

Il pointe les échecs successifs de l'IA et en rend responsables les présupposés philosophiques des chercheurs.

Pour Dreyfus, les premiers pas de l'IA dans les années 50/60 sont comparables au fait de grimper dans un arbre pour atteindre la lune.

Sa principale critique vise la réduction de l'intelligence à une manipulation symbolique.

Dreyfus réfute l'hypothèse de Turing, reprise entre autres par Newell et Simon, et qui consiste à réduire tout traitement d'information à une manipulation symbolique ou à un calcul.

Il remet ainsi en cause la philosophie pythagoricienne qui est à la base des sciences.

Même l'hypothèse selon laquelle les manipulations symboliques permettent de simuler l'intelligence n'est pas forcément fondée.

Les travaux d'Howard Gardner (né en 1943) renforcent le point de vue de Dreyfus. Gardner propose en 1983 la théorie des intelligences multiples pour rendre compte de la variété des capacités cognitives humaines.

- l’intelligence logico-mathématique

- l’intelligence musicale-rythmique

- l'intelligence verbo-linguistique

- l’intelligence sociale

- l’intelligence corporelle-kinesthésique

- l’intelligence spatiale et naturaliste

Il étudie les lésions cérébrales et constate que perdre une de ces capacités ne modifie souvent pas les autres, ce qui montre qu'il s'agit de capacités de natures différentes.

Réduire l'intelligence logico-mathématique à une manipulation symbolique semble possible, mais il paraît difficile de faire de même pour les autres formes d'intelligence.

Pour Dreyfus, réduire la connaissance à une formulation logique laisse de coté tout ce qui donne du sens : un énoncé n'a pas qu'une valeur de vérité, mais également une valeur d'efficacité, d'utilisabilité, de plaisir, etc.

Dreyfus pointe également l'importance des émotions et de l'intention dans les processus cognitifs humains.

Mémoriser une partie d'échec est bien plus facile si on y a participé et qu'on a cherché à y suivre une stratégie.

Adriaan de Groot (1914-2006), psychologue et maitre en échecs a réalisé de nombreuses expériences sur ce jeu.

Il montre en 1946 que les positions des pièces sur un échiquier sont mémorisées bien mieux et plus vite si les pièces ont des positions conformes aux règles du jeu.

L'utilisation de modèles formels pose en outre le problème du cadre (frame problem) : la représentation formelle d'une situation doit inclure toutes les situations possibles, ou permettre de gérer des situations non prévues.

Mais Dreyfus conteste cette solution car elle peut engendrer une régression infinie : ces méta-connaissances elles-mêmes doivent pouvoir être mises à jour donc être complétées par des méta-méta-connaissances, etc.

Une solution est d'inférer les conséquences des modifications, à l'aide de méta-connaissances (Some philosophical problems from the standpoint of artificial intelligence, McCarthy & Hayes,1969).

Ce problème du sens concerne en particulier la capacité à tenir compte du contexte pour choisir entre plusieurs interprétations d'une phrase ou plusieurs décisions dans une certaine situation (Programs with common sense, MacCarthy, 1959).

L'expérience de Poudovkine, cinéaste, montre que l'interprétation de l'attitude d'un personnage sur une image dépend des images visualisées avant.

Robert : à la pêche, j'ai pris un gardonRoger : fait voirRobert : il était trop petit

Dreyfus pose également le problème de l'enracinement (grouding problem), du lien entre les modèles symboliques et le monde.

Le déplacement apparemment complexe des fourmis est essentiellement du aux obstacles : la complexité est dans l'environnement, non dans le comportement des fourmis.

Nos capacités dépendent des difficultés que nous avons rencontrées et surmontées, face à la complexité du monde.

Pour avoir des machines capables de réagir intelligemment dans le monde réel, il faut les doter d'un corps adéquat pour pouvoir interagir avec ce monde.

Une des critiques importantes de Dreyfus porte sur la portée extrêmement réduite des programmes réalisés et l'impossibilité de les étendre à d'autres domaines. La faculté d'apprendre et de s'adapter, si importante pour les humains, fait défaut aux programmes.

Le cerveau humain pèse 25% de son poids adulte à la naissance et met presque 20 ans pour parvenir à maturité. Ces chiffres sont de 40% et 2 ans chez le chimpanzé.

L'intelligence apparaît donc comme artificielle, même chez les humains.

« L'intelligence artificielle se definit comme le contraire de la bêtise naturelle » (Woody Allen)

Tous ces problèmes conduisent certains chercheurs à perdre toute motivation et à délaisser l'IA. C'est le cas de Terry Winograd, l'inventeur de SHRDLU, qui abandonne ses travaux d'IA à la fin des années 70 et soutiendra Dreyfus.

L'intelligence humaine se construit pendant des années, grâce à la malléabilité du cerveau, et au contact du monde et surtout de l'environnement culturel humain : un enfant élevé par des animaux aura le niveau intellectuel d'un animal.

De nombreuses autres objections ont été élaborées contre l'intelligence artificielle et en particulier contre la réduction de l'intelligence à un mécanisme formel.

- L'objection du continu : le monde réel est continu, or les modèles informatiques et les ordinateurs fonctionnent sur des modèles de mathématiques discrètes.

- L'objection de Gödel : les systèmes formels ne permettent même pas de maitriser totalement les mathématiques, alors comment pourraient-ils décrire l'intelligence humaine dans son ensemble?

- L'objection de Hamlet : « There are more things in heaven and earth, Horatio, Than are dreamt of in your philosophy » (Shakespeare, Hamlet, Acte 1, scene 5).

« L’ensemble de ce qui compte ne peut pas être compté, et l’ensemble de ce qui peut être compté ne compte pas » (Albert Einstein)

Le philosophe John Searle propose en 1980 une expérience de pensée qui semble rendre caduque la position de Newell et Simon : la chambre chinoise (voir son article Minds, Brains and Programs).

De nombreuses contre-objections ont été émises, par exemple le fait qu'il est impossible de manipuler le langage de façon formelle sans le comprendre, ou que comprendre le langage, c'est justement le manipuler selon des règles formelles.

Searle va adopter le point de vue émergentiste qui considère que l'intelligence apparaît naturellement dans un système lorsqu'un certain degré de complexité est atteint.

Mais même les super-ordinateurs ou les grilles n'ont pas la puissance nécessaire pour atteindre la complexité du cerveau humain.

John von Neumann (1903-1957), le père de l'architecture des ordinateurs, s'est demandé si un objet pouvait créer un autre objet aussi complexe que lui même.

Plus précisément, les humains peuvent-ils créer une intelligence artificielle aussi complexe que la leur? Voire plus complexe?

Dès le XIXe siècle, Ada Lovelace s'est rendu compte que les machines ne peuvent faire que ce pourquoi elles sont programmées.

Il leur manquera toujours la créativité qui fait la force de l'intelligence humaine.

Turing a également pointé le fait que ce qui nous rend intelligent, c'est la possibilité de faire des erreurs et d'apprendre de nos erreurs.

L'intelligence humaine va bien au-delà de la mécanique du raisonnement modélisée dans la logique. Mais le raisonnement est pour l'instant la seule part de notre intelligence que l'on sait modéliser.

La communauté de recherche en IA va continuer malgré tout à se développer. Des sociétés savantes apparaissent, la première étant l'AAAI (American Association for Artificial Intelligence) en 1979.

En 1974 a lieu à Brighton la première conférence AISB (Artificial Intelligence and Simulation of Behaviour) qui deviendra ECAI (European Conference on Artificial Inteligence) en 1982, organisée par l'ECCAI (European Coordinating Committee for Artificial Intelligence)..

Paradoxalement, alors que le projet de l'IA semble s'enliser, les machines intelligentes se banalisent dans la littérature ou au cinéma.

Les films La guerre des étoiles (1977), Blade Runner (1981), Terminator (1984), Matrix (1999) ou AI (2001) mettent en scène des machines intelligentes, dangereuses ou sympathiques.

Les années 70 et 80 vont être consacrées à revoir les objectifs et à trouver des applications limitées et réalistes.

Les techniques initiales vont se perfectionner : réseaux de neurones, programmation logique, etc.

De nouvelles branches de l'IA vont apparaître : apprentissage, raisonnement à partir de cas, programmation par contraintes, algorithmes génétiques, systèmes multi-agents, etc.

Cela n'empêchera pas de nouvelles déconvenues, comme celle des machines LISP à la fin des années 1980, ou celle du projet japonais d'ordinateur de 5e génération au début des années 90.