Click here to load reader
Upload
phamminh
View
212
Download
0
Embed Size (px)
Citation preview
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
« Métaphore de l’ordinateur et linguistique cognitive » Thèse de doctorat sous la Direction de M. Jean PAMIÈS
Université de Toulouse II Par Christiane NOTARI
RÉSUMÉ
La métaphore de l'ordinateur règne au cœur des sciences cognitives. Elle prend sa source dans la
théorie mathématique de la calculabilité [thèses dites de Church et de Turing (1936), et démonstration
de Turing (1937)], et assimile depuis l’avènement de l’ordinateur matériel, conçu par John von
Neumann en 1945, l'esprit au logiciel, et le cerveau au matériel d'un ordinateur. L’avènement de
l’ordinateur confirme tout un aréopage d’éminents chercheurs dans l’idée que pensée et calcul sont
équivalents. Dans ce contexte, il est fait abstraction de la conscience, du libre arbitre, de l'intelligence,
de l'imagination, de la créativité, des émotions, des sentiments, au profit de règles formelles
manipulant des symboles vides de son et de sens.
La théorie de la calculabilité est donc la source originale des sciences cognitives. L’ordinateur,
concrétisation matérielle de cette théorie (machine abstraite de Turing), voit le jour quelques années
plus tard, et va permettre de corroborer et renforcer rétroactivement et durablement cette analogie
entre pensée et calcul. Il est en effet la preuve tangible qu’un calcul peut être mis en oeuvre par une
machine, et apparaît alors comme la solution au vieux problème philosophique des rapports entre le
corps et l’esprit. Les sciences cognitives étant matérialistes, le cerveau va se trouver assimilé au
matériel de l’ordinateur, le lien étant ainsi établi entre l’esprit calculateur (esprit-logiciel) et la matière
qui le sous-tend (cerveau-matériel). L’ordinateur devient l’emblème de tous les tenants du paradigme
computationnel. Dans ce contexte matérialiste, le cerveau est assimilé à un ordinateur numérique.
Alan Turing, concepteur de la machine abstraite de Turing a largement contribué à promouvoir cette
idée avec le fameux test de Turing1, où un observateur extérieur est mis au défi de différencier
cerveau et ordinateur, c’est-à-dire les réponses faites par un être humain de celles faites par la
machine.
1. Cf. Alan Turing (1950). Computing machinery and intelligence. Mind vol. LIX, N° 236, 433-460.
http://www.abelard.org/turpap/turpap/htm.
1
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
Le mot « métaphore » a une acception spécifique au sein de la linguistique cognitive. George
Lakoff et Mark Johnson1 (1980) ont émis l’hypothèse que la métaphore n'est pas un simple fait de
langage, une simple figure de style, mais un processus mental continuel, habituel et régulier, qui
permet de raisonner et de comprendre. La métaphore opère au niveau conceptuel, par projection
automatique et inconsciente d'un domaine source concret vers un domaine cible abstrait, et projette sur
ce dernier tout ou partie de la logique du domaine source, c'est-à-dire tout ou partie des inférences, des
déductions, des conclusions, qu'il implique. Le cerveau darwinien est donc imaginatif par essence,
et pour atteindre l’objectivité qui sied à tout travail scientifique, le chercheur doit lutter en
permanence contre cette tendance naturelle et inconsciente du cerveau à bâtir des métaphores.
La théorie de la métaphore conceptuelle conduit à remettre en cause le modèle chomskyen.
En effet, la linguistique cognitive chomskyenne se situe clairement dans la mouvance du
paradigme computationnel des sciences cognitives, et a pour clé de voûte l’affirmation que la
syntaxe est équivalente à un calcul, impliquant que le cerveau darwinien est formel par essence.
Cette position est la conséquence des métaphores utilisées par Chomsky pour construire sa théorie du
langage : d’abord la métaphore de l’automate, puis la métaphore de l’ordinateur. Je m’efforce de
montrer dans cette thèse comment elles influencent toutes les deux sa théorie.
Par souci de clarté et pour synthétiser plus de cinquante ans de travaux, j’ai regroupé les différents
états de la linguistique chomskyenne en trois phases essentielles :
• Première phase (1957-1981) : la grammaire générative et transformationnelle (Generative
and Transformational Grammar) ;
• Deuxième phase (1981-1995) : la théorie des principes et des paramètres (Principles-and-
Parameters Theory) ;
• Troisième phase (1995 à ce jour) : le Programme Minimaliste (The Minimalist Program).
Chaque phase est influencée par une métaphore :
• La métaphore de l’automate, utilisée de manière explicite, durant la première phase ;
• La métaphore de l’ordinateur, utilisée de manière implicite, durant les deux dernières
phases.
1. Cf. George Lakoff et Mark Johnson. Les métaphores de la vie quotidienne. Traduction française de Michel Defornel
avec la collaboration de Jean-Jacques Lecercle. Paris : Les Editions de Minuit. 1985.
Metaphors We Live By. Chicago: University of Chicago Press. 1980.
2
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
La transition entre les deux métaphores ne coïncide pas exactement avec la fin de la première phase et
le début de la deuxième phase, telles qu’elles sont délimitées ci-dessus. On peut estimer l’entrée en
vigueur de la métaphore de l’ordinateur à partir de 1975 dans Reflections on Language, où Noam
Chomsky renforce l’hypothèse innéiste initiale, en affirmant désormais que le langage est un organe
génétiquement déterminé, utilisant ainsi la métaphore du « programme » génétique, inspirée par
l’ordinateur.
Noam Chomsky propose donc une théorie innéiste du langage et utilise, dans ses premiers travaux, la
théorie des automates, issue de la théorie de la calculabilité, comme instrument de formalisation des
langues naturelles. Le langage est mécanisé, traité comme les langages formels des logiciens et des
informaticiens.
Syntactic Structures (1957) avait pour but le développement d’une grammaire formelle, c’est-à-dire de
proposer une description précise des règles pouvant générer toutes et rien que les phrases bien formées
d’une langue.
Dès 1965, Noam Chomsky entame le tournant cognitif (cognitive turn) avec Aspects of the Theory of
Syntax. Il donne une dimension psychologique et biologique à sa démarche. L’hypothèse innéiste
transforme sa théorie formelle initiale en une théorie cognitive de l’esprit. C’est de cette manière
qu’il ouvre la voie à la linguistique dite cognitive. Le mécanisme formel est « greffé » dans le
cerveau biologique.
Aspects of the Theory of Syntax introduit une deuxième métaphore, la métaphore de l’ordinateur. La
proposition « le langage est inné », implique la notion de « programme » génétique, s’inspirant
directement de la notion de programme informatique. Cette deuxième métaphore va rester latente
jusqu’en 1975 (Reflections on Language) où le langage est assimilé à un organe génétiquement
déterminé : la Grammaire Universelle (Universal Grammar) qui donne une explication de
l’acquisition de la compétence linguistique. Sans ce « logiciel » héréditaire, les êtres humains ne
pourraient pas parler et apprendre à parler. Cet organe mental est censé se développer comme un
organe physique. Noam Chomsky parle de « maturation » de l’organe linguistique. L’enfant
n’apprend donc pas sa langue maternelle. La compétence (competence) est le fruit de la Grammaire
Universelle innée, et grâce à elle, l’enfant acquiert sans effort sa langue maternelle. La syntaxe est
définie comme le domaine d’investigation central de la faculté de langage. La théorie délimite
d’emblée un périmètre de recherche jugé adéquat. La sémantique, la phonologie, la pragmatique, sont
reléguées dans des composants, modules ou interfaces interprétatifs.
3
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
Le plan de cette thèse est le suivant :
Dans la première partie, je décris la genèse de la métaphore de l’ordinateur, en présentant :
• En introduction générale, les principaux concepts permettant de clarifier le titre de cette thèse
(entre autres, les paradigmes computationnel et connexioniste des sciences cognitives, illustrés
respectivement par la métaphore de l’ordinateur et celle du cerveau, puis une esquisse de ce qu’est
la linguistique cognitive en général, et la linguistique cognitive chomskyenne en particulier) ;
• Le cadre historique et les principaux paradigmes des sciences cognitives ;
• La théorie de la calculabilité (résultats de Kurt Gödel, Alonzo Church et Alan Turing) qui est la
source mathématique de la métaphore de l’automate et la métaphore de l’ordinateur ;
• Les liens que cette théorie implique entre logique et machine, et entre esprit et machine ;
• La théorie de la métaphore conceptuelle (conceptual metaphor) de George Lakoff et Mark
Johnson (1980, 1999) et de Mark Johnson (1987) ;
• La théorie de la fusion conceptuelle (conceptual blending) de Mark Turner (1996) et de Gilles
Fauconnier et Mark Turner (2002).
Dans la deuxième partie, je commence par un exposé critique des principales hypothèses de Noam
Chomsky, en présentant les arguments majeurs qu’il avance contre le béhaviorisme, le structuralisme
et l’empirisme. J’oppose notamment à la notion d'innéité celle d’épigenèse, et remets en cause
une des prémisses fondamentale de l’hypothèse innéiste, à savoir l'argument de la pauvreté du
stimulus (argument from the poverty of the stimulus), d'où découle l'idée que la syntaxe ne pourrait
pas être apprise par l'expérience. Je suggère qu'il est inutile de recourir au génome, si l'on veut bien
envisager celle-ci non pas comme un ensemble de règles formelles, mais, à la manière de Ronald
Langacker, comme un ensemble possédant schématiquement un contenu phonologique et sémantique.
Dans ce contexte, la grammaire noyau (core grammar) se met en place de manière épigénétique, avec
des contraintes biologiques et environnementales, comme les autres éléments linguistiques [lexique,
idiomes et grammaire périphérique (periphery grammar)]. Lorsque l’on supprime le cadre modulaire
et mécaniste dans lequel elle est enserrée, à cause de la métaphore de l’automate, puis de la métaphore
de l’ordinateur, cette partie de la grammaire (core grammar) est plus facile à apprendre que la
grammaire périphérique (periphery grammar), puisqu'elle est plus régulière. Si l'enfant n'a pas besoin
de module spécial pour acquérir les éléments complexes de sa langue maternelle, il peut s'en passer
pour les éléments plus simples.
Je mets ensuite en évidence la manière dont la linguistique chomskyenne est tout au long de son
histoire influencée, d’abord par la métaphore de l’automate, puis par la métaphore de l’ordinateur, en
4
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
assimilant de manière constante la syntaxe à un calcul, à un mécanisme qui manipule des symboles
abstraits sans fondement perceptif ou conceptuel. Puisque Noam Chomsky est matérialiste, l’automate
mathématique, et plus tard le « logiciel » syntaxique (Grammaire Universelle), sont tous deux
forcément mis en œuvre par le cerveau, la métaphore de l’ordinateur s’imposant d’elle-même.
Dans la troisième partie, je développe une série d’arguments, mathématiques, linguistiques,
psychologiques, biologiques, évolutionnistes, contre le paradigme computationnel du langage et de
l’esprit.
En premier lieu, je présente les résultats mathématiques de Terence Langendoen et Paul Postal (1984)
qui montrent que les langues naturelles ne sont pas des ensembles récursivement énumérables, et
ceux de Paul Postal (2004) qui montrent que les lexiques des langues naturelles ne sont pas des
ensembles finis d’éléments.
Ensuite je remets en cause la notion de syntaxe autonome, en opposant à la grammaire
générative, les grammaires de constructions [Charles Fillmore, Paul Kay et Mary Kay O’Connor
(1988), Paul Kay et Charles Fillmore (1999), Adele Goldberg (1995, 2003), Ronald Langacker (1987,
1991), William Croft (2001), William Croft et Alan Cruse (2004)]. En effet, à partir de 1981, Noam
Chomsky considère a contrario les constructions grammaticales comme des épiphénomènes, générés
par un petit nombre de principes généraux et de paramètres spécifiques aux langues particulières.
J'apporte des arguments pour mettre en évidence l'interdépendance des différents niveaux :
phonologiques, sémantiques et syntaxiques. Une stricte dichotomie entre le lexique et la syntaxe
n’est pas étayée par l’analyse du langage. L'idée que la syntaxe est équivalente à un calcul devrait
produire des formes syntaxiques d’une régularité sans faille. Or les exceptions existent partout, même
pour les règles les plus générales. Toutes les langues présentent des particularités liées notamment au
lexique, et donc la syntaxe est sujette à des influences sémantiques, phonologiques et aussi
pragmatiques. Si l’analyse de la langue montre que la syntaxe peut subir des influences, on se
demande comment cela peut se produire dans le cadre théorique chomskyen, où cette dernière est
totalement isolée et ne combine que des formes symboliques sans contenu phonologique ou
sémantique.
Je suggère que l’hypothèse des « constructions » comme représentations cognitives adéquates
pour rendre compte de l’ensemble des faits de langage semble plus complète et plus compatible
avec l’analyse du langage, la manière dont un enfant apprend sa langue maternelle [Michael
5
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
Tomasello (1992, 2003), Michael Tomasello et al. (1997), E. Lieven, J. Pine et G. Baldwin (1997), E.
Lieven, J. Pine et C. Rowland (1998)], et avec la biologie de l’évolution, [Philip Lieberman (2004)].
Je remets en cause la notion d’esprit désincarné, en proposant une cognition incarnée, où l’esprit
humain est décrit comme fondamentalement « littéraire » [Mark Turner (1996)], cette propriété
découlant directement de la nature elle-même « littéraire » de la conscience humaine [Antonio
Damasio (1999)].
Puis j’examine les implications de la métaphore de l'ordinateur par rapport au fonctionnement du
cerveau réel, notamment l'hypothèse de la modularité l'assimilant à un ensemble de systèmes
spécialisés, dont chaque module est « programmé » génétiquement pour assurer une tâche cognitive
précise.
Je défends l'idée d'un esprit incarné dans son environnement physique et social [Merlin Donald (1993,
2002), Humberto Maturana et Francisco Varela (1998), Antonio Damasio (1994, 1999, 2003), Gerald
Edelman (1992) Gerald Edelman et Giulio Tononi (2000)]. Les aptitudes cognitives de l'être
humain procèdent de sa capacité à symboliser, de sa conscience étendue, de sa culture, et non pas
uniquement de mécanismes inconscients, même si la connaissance consciente est nourrie par maintes
routines inconscientes, émergeant de l’action consciente de l’organisme dans son environnement.
J'oppose une vision intégrée de l'esprit face à une vision modulaire. La conscience semble être le pont
qui unit la biologie et la psychologie, et qui confère au sujet son libre arbitre et sa capacité de
connaître. Elle est un ensemble très complexe de processus dynamiques, le fruit le plus achevé de
l'évolution. Elle est encore loin d'être élucidée, mais elle est fondamentale pour définir la nature
humaine et la cognition.
Je montre, à travers les travaux de Merlin Donald, pourquoi la conscience est primordiale pour
expliquer la cognition et comment l’esprit a évolué dans l’histoire de l’espèce, en passant par plusieurs
stades (esprit épisodique, mimétique, mythique, théorique), chacun conservant la mémoire des
étapes antérieures, et comment il est possible de passer d’un cerveau de primate à celui de l’homme
actuel.
Je présente les résultats des travaux de Francisco Varela, sur l’unité de la conscience. Il montre
comment cette unité se produit grâce à l’activation synchrone de différentes parties du cerveau lors
de l’exécution d’une tâche cognitive. Cette synchronisation fait émerger la conscience, permettant
l’accomplissement d’une tâche transcendante qu’aucune partie du cerveau ne peut effectuer isolément.
6
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
Je montre, à travers les travaux de Humberto Maturana et Francisco Varela, pourquoi le système
nerveux est fondamental pour expliquer la conscience et la cognition. J’expose leur concept
d’autopoïèse, qui permet d’éliminer clairement tout amalgame entre intelligence naturelle et
intelligence artificielle et les conséquences de la théorie autopoïétique concernant la connaissance
humaine.
Je présente la TSGN (la Théorie de la Sélection des Groupes Neuronaux) de Gerald Edelman et Giulio
Tononi, qui propose une explication biologique de la conscience, et définit le cerveau comme un
système sélectif, et la sélection comme un processus épigénétique.
Je montre, avec les travaux d’Antonio Damasio, comment la conscience n’est pas un processus
monolithique, mais se compose de deux strates superposées : la conscience noyau1 (core
consciousness), que nous partageons avec les autres espèces, sur laquelle s’enracine la conscience
étendue2 (extended consciousness), proprement humaine, qui gouverne la faculté de langage. C’est un
phénomène hybride qui procède à la fois de la biologie et de la culture, de par la plasticité du cerveau
et son long développement ex utero dans le cadre de l’expérience consciente. La pensée symbolique
linguistique, relevant de la conscience étendue, s’articule sur une pensée en images non
symbolique, relevant de la conscience noyau. Donc la faculté de langage n’est pas indépendante
des autres facultés cognitives.
1. « Conscience noyau » (core consciousness) selon la terminologie d’Antonio Damasio, et « conscience primaire »
(primary consciousness) selon la terminologie de Gerald Edelman.
2. « Conscience étendue » (extended consciousness) selon la terminologie d’Antonio Damasio, et « conscience
supérieure » (high-order consciousness) selon la terminologie de Gerald Edelman.
7
Résumé de la thèse de Christiane NOTARI intitulée : Métaphore de l’ordinateur et linguistique cognitive – Janvier 2008
Enfin je montre que l’idée d’un organe syntaxique parfait, tel que présenté dans le Programme
Minimaliste (The Minimalist Program), cadre mal avec la théorie et la biologie de l’évolution [Philip
Lieberman (2004)], et que si l’hypothèse d’une grammaire universelle est vraie, on devrait s’attendre à
des carences génétiques de certains principes ou paramètres privant certains individus de la capacité
totale ou partielle de parler, ou d’apprendre une langue particulière. Or cela ne se produit pas. On
devrait s’attendre également à un renforcement des paramètres de la langue maternelle au
détriment d’autres langues, pour faciliter l’apprentissage des enfants. Or cela encore ne se produit pas.
Un enfant tibétain, issu de populations parlant tibétain depuis des temps immémoriaux, apprendra
l’arabe ou le russe ou n’importe quelle autre langue, si les circonstances obligent sa famille à émigrer
dans un autre pays. Il parlera avec la même facilité sa langue maternelle et celle de son pays
d’adoption.
En conclusion générale, je récapitule les idées clés de cette thèse, en espérant avoir dissipé l’idée que
l’esprit humain fonctionne comme un ordinateur, et que le langage humain dépend d’un organe-
logiciel inné. Les mécanismes syntaxiques se mettent en place lors de l’épigenèse, dans le cadre de la
conscience et de l’expérience, et leur automatisation a lieu par le biais de l’usage de la langue comme
n’importe quelle action motrice. Sans pratique régulière il n’y a pas d’automatisation. Nous en faisons
d’ailleurs le constat lors de l’apprentissage d’une deuxième langue. Si le calcul permet de simuler
certains aspects de l’esprit humain et du langage, cela ne signifie pas que ce dernier soit réductible à
un mécanisme préprogrammé inconscient. Cette idée prend sa source dans la théorie mathématique de
la calculabilité, notamment la machine de Turing (automate mathématique, mais aussi fondement
théorique de l’ordinateur), renforcée par la machine de von Neumann (version technologique de
l’ordinateur).
Conclusion : Noam Chomsky fait de l’intelligence artificielle
Le paradoxe de la linguistique chomskyenne, est qu’elle se veut branche de la psychologie et de la
biologie tout en ignorant ces disciplines. Elle se veut matérialiste tout en ignorant la matière, ne
s’occupant que de la fonction logique de l’esprit et occultant le substrat matériel. Noam Chomsky
prétend faire une théorie de la connaissance, alors qu’il ne fait que simuler certaines régularités
syntaxiques avec des outils mathématiques, en postulant un automate, puis un logiciel, tous deux
inconscients, en guise d’explication. A son corps défendant, il fait donc de l’intelligence artificielle,
mais n’explique rien quant au fonctionnement de l’intelligence réelle et du langage. Le cerveau
n’est pas un ordinateur. Cette mauvaise métaphore occulte une de ses propriétés fondamentale : la
conscience, qui donne accès à la connaissance.
8