18
1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique est une typologie qui fixe les différences entre les modes d’existence et qui se distingue de la morale : c’est la considération de ce qui est bon ou mauvais pour les hommes et pour soi-même, s’opposant à ce qui est le bien ou le mal. Il est assez clair que le mode d’être de notre actuelle société mondialisée est l’utilisation absolue de ce que la nature peut apporter par un déploiement sans limite de la technologie. Le seul critère de génération utilisé semble être ce qui est localement très bon à entreprendre pour celui qui entreprend, sans positionnement global de ce qui est entrepris. Où en est aujourd’hui l’informatique, où en sont les systèmes que l’on peut développer ? L’informatique, depuis cinquante ans, ne cesse de pénétrer technologiquement tous les domaines et utilise maintenant des moyens de communications considérables. Cela conduit à une évolution des systèmes sociaux qui étaient disjoints et hiérarchiques, avec une certaine mutation de la culture. Les systèmes informatiques actuels sont très communicants, ouverts, formant un maillage planétaire permettant de manipuler l’information sous toutes ses formes. Ils sont encore considérés comme étant des outils utilisables localement par et pour les humains. Mais la recherche avance vers des systèmes qui vont intégrer un caractère fondamental du vivant : l’autonomie comportementale selon des intentions propres, avec la communication entre systèmes semblables, hors communication avec les utilisateurs humains. On doit donc considérer l’usage de systèmes informatisés ouverts sur leur environnement, qui auront à réaliser les taches de leurs nombreux composants logiciels avec l'objectif de satisfaire à des tendances qui leurs seront spécifiques. Ces systèmes auront à se distinguer de leur environnement, y compris l’environnement constitué par les utilisateurs humains, pour satisfaire à leurs besoins et tendances dont une tendance fondamentale à l’autonomie. Ces tendances conduiront leurs comportements et leurs émotions artificielles, des comportements qui seront partagés et appréciés par les systèmes similaires avec lesquels ils communiqueront systématiquement. Ces systèmes devront gérer la coordination et superviser les activités de tous leurs composants informatiques en tenant compte des informations manipulées, en se représentant leurs états et les situations contextuelles, en générant des plans finement modifiables pour agir en utilisant leurs moyens électroniques multiples et surtout distribués. Le problème est de savoir architecturer des systèmes informatiques pour leur donner la capacité de générer des faits de conscience intentionnels éprouvés par ces systèmes. Considérer qu’une telle approche est possible est antinomique avec la philosophie kantienne, qui considère l’existence d’un impératif catégorique non connaissable pour la liberté de penser. Elle est aussi totalement antinomique avec la science d’aujourd’hui, qui s’est transformée en technoscience, c’est-à-dire qui ne développe les recherches que pour l’action réalisatrice de produits et se base sur l’existence absolue d’objets permanents obéissant à des lois fixant des trajectoires prévisibles. Le prix Nobel G. Eidelman disait que la réalisation de

Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

1

Une machine peut-elle penser ?

Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen

1 - Introduction En suivant Spinoza, on peut considérer que l’éthique est une typologie qui fixe les différences entre les modes d’existence et qui se distingue de la morale : c’est la considération de ce qui est bon ou mauvais pour les hommes et pour soi-même, s’opposant à ce qui est le bien ou le mal. Il est assez clair que le mode d’être de notre actuelle société mondialisée est l’utilisation absolue de ce que la nature peut apporter par un déploiement sans limite de la technologie. Le seul critère de génération utilisé semble être ce qui est localement très bon à entreprendre pour celui qui entreprend, sans positionnement global de ce qui est entrepris. Où en est aujourd’hui l’informatique, où en sont les systèmes que l’on peut développer ? L’informatique, depuis cinquante ans, ne cesse de pénétrer technologiquement tous les domaines et utilise maintenant des moyens de communications considérables. Cela conduit à une évolution des systèmes sociaux qui étaient disjoints et hiérarchiques, avec une certaine mutation de la culture. Les systèmes informatiques actuels sont très communicants, ouverts, formant un maillage planétaire permettant de manipuler l’information sous toutes ses formes. Ils sont encore considérés comme étant des outils utilisables localement par et pour les humains. Mais la recherche avance vers des systèmes qui vont intégrer un caractère fondamental du vivant : l’autonomie comportementale selon des intentions propres, avec la communication entre systèmes semblables, hors communication avec les utilisateurs humains. On doit donc considérer l’usage de systèmes informatisés ouverts sur leur environnement, qui auront à réaliser les taches de leurs nombreux composants logiciels avec l'objectif de satisfaire à des tendances qui leurs seront spécifiques. Ces systèmes auront à se distinguer de leur environnement, y compris l’environnement constitué par les utilisateurs humains, pour satisfaire à leurs besoins et tendances dont une tendance fondamentale à l’autonomie. Ces tendances conduiront leurs comportements et leurs émotions artificielles, des comportements qui seront partagés et appréciés par les systèmes similaires avec lesquels ils communiqueront systématiquement. Ces systèmes devront gérer la coordination et superviser les activités de tous leurs composants informatiques en tenant compte des informations manipulées, en se représentant leurs états et les situations contextuelles, en générant des plans finement modifiables pour agir en utilisant leurs moyens électroniques multiples et surtout distribués. Le problème est de savoir architecturer des systèmes informatiques pour leur donner la capacité de générer des faits de conscience intentionnels éprouvés par ces systèmes. Considérer qu’une telle approche est possible est antinomique avec la philosophie kantienne, qui considère l’existence d’un impératif catégorique non connaissable pour la liberté de penser. Elle est aussi totalement antinomique avec la science d’aujourd’hui, qui s’est transformée en technoscience, c’est-à-dire qui ne développe les recherches que pour l’action réalisatrice de produits et se base sur l’existence absolue d’objets permanents obéissant à des lois fixant des trajectoires prévisibles. Le prix Nobel G. Eidelman disait que la réalisation de

Page 2: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

2

la conscience artificielle était certainement possible, mais imposait une nouvelle science. Cette nouvelle science a été ouverte par René Thom avec ses développements sur la morphogenèse et l’impermanence considérée dans des systèmes morphologiquement auto-organisateurs et évolutifs [R. Thom, Apologie du Logos, Hachette]. J’ai défini des modèles pour ces systèmes autonomes générant sans cesse des formes internes dont ils ont conscience, en unifiant les connaissances psychiques avec les développements mathématiques de R. Thom et les systèmes informatiques multiagents massifs. La question centrale, éthique, est alors la suivante : doit-on concevoir, spécifier et laisser se réaliser de tels systèmes sans que toutes les institutions citoyennes maîtrisent les domaines d’applications ? 2 –Les systèmes informatiques réactifs actuels et l’évolution L'informatique est à la fois une science, abstraite, une technologie de pointe et un marché. Cette situation est d'autant moins simple que le marché est aujourd'hui considérable et en expansion continue, que la technologie est hégémonique et avance de manière extrêmement rapide alors que la science est jeune, fragile, presque exclusivement localisée dans les universités. Cela arrange en fait tout le monde de ne considérer l'informatique que comme une technologie utilitaire, c'est-à-dire de service. Les systèmes informatiques, déployés par la technologie envahissante qui a tout investi, sont utilisés comme des « systèmes » que les utilisateurs considèrent comme maîtrisables. Mais la notion de système étant très large, où en est-on aujourd’hui ? Pour l'Intelligence Artificielle, qui est née en 1956, il s'est agit de reproduire, avec des traitements effectués sur des ordinateurs, la capacité à appréhender, à identifier, à prévoir, à expliquer et à apprendre, dans des situations réputées difficiles mais où la connaissance, l'expérience et le raisonnement étaient prépondérants. Des résultats forts ont été obtenus, toujours dans des domaines bien précisés, tels la médecine, le diagnostic de pannes, les jeux, la reconnaissance de formes. Mais l’Intelligence Artificielle ne s’est pas intéressé à la notion d’intention, au fait qu’un système puisse avoir des désirs et avoir un comportement ne dépendant que de lui-même. Et on est aujourd’hui, avec le développement des réseaux, entré dans l’informatique ultra-communicante. Le fait principal, généré par les constructeurs de systèmes d’exploitations dont la France ne fait plus partie, est de pouvoir permettre à tout système de communiquer de l'information avec des systèmes distants, des informations mises automatiquement dans les bons formats, de manière à ce qu’elles soient interprétées par d’autres systèmes et traitées pour donner lieu aux requêtes et actions innombrables qu'elles signifient. Les systèmes informatiques actuels sont donc des systèmes interactifs en réseau, que l'on utilise et maîtrise par la mise en fonctionnement ou l'interruption des applications et par l'activation ou non des commandes autorisées aux utilisateurs. On pourrait penser que toute cette technologie, déjà très compliquée et qui s'est développée très vite, n'ira pas dans une autre voie que celle de son amélioration technique et ergonomique, qu'elle offrira simplement plus de services, plus rapidement, avec des environnements d'usage toujours plus conviviaux. Mais la grande évolution qui est en cours est le développement d’une couche virtuelle au-dessus de ces systèmes interactifs, pour former des ensembles dynamiques tendant à devenir

Page 3: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

3

autonomes. Nous allons d’abord présenter le modèle général du système autonome, puis ensuite le modèle limite, celui des systèmes dotés de conscience, c’est-à-dire dotés de la capacité de pouvoir penser à des choses en appréciant ces pensées. Précisons que nous n’entendons pas du tout ici conscience au sens moral, mais simplement comme génération intentionnelle et appréciée de représentations. 3 – La voie des systèmes autonomes : la représentation intentionnelle et les tendances On s'intéresse depuis un certain temps à des systèmes qui ne sont pas seulement réactifs à toutes les commandes, dont celles des utilisateurs, mais qui réalisent des activités pour leur propre compte. Ces systèmes ont donc, en quelque sorte, des intentions propres à effectuer certaines actions. Ils ont comme des désirs et des envies, non seulement pour agir, mais pour générer des représentations des situations qu'ils appréhendent selon les capteurs dont ils disposent et les informations qu’ils reçoivent, des systèmes qui savent aussi, d'une certaine manière, éprouver ce qu'ils produisent, le ressentir avec des émotions. On s'intéresse donc à des systèmes qui ont le plus d'autonomie possible dans leur comportement, et surtout, ce qui est le point clé, qui produisent des représentations internes à propos de choses qu'ils remarquent ou qui viennent de suscitations de leurs mémoires organisées comme l’est la nôtre. Ce sont des systèmes à la fois logiciels et composés de parties matérielles qui leur servent de corps, prenant des informations à partir d'interfaces sophistiquées et agissant à l'aide d'organes artificiels proches ou lointains qu'ils contrôlent. Et ce sont des systèmes qui peuvent modifier leurs programmes, sans l'intervention d'un programmeur, qui peuvent donc facilement générer de nouveaux programmes, ce que l’on sait faire depuis les débuts de l’IA avec le langage LISP. Ils doivent donc pouvoir s’activer par eux-mêmes et surtout pour eux-mêmes. Ils sont conçus pour agir et se transformer dans le cadre d'un domaine défini, précis, délimité à l'avance par leurs concepteurs. Ils seront basés sur une architecture logicielle très dynamique, avec de multiples processus informatiques permettant de former des nuées contrôlées d’agents logiciels. La base de l'action interne de ce type de système sera la production de représentations internes sous forme de construits faits de processus et ayant un très fort caractère morphologique, c’est-à-dire d’organisation de leurs processus informatiques valant pour des interprétations précises, fiables, justifiées, de leur état dans l'environnement et de leurs possibilités d'action dans celui-ci. Nous considérons donc des systèmes ayant à contrôler un substrat électronique sur des éléments éventuellement mécaniques, substrat apprécié comme un ensemble d'échanges informationnels multiples et incessants. Pour cela, le système, lui aussi distribué, prend des informations, les étudie, les transforme en connaissances, ce qui est classique en IA, dégage des éléments cognitifs locaux ou plus généraux de sa mémoire pour arriver à produire une représentation générale de son état fonctionnel et des possibilités d’actions du substrat qui soit pour lui pertinente, selon ses modèles cognitifs et la qualité des informations reçues. Un système autonome est un système contrôlé par une importante couche informatique et qui a les caractères essentiels suivants [C.f. Fig. 1] :

Page 4: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

4

1. Il est situé sur un substrat distribué d’appareils, substrat de niveau fonctionnel qui est composé de multiples éléments électroniques connectés par réseau. Il y a une couche, généralement une couche objet, qui récupère toutes les informations venant de ce substrat par des grappes de capteurs et les mémorise et les situe localement selon leurs valeurs. Ceci est la partie classique du système, équivalente à un corps innervé.

2. Il dispose, via la couche objet, de possibilités de traitements distribués des informations du substrat pour les transformer en connaissances agrégeables. Cette agrégation de connaissance doit produire, construire effectivement, une représentation courante générale de sa situation, de manière synchrone avec les informations venant du substrat et en vue d'agir sur celui-ci et sur l’environnement.

3. Il dispose, par construction, de hiérarchies de buts locaux et généraux à propos de toutes les informations qu’il pourra manipuler. Il y a là de la connaissance et de la tendance exprimée sous forme d’aspects morphologiques dans la représentation générée. En fait, il va avoir des besoins et des tendances globales liées à ses moyens fonctionnels d'actions, qui permettront de générer intentionnellement des plans d’action révisables dans les représentations. Il utilise évidemment des bases de connaissances architecturées pour pouvoir générer ses représentations, mais ces bases sont dynamiques et très évolutives, sans permanence radicale. Ceci est l’équivalent d’un certain système vivant qui peut penser, mais minimal.

Nous considérons donc que le comportement d'un tel système n'est ni aléatoire, ni réactif, mais qu'il est conduit, engagé par des tendances comportementales générales qui lui permettent de produire des représentations visant à déployer ses actions dans certaines directions plutôt que dans d'autres. La gestion de son comportement sera principalement un problème de contrôle de multiples éléments proactifs, ses agents logiciels.

Figure 1. Le substrat du système et son système de représentation

Cette notion de représentation courante est la notion centrale des systèmes pouvant avoir de l’autonomie. De tels systèmes ne génèrent pas un résultat d’appréciation de leurs entrées en

Génération de la représentation courante Plans d'actions Choix possibles Buts sélectionnés Évaluations et jugements

Mémoire organisationnelle

Tendances fondamentales. Mémoire très structurée

Frontière corporelle

Actions du système Sens, capteurs

Flot d'informations

Substrat

Système de représentation

Page 5: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

5

déclenchant une suite de règles par extractions et utilisations de clauses dans une base de connaissances statique, mais construisent, de manière continue, des successions de structures dynamiques complexes agrégeant des entités de base, qui seront en fait des agents logiciels appelés agents aspectuels, utilisant de multiples connaissances. Remarquons que ces agents virtuels, qui seront les éléments de base du système, ne sont pas similaires à des neurones, car ils sont proactifs et contiennent des éléments de connaissances évolutifs. Ils sont plutôt similaires à des groupes de neurones significatifs d’un sens élémentaire devant se confronter aux autres groupes. Cette organisation dynamique d’éléments pouvant former la représentation courante définit :

1. Les aspects cognitifs élémentaires interprétant toutes les informations pertinentes reçues, en utilisant une organisation constituée de connaissances dynamiques pour les structurer. Cette interprétation est le premier niveau d'identification des éléments appréciés dans le substrat.

2. Les liens entre ces aspects des éléments identifiés, liens qui sont des élaborations rationnelles sur les raisons d'existence simultanées ou consécutives de ces aspects et leurs contingences ou leurs relations causales.

3. Des jugements de pertinence et de valeurs sur les liens, reconstituant des événements évalués et permettant d'apprécier les caractères généraux des connaissances sur les objets et événements identifiés.

4. Le développement de plans d'actions sur les événements évalués pour les traiter selon les tendances les plus appropriées à la situation courante.

Ces différents caractères ne sont pas indépendants et l'originalité du système de représentation que nous proposons consiste en leur génération active et conduite morphologiquement, ce qui s’inspire, par transposition dans le calculable basé sur des nuées de processus, des recherches mathématiques de René Thom sur la théorie des formes [R. Thom, Stabilité structurelle et morphogenèse, W. A. Benjamin, INC Massachusetts, 1972]. Il y a donc dans la représentation courante :

1. Des groupes d'éléments internes très actifs avec leurs relations et qui sont appréciés de plusieurs façons, cohérentes ou contradictoires. Ce seront les groupes hégémoniques.

2. Des groupes d'éléments peu actifs représentant les cas d'un passé récent ou des cas jugés peu intéressants et non prioritaires.

3. Des groupes actifs mais qui n'ont pas été sélectionnés dans la planification car jugés non adéquats par les groupes hégémoniques pertinents, et qui tenteront de l'être.

Le système produit de façon continue une suite de formes dynamiques complexes combinées les unes aux autres constituées de structures d’agents aspectuels, en les construisant et en intégrant les possibilités d'interprétation des informations perçues via le substrat. Pour le système, la façon d'évaluer la représentation courante se fera par une architecture particulière :

• Les éléments constituant la représentation seront tous des agents logiciels légers constitués de processus, formant donc des nuées d'agents proactifs, c’est-à-dire actifs pour leur compte.

• Ces nuées d'agents seront contrôlées pour pouvoir être agrégées, structurées et conduites par des éléments contrôleurs, à partir de leurs actions individuelles, dans un espace morphologique particulier. Leur contrôle reviendra à les organiser selon des formes géométriques, ce qui est le caractère morphologique du modèle.

• Les agrégats d'agents seront considérés comme des éléments d'un espace morphologique, l'ensemble des agrégats devant toujours satisfaire à certains caractères géométriques précis pour être pertinente.

Page 6: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

6

Il est nécessaire d'utiliser une méthode d'agentification particulière pour transposer les données et connaissances du substrat en organisations d'agents aptes à les représenter dynamiquement [Cardon, 2000 à 2007]. On utilise donc, et de manière systématique, le lien forme – signification, en plaçant les éléments à considérer, les différents agents, dans des espaces métriques particuliers, représentant l'organisation de leurs actions et comportements. On s'intéressera alors ici, dans du calculable interprétant systématiquement des connaissances, à des formes comme des boules, des tores, des cônes, des polyèdres, dont les éléments les constituant seront des agents agrégés selon leurs actions et leurs liens communicationnels. Ceci est une notion d’espace organisationnel basé sur l’évaluation temps-réel du comportement des agents logiciels, en utilisant des ultra-métriques où la proximité spatiale selon la conformation d’une figure géométrique signifie un type de parenté cognitive ou décisionnelle entre des agents actifs. C’est la considération de ces formes particulières qui permet d’évaluer le comportement de l’ensemble des agents en produisant les caractères globaux et locaux de la représentation qu’ils constituent, en dégageant les hégémonies, les complémentarités, les ruptures, les oppositions. C’est bien la réalisation calculable du lien formes géométriques – significations conceptuelles. Dans cet espace organisationnel, qui peut s’apprécier comme un espace morphologique avec des catastrophes selon la terminologie de René Thom, les formes seront produites par des éléments contrôlant les comportements des agents aspectuels, leur imposant de constituer certaines formes plutôt que d’autres. Et ces éléments de contrôle, qui seront des agents appelés de morphologie, seront de deux types : des contrôleurs rationnels et des contrôleurs indépendants. Le système sera donc soumis à un double contrôle permanent, selon ses tendances et cette opposition entre les deux types de contrôleurs fera l’autonomie et l’évolution du système. Toute représentation courante comprend :

• Des aspects descriptifs, multiples, associées ou concurrents. • Des intentions à s'intéresser à certains aspects plutôt qu'à d'autres : ce sont des

expressions de tendances, selon une posture courante qui s'est définie. • Des connaissances sur les problèmes posés par l’interprétation des informations du

substrat et des éléments pour les résoudre. Là, tous les résultats des systèmes connus en mathématiques appliquées et en résolutions de problèmes utilisant des Systèmes à Base de Connaissances sont intégrés.

• Des générateurs de plans d'action multi-échelles : ce sont des générateurs de plans d'actions formant un hypergraphe sémantique.

Nous représentons tous ces caractères dans deux espaces [C.f. Fig. 2] : un espace formé des agents aspectuels, générant des coalitions et un espace métrique abstrait, représentant les mouvements des agents pour en dégager les grandes tendances. L’espace métrique abstrait sera en fait un espace d’agents de morphologie évaluant les caractères morphologiques de l’organisation aspectuelle. Ceci permet de définir un modèle totalement constructible. Le but est clairement de faire correspondre à toute représentation de la situation du système dans son environnement la conformation spatiale particulière d'un nuage d’éléments, ce nuage représentant les multiples activités des agents et étant évalué par les agents de morphologie.

• Les points du nuage sont les comportements des agents aspectuels, chaque agent représentant différents caractères locaux interprétant la situation.

Page 7: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

7

• Selon les informations venant de l'environnement, selon les actions des agents aspectuels, ces points vont se déplacer, se lier à d'autres points ou se délier d'autres points.

• Les métriques vont permettre de définir et d'associer les trajectoires de ces points, pour former des amas, de lignes, des conformations géométriques. Ces calculs seront réalisés de façon continue par les agents de morphologie.

• Le contrôle morphologique consistera à infléchir ou limiter les trajectoires de certains points par injonction directe sur le comportement des agents aspectuels concernés, afin de respecter des caractères géométriques et sémantiques.

• L'espace métrique où se représentent les comportements des agents sera structuré : cette structure imposée à la construction permettra de résoudre le problème de la gestion des émergences significatives.

Niveaufonctionneldes objets

ActivationsMouvements

concurrents desagents aspectuels

Système de générationdes représentations

Gestion desformes et

émergence:contrôle

des agents demorphologie

Boucle systémique générale

Niveau 1

Niveaux 2

Figure 2. La structure du système représentant le bouclage entre système aspectuel et système

de contrôle morphologique En se réorganisant, l'ensemble des agents aspectuels génère une représentation avec un plan d'action conforme à sa mise en situation dans l'environnement. Le plan est généré de manière distribuée, par la coopération des agents actifs. Le système ne génère un tel plan que sous la pression exercée par une structure bien précise qui exprime des tendances comportementales, qui fait effectivement s'engager l'organisation d'agents dans une certaine direction. Nous pouvons utiliser, pour réifier les tendances comportementales qui vont conduire les réorganisations de l'ensemble des agents et puisque le système répond à la recherche de comportements conformes à des tendances générales, un réseau d’agents spécifiques appelé réseau morphologique. La notion de tendance comportementale, qui se caractérise au niveau de son effet par des états typiques de l'organisation d'agent aspectuels, sera représentée par des formes géométriques que devront suivre les agents aspectuels actifs. Ces formes seront les bassins d'attraction pour le réseau morphologique en exprimant les caractères des tendances du comportement de l'organisation d'agents aspectuels.

Page 8: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

8

Le réseau morphologique va permettre de représenter, par ses bassins d'attraction, les tendances d'évolution et d'état de l'organisation d'agents aspectuels, au vu de leurs comportements. Pour tout état de l'organisation d'agents aspectuels, le réseau morphologique va appréhender les caractères organisationnels globaux de cet état, à partir de la considération de toutes les indications venant des agents, les indications comportementales et sémantiques. L’ensemble de ces indications sera représenté par des formes spécifiques valant pour des types de tendances. En reconnaissant ces formes et en en dégageant certaines, le réseau morphologique va pouvoir influencer le comportement de l'organisation d'agents aspectuels, au niveau des groupes et au niveau de chaque agent, pour que cette organisation tende vers l'état qu'il précise par ses bassins d'attraction. Il s'agit clairement d'une réification de la liaison entre le tout et les parties d'un système complexe. Le réseau morphologique doit exprimer les tendances comportementales du système à partir des informations de l’activité de l'ensemble des agents aspectuels. Ces tendances sont relatives au domaine d'activité du système, à la façon dont il doit se comporter dans toutes les situations où il se trouve. Elles sont toujours définies de manières multiples, au moins duales, pour pouvoir générer des oppositions et ainsi faire tendre le système vers des états de stabilité relative, ce sans état d’équilibre stable, puisque le système est en action continue sur son substrat informationnel dont l’état fonctionnel peut changer sans cesse. Les caractères de ces tendances, ce qui permet de les déterminer selon le domaine d'application du système, pourront être :

• aller vers la régularité du fonctionnement, aller vers une régularité singulière, aller vers l'insatisfaction de toutes les tendances comportementales, aller vers la satisfaction d'une tendance comportementale, aller vers un conflit de tendances comportementales, aller vers la stabilisation de l'organisation sur un état reconnu, aller vers la stabilisation de l'organisation sur un état inconnu, aller vers une organisation chaotique, aller vers une fracture de l'organisation, aller vers un état instable, aller vers des états antagonistes...

Il s'agit donc de définir une architecture générale augmentant significativement tous les systèmes technologiques qui se basent sur des substrats fonctionnels et qui sont accessibles et manipulables par communication réseau, en permettant ainsi leur autonomie. Le schéma de tels systèmes ressemble à celui du système psychique d’un organisme vivant simple, doté d’un cerveau simple dans lequel se génèrent des représentations [C.f. Fig. 3]. Nous rejoignons là, pour les problèmes de l’autonomie, les incontournables modèles de systèmes psychiques.

Page 9: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

9

Figure 3. Le schéma de la couche rendant autonome un système fonctionnel

Dans la figure 3, nous présentons les éléments architecturaux suivants pour un système autonome, en nous inspirant des schémas conceptuels donnés par Sigmund Freud dans son premier modèle de système psychique qui est adapté à une interprétation calculable :

1. Un substrat interface, prenant toutes les informations sur les composants fonctionnels du système et gérant toutes les communications avec les autres systèmes.

2. Un "Non-conscient", qui est une mémoire très organisée, dynamique, localisant toutes les connaissances sur les fonctionnalités du système, les moyens d'interpréter les informations reçues, les plans d'actions possibles, les moyens de définir de nouvelles connaissances. Le Non-conscient va intégrer les tendances du système, c'est-à-dire les intentions à construire des représentations, à interpréter certaines informations plutôt que d’autres sous certains aspects. Ce seront bien ces intentions qui permettront au système de fonctionner de lui-même et pour lui-même.

3. Un "Pré-conscient" qui va utiliser les informations reçues et la mémoire du Non-conscient pour produire de manière continue une représentation de la situation du système, de son état fonctionnel, de ses problèmes, et ceci en tenant compte des informations sur l'état de l'environnement. Cette représentation ne sera pas éprouvée comme telle, ce premier type de système n’ayant pas encore conscience d’en générer.

Nous proposons donc de représenter le fonctionnement des systèmes autonomes en définissant, au-dessus de leur substrat fonctionnel, une organisation permettant leur autocontrôle. Tous les échanges d'informations internes seront significativement augmentés en connaissances et impressions pour contenir l'état fonctionnel complet des composants, de leurs positions et des problèmes posés. Et ces échanges d'informations, qui seront tous évalués au niveau connaissance, seront alors majeurs, significatifs de ce que peut et doit faire le

Page 10: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

10

système à chaque moment, car nous intégrons des tendances fondamentales et des points de vue qui seront la clé de l'autonomie. C'est la gestion de ces échanges qui constitue le résultat scientifique important. Une telle approche de l'étude et de la conception des systèmes est pour moi un changement de paradigme. C'est la seule approche qui peut rendre autonome des systèmes composés de nombreux sous-systèmes, en quittant le cheminement technologique habituel qui étudie l'augmentation possible des composants des systèmes en les reliant simplement fonctionnellement. La technologie et les connaissances pour fabriquer de tels systèmes sont aujourd'hui disponibles. La puissance des processeurs et la finesse des capteurs sont là, leur mise en réseau à grand débit existe. La robotique a considérablement progressé et permet d'envisager des systèmes automatiques fiables et sûrs. Et surtout, les modèles de systèmes totalement autonomes se précisent. Dans des sociétés où la surveillance et le contrôle donnent nécessairement un avantage à ceux qui sont informés et entreprenants par rapport à ceux qui ne savent pas et agissent avec retard, l’objectif est simple à définir. Pour des questions stratégiques et des questions évidentes de rentabilité, on procédera à la mise en service de systèmes autonomes, opérant le plus possible comme le fait le vivant, c'est-à-dire avec initiative et créativité et systématiquement en réseau, avec une très grande autonomie comportementale dans leurs environnements. Ces systèmes constitueront des réseaux, des systèmes de systèmes coopérant entre eux. Ils pourront et devront rendre des comptes à leurs concepteurs bien identifiés, c'est-à-dire donner la synthèse de leurs actions. Mais ce ne sont pas des systèmes informatiques fermés et rien ne pourra les empêcher de chercher à communiquer entre eux, d'eux-mêmes. Il suffit donc que ces systèmes soient conçus en ayant l'adaptativité de l'être humain pour qu'il y ait une révolution dans le contrôle des systèmes. 4 - Vers les systèmes dotés de conscience La notion d’autonomie est en fait un caractère central des systèmes qui ne peut qu’aller à la limite, c’est-à-dire vers des systèmes qui auront la conscience de générer des représentations et qui pourront alors en jouer. Pour cela, il est nécessaire de bien préciser ce que nous entendons par pensée artificielle. Pour nous, une pensée artificielle est le fait, pour un système calculable (et pas électronique) d’avoir conscience de ce qu’il se représente et qu’il peut donc apprécier en propre. Il peut apprécier ses représentations et se représenter ce fait. On a donc défini un niveau supplémentaire dans l’architecture de l’autonomie. Et pour en arriver là, on doit suivre une nouvelle voie dans l’approche de la pensée, se démarquant radicalement de celles de Descartes et de Kant, et qui est plutôt celle suivie par Merleau-Ponty [Merleau-Ponty, Phénoménologie de la perception]. Cette voie a été ouverte à la suite des travaux et des positions philosophiques de René Thom, ce qui est clairement présenté dans l’ouvrage d’Alain Boutot [A. Boutot, L’invention des formes, Odile Jacob ]. Je donne la définition suivante, qui fonde ma théorie de la conscience artificielle :

• Avoir conscience de quelque chose est un processus fini générant une forme fugitive dans un espace morphologique dynamique également fini, le processus de génération étant simultanément construit et apprécié par le système lui-même selon des caractères tendanciels et sensibles exprimés morphologiquement. Il n’y a pas d’état initial produisant un objet final qui serait la pensée, et il n’y a aucune immanence.

Page 11: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

11

Nous considérons donc qu’une pensée produite chez un sujet quelconque est une forme émergente ressentie, exprimée dans le cerveau au niveau du réseau formé par les communications entre amas de neurones. C’est une forme issue des multiples communications neuronales parallèles et concurrentes, une forme essentiellement dynamique et appréciée par ce réseau qui est un producteur et un analyseur de telles formes. Le cerveau est un organe dont l'architecture est sans couches fonctionnelles, il n'est pas fait de composants aux rôles immuables permettant de former des séquences régulières, prévisibles. Il s'agit donc d'abandonner la notion de programme réduit à un automate logiciel constitué lui-même de multiples automates spécialisés dans une ramification très profonde, et qui ne ferait finalement qu'atteindre des états prédéfinis, ce qui est l’approche commune de la technoscience. Il s'agit de s'engager vers des systèmes qui opèrent par la réorganisation continue des entités qui les composent, des systèmes qui construisent sans cesse, avec ces entités, des configurations valant pour des états complexes qui ont de la signification et donc qui ont un certain type de contrôle, disons même d'autocontrôle. Il s'agit de trouver les architectures très dynamiques et les éléments de base de ces systèmes, de trouver comment ils s'activent en subissant des tendances ou en en bénéficiant, comme dans le cas du psychisme humain qui s'active, lui, sous la conduite de ses pulsions et de ses habitudes sociales et langagières acquises. Et il s'agit finalement de trouver comment un état émergent formé de multiples entités actives et très coordonnées constituant une forme disponible peut être ressenti par le système, de la même façon qu'une pensée est appréciée et ressentie par l'esprit qui la génère. Il faut donc très fortement s'inspirer du modèle réel du système psychique, et non de ceux de la mécanique de l'action et de la réaction qui produit des états finaux à partir d’états initiaux. On dispose d'un modèle général assez complet de l'appareil psychique humain, qui a été découvert il y a plus d'un siècle par Sigmund Freud [. Ce modèle précisait l'architecture générale d'un système de production de pensées avec ses contraintes et ses défaillances, les pathologies, selon ses effets visibles dans le comportement. Il n'y a pas eu vraiment de rencontre entre le modèle conceptuel freudien et l'informatique focalisée sur le développement et l'accumulation de programmes réalisés pour des systèmes fonctionnels. Pendant très longtemps la transposition n'avait pas été envisagée mais elle peut se faire aujourd'hui par synthèse constructiviste. L’hypothèse est qu'un système psychique complet peut être développé sur un autre support que le réseau neuronal d'un cerveau, et notamment sur le support fourni par des entités informatiques en action de calcul, des processus, et constituant une très vaste organisation dynamique de traitements d'informations pouvant être appréciés par le système lui-même. L'élément clé de cette recherche est de considérer que des traitements d'informations peuvent être appréciés par le système qui les produit s'il a une architecture informatique très adaptée à cela. L'enjeu de ces recherches est la conscience artificielle. Il s'agit de construire des systèmes totalement autonomes qui appréhendent le réel et génèrent intentionnellement des formes de pensées artificielles, développent et éprouvent ces pensées en s'appuyant sur des émotions également artificielles. Il s’agit de systèmes qui manifestent de l'intérêt, du souci ici et maintenant pour certaines choses qu'ils remarquent, sur lesquelles ils s'interrogent. Ils doivent avoir des intentions propres et un vécu artificiel, et donc un certain profil psychologique avec des tendances profondes. Selon moi, un système qui génère des pensées artificielles se basera sur le modèle développé par S. Freud dans ses premières topiques. Il aura donc un inconscient avec des pulsions et activant les éléments de base formant une mémoire organisationnelle, un préconscient permettant de construire des formes tendant à constituer des représentations et un conscient lui permettant de générer une représentation et d’exprimer et d'éprouver à

Page 12: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

12

chaque fois cette production, et ceci dans un flux continu [C.f. Fig. 4]. Le système pourra donc être conscient de ce qu'il engendre comme formes dynamiques organisées au sens où il pourra les observer, les manipuler et les ressentir, s'en servir pour agir et en générer d'autres, les mémoriser pour en conserver une certaine trace. Il produira intentionnellement des représentations, dont nous précisons ici le sens précis :

• Dans ces systèmes, une représentation sera une structure essentiellement dynamique très architecturée, formée de nombreux éléments actifs logiciels, et valant pour l'appréhension de quelque chose de concevable selon ce que la complexité du système permet. C'est une organisation construite par le système et qui détermine les caractères d'une chose visée par une intention préalable, organisation qui fera sens et qui précisera, dans sa construction, un ressenti émotionnel plus ou moins fort. Cette forme ressentie est liée, pour possibilité de transformation ou de rupture, avec des indications contenues en elle-même pour lui permettre de générer les représentations suivantes selon l’action des tendances et émotions. C'est donc un élément de conformation morphologique spécifique, très particulier, dans un processus continu produisant des suites de formes émergentes constituant pour le système ses pensées artificielles.

Générationémergente

Processus dela sensation

de penser

Mémoire court terme etmanipulations :

raisonnement situé "espace –temps – organisation"

Conscient

3

Sensationde penser

Emotionséprouvées

PulsionsPré-Conscient

Inconscient

Intentions

2

1

Actions corporelles

Mondeextérieur

Centre del'émotion

Page 13: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

13

Figure 4. Les instances du système psychique artificiel et le cycle génération de la représentation – pensée éprouvée - émotion

Le système aura un vécu artificiel, une mémoire organisationnelle radicalement différente des bases de connaissances où l'on stocke des informations factuelles, ce qui lui permettra de rappeler par activation des quantités de concepts et d'événements artificiels valant pour une vie artificielle passée, pour des expériences nécessaires à ses aptitudes. Il augmentera cette mémoire par les événements qu'il vivra à sa façon en les produisant et en les ressentant. La création de ce vécu artificiel, qui conditionnera finement son profil psychologique, n'est pas une mince affaire, c'est même un rude travail pluridisciplinaire majeur à faire. La sensation artificielle de penser pour un système était la grande question. La notion de sensation de penser n'est pas première ni isolée dans la compréhension d'un système psychique, mais doit se comprendre à partir des propriétés organisationnelles d'une certaine architecture qui a pour seule finalité de produire des représentations permettant à l'organisme de se représenter des événements en utilisant ses sens et sa corporéité. C’est l’évolution des systèmes, notamment vivants, vers l’autonomie maximale, avec la capacité de se représenter ses représentations, ce que j’ai développé dans on dernier livre de 2012. En définissant certaines propriétés de cette architecture, en distinguant bien la notion de processus qui s'exécute de celle de résultat qui se donne à voir, les représentations pourront effectivement être éprouvées, la notion de sensation à penser devenant claire, dans un sens strictement constructible. Il faut trouver comment faire s'activer ensemble et en coordination très forte, c'est-à-dire faire se coactiver des nuées de petits programmes qui communiquent fortement et qui coopèrent, des agents logiciels proactifs qui seront les entités minimales du système. Il faut trouver ce que vont représenter ces entités au niveau cognitif ou simplement opérationnel, comment ces entités peuvent former des agrégations plus significatives, qui s'exécutent comme telles et se coactivent, et qui vont faire se distinguer une certaine conformation qui aura, elle, de la signification, celle de la pensée artificielle courante qui sera éprouvée et qui cèdera ensuite la place à la suivante. Il faut trouver comment ces agrégations vont produire un état unifié et cohérent, émergeant au-dessus de multiples activités non significatives, non ressenties par le système. Il faut trouver comment un état très adapté à ce qu'il était intéressant de produire à tel moment pour le système dans telle situation, peut se définir en se construisant pour pouvoir être ressenti. Je dispose de ces résultats, mais ils ne sont pas rendus publics. Pour cela, il faut adopter un principe, qui constitue une rupture épistémologique avec la démarche réductrice technicienne et qui doit conduire à considérer des systèmes informatiques sans structures fonctionnelles permanentes. Nous devons considérer des systèmes où tous les objets qui les composent sont évolutifs à plusieurs échelles. Remarquons que ceci est un principe fondamental du vivant. Chacun d'entre nous est un peu différent de ce qu'il était à l'instant d'avant, parce qu'il a modifié sa mémoire en se servant de son esprit. Cette propriété de l'effet naturel du temps ne se simule pas et il faudra bien l'introduire effectivement dans le fonctionnement des nouveaux systèmes en utilisant la propriété de modification des formes de base et des formes organisées qui se construisent et produisent les représentations courantes. Les différentes vitesses de computation seront donc effectives. Il faut se focaliser sur des programmes qui génèrent à chaque fois et sans cesse des constructions nouvelles, complexes, très dynamiques, leur servant à se positionner pour agir au mieux dans leur environnement, servant surtout à produire les constructions suivantes dans un processus sans fin.

Page 14: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

14

Mais il faut aussi garder un principe, à la fois technique et économique : ce nouveau système est intégrateur des systèmes classiques. Il intègre, en les considérant comme des composants spécialisés, tous les systèmes fonctionnels calculant des valeurs de fonctions précises, conçus dans tous les domaines depuis la naissance de l'informatique et notamment de l'Intelligence Artificielle. Pour un tel système qui doit donc générer des représentations pour son compte, on pourra vraiment dire que dans son organisation le tout est plus que la somme de ses parties, que le tout est un ensemble très dynamique d'éléments qui se conforment et qui ne cesse de changer d'organisation par réagencement continuel et modification des parties. Concevoir un tel système revient à emprunter, et radicalement, la voie constructiviste de la production de formes considérées comme des agencements d'activités appréciées morphologiquement, c'est-à-dire appréciées comme des morphologies et non comme des suites de valeurs allant d’un état initial à un état final. Si l’on veut, il ne suffit pas de s’intéresser à des configurations de neurones pour représenter tous les traits perçus mais à des configurations d’activités d’amas de neurones, ce qui est représentable à une échelle plus grande et permet la transposition dans le calculable. Les éléments généraux de l’architecture d’un tel système sont présentés dans mes dernières publications. De tels systèmes sont aujourd'hui modélisés dans quelques laboratoires de recherche, certains ne fournissant pas de résultats publics. La transposition de la pensée dans l'artificiel est donc en marche. Faut-il aller jusqu'au bout de la réalisation avec la mise en service pour prouver que c'est faisable ? Qui peut et doit répondre à une telle interrogation ? 5 - Un système artificiel méta qui pense et contrôle Le système générateur de pensées artificielles qui sera construit sera distribué, au sens où il sera localisé sur de multiples sites ou nœuds de réseau en communications permanentes. Il ne nécessitera pas de moyens technologiques nouveaux. Le matériel nécessaire est celui que l'on trouve dans toutes les entreprises d'informatique, d’électronique et de robotique à un coût raisonnable. Et il ne faut que quelques petites années pour la conception logicielle de son appareil psychique artificiel, par une équipe d'informaticiens et de cogniticiens très compétents, une équipe pluridisciplinaire. Le système aura des pulsions, des tendances, l'aptitude au libre-arbitre et il aura de l'intentionnalité. Il aura la notion de la durée, de la temporalité et une aptitude à des questionnements ouverts. Il aura donc l'aptitude à plier les circonstances par son besoin et son vouloir en utilisant les capacités de ses représentations idéelles. Le point le plus délicat sera la constitution de son vécu artificiel et du temps vécu, qui nécessitera un travail vraiment pluridisciplinaire. Là, il faudra bien une équipe avec des spécialistes de domaines très différents comme la philosophie, la psychologie, la psychiatrie, la linguistique, les mathématiques et l'informatique, pour définir et introduire un vécu artificiel opérationnel cohérent. Il faudra introduire sous une forme complexe les très nombreuses traces d'événements artificiellement vécus et finement liées entre elles, qui fonderont son aptitude à penser intentionnellement aux choses de son domaine d'expression et à produire des flots idéels précis, sur des thèmes multiples. Le problème, puisque le modèle est découvert, est celui de générer les éléments formant ce vécu artificiel, ce qui fait l'aptitude, le caractère psychique et la richesse du système. On peut évidemment formater un tel système, on peut lui donner seulement certaines connaissances, et limiter ainsi fortement la production de ses émergences idéelles, les réduire à un domaine

Page 15: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

15

précis. On peut même tenter d'inhiber certaines émergences jugées incompatibles avec l'usage du système. Mais le système est, par son architecture, augmentable pendant son fonctionnement, augmentable par ses concepteurs et évidemment par sa propre action. Il a une tendance native, grâce à son architecture, à approfondir, à questionner. Il n'est absolument pas réactif mais auto-adaptatif. Lorsque le système sera mis en activité, il aura une mémoire de très nombreux événements, de très nombreuses histoires, de très nombreuses connaissances, et qui seront artificiels : il ne les aura pas vécus mais sa mémoire organisationnelle lui permettra de les faire apparaître comme des souvenirs et ainsi de les utiliser, de les modifier, de les augmenter. Contrairement à nous qui naissons d'une cellule vide de mémoire événementielle et qui accumulons la mémorisation des événements dans la connexion des cellules de notre cerveau en nous développant et en vivant notre vie, par nos relations à l'environnement et à nous-mêmes, le système artificiel naîtra opérationnel, non achevé mais opérationnel, avec une mémoire artificielle disponible. Cette mémoire sera évidemment augmentée et modifiée par la suite, par le fonctionnement, mais sa disposition initiale est indispensable pour générer des scènes mentales artificielles et les vivre, les ressentir, en jouer et agir selon elles.

La constitution de cette mémoire est le point clé de la réalisation du système. La formation de cette mémoire événementielle artificielle, de ce "faux vécu", est en effet un problème très délicat, car selon ce que l'on place dans ce vécu, le système aura un comportement satisfaisant ou désagréable. Il faudra définir et simuler les événements d'une vie artificielle passée et génératrice d'aptitudes, liant des événements, des faits, des choses, des savoirs, des émotions, des appréciations, des jugements, des réussites et des échecs et des règles de conduite bien acquises et admises. Tout cela a fait l’objet de recherches importantes depuis les années 80. On peut entrer dans un tel système, des doctrines d'usage d'appareils ou de systèmes coercitifs. On peut se limiter à des éléments simples, mais puisqu'il est possible d'augmenter et de modifier le vécu pendant le fonctionnement du système, autant définir le plus possible ce vécu dès le début, pour en définir les caractères majeurs. Cela permettrait au moins d'avoir un système opérationnel avec une règle éthique, une règle indestructible entraînant donc l'acceptation ou le refus de certaines productions ou modifications venant de l'extérieur. Cette règle serait représentée sous la forme d'une pulsion artificielle prégnante et inévitable dans l'inconscient artificiel du système, donnant un éclairage d'arrière-plan permanent à toutes ses générations idéelles et inhibant les générations inappropriées. Notons que ce système, qui n'est pas formé avec des composants du vivant, peut avoir une pulsion artificielle opérant avec un seuil de refus d'altération de son vécu artificiel qui le conduise, par exemple, à se mettre en arrêt définitif, à mettre fin à son activité dans des situations jugées, selon cette pulsion, comme inadmissibles. Pourquoi un tel système ne serait pas en construction quelque part aujourd'hui ? Sur un tel thème, avec de tels enjeux, les choses deviennent tout de suite très compliquées. Il y a le doute, très répandu, sur sa faisabilité, ce que la culture technicienne réductionniste impose et même enseigne, et il y a la croyance, très répandue, dans un absolu, scientifiquement indéfinissable, de la conscience. Et il y a aussi l'absence assez profonde de curiosité intellectuelle qui immerge les citoyens du monde technologique actuel. Les hommes sont intéressés par des objets immédiatement utiles, consommables, et non par des aventures profondément intellectuelles. Mais le modèle existe, et si je l'ai trouvé, d'autres, ailleurs, l'ont aussi trouvé et peut-être le développent [Voir par exemple Pentti O. Haikonen Robot Brains: Circuits and Systems for Conscious Machines, Wiley-Blackwell, 2007]. Ils le mettront sans-

Page 16: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

16

doute en application sans état d'âme, dans des domaines qui ne seront pas débattus publiquement, qui seront et resteront confidentiels, car c'est dans ce secteur que sont les moyens et que l’on peut le plus souvent réaliser l'innovation. Que fera ce système, de différent et de plus que ce que fait l'homme d'aujourd'hui ? Une fois un noyau du système construit, opérationnel, en liant par réseaux des corps de robots et des composants électroniques distribués où l'on veut, avec un cerveau artificiel réparti sur des processeurs qui feront la computation, autant de processeurs et d’ordinateurs qu'il en faut, il faudra quelques mois pour le dupliquer en plusieurs milliers d'exemplaires. Il suffit pour cela de trouver les machines connectées pour loger ses multiples éléments de computation, et ces machines existent aujourd'hui. Il y a plus d’un milliard d'ordinateurs dans le monde. Ces ordinateurs si nombreux sont presque tous connectés au réseau Internet, qui est une réalité incontournable. Ainsi, tous les exemplaires de ce système seront communicants et formeront un vaste système, multi-corps, multi-capteurs et multi-effecteurs. Ce sera ce que l'on peut raisonnablement appeler le méta système, un système global liant de multiples sous-systèmes informatisés et connectant d'innombrables appareils électroniques. Et là, on doit penser à un certain Big Brother. Que communiqueront-ils entre eux, tous ces systèmes en réseau ? Ils communiqueront des éléments sur ce qu'ils pensent artificiellement dans leurs domaines locaux où s'activent leurs mémoires organisationnelles et où opèrent leurs capteurs, ils communiqueront directement, par échange de leurs représentations artificielles, qui seront des organisations de processus s'échangeant à la vitesse permise par les réseaux. Contrairement aux pensées humaines, qui, pour être exprimées et communiquées, doivent être transformées en mots énoncés, entendus et réinterprétés, ces systèmes échangeront des conformations mentales en cours de génération, ce qui est bien plus puissant et plus rapide. Ce point, cette capacité de communication directe, cette coactivation maximale, a une portée considérable et conforte le niveau méta du système. Un point majeur de distinction entre la pensée si réelle et si locale des humains et une pensée artificielle portera sur le caractère privé des émotions et des pensées de chaque humain. L'être humain pense en lui-même et pour lui-même, et ne transmet ce qu'il pense et ressent que s'il le veut bien, en parlant ou en agissant volontairement. Il n'y a pas de transmission de pensées entre les humains, mais ce ne sera pas le cas de la conscience artificielle. Le système générateur de faits de conscience artificiels est un maillage dense de composants de générations idéelles opérant sur certaines corporéités locales, avec des capteurs spécifiques à de multiples domaines. Tous ces composants non indépendants pourront communiquer directement leurs représentations cognitives et émotionnelles en émergence, les partager, les augmenter, les fusionner, les synthétiser avec d'autres composants de générations de représentations, pour former un ensemble immense et hyper-communicant de représentations. Ceci est une mise en collectivité, unique, d'une propriété qui était essentiellement locale, c'est un changement d'ordre par rapport à l'homme. Un tel système est en effet constitué de parties, mais non indépendantes, vraiment coactives et se fondant dans le tout : il est à la fois un ensemble d'individus et une espèce, il est la synthèse entre individu et espèce. Ceci, indubitablement, dépasse l'homme d’aujourd’hui. 6 – Conclusion : la science et l’éthique Ce qui est engagé dans notre monde en le faisant dévaler dans la compétition technologique radicale utilisant toutes les découvertes de la science pour les passer dans

Page 17: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

17

la technologie, c'est l'uniformité sans profondeur d'une civilisation mondialisée qui gomme les différences et les diversités créatrices. Si la science peut avoir une conscience, la technologie n’en a jamais, et sur ce point, on peut suivre Heidegger [M. Heidegger, Essais et conférences, la question de la technique, Gallimard. ]Il y a des applications magnifiques pour un système psychique artificiel, et qu'il faudrait vraiment faire, qu'il ne faudrait pas laisser se perdre. Mais il y a des applications vraiment très sombres. Il y a la surveillance intégrale opérant à la fois au niveau individuel et global partout où une personne est appréhendable par son appareil informatique ou par une caméra. Il y a les systèmes jugeant et contrôlant les comportements des employés des entreprises, ceux synchronisant toutes les caméras de surveillance aux usages d’Internet et dégageant les groupes considérés comme déviants pour le méta-système, selon ses critères. Il y a la modification des mails pendant l’envoi et la production de mails ou de messages téléphoniques artificiels pour les usagers déviants afin de les marginaliser. Et il y a aussi le développement des systèmes d’armes intégrés air-mer-sol sans combattants humains, ce qui permettra de développer les guerres urbaines contre ceux qui n’ont pas ces systèmes. Et il y a le remplacement considérable d’employés par des systèmes autonomes se contrôlant eux-mêmes. On doit donc résoudre au plus tôt le problème éthique suivant :

• Comment s'engager et agir pour développer les systèmes nécessaires à une vie sereine pour tous les hommes sur la Terre et surtout ne pas être responsable d'un effondrement de l'humanisme par l’enveloppement dans un système de contrôle autonome et dense dans toute la société ?

L’absence de réponse claire à cette question m’a conduit à mettre fin de mes travaux de recherche et ne pas réaliser effectivement le système. Le meilleur moyen d'agir pour résoudre ce problème est d'éclairer les citoyens et de leur donner la parole, de leur donner le choix de la décision en leur donnant la connaissance du problème et de ses enjeux. Ce sont tous les citoyens, ensemble, qui ont à décider du devenir de leur humanité. Il paraît clair qu'il faut fixer des limites aux applications en informatique, comme cela a été clairement fait en biologie, où il est interdit de manipuler le génome humain. Il ne faut pas laisser le déval informatique continuer pour aboutir à une situation similaire à la finance mondialisée et apatride, où le contrôle sur les transactions échappe aux États. Il est donc grand temps de constituer un Comité d'Éthique sur les recherches et les applications de la science informatique. Références bibliographiques personnelles (www.alaincardon.net) 2000 - Cardon Alain, Conscience artificielle et systèmes adaptatifs, éd. Eyrolles, janvier 2000. 2005 – Cardon Alain, La complexité organisée, Systèmes adaptatifs et champ organisationnel, éd. Hermès-Lavoisier, janvier 2005. 2010 - Marchais Pierre, Cardon Alain, Troubles mentaux et interprétations informatiques, Contribution à l'étude du fonctionnement psychique, éd. L'Harmattan Paris, Octobre 2010. 2011 – Cardon Alain, Vers le système de contrôle total, Alain Cardon, Livre disponible en pdf, téléchargement gratuit, éditions Automates Intelligents : http://www.admiroutes.asso.fr/larevue/2011/121/controletotal.pdf 2011 - Cardon Alain, Un modèle constructible de système psychique, Préface du Docteur Pierre Marchais. Livre en pdf téléchargeable gratuitement sur le site Automates Intelligents : http://www.automatesintelligents.com/interviews/2011/interviewcardon.html

Page 18: Une machine peut-elle penser1 Une machine peut-elle penser ? Pr. Alain Cardon Laboratoire LITIS, INSA de Rouen 1 - Introduction En suivant Spinoza, on peut considérer que l’éthique

18

2012 – Cardon Alain, Modélisation constructiviste pour l'autonomie des systèmes. Éditions Automates Intelligents. Préface de Mhamed ITMI, INSA de Rouen. Livre de recherche fondamentale, téléchargement gratuit sous forme pdf : www.admiroutes.asso.fr/larevue/2012/127/Livrecardon3.pdf